text
stringlengths
100
47.8k
A adoção do anarquismo de mercado livre com propriedade privada e ausência de lei estatal foi desenvolvida pelo economista e historiador americano Murray Rothbard, que foi o primeiro a teorizar o anarcocapitalismo. Um aluno e discípulo do economista austríaco Ludwig von Mises, Rothbard, combinou o laissez-faire de seu professor com a visão absolutista dos direitos humanos e a rejeição do Estado que ele adotou ao estudar anarquistas individualistas americanos do século XIX, como Lysander Spooner e Benjamin Tucker. Bandeira auri-negra, símbolo do anarcocapitalismo, adotada nos anos 1960. O amarelo representa a propriedade privada e o negro representa a anarquia. Outros pensadores, como David Friedman, propõem o anarcocapitalismo através de argumentos utilitários, isto é, a noção de que a adoção do anarcoscapitalismo produziria melhores resultados do que qualquer outra alternativa de ordem social e econômica. No anarcocapitalismo proposto por Friedman, os sistemas jurídicos serão criados por busca de ganho no mercado livre, o que levaria a uma sociedade libertariana generalizada, senão absoluta. Rothbard baseia sua filosofia com base na lei natural absoluta, mas também fornece explicações econômicas de por que ele acha que o anarcocapitalismo é preferível do ponto de vista pragmático. Friedman argumenta que ele não é um teórico dos direitos absolutos, mas também não é utilitário, embora ele considere que os argumentos utilitários são muitas vezes o melhor meio de defender os pontos libertários. Hans-Hermann Hoppe usa a ética argumentativa para fundar o anarquismo da propriedade privada e está mais próximo da visão de Rothbard sobre a lei natural. Nem todos os defensores do anarquismo capitalista autodenominam-se anarcocapitalistas, por exemplo, Wendy McElroy prefere usar o termo anarcoindividualismo. Os anarcocapitalistas têm visões variadas de como eliminar o Estado. Rothbard defendeu o uso de táticas não-imorais disponíveis para alcançar a liberdade. Os agoristas, seguidores da filosofia de Samuel Edward Konkin III propõem eliminar o Estado praticando resistência fiscal e o uso de estratégias ilegais de mercado negro chamadas contraeconomia até que as funções de segurança pública do estado possam ser substituídas por concorrentes de livre mercado.
O historiador e libertário Ralph Raico argumentou que o que os filósofos liberais criaram foi uma forma de anarquismo individualista, ou, como seria chamado hoje, anarcocapitalismo ou anarquismo de mercado. Ele também disse que Gustave de Molinari estava propondo uma doutrina da produção privada de segurança, uma posição que foi posteriormente assumida por Murray Rothbard. Alguns anarcocapitalistas consideram Molinari o primeiro proponente do anarcocapitalismo. No prefácio da tradução inglesa da obra de Molinari The Production of Security A produção de Segurança de 1977, Murray Rothbard chamou-a como a primeira apresentação em qualquer lugar da história humana do que agora é chamado de anarcocapitalismo, embora admitindo que Molinari não usou a terminologia, e provavelmente teria recusado no nome. Hans-Hermann Hoppe disse que o artigo de 1849 A Produção da Segurança é provavelmente a contribuição mais importante para a teoria moderna do anarcocapitalismo. De acordo com Hans-Hermann Hoppe, um dos precursores do anarcocapitalismo do século XIX foi o filósofo Herbert Spencer, o liberal clássico Auberon Herbert e o professor acadêmico Franz Oppenheimer. A literatura do anarcocapitalista baseia-se na teoria liberal clássica, particularmente na Escola Austríaca Friedrich von Hayek e Ludwig von Mises em vez de tradições anarquistas reconhecíveis. A filosofia laissez-faire, antigovernamental e corporativa de Ayn Rand Objetivismo às vezes é associada ao anarcocapitalismo. Outros estudiosos associam o anarcocapitalismo de maneira semelhante ao liberalismo clássico anti-Estado, ao liberalismo neoclássico, ao neoliberalismo radical e ao libertarianismo de direita. A primeira fonte para apoiar a teoria moderna da anarquia de mercado é o liberal clássico John Locke, que argumentou que, à medida que as pessoas misturam seu próprio trabalho com recursos não possuídos, eles tornam esses recursos sua propriedade. As pessoas podem adquirir novas propriedades trabalhando em recursos não apropriados ou negociando produtos criados. Essa ideia é usada por anarcocapitalistas para explicar por que a soberania da propriedade privada contradiz a soberania do estado. Molinari argumentou que o monopólio da segurança causa altos preços e baixa qualidade. A tradição liberal antiestadista na Europa e nos Estados Unidos continuou após Molinari nos primeiros escritos de Herbert Spencer, bem como em pensadores como Paul mile de Puydt e Auberon Herbert.
Em ambas as suas formas social e individualista, o anarquismo é geralmente considerado um movimento anticapitalista e radical de esquerda ou extrema esquerda que promove teorias econômicas socialistas libertárias como o coletivismo, comunismo, individualismo, mutualismo e sindicalismo. Como o anarquismo é geralmente descrito ao lado do marxismo libertário como a ala libertária do movimento socialista e como tendo uma associação histórica com o anticapitalismo e o socialismo, os anarquistas acreditam que o capitalismo é incompatível com a igualdade social e econômica e, portanto, não reconhecem o anarcocapitalismo como uma escola de pensamento anarquista. Em particular, os anarquistas argumentam que as transações capitalistas não são voluntárias e que manter a estrutura de classes de uma sociedade capitalista requer coerção que é incompatível com uma sociedade anarquista. O uso de libertário também está em disputa. Embora tanto anarquistas quanto anarcocapitalistas a tenham usado, libertário era sinônimo de anarquista até meados do século XX, quando a teoria anarcocapitalista se desenvolveu. Embora a teoria anarcocapitalista implique a abolição do estado em favor de uma economia totalmente laissez-faire, o anarcocapitalismo apenas compartilha a antipatia do anarquismo em relação ao estado e não a antipatia do anarquismo em relação à hierarquia como os teóricos esperam das relações de poder econômico anarcocapitalistas. Segue um paradigma diferente do anarquismo e tem uma abordagem e objetivos fundamentalmente diferentes. Apesar do anarco- em seu título, o anarco-capitalismo está mais intimamente associado ao capitalismo, ao libertarianismo de direita e ao liberalismo do que ao anarquismo. Os anarquistas tradicionais rejeitam a noção de capitalismo, hierarquias e propriedade privada. Anna Morgenstern aborda este tópico da perspectiva oposta, argumentando que os anarcocapitalistas não são realmente capitalistas porque a concentração em massa do capital é impossível sem o Estado. Para Jennings, o anarquismo não representa a liberdade irrestrita do indivíduo como os anarcocapitalistas se contextualizam , mas, como já vimos, a extensão da individualidade e da comunidade. Da mesma forma, Barbara Goodwin, Professora Emérita de Política na Universidade de East Anglia, Norwich, argumenta que o verdadeiro lugar do anarcocapitalismo é no grupo de libertários de direita , não no anarquismo.
Lysander Spooner 1808-1887 , o teórico jurídico anarcoindividualista, considerado predecessor do anarcocapitalismo, que expôs a lei natural como a aproximação máxima do conceito de justiça. O teórico da lei natural, o advogado Lysander Spooner, é considerado entre os principais predecessores do anarcocapitalismo e mais próximo da ideia contemporânea por sua doutrina legal. Em 1845, Spooner escreveu um ensaio radical contra a escravidão, Unconstitutionality of slavery. Estabelecido firmemente na tradição da lei natural enfrentou, desde o início de sua carreira profissional e ideológica, os monopólios protegidos pelo Estado, em 1870 escreveu No Treason The Constitution of No Authority, onde explica que toda legislação se opõe à lei natural e, portanto, é criminosa. Um exemplo de sua luta contra os monopólios era o American Letter Mail Company, fundado em 1844, que competia com o monopólio estatal do Serviço Postal dos Estados Unidos em violação do Estatuto de Envios Privados, que restringe aos Estados Unidos o transporte e a entrega de cartas por qualquer organização fora do serviço postal. Spooner considerou que os monopólios eram uma restrição imoral e, apesar de ter tido algum sucesso na redução dos preços, o governo dos Estados Unidos desafiou Spooner com medidas legais, obrigando-o a cessar as operações em 1851. Seu abolicionismo levou-o a criticar os motivos da guerra civil americana 1861-1865 ele entendeu que lutou pelo falso ideal da União, quando deveria ter lutado pelo ideal da escravidão. Spooner pensou que os proprietários de escravos não teriam se atrevido a se rebelar contra um governo que daria liberdade ao mundo inteiro, enquanto defendiam sua própria liberdade, os sulistas ganharam uma vantagem moral e psicológica que os sustentou durante a guerra. Assim, em 1864, ele publicou a Carta a Charles Sumner, na qual ele acusou os políticos do norte de ter sobre suas cabeças, ainda mais, se possível, do que a dos proprietários de escravos que agiram de acordo com suas associações, interesses e princípios declarados como donos de escravos repousa o sangue desta guerra horrível, desnecessária e, portanto, culpada. Benjamin Tucker 1854-1939 desenvolveu o anarquismo individualista numa série de artigos posteriormente compilados no livro Instead of a Book 1893 . Seu princípio básico era que cada indivíduo desfrutava o máximo de liberdade compatível com uma liberdade igual para os outros, implicando, em particular, direitos ilimitados de adquirir e alienar bens no mercado. No antigo anarquismo da tradição americana, especialmente entre aqueles conhecidos como anarquistas bostonianos, há uma afirmação do valor da propriedade privada comprometidos com a ideia de um mercado livre, que para eles não havia sido totalmente desenvolvido pela distorção produzida pelos monopólios, e que responsabilizava principalmente o governo. Tucker, influenciado por Josiah Warren e a teoria do valor-trabalho, considerou que a propriedade da terra era justificável somente quando o proprietário estava usando a mesma. O último, ao contrário de seu predecessor Lysander Spooner que tradicionalmente era Lockeano em relação à propriedade privada da terra apropriação original . Tucker mais tarde abandonou sua ideia de propriedade da terra e diria que ela é legitimamente transferida pela força, a menos que especificado por contrato.Response to Rights . Liberty 9 18 El único derecho del hombre a la tierra es su fuerza sobre ella. Si su vecino es más fuerte que él y tiene la tierra de él, a continuación, la tierra es de su vecino, hasta que este último es desposeído por uno más fuerte todavía. O único direito do homem sobre a terra é o seu poder sobre ele. Se o seu próximo é mais forte do que ele e tem a terra dele, então a terra é do seu vizinho, até que o último seja despojado por um mais forte ainda. Adicionado em 04 09 2017. Como Spooner, Tucker atacou os monopólios criados pelo Estado sem um Estado, cada pessoa poderia exercer o seu direito de proteger sua própria liberdade, usando os serviços de uma associação de proteção privada, se necessário. Tucker antecipou a ideia da qual, mais tarde, ele aprofundaria o anarquismo-capitalismo essa defesa é um serviço como qualquer outro, um trabalho e uma mercadoria sujeitos à lei da oferta e da procura, que a concorrência prevalece, o patrocínio será para quem oferece o melhor produto ao preço mais razoável e que a produção e venda desta mercadoria agora é monopolizada por um estado que, como um monopolista, cobra preços exorbitantes por um serviço precário. A defesa é um serviço como qualquer outro serviço é um trabalho útil e desejado, por isso é uma mercadoria sujeita à lei da oferta e da demanda que num mercado livre esta mercadoria será oferecida a preço de custo essa competição prevalecendo, o patrocínio irá para quem oferece o melhor produto ao menor preço que a produção e venda desta commodity agora é monopolizada pelo Estado e o estado, como qualquer monopolista, cobra preços exorbitantes .Adicionado em 04 09 2017. Ele observou que o anarquismo que ele propôs incluiu prisões e forças armadas. Tucker também lançou a ideia da possibilidade de agências governamentais financiadas por impostos voluntários.
Uma crítica bem conhecida do anarquismo de livre mercado é feita por Robert Nozick, que argumentou que um sistema jurídico competitivo evoluiria para um governo de monopólio, mesmo sem violar os direitos individuais no processo. Vários anarquistas do mercado como Roy Childs ou Murray Rothbard rejeitaram a conclusão de Nozick embora Childs, posteriormente, rejeite o anarquismo .
argumentado que o anarcocapitalismo não se livra de fato do Estado, mas que simplesmente substitui o estado por empresas de segurança privada, e dificilmente podem ser descritos como anarquistas como o termo é normalmente entendido. Em Libertarianism Bogus Anarchy, o anarquista Peter Sabatini ao se discordar do sentido anárquico do anarcocapitalismo observa que Dentro do libertarianismo, Rothbard representa uma perspectiva minoritária que realmente defende a eliminação total do estado. No entanto, a afirmação de Rothbard como anarquista é rapidamente anulada quando se mostra que ele só quer o fim do estado público. Em seu lugar, ele permite inúmeros estados privados, com cada pessoa fornecendo sua própria força policial, exército e lei, ou então comprando esses serviços de vendedores capitalistas. ... Rothbard não vê nada de errado com a acumulação de riqueza, portanto aqueles com mais capital inevitavelmente terão maior força coercitiva à sua disposição, assim como agora. A discussão de Anarquia, Estado, e Utopia argumenta que uma sociedade anarcocapitalista inevitavelmente se transformaria em um Estado através do eventual surgimento de uma defesa privada monopolista e uma agência judicial que não enfrenta mais concorrência.
Direitos negativos e positivos são direitos que obrigam a algo direitos positivos ou proibem algo direitos negativos . Os anarcocapitalistas acreditam que os direitos negativos devem ser reconhecidos como legítimos, mas os direitos positivos devem ser rejeitados como uma intrusão.Alguns críticos rejeitam a distinção entre direitos positivos e negativos. A definição anarco-capitalista de liberdade é inteiramente negativa. Ele solicita a ausência de coerção, mas não pode garantir a liberdade positiva da autonomia e independência individuais. Sobre o anarcocapitalismo, o intelectual anarquista e anticapitalista Noam Chomsky diz O anarcocapitalismo, na minha opinião, é um sistema doutrinário que, se implementado, levaria a formas de tirania e opressão que têm poucas contrapartes na história humana. Não há a menor possibilidade de que suas na minha opinião, horrendas ideias sejam implementadas porque destruiriam rapidamente qualquer sociedade que cometesse esse erro colossal. A ideia de contrato livre entre o potentado e seu súdito faminto é uma piada de mau gosto, talvez valendo alguns momentos em um seminário acadêmico explorando as consequências de ideias a meu ver, absurdas , mas em nenhum outro lugar.
Grande parte das transações e trocas capitalistas não são voluntárias, e portanto manter a estrutura de classes de uma sociedade capitalista como propõe o anarcocapitalismo requer uma coerção que viola os próprios princípios da vertente anarquista do anarcocapitalismo. O conceito anarcocapitalista de escolha voluntária também ignora restrições devido a fatores humanos e não humanos, como a necessidade de comida e abrigo, bem como a restrição ativa de recursos usados e não utilizados por aqueles que impõem reivindicações de propriedade. Se uma pessoa precisa de emprego para se alimentar e se abrigar, a relação empregador-empregado pode ser considerada involuntária. Outra crítica é que o emprego é involuntário porque o sistema econômico que torna necessário que alguns indivíduos sirvam a outros é sustentado pela imposição de relações coercitivas de propriedade privada. Algumas filosofias veem quaisquer reivindicações de propriedade sobre terras e recursos naturais como imorais e ilegítimas.
Dois dos estudiosos mais proeminentes que dedicaram-se a pensar seriamente sobre as instituições jurídicas essencialmente anarcocapitalistas são Richard Posner, juiz federal de apelações e cientista jurídico prolífico e o economista William Landes. Em seu ensaio de 1975, The Private Enforcement of Law, discutem um gedankenexperiment experimento mental anterior realizado por Becker e Stigler, no qual foi proposto que a aplicação da lei fosse privatizada e explicam porque consideram que tal sistema não seria economicamente eficiente. De acordo com uma resposta posterior de David Friedman, Efficient Institutions for the Private Enforcement of Law. Friedman, no entanto, prossegue argumentando que a ineficiência que Landes e Posner demonstraram nas instituições privadas de aplicação da lei que descrevem, pode ser eliminada com pequenas mudanças nas instituições.
Lista parcial de trabalhos essenciais sobre o anarcocapitalismo. Anarcocapitalismo da Escola Austríaca Murray Rothbard, fundador do anarcocapitalismo Man, Economy, and State Micro e macroeconomia austríaca. Power and Market classificação das intervenções econômicas estatais. The Ethics of Liberty justificação moral de uma sociedade livre. For a New Liberty esboço de como funcionaria uma sociedade anarcocapitalista. Hans-Hermann Hoppe The Economics and Ethics of Private Property A Theory of Socialism and Capitalism Democracy The God That Failed Jesus Huerta de Soto Socialismo, cálculo económico y función empresarial Walter Block Defending the Undefendable The Privatization of Roads and Highways Human and Economic Factors Toward a Libertarian Society Robert P. Murphy Chaos Theory Anarcocapitalismo com outras bases, linhas ou escolas de pensamento David D. Friedman The Machinery of Freedom. Defesa consequencialista clássica do anarcocapitalismo. Bruce L. Benson The Enterprise of Law To Serve and Protect Randy E. Barnett, The Structure of Liberty. As forças do mercado criam ordem legal. Anthony de Jasay The State O Estado age por seus próprios interesses contra interesses individuais. Jan Narveson You and The State. Defesa contratualista do anarcocapitalismo. Morris y Linda Tannahill The Market for Liberty. Um clássico em agências privadas de defesa. Anarcocapitalismo revolucionario Samuel Edward Konkin III New Libertarian Manifesto Visão geral Edward P. Stringham Anarchy and the Law. Compilação dos principais argumentos e estudos históricos sobre o anarcocapitalismo.
Anarco Capitalismo Anarcocapitalistas Anarquismo de mercado Categoria Anarcocapitalismo Categoria Ideologias de direitaAnarquismo é uma ideologia política que se opõe a todo tipo de hierarquia e dominação, seja ela política, econômica, social ou cultural, como o Estado, o capitalismo, as instituições religiosas, o racismo e o patriarcado. Algumas vertentes se opõem com mais objetividade também ao especismo, como o ecologismo libertário e à cisnormatividade, como o anarquismo queer. Através de uma análise crítica da dominação, o anarquismo pretende superar a ordem social na qual esta se faz presente através de um projeto construtivo baseado na defesa da autogestão, tendo em vista a constituição de uma sociedade libertária baseada na cooperação e na ajuda mútua entre os indivíduos e onde estes possam associar-se livremente. Os meios para se alcançar tais objetivos são motivos de debates e divergências entre os anarquistas. Com base em discussões estratégicas acerca da organização anarquista, das lutas de curto prazo e da violência, estabelecem-se duas correntes do anarquismo o anarquismo insurrecionário e o anarquismo social ou de massas. O anarquismo insurrecionário afirma que as lutas de curto prazo por reformas e que os movimentos de massa organizados são incompatíveis com o anarquismo, dando ênfase à propaganda pelo ato como o principal meio para despertar uma revolta espontânea revolucionária. Já o anarquismo social ou de massas enfatiza a noção de que apenas movimentos de massa podem ser capazes de provocar a transformação social desejada pelos anarquistas, e que tais movimentos, constituídos normalmente por meio de lutas por reformas e questões imediatas, devem contar com a presença dos anarquistas, que devem trabalhar no sentido de radicalizá-los e transformá-los em agentes revolucionários. Historicamente, o anarquismo é um fenômeno moderno, surgindo na segunda metade do no contexto da Segunda Revolução Industrial, a partir da radicalização do mutualismo de Pierre-Joseph Proudhon no seio da Associação Internacional dos Trabalhadores AIT , durante o final da década de 1860. Entre 1868 e 1894, o anarquismo já havia se desenvolvido significativamente e também havia sido difundido globalmente, exercendo, até 1949, grande influência entre os movimentos operários e revolucionários, embora tenha continuado a exercer influência significativa em diversos movimentos sociais do período pós-guerra até a contemporaneidade, entre fluxos e refluxos.
O termo anarquismo é composto pela palavra anarquia e pelo sufixo -ismo, derivando do grego , transliterado anarkhos, que significa sem governantes, a partir do prefixo -, an-, sem , arkhê, soberania, reino, magistratura o sufixo - , -ismós, da raiz verbal - , -izein. O primeiro uso conhecido da palavra data de 1539. A palavra passou a ser amplamente utilizada no contexto da Revolução Francesa, sendo utilizada por Robespierre para desqualificar grupos radicais de oposição, como os enragés de Jacques Roux, tendo uma conotação essencialmente negativa. O primeiro filósofo a declarar-se anarquista foi Pierre-Joseph Proudhon, em 1840, na sua obra O Que a Propriedade , ao perceber a ambiguidade da palavra grega anarchos, que pode significar não apenas a desordem, mas também a falta de governo em situações onde este é considerado desnecessário, proclamando-se anarquista com base neste último significado, numa tentativa de ressaltar que a crítica que se propunha fazer ao Estado e a autoridade não implicava na defesa da desordem, tentando assim atribuir ao termo um sentido positivo. Entretanto, apenas progressivamente o termo foi perdendo sua conotação negativa, e os primeiros militantes anarquistas, no contexto da Associação Internacional dos Trabalhadores AIT , jamais se declararam como tal, preferindo a utilização de termos como socialismo revolucionário ou coletivismo. Os termos anarquia e anarquismo passaram a ser reivindicados pelos militantes de uma forma mais generalizada apenas após a cisão da AIT e a formação da Internacional de Saint-Imier, em 1872. Entretanto, não houve uma homogeneização nesse sentido, e outros termos tais como socialismo libertário, comunismo libertário e socialismo antiautoritário foram amplamente reivindicados por militantes anarquistas, embora não possam ser associados como sinônimos do anarquismo em alguns casos, pois estendem-se também a outros setores da esquerda socialista e revolucionária.
O surgimento do anarquismo relaciona-se a um contexto histórico particular da segunda metade do , que implicou mudanças sociais amplas e significativas. Os historiadores Lucien van der Walt e Steven Hirsch apontam que, durante o , o capitalismo desenvolveu-se e globalizou-se, a partir da integração das estruturas econômicas mundiais, dentro de marcos estabelecidos pela Segunda Revolução Industrial ao mesmo tempo, os Estados Modernos consolidaram-se e levaram a cabo uma expansão imperial significativa ligada em grande parte ao aumento da produção mundial e às novas tecnologias desenvolvidas. Tais processos são acompanhados por um crescimento significativo da imigração de trabalhadores, com aumentos sem precedentes na migração transoceânica e intracontinental e ao mesmo tempo por um desenvolvimento significativo das tecnologias em geral, em especial dos transportes e das comunicações. A promoção do racionalismo e a circulação de valores modernos como a liberdade individual e a igualdade perante a lei, que ganharam relevância com a Revolução Francesa e contribuíram com o enfraquecimento da influência religiosa na sociedade, também são aspectos a serem levados em consideração no contexto de surgimento do anarquismo. Assim como a reorganização das classes sociais e seu protagonismo em conflitos nas cidades e nos campos, que, em geral, acabaram contribuindo com o fortalecimento da noção de que a ação humana poderia modificar o futuro. Em especial, os conflitos de classe fortaleceram a noção de que os oprimidos, por meio de sua ação, poderiam transformar a sociedade, noção favorecida pelo próprio surgimento e desenvolvimento das ideias socialistas durante o início do . Nesse contexto, surgem movimentos que, não se sentindo contemplados pelas ideologias políticas em voga, desenvolvem, a partir de uma inter-relação prática-teórica, os elementos fundamentais do anarquismo. Este surge no seio da Associação Internacional dos Trabalhadores AIT no final da década de 1860 através da radicalização do mutualismo proudhonista. O anarquismo, entre 1868 e 1894, já havia se desenvolvido significativamente e também havia sido difundido globalmente, e exerceu, até 1949, grande influência entre os movimentos operários e revolucionários, embora tenha continuado a exercer influência significativa em diversos movimentos sociais do período pós-guerra até a contemporaneidade, entre fluxos e refluxos.
Alguns autores vêm identificando elementos considerados anarquistas em alguns autores anteriores à segunda metade do , como por exemplo, Lao Zi, Chuang-Tzu, Zenão de Cítio, Diógenes de Sinope e os demais cínicos, além de François Rabelais, tienne de La Boétie, William Godwin e Max Stirner também apontam-se elementos do anarquismo em movimentos religiosos como o dos anabatistas e o dos hussitas, e em movimentos radicais como o dos escavadores de Gerrard Winstanley e o dos enragés de Jacques Roux na Revolução Francesa. O proeminente anarquista russo Piotr Kropotkin, ao buscar pelas origens do anarquismo, procurou encontrá-las não em filósofos isolados, mas sim nas massas populares anônimas. Kropotkin afirmava que, através dos tempos, sempre houve duas correntes de pensamento e de ação em conflito nas sociedades humanas, sendo elas, de um lado a tendência ao apoio mútuo, exemplificada pelos costumes tribais, pelas comunidades aldeãs, pelas guildas medievais e por todas as outras instituições que Kropotkin afirmou serem criadas e mantidas não através de leis mas pelo espírito criativo das massas e do outro lado, a tendência ao autoritarismo, representada pelas elites e governantes. Para Kropotkin, as raízes do anarquismo remontavam aos tempos pré-históricos e, a partir disso, passou a analisar toda a gama de movimentos rebeldes até os primeiros sindicalistas franceses, ao tentar construir a sua história do anarquismo. Entretanto, novos historiadores do anarquismo têm criticado tais abordagens, consideradas ahistóricas, e defendem que a ideologia e o movimento anarquista são fenômenos relacionados ao contexto histórico particular da segunda metade do . Eles também têm argumentado que muitos dos filósofos considerados pré-anarquistas, tais como Godwin e Stirner, não tiveram qualquer impacto significativo no desenvolvimento do anarquismo, sendo resgatados pelos militantes anarquistas posteriormente, quando o anarquismo já estava bem estabelecido globalmente. O francês Pierre-Joseph Proudhon é considerado o precursor do anarquismo O socialismo utópico de Charles Fourier influenciou fortemente os primeiros anarquistas, inclusive Pierre-Joseph Proudhon, cujo pensamento teve um impacto significativo entre os trabalhadores do e constituiu as bases do anarquismo. As teorias econômicas de Proudhon criticavam a propriedade privada, a exploração e interpretavam a sociedade de classes e o processo de luta de classes, afirmando que o regime proprietário, colocando em oposição as classes sociais, tem, como fundamento, a exploração do homem pelo homem. Juntamente com a sua crítica econômica, Proudhon criticou o Estado e o governo, unindo, numa mesma crítica, desde suas primeiras obras, a propriedade capitalista e o estadismo governamentalista, relacionando o capitalismo, a exploração do homem pelo homem, e o estadismo, governo do homem pelo homem. Há também em Proudhon a crítica à religião e à educação, que, para ele, atuariam como instrumentos de legitimação do capitalismo e do Estado. Para a solução do que chamou de problema social, Proudhon propõe o mutualismo na economia e o federalismo na política, de modo que os trabalhadores viessem a se organizar em uma sociedade que se autogerisse economicamente e se autoadministrasse politicamente. O mutualismo federalista de Proudhon teria ainda, como objetivo, tornar o trabalho do povo e a sociedade trabalhadora as forças maiores que inverteriam as fórmulas atuais da sociedade e envolva o capital e o Estado e os subjugue, de modo que os trabalhadores, organizados de baixo para cima em associações mutuais agrícolas e industriais de produção, de consumo e de crédito , deveriam simultaneamente inverter as relações do capital e do trabalho e inverter as relações do governo e da sociedade. Entretanto, há aspectos na obra de Proudhon que o distanciam do anarquismo, tais como posturas ambíguas em relação ao processo revolucionário, ora defendendo a violência e a revolução social e ora defendendo um processo gradual de mudança através de cooperativas mutualistas ao próprio Estado, que em alguns momentos é duramente criticado e em outros considera-se a sua existência, ainda que de maneira descentralizada além de ter sustentado, em alguns momentos, conciliações entre a burguesia e o proletariado. Entretanto, a crítica da dominação e a defesa da autogestão, além de sua ênfase na organização autogestionária e federalista dos trabalhadores, constituíram as bases do anarquismo, que surge no seio da Associação Internacional dos Trabalhadores AIT no final da década de 1860, com a radicalização do mutualismo proudhoniano.
Em meio ao contexto histórico da segunda metade do , em setembro de 1864, um número significativo de operários reunidos no St. Martin s Hall, em Londres, fundou a Associação Internacional dos Trabalhadores AIT , conhecida posteriormente como Primeira Internacional. A AIT tinha, por objetivo, criar um organismo internacional no qual a classe trabalhadora pudesse se associar para discutir projetos comuns, constituindo um espaço que propiciou as condições para o surgimento do movimento anarquista, alguns anos após sua fundação. No início, as organizações operárias que integravam a AIT eram muito distintas entre si, incluindo sindicalistas reformistas, republicanos e democratas radicais, mutualistas proudhonianos e comunistas. Em um primeiro momento, a organização buscou articular-se em níveis locais, por meio de suas seções e, após o estabelecimento de suas bases de acordo, passa a agir internacionalmente. Em um primeiro momento, são realizados congressos anuais a partir de 1866. O primeiro congresso, realizado em Genebra, na Suíça, aprovou os estatutos gerais da associação, deliberou pela estrutura federalista e foi reconhecida a função fundamental dos sindicatos, por constituírem eficientes centros de organização e luta da classe trabalhadora. O segundo congresso, ocorrido em Lausanne no ano de 1867, foi marcado pela forte presença dos mutualistas, que deliberaram o estímulo às cooperativas de crédito e de produção, nas quais se deveria fazer penetrar o espírito mutualista e federalista. Já o terceiro congresso, realizado em Bruxelas, na Bélgica, em 1868, marcou um momento de radicalização da AIT, onde foram aprovadas resoluções sobre a socialização dos meios de produção e o incentivo à criação de novos sindicatos e ao ingresso das massas na AIT. Nesse congresso, a AIT recomendou o método federalista, devendo as decisões nos sindicatos ser tomadas pelas bases e com as delegações submetidas ao controle dos trabalhadores. Também foi sugerido o uso da greve geral como instrumento revolucionário. Os próprios movimentos populares que constituíam as bases da AIT haviam se radicalizado nesse período. O Congresso de Bruxelas havia representado o triunfo do coletivismo sobre o mutualismo no seio da AIT, consolidado pela radicalização de muitos antigos mutualistas proudhonianos e no Congresso da Basileia de 1869, que contou com a presença de Mikhail Bakunin e outros coletivistas da Aliança da Democracia Socialista ADS , que haviam acabado de romper com a Liga da Paz e da Liberdade e apresentado um pedido de adesão à Internacional, inicialmente rejeitado, sob o argumento de que a Aliança da Democracia Socialista também era uma organização internacional por si mesma, e apenas organizações nacionais eram permitidas enquanto membros da AIT. A Aliança, então, foi dissolvida e os vários grupos que a formavam uniram-se à Internacional separadamente. A Aliança é tida como a primeira organização específica anarquista e seu programa buscava estimular organizações de massas e veículos de propaganda pública e, ao mesmo tempo, articular uma organização política que teria, como objetivo, fortalecer a intervenção da ADS entre as massas. Seus militantes foram os responsáveis pela criação de seções da AIT em países onde ela ainda não existia, como na Espanha, na Itália, em Portugal e mesmo na América Latina através de correspondências, além da criação de novas seções em países onde a associação já operava, como a Federação do Jura na Suíça. Criando ou participando das seções da AIT, esses anarquistas promoveram programas que sustentavam a necessidade de mobilizações amplas de trabalhadores, articulados em movimentos classistas, para a realização de lutas populares combativas, independentes e organizadas em bases federalistas que fossem capazes de proporcionar conquistas imediatas aos trabalhadores e também caminhar rumo à revolução social e ao socialismo, passando necessariamente pela derrubada do capitalismo e do Estado. Desde o Congresso da Basileia de 1869, os conflitos entre os federalistas, dentre os quais se encontravam Mikhail Bakunin e os anarquistas coletivistas, e os centralistas, que se encontravam fundamentalmente ao redor de Karl Marx e do Conselho Geral, se tornaram cada vez maiores. A Conferência de Londres, realizada em 1871, que teve participação restrita, sem representação das seções, constituiu as bases da cisão que se daria em 1872, no quinto congresso da AIT, em Haia. Esse congresso marcou a cisão definitiva da Internacional e do próprio movimento operário europeu. Os centralistas, que exerciam influência nas seções da Alemanha, Inglaterra e algumas dos Estados Unidos, decidiram transferir o Conselho Geral de Londres para Nova Iorque, declarando o fim da Internacional em 1876. Os federalistas, que exerciam influência nas seções da Espanha, Itália, Bélgica, Suíça, França e também algumas dos Estados Unidos, fundaram, ainda em 1872, a Internacional de Saint-Imier, que esteve ativa até 1877 e operou sob princípios federalistas. Foi com a formação da Internacional de Saint Imier que o anarquismo atingiu sua maturidade plena, tornando-se um corpo teórico que organiza, sistematiza, representa e justifica a luta, e os métodos de luta, para chegar a uma pretendida transformação profunda da sociedade. De modo geral, durante a sua existência, a AIT havia estabelecido uma estrutura orgânica, com presença em diversos países, articulando, permanentemente, trabalhadores e movimentos classistas e internacionalistas que, em meio às suas produções teóricas e práticas, amadureceram e radicalizaram suas posições. As mobilizações locais de trabalhadores tiveram o apoio da associação e estimularam a solidariedade entre os operários. Experiências positivas e negativas foram utilizadas como base de reflexão crítica para a continuidade do movimento e discutiram-se questões centrais do movimento operário em geral, e do socialismo em particular, elementos que foram imprescindíveis para o surgimento e o desenvolvimento do anarquismo. Os militantes da Aliança da Democracia Socialista, atuando através da AIT, tiveram um papel determinante na difusão do anarquismo em diversas partes do mundo, especialmente na Europa, atuando de maneira significativa para o estabelecimento e crescimento das seções da Internacional na Espanha, Itália, Portugal e Suíça, onde ocorreram os primeiros grandes marcos históricos do movimento anarquista.
Esse período foi marcado pelo surgimento do anarquismo no interior da AIT, entre os coletivistas, e pela sua difusão, por obra dos militantes da Aliança da Democracia Socialista, em diversos países, principalmente na Europa mas também através de correspondências com países fora do continente europeu, entre 1868 e 1872, e pelo amadurecimento do anarquismo no contexto da Internacional de Saint Imier. Nesse período, sua maior força encontrou-se na Europa e nas Américas, e sua estratégia fundamental foi o sindicalismo de intenção revolucionária, embora também tenha encontrado força em ações insurrecionais, tanto revoltas armadas como atentados, nas organizações específicas anarquistas, assim como em publicações e outras iniciativas culturais, como a criação de centros de cultura e escolas libertárias. As primeiras iniciativas anarquistas ocorreram na Europa, em especial, na Espanha, onde os anarquistas fundaram organizações operárias, organizações específicas anarquistas e tiveram papel importante nas Revoltas Cantonalistas de 1873, que buscaram estabelecer por meio das armas, um federalismo radical, implicando a autonomia das cidades e dos cantões e na Itália, onde fundam-se organizações operárias e organizações específicas anarquistas e tentam-se insurreições em 1874 e 1877. A Comuna de Paris, na França, é tida como o acontecimento mais relevante desse período proclamada em 18 de março de 1871, a Comuna é considerada o primeiro governo operário da história, e nela tomaram parte muitos membros federalistas da AIT, incluindo alguns anarquistas. Embora estes não estivessem em maioria, o historiador George Woodcock chamou a atenção para sua participação nas atividades da Comuna Uma importante contribuição às atividades da Comuna e, em particular, à organização dos serviços públicos, foi feita por membros de várias facções anarquistas, incluindo-se os mutualistas Courbet, Longuet e Vermorel, os coletivistas libertários Varlin, Malon e Lefrançais e os bakuninistas lie e lisée Reclus e Louise Michel. A grande repressão que se seguiu à Comuna de Paris 30 mil mortos, cerca de 40 mil detenções e milhares de fugitivos arrasou o movimento operário francês, e o anarquismo naquele país ingressou numa onda insurrecional, com diversos atentados levados a cabo ao final de 1890. Os principais atentados de anarquistas na França ocorreram entre 1892 e 1894, iniciados por Ravachol e sucedidos por Léauthier, Théodule Meunier, Auguste Vaillant, mile Henry e Sante Caserio. O movimento anarquista, nesse período, também consolidou-se nas Américas no México, já em 1868 foi fundada uma organização específica anarquista, La Social, e entre 1877 e 1878, os anarquistas constituíram hegemonia no movimento operário mexicano, articulados no Gran Círculo de Obreros en México GCOM . O anarquismo também surgiu em Cuba entre 1883 e 1885, com a formação de organizações específicas anarquistas e organizações operárias os anarquistas cubanos também tomaram parte na luta anticolonial e na Guerra de Independência Cubana nesse período. Na parte sul do continente, o anarquismo surgiu no Uruguai e no Chile em 1872, a partir da constituição de seções da AIT nesses países, e começa a se desenvolver logo em seguida. Na Argentina, o movimento anarquista surge em 1876, com a fundação do Centro de Propaganda Obrera e, depois, do Círculo Comunista Anárquico visitas de anarquistas italianos ao país em 1887 possibilitaram a fundação do sindicato dos padeiros e também trouxeram para a Argentina o debate acerca do organizacionismo e antiorganizacionismo. Representação artística da Revolta de Haymarket Nos Estados Unidos, o movimento anarquista consolidou-se com o Congresso de Pittsburgh, em 1883, e com a fundação da International Working People s Association IWPA , mais conhecida como Internacional Negra, expressão de massas anarquista que, em 1886, chegou a ter militantes e contar com colaboradores outros marcos significativos foram a fundação, em 1884, da Central Labor Union CLU , que somente em Chicago chegou a ter 28 mil trabalhadores em 1886, e a greve pelas oito horas de trabalho ocorrida em maio daquele mesmo ano, que envolveu cerca de 300 mil trabalhadores ao redor dos EUA e terminou com a condenação à morte de cinco militantes anarquistas em Chicago, após o incidente que ficou conhecido como Revolta de Haymarket. Em 1889, o Primeiro de Maio foi estabelecido pela Segunda Internacional como o Dia Internacional dos Trabalhadores, em homenagem aos cinco militantes anarquistas mortos, que ficaram conhecidos como Mártires de Chicago. Na frica, o movimento anarquista surgiu em 1876 no Egito, com imigrantes italianos que constituíram, em 1877, uma seção da Internacional de St. Imier e, em 1881, o Círculo Europeu de Estudos Sociais. Na frica do Sul, a propaganda anarquista surgiu em 1886, por obra de imigrantes ingleses, mas o movimento anarquista nesse país só foi se desenvolver alguns anos mais tarde. Dentre os elementos que contribuíram com o refluxo dessa onda, destacam-se a dura repressão aos anarquistas, ocasionada como resposta à Comuna de Paris, aos atentados na França e ao movimento operário nos Estados Unidos, além do fortalecimento das estratégias eleitorais entre os trabalhadores.
A segunda onda do movimento anarquista é considerada a maior e mais relevante, marcada pela consolidação do sindicalismo de intenção revolucionária e das organizações específicas anarquistas em tempos de guerra e reação. O contexto em que se insere esse período é o da expansão do capitalismo, potencializada nos anos 1890 com a abertura de colônias africanas e várias partes da sia à dominação imperialista. A Primeira Guerra Mundial também teve grande impacto nesse período, e a posição de parte do movimento anarquista, de apoio aos Aliados, gerou conflitos internos relevantes. Durante a guerra, iniciou-se um processo lento de substituições das importações que possibilitou a formação de um incipiente parque industrial em diversos países da América Latina, de modo que o movimento anarquista consolidou-se nessa região através de estratégias e mobilizações anarcossindicalistas e sindicalistas revolucionárias. O período também é marcado por uma onda massiva de mobilizações crescentes entre 1917 e 1923, nas quais os anarquistas exerceram um papel fundamental. Influências individualistas se aproximaram dos anarquistas nesse período, em localidades como Alemanha, Estados Unidos, Inglaterra e Rússia. Em termos internacionais, as duas experiências de maior influência no mundo, e que contaram, em sua formação, com participação anarquista determinante, foram a Confédération Générale du Travail CGT , fundada na França, em 1895, e que, em 1906, elaborou a Carta de Amiens, que teve impacto significativo no mundo hispano-lusófono e a Industrial Workers of the World IWW , fundada em 1905 nos Estados Unidos, que teve um impacto muito relevante no mundo anglófono, mesmo com a cisão de 1908, entre a IWW de Chicago e a IWW de Detroit, que se reproduziu em outros países. A CGT chegou a ter 400 mil membros e 850 mil em 1914 criou estruturas de mobilização sindical e um aparato de educação popular sem precedentes, enquanto a IWW configurou-se como uma organização internacional e estabeleceu-se em diversos países. Outra experiência internacional relevante foi o Congresso Anarquista de Amsterdã, que reuniu 80 delegados de diversos países durante o congresso, diversos temas foram debatidos, em particular sobre as mobilizações e estratégias do movimento anarquista, a educação popular, a greve geral e o antimilitarismo. Além disso, em 1922, foi fundada, em Berlim, uma nova Associação Internacional dos Trabalhadores, de orientação anarcossindicalista, que em seu auge, chegou a representar mais de um milhão de trabalhadores mundialmente. Na Europa, diversos sindicatos foram formados baseados nos princípios do sindicalismo revolucionário, sendo o caso mais expressivo a CGT francesa, e do anarcossindicalismo, cujo maior expoente foi a Confederación Nacional del Trabajo CNT espanhola. O continente europeu também foi marcado por uma série de atentados levados a cabo por anarquistas que preconizavam a propaganda pelo ato, especialmente na França e na Itália durante o final do e início do , e também pelo estabelecimento e pelas atividades de agrupamentos especificamente anarquistas. Os anarquistas também tiveram papel relevante nos acontecimentos do Biennio Rosso na Itália, atuando principalmente nas ocupações das fábricas e dos campos, bem como nos acontecimentos revolucionários na Alemanha entre 1918 e 1923. Outro elemento relevante na Europa desse período foi o alto investimento dos anarquistas nos processos de educação popular na França, no começo do , havia 150 bourses du travail, ligadas à CGT, e uma de suas principais atividades era a educação em três eixos técnico profissional, cultural e formação política também ligadas à CGT estavam 250 universidades populares, que funcionaram até 1914. Foram criadas escolas modernas e universidades populares em vários outros países na Espanha, a Escola Moderna de Barcelona 1901-1906 na Itália, a Escola Moderna Racionalista de Clivio 1909-1922 , que foi uma das muitas que floresceram até a chegada dos fascistas ao poder a Escola Ferrer 1910-1921 , na Suíça entre outras muitas iniciativas na Inglaterra entre 1907 e 1921. No leste europeu, os anarquistas macedônios tiveram uma atuação determinante na revolta de Ilinden-Preobrazhenie, um levante armado contra o Império Otomano liderado pela Organização Revolucionária Interna da Macedônia ORIM que se dividiu em dois episódios o primeiro, em 2 de agosto, no qual os rebeldes haviam tomado a região de Kru evo, estabelecendo um governo provisório revolucionário e em 19 de agosto, após a captura de Kru evo, os rebeldes tomaram a região de Strandzha, proclamando uma comuna revolucionária. A Comuna de Strandzha estabeleceu uma série de experiências de autogestão durante vinte e seis dias, constituindo assim a primeira tentativa local de construir uma nova sociedade baseada nos princípios do comunismo libertário. Após a repressão que culminou no fim das revoltas e das experiências por ela estabelecidas, grupos anarquistas vieram a fundar a Federação dos Anarco-Comunistas da Bulgária FAKB em 1919. Nestor Makhno ao lado de membros do Exército Insurgente Makhnovista Na Rússia, os anarquistas participaram das revoluções de 1905 e de 1917. Em um primeiro momento, os anarquistas dividiram-se entre insurrecionalistas e anarcossindicalistas participaram da fundação dos sovietes de São Petersburgo e Moscou, além de terem fundado a Cruz Negra Anarquista para auxiliar presos políticos, organização que se espalhou por diversos países. Durante a Revolução de Outubro, os anarquistas participaram ativamente das atividades revolucionárias em Moscou e Petrogrado em 1918, destacaram-se conferências sindicalistas impulsionadas pelos anarquistas. Na Ucrânia, destacou-se a experiência do Exército Insurgente Makhnovista, articulado com a Confederação Anarquista Ucraniana Nabat , que chegou a 110 mil voluntários em 1918 e que protagonizou lutas decisivas contra o Exército Branco durante a Guerra Civil Russa o exército de Nestor Makhno também realizou grandes expropriações de terras para os camponeses e teve em seu controle uma área bastante ampla da Ucrânia, onde a articulação política se dava por meio de Congressos de Camponeses, Operários e Insurgentes, que era a instância de base responsável pelas decisões do movimento. O movimento makhnovista foi duramente reprimido pelos bolcheviques durante o fim da Guerra Civil Russa e após a Revolta de Kronstadt, em 1921, que contou com uma participação anarquista relevante, os bolcheviques consolidam-se no poder e o anarquismo praticamente desaparece dentro do território soviético. Nas Américas, a fundação da Industrial Workers of the World IWW nos Estados Unidos em 1905 e no Canadá em 1906, com influência anarquista significativa em ambas as localidades e defendendo um sindicalismo revolucionário e combativo, constitui uma das experiências mais relevantes do movimento operário da América do Norte. O movimento operário nos Estados Unidos, entretanto, passou por um momento de dura repressão após a Revolução Russa, quando um crescente temor diante da possibilidade de uma revolução mundial fez com que o governo tomasse uma série de medidas contra o movimento sindical e em especial contra os socialistas e anarquistas, medidas que atingiram seu ponto máximo com os Atos de Exclusão Anarquista de 1918 e as Palmer Raids de 1919, acompanhadas por uma série de prisões e deportações de militantes anarquistas. magonistas com a bandeira Tierra y Libertad em Tijuana, 1911 Em Cuba, o anarquismo continuou a ser força hegemônica nos sindicatos durante esse período, enquanto no México, os anarquistas protagonizaram episódios relevantes durante a Revolução Mexicana, iniciada em 1910. O Partido Liberal Mexicano, fundado alguns anos antes pelos irmãos Enrique e Ricardo Flores Magón, já em 1908 era uma organização específica anarquista, e colocou-se à frente da rebelião da Baixa Califórnia, em 1911, que se estendeu a outras cidades e recebeu o apoio da IWW. Emiliano Zapata, um dos principais líderes da Revolução Mexicana, foi fortemente influenciado pelo anarquismo e, em 1915, contava com um exército de 70 mil combatentes. Na América do Sul, a experiência de maior destaque foi a Federación Obrera Regional Argentina FORA , fundada na Argentina em 1904 o movimento operário no país era hegemonicamente anarquista, razão que possibilitou, em 1905, um vínculo programático entre o anarquismo e o sindicalismo na FORA, constituindo a primeira experiência anarcossindicalista da América Latina. Episódios como a Semana Trágica de 1919 e as revoltas na Patagônia entre 1920 e 1921, além do atentado ao coronel Ramón Lorenzo Falcón, marcaram a força do movimento anarquista argentino. No Brasil, a fundação da Confederação Operária Brasileira COB em 1906 que incluiu federações operárias locais de São Paulo, Rio de Janeiro, Santos e Porto Alegre , além de uma greve geral em 1917 e de uma insurreição em 1918, marcaram a hegemonia anarquista no movimento operário do país nesse período. No Uruguai, Chile, Bolívia, Colômbia, Equador, Paraguai, Peru e Venezuela, os anarquistas tiveram participação relevante no movimento operário e, em alguns desses países, ajudaram a fundar novos sindicatos de intenção revolucionária. Na região do Rio da Prata, houve ações levadas a cabo por anarquistas expropriadores. Também uma série de iniciativas no campo da educação foram tomadas pelos anarquistas na América Latina, destacando-se as experiências da Argentina, Brasil, Peru e Cuba. Na sia, experiências anarquistas na China, no Japão e na Coreia entrelaçaram-se, a partir de viagens de estudantes para o exterior. Na China, os anarquistas participaram da fundação do Kuomintang e, durante toda a segunda onda, constituíram a força hegemônica do movimento revolucionário chinês, criando os primeiros sindicatos do país, pautando a mobilização na cidade e no campo, a libertação da mulher e a educação universal. No Japão, o anarquismo consolidou-se na década de 1910, como uma das três maiores forças do movimento revolucionário entre 1918 e 1922, os anarquistas japoneses criaram e participaram de vários sindicatos. Na Coreia, o anarquismo já havia se desenvolvido desde 1910, na região da Manchúria, consolidando-se em 1919, a partir de um vínculo estreito com o movimento de libertação nacional neste ano, os anarquistas envolveram-se de forma determinante no Movimento Primeiro de Março, que mobilizou 2 milhões de pessoas na luta pela independência do país. Na frica, o anarquismo se consolidou principalmente no Egito e na frica do Sul, através de atividades sindicais e de propaganda. No Egito, foi fundada pelos anarquistas uma Universidade Popular em 1901 e realizado um congresso anarquista em 1909 na frica do Sul, sindicatos pautados no programa do sindicalismo revolucionário conseguiram mobilizar um grande número de trabalhadores de diferentes etnias, superando o problema do racismo que assolava o movimento operário no país. Na Oceania, o anarquismo constituiu uma pequena corrente da esquerda, tendo surgido com o Melbourne Anarchist Club, ainda em 1886. Entretanto, foi o sindicalismo revolucionário da IWW, que se estabeleceu em 1911 na Austrália e em 1912 na Nova Zelândia, que potencializou as lutas operárias e deu visibilidade a elas no continente. Além de problemas e insuficiências internas do movimento anarquista, a dura repressão, a perda de todas as revoluções, incluindo a russa, na qual os anarquistas foram liquidados pelos bolcheviques em 1921, bem como a própria ascensão do bolchevismo, e também do nacionalismo e do fascismo, são apontados como os principais fatores responsáveis pelo refluxo dessa onda.
A terceira onda do movimento anarquista, apesar de ter sido menor que a segunda, pode ser considerada como uma das mais relevantes. O período caracterizou-se pelas revoluções contra o imperialismo e a resistência ao fascismo e ao bolchevismo. A ascensão do fascismo e do bolchevismo teve duras consequências aos anarquistas o primeiro, por meio de uma aberta e fortíssima repressão contrarrevolucionária, de direita, que impôs grandes derrotas ao movimento anarquista em diversos países o segundo, por meio de uma incidência enorme nas classes trabalhadoras, utilizando-se de um discurso libertador e do bem-sucedido exemplo da Revolução de Outubro, apesar de ter investido em muitos casos na repressão aberta aos anarquistas. Esse contexto também contou, em diversos países, com a participação de antigos anarquistas na criação de partidos comunistas, com um processo de bolchevização desses partidos e um alinhamento com a Rússia. Esse período também foi marcado pela Crise de 1929 e pela Segunda Guerra Mundial, além do avanço do conservadorismo, do reformismo e das medidas de bem-estar social em vários países, como nos casos do Uruguai, Suécia e Estados Unidos, assim com a institucionalização dos sindicatos promovida pelos governos e o surgimento do populismo em países como Brasil e Argentina, que prejudicaram diretamente o desenvolvimento do movimento anarquista ao integrar parte significativa das classes operárias aos projetos políticos dos governantes. A luta contra o fascismo e alguns processos revolucionários protagonizados por anarquistas têm destaque nesse período. Nesse período, também surgem questões internas relevantes, como o debate acerca de um modelo organizativo e as polêmicas em torno da Plataforma e da Síntese. Entre as iniciativas internacionais relevantes desse período, estão a East Asian Anarchist Federation EAAF , fundada em 1928, com organizações dos países do leste asiático a Asociación Continental Americana de Trabajadores ACAT , que se constituiu como o ramo da AIT anarcossindicalista na América Latina a fundação da Comissão de Relações Internacionais Anarquistas CRIA na Europa, em 1948, que, na América Latina, ficou conhecida como Comisión Continental de Relaciones Anarquistas CCRA , durando até a década de 1960 ambas constituindo relações entre organizações, periódicos e individualidades anarquistas de diversos países da Europa, sia, frica e América Latina durante o período em que estiveram em atividade. Na Europa, houve uma série de experiências relevantes nesse período na Bulgária, a FAKB protagonizou experiências envolvendo sindicalismo urbano e rural, cooperativas, guerrilha e mobilização da juventude. Durante esse período, o anarquismo constituiu a terceira maior força política de esquerda do país, e a FAKB adotou a Plataforma do grupo Dielo Truda. Entre 1941 e 1944, uma poderosa guerrilha anarquista combateu o fascismo, aliando-se à Frente Patriótica na organização da insurreição de setembro de 1944, contra a ocupação nazista. Lutando, ao mesmo tempo, contra os fascistas e contra o comunismo, o fim da terceira onda do movimento anarquista no país foi marcada pela repressão stalinista e cerca de mil militantes da FAKB acabaram nos campos de concentração comunistas. Manifestação em Barcelona em 1936, onde trabalhadores seguram uma faixa do periódico Solidaridad Obrera, ligado à CNT-AIT Na Espanha, após um tentativa de golpe de Estado em 1936 que desencadeou a Guerra Civil Espanhola, os trabalhadores tomaram o controle de Barcelona e de grandes áreas rurais da Espanha, dando início à Revolução Espanhola os anarquistas, que haviam se articulado na Confederación Nacional del Trabajo CNT e na Federação Anarquista Ibérica FAI , estabeleceram fortalezas na Catalunha, Aragão e Valência. Segundo Woodcock Durante vários meses, as forças armadas dessas regiões foram, em geral, milícias controladas pelos anarquistas. As fábricas foram, em grande parte, tomadas pelos trabalhadores e dirigidas pelos comitês da CNT, enquanto centenas de aldeias ou dividiam ou coletivizavam a terra, e muitas tentaram organizar comunidades libertárias do tipo defendido por Kropotkin. Apesar do relativo sucesso das experiências libertárias na Espanha, no decorrer da guerra civil os anarquistas foram perdendo espaço em uma luta cada vez mais dura com os stalinistas. Tropas lideradas pelo Partido Comunista da Espanha PCE suprimiram as áreas coletivizadas e perseguiram tanto os anarquistas como os marxistas dissidentes do Partido Operário de Unificação Marxista POUM além disso, o avanço do fascismo, a problemática guerra-revolução e a própria participação de alguns anarquistas no governo deram um fim ao processo revolucionário. maquis franceses resistiram à ocupação da França pela Alemanha nazista Dentre outra experiências europeias importantes, destacaram-se a resistência contra a ocupação nazista na França e a resistência contra o fascismo na Itália nesses dois países, também foram formados sindicatos com bases sindicalistas revolucionárias e federações anarquistas. Na Alemanha, militantes anarquistas proeminentes, como Erich M hsam, foram assassinados pelo regime nazista após o fim da guerra, os anarquistas reorganizaram-se em sindicatos e em organizações específicas anarquistas. Na Ucrânia, a Nabat foi restabelecida e protagonizou um levante armado em 1943, que teve continuidade até 1945 também há indícios da existência de uma organização maknhovista secreta dentro do Exército Vermelho do pós-guerra. Em toda a América Latina, houve a formação de sindicatos, organizações específicas anarquistas e centros culturais em Cuba, México, Brasil, Chile, Argentina e Venezuela. Na frica, os anarquistas tomaram parte em movimentos de libertação nacional na Argélia, Marrocos e Tunísia. Na sia, destacou-se a experiência da Comuna de Shinmin, entre 1929 e 1931, que constituiu um dos episódios mais importantes da história do anarquismo. Fundada em 1929, a Federação Anarquista Coreana na Manchúria KAF-M e a Federação Anarquista Comunista Coreana KACF protagonizaram, depois de um acordo com o Exército de Independência Coreano, a transformação da prefeitura de Shinmin em uma estrutura administrativa socialista libertária. Levado a cabo em um contexto de luta anti-imperialista contra o Japão, esse processo revolucionário foi liderado, em termos militares, por Kim Jwa-Jin, criando a Liga Geral dos Coreanos HCH , uma estrutura autogestionária comunal, conformada em um território que compreendia 2 milhões de habitantes, a qual teve de lidar com questões como a guerra, agricultura, educação, finanças, propaganda, juventude e saúde, criando alternativas construtivas libertárias. A experiência durou até a entrada do Japão na região, em 1931, quando os anarquistas coreanos recuaram, deslocando-se para o sul da China, onde permaneceram combatendo, em armas, o imperialismo japonês até 1945. O refluxo da terceira onda pode ser atribuído também à repressão, levada a cabo pelos fascistas e também pelos comunistas, cuja ascensão representou outro motivo desse refluxo, além do próprio contexto marcado pela Segunda Guerra Mundial, que modificou completamente o plano geopolítico mundial e teve impacto determinante no anarquismo e nas próprias lutas populares.
A quarta onda do movimento anarquista, menor que as três primeiras, foi marcada pela Guerra Fria e pela descolonização da frica e da sia. Mesmo constituindo um período de refluxo, apesar das tentativas de uma articulação internacional, observa-se o desenvolvimento significativo do anarquismo em algumas regiões, como no Oriente Médio. O contexto desse período foi marcado pelo boom capitalista pós-Segunda Guerra, pelas ditaduras de direita na América Latina, que tiveram apoio direto dos Estados Unidos, pela vitória do maoismo na China, em 1949, e pelo totalitarismo branco e vermelho na Coreia, a partir de 1953. Guerrilhas anarquistas surgem em resposta às ditaduras de direita e de esquerda. Destacaram-se, também, os protestos de 1968, com uma crise que implicou na piora de condições no mundo ocidental e na Rússia, além da influência da Nova Esquerda em diversos países, assim como o surgimento de novos movimentos sociais, os quais passaram a promover bandeiras como a ecologia e as lutas contra a opressão de gênero e de orientação sexual. Nesse contexto, especialmente na Europa e nos Estados Unidos, surgiram grupos de influência anarquista promovendo o primitivismo e estilos de vida alternativos diversos movimentos da juventude, como os provos, hippies e punks, adotaram ideias anarquistas também nessa onda, surgiram os okupas. Principalmente na Europa, também foram comuns as tentativas de síntese do anarquismo com outras ideologias como o marxismo, situacionismo e autonomismo. Em relação às iniciativas internacionais, destacaram-se a rearticulação da AIT anarcossindicalista em 1951, a rearticulação da Cruz Negra Anarquista no final da década de 1960 e a fundação da Internacional de Federações Anarquistas IFA em 1968, baseada nos princípios sintetistas. Na Europa, os anarquistas continuaram a investir em iniciativas sindicais e na formação de organizações específicas anarquistas. Os anarquistas tiveram participação ativa nos protestos de 1968, em especial, no maio de 1968 francês, em que greves de estudantes articularam-se com ocupações de fábricas e levaram a uma greve geral que abalou o governo. Durante essa onda de mobilizações de 1968, os anarquistas tiveram participação importante entre os setores estudantis mais radicais. Nesse período, também apareceram guerrilhas anarquistas e grupos insurrecionalistas, tais como os grupos Defensa Interior e Grupo Primero de Mayo, na Espanha Franquista o Movimento 2 de Junho e o Rote Armee Fraktion RAF na Alemanha a Angry Brigade na Inglaterra e o grupo Action Directe na França. Os anarquistas também integraram-se nos processos de luta armada do autonomismo italiano e atuaram na insurreição de 1973 na Grécia. O anarquismo grego ganhou força nas décadas de 1970 e 1980, desenvolvendo táticas insurrecionais que buscavam aliar manifestações de rua e confrontos com a polícia a ações armadas. No Oriente Médio, o anarquismo surgiu com força durante a década de 1970 organizações do Irã, como a The Scream of the People CHK , e do Iraque, como a Workers Liberation Group JS, ou Shagila , articularam, juntas, quase mil militantes e participaram por meio de uma guerrilha da Revolução Iraniana, na qual alguns processos radicais foram levados a cabo organização de mulheres, tomada de terra por camponeses, mobilizações de trabalhadores, criação de conselhos de base shoras e de comitês de bairro armados komitehs . Nas Américas, destacaram-se, nos Estados Unidos e Canadá, a presença renovada da IWW e de anarquistas envolvidos em movimentos inspirados pela Nova Esquerda, sustentando questões ambientais, de gênero e contra as guerras. Em Cuba, os anarquistas participaram de guerrilhas contra a ditadura de Fulgencio Batista. Durante a Revolução Cubana, que culminou em 1959, os anarquistas participaram de maneira determinante nas lutas, articulados na Asociación Libertaria de Cuba ALC e até mesmo no Movimento 26 de Julho de Fidel Castro. Com o passar dos anos, no entanto, o governo cubano reprimiu fortemente os anarquistas, que foram presos, torturados ou partiram para o exílio. Na América do Sul, destacaram-se as experiências da Federación Anarquista Uruguaya FAU , fundada em 1956 e defendendo o que chamou de anarquismo especifista, organizando movimentos sindicais, estudantis e de resistência, inclusive armados, contra a ditadura. Na Argentina, continuaram as atividades da FORA e em 1974 foi fundado o grupo Resistencia Libertaria, organização que destacou-se por seus trabalhos de massa nos sindicatos, bairros e grêmios estudantis, e também por um braço armado de resistência contra a ditadura, articulado com a FAU. Experiências sindicais relevantes se deram também no Chile, antes da ditadura de Pinochet, e na Venezuela. No Brasil, durante a ditadura militar, os anarquistas atuaram através da criação de grupos culturais, editoriais e periódicos. Na frica, os anarquistas participaram das diversas lutas de libertação nacional no continente, com destaque na luta de independência da Argélia, em 1962. Na sia, os acontecimentos mais relevantes envolveram a participação de anarquistas coreanos na Revolução de Abril, em 1960, que inaugurou a Segunda República Coreana, e nas mobilizações que culminaram no levante de Gwangju em 1980, contra o regime do general ditador Chun Doo-Hwan e na China, quando após a Revolução de 1949, cerca de 10 mil anarquistas passaram para a clandestinidade, e algumas guerrilhas, como a de Chu Cha-pei, se instalaram na província de Yunnan para combater o novo regime. Na Oceania, ocorrem experiências sindicais relevantes na Austrália e Nova Zelândia. O refluxo do anarquismo nesse período deu-se em grande parte por conta das ditaduras, tanto de direita como de esquerda, em diversos países, acompanhadas da repressão ao movimento anarquista. A quarta onda terminou com o fim do bloco soviético e do socialismo real, com a queda do Muro de Berlim e o desmantelamento da União Soviética, fenômeno que, novamente, modificou radicalmente a geopolítica mundial e proporcionou, em muitos dos antigos países soviéticos, as condições para a rearticulação do anarquismo e do sindicalismo de intenção revolucionária.
A quinta onda é caracterizada pelo momento posterior ao colapso do modelo socialista soviético e pela generalização do neoliberalismo ao redor do mundo. O fim da União Soviética possibilitou a reorganização do movimento anarquista em vários países do antigo bloco e movimentos antes clandestinos tornaram-se públicos na América Latina, o fim das ditaduras também fez com que fosse possível a rearticulação dos anarquistas bem como o fim do apartheid na frica do Sul e o fim das ditaduras na sia e no Leste Europeu. Na quinta onda, configurou-se a influência anarquista minoritária no campo da esquerda em geral, e das lutas populares em particular, ainda que a queda do Muro de Berlim e o fim da União Soviética tenham proporcionado uma potencialização do anarquismo nos países então socialistas. Também permaneceram as questões que chegaram com a influência da Nova Esquerda e diversos setores do movimento anarquista vêm enfatizando a necessidade de os anarquistas retomarem o protagonismo em movimentos sociais e lutas populares. A quinta onda continuou a ser marcada pelas iniciativas internacionais precedentes como a IFA e a AIT anarcossindicalista entre as novas iniciativas internacionais, destaca-se o projeto Anarkismo.net, criado em 2005 e que reúne, em torno de um site, organizações plataformistas de diversas partes do mundo. Com o advento da internet, surgiram fóruns de discussão e projetos para divulgação de notícias, como o Centro de Mídia Independente CMI e o A-Infos também passaram a ser articuladas em diversos países Feiras do Livro Anarquistas. Os anarquistas também tiveram papel relevante no movimento antiglobalização, entre os meados da década de 1990 e o início da década de 2000, e estiveram articulados, em grande medida, na Ação Global dos Povos, criada em 1998. Com o foco das mobilizações em torno da luta contra o neoliberalismo, o movimento desdobrou-se em protestos massivos em todo o mundo, contra instituições como a Organização Mundial do Comércio OMC , o Banco Mundial, o Fundo Monetário Internacional FMI e também contra acordos como o Tratado Norte-Americano de Livre Comércio NAFTA e a rea de Livre Comércio das Américas ALCA , além de manifestações contra as guerras promovidas pelos Estados Unidos no Oriente Médio. Durante esses protestos, a tática black bloc ganhou popularidade. Na Europa, os anarquistas continuam investindo em iniciativas sindicais e em organizações específicas anarquistas na Grécia em especial, desde 1990, vem crescendo uma tradição insurrecionalista muito forte. Com o fim do regime soviético, destaca-se o surgimento e o crescimento de organizações na Polônia, Tchecoslováquia e na própria Rússia, além da Armênia, Bielorrússia, Cazaquistão e Ucrânia. Subcomandante Marcos, líder do EZLN, organização que liderou o levante em Chiapas em 1994 Nas Américas, o anarquismo foi significativamente marcado pelo movimento antiglobalização. Nos Estados Unidos, os protestos contra o encontro da OMC em Seattle destacaram-se como um dos mais significativos eventos com participação anarquista durante o movimento antiglobalização. Também destacou-se a participação dos anarquistas no movimento Occupy Wall Street em 2011. No México, o Exército Zapatista de Libertação Nacional, de significativa influência anarquista, realizou um levante em 1994, e após a revolta, formaram-se vários grupos anarquistas de apoio aos zapatistas no país em 2006, os anarquistas mexicanos também participaram da rebelião de Oaxaca em 2006, onde, a partir de uma greve de 70 mil professores, articularam-se trabalhadores sindicalizados, camponeses e estudantes na luta contra o governo de Ulises Ruiz Ortiz, estabelecendo a Asamblea Popular de los Pueblos de Oaxaca APPO , que tomou prédios públicos, estabeleceu organizações de mulheres, como a Comisión de Mujeres de Oaxaca, tomou rádios e televisões e terminou sendo duramente reprimida pelo governo. Na região sul do continente, destacou-se a influência da FAU na difusão do especifismo, auxiliando no estabelecimento de organizações anarquistas em outros países, como no Brasil, com a Federação Anarquista Gaúcha FAG e a Federação Anarquista do Rio de Janeiro FARJ . Organizações especifistas também foram fundadas na Argentina e no Chile. Essas organizações vêm tendo participação relevante, ainda que na maioria dos casos minoritária, em movimentos sociais do continente, dentre os quais se encontram sindicatos, associações comunitárias e de bairro, movimentos rurais, de estudantes, desempregados, sem-teto, sem-terra e outros dentre as grandes mobilizações ocorridas na América do Sul que contaram com participação anarquista relevante, destacam-se as manifestações de 2001 na Argentina, em resposta à crise econômica que assolava o país as mobilizações estudantis em 2006 no Chile e as manifestações de 2013 no Brasil. Na frica, experiências baseadas no sindicalismo revolucionário tem tido relevância, bem como a formação de organizações específicas anarquistas como a Zabalaza Anarchist Communist Federation ZACF , na frica do Sul. No Oriente Médio, o anarquismo surgiu na Turquia durante a década de 1990, com a criação de grupos como a Anarchist Youth Federation AGF , Anatolian Anarchists AA e o Karasin Anarchist Group KAG o anarquismo ganhou também influência entre os curdos e tanto no norte da frica como no Oriente Médio os anarquistas tiveram participação significativa na chamada Primavera rabe. Na sia, há pouquíssimas referências anarquistas contemporâneas. Na Oceania, algumas experiências anarcossindicalistas têm tido relevância na Austrália.
O anarquismo se fundamenta em três princípios básicos uma crítica da dominação, que a considera como injusta e construída socialmente uma defesa da autogestão, que tem em vista a constituição de uma sociedade libertária baseada na ajuda mútua e na livre associação e os meios e estratégias que possam realizar essa transformação social e que devem ser coerentes com os fins.
O anarquismo formulou uma crítica da dominação, fundamentada na crítica da exploração econômica dos sistemas capitalista e pré-capitalista da dominação político-burocrática e da coação física, levadas a cabo pelo Estado da dominação cultural e ideológica, perpetrada pela religião, pela escola e mais recentemente, pela mídia. Essa crítica possui, como base, uma noção ética, que considera, por meio de análises racionais da sociedade, que a dominação é construída socialmente e que é injusta, e por isso, deve ser modificada. Por meio de uma leitura classista da realidade, o anarquismo critica a dominação de classe, junto com as dominações imperialistas, das relações de gênero e de raça.
Tendo surgido como um tipo de socialismo libertário, o anarquismo possui uma crítica ao capitalismo similar às outras correntes socialistas, sustentando que o capitalismo implica a exploração dos trabalhadores pelos proprietários dos meios de produção. As críticas econômicas de Proudhon, e em certa medida, até mesmo as de Karl Marx, influenciaram os anarquistas significativamente, e os argumentos de ambos constituem as bases da crítica anarquista da exploração. Segundo Michael Schmidt e Lucien van der Walt, os anarquistas compreendem como exploração a transferência de recursos de uma classe produtiva para outra dominante, porém improdutiva, e que a exploração no sistema capitalista ocorre no trabalho e por meio do salariato. Para os anarquistas, o trabalho assalariado do capitalismo permite aos proprietários se apropriarem de um excedente produzido pelos trabalhadores, o que caracterizaria a exploração. Entretanto, a crítica econômica anarquista não se restringe ao capitalismo outros modos de produção, considerados pré-capitalistas, cujos traços permanecem em sociedades modernas por razão dos distintos níveis de desenvolvimento econômico, também são levados em conta. Por não sustentar um imperativo da evolução dos modos de produção para que o socialismo libertário seja atingido, os anarquistas sustentam ser possível impulsionar, com sucesso, dentro de modos de produção predominantemente pré-capitalistas, processos de luta por uma sociedade socialista libertária, sem que se tenha de passar, necessariamente, por uma fase capitalista. Para os anarquistas, os proprietários de terra exercem, em sociedades menos desenvolvidas, o mesmo papel da burguesia industrial, explorando o trabalho dos camponeses. Sendo assim, a propriedade da terra nos moldes das economias pré-capitalistas também é alvo de críticas pelos anarquistas, fundamentalmente, por se basear na exploração do campesinato. Além disso, os anarquistas criticam as relações de dominação que envolvem aqueles que realizam trabalhos precários, desempregados e marginalizados. A exploração capitalista, caracterizada pelo trabalho assalariado, e também pré-capitalista, fundamentada na propriedade da terra, juntamente com as dominações que atingem trabalhadores precarizados e marginalizados em geral, constituem, na esfera econômica, os fundamentos sobre os quais os anarquistas vêm formulando sua crítica da dominação.
Errico Malatesta, anarquista italiano, define o Estado como sendo um conjunto de instituições políticas, legislativas, judiciárias, militares e financeiras. Para os anarquistas, o Estado é responsável por alguns tipos de dominação, como a coação física e a dominação político-burocrática. Há, na crítica anarquista ao Estado, uma dupla perspectiva primeiro, uma oposição à hierarquia, e segundo, uma ligação entre o Estado e as classes sociais. Nesses dois casos, o Estado constitui um meio para que uma minoria governe uma maioria. O russo Mikhail Bakunin, em sua obra Estatismo e Anarquia, de 1873, desenvolve sua teoria do Estado. Sua crítica ao estatismo se estende para todas as suas formas, desde as mais autoritárias até as mais liberais Na teoria do Estado desenvolvida pelos anarquistas, constata-se que a dominação política existe tanto pelo monopólio da força, quanto pelo monopólio das tomadas de decisão da sociedade. Para os anarquistas, Estado e dominação são indissociáveis posição enfatizada por Bakunin ao afirmar que quem diz Estado, diz necessariamente dominação e, em consequência, escravidão um Estado sem escravidão, declarada ou disfarçada, é inconcebível eis porque somos inimigos do Estado. Os anarquistas sustentam que o Estado submete as classes dominadas que estão sob sua jurisdição à coação física, utilizada quando sua legitimidade não é suficiente além disso, sustentam que as classes dominadas estão submetidas também a uma dominação político-burocrática, responsável por sua alienação política, que se evidencia na hierarquia existente entre governantes e governados, a qual implica na existência de um grupo que toma as decisões para uma dada população. Essa crítica anarquista ao Estado estendeu-se amplamente, para todas as suas formas e seus distintos sistemas de governo, desde os mais autoritários até os mais liberais. Para os anarquistas, o Estado é um elemento central na estrutura social que caracteriza os sistemas de dominação. Essa crítica à dominação política protagonizada pelo Estado é um fundamento central do anarquismo, principalmente por razão de o Estado não ser considerado um simples reflexo das relações que se dão na esfera econômica para os anarquistas, o Estado é, ao mesmo tempo, consequência e causa do capitalismo, ao possibilitar elementos para sua constituição, ao mesmo tempo em que por ele é constituído. Ao defender tal posição, Kropotkin afirmou que o Estado é a proteção da exploração, da especulação, da propriedade privada, e que o proletário, que só possui como riqueza seus braços, nada tem a esperar do Estado, encontrando nele apenas uma organização feita para impedir a qualquer preço sua emancipação. Por acreditarem nessa relação de interdependência entre o Estado e o capitalismo, constituindo um elemento central no sistema de dominação, os anarquistas sustentam que a tomada ou participação nas instâncias do Estado não podem constituir meios de luta para o estabelecimento de poderes autogestionários e sistemas de autogestão. A crítica da democracia representativa, fundamentada parcialmente na crítica do Estado, realiza-se por razão dessa noção de que Estado e dominação, Estado Moderno e capitalismo, são indissociáveis, interdependentes. A ênfase progressiva que se deu, entre os anarquistas, à não participação nas eleições, fato que se consolidou após experiências práticas e vários debates, tomou, por base, o vínculo entre Estado e dominação. Para os anarquistas, a utilização do Estado como um meio de luta constitui um processo de legitimação da dominação. Tais concepções têm subsidiado a rejeição dos anarquistas ao socialismo estatal para os anarquistas, ainda que a economia seja modificada, passando a ser propriedade do Estado, como resultado de um eventual processo de reformas ou revolução, isso não colocaria em xeque o modelo de poder vigente, que continuaria a ser dominador.
As instituições responsáveis pela produção cultural e ideológica são também fundamentais para a legitimação dos sistemas de dominação, segundo os anarquistas, e por isso têm sido alvo de suas críticas. Classicamente, instituições como a religião e a educação receberam bastante atenção. De acordo com os anarquistas, a moral religiosa forja uma noção de certo e errado que tem, por objetivo, fortalecer o status quo dos sistemas de dominação para eles, se a ordem, caracterizada pelas estruturas sociais, é estabelecida pelas divindades, qualquer questionamento evidencia um mau comportamento, passível de punição o mais adequado seria conformar-se e obedecer. Os anarquistas também sustentam que as religiões seriam fundamentais para a sustentação econômica e política do capitalismo e do Estado, aos instituir alianças com as classes dominantes. Sobre a escola, o anarquista brasileiro José Oiticica sustentava que, por meio de suas práticas pedagógicas, ela transmite uma série de valores, gravando, à força de repetições, sem demonstrações ou com argumentos falsos, certas ideias capitais, favoráveis ao regime burguês, no cérebro das crianças, dos adolescentes, dos adultos, de modo que, aos poucos, tais ideias vão se tornando verdadeiros dogmas indiscutíveis. Para os anarquistas, a escola também funciona, na maioria dos casos, como uma instituição responsável por forjar culturas e ideologias capazes de promover a permanência do sistema vigente. Ambas as instituições, a religião e a educação, teriam um papel fundamental na manutenção do status quo, conforme explicitou o anarquista lituano Alexander Berkman, ao afirmar que a igreja e a escola estão do lado dos ricos contra os pobres, ao lado dos poderosos contra suas vítimas, com a lei e a ordem contra a liberdade e a justiça. Para ele, a obediência é o eterno brado da igreja e da escola, independente da vileza do tirano, independente do quão opressivas e injustas são suas leis e ordens. Além da crítica da religião e da escola, mais recentemente, por razão dos desenvolvimentos da sociedade, o anarquismo vem criticando também o papel da mídia, que, durante o , ganhou relevância central na problemática ideológica e cultural do poder. Os anarquistas sustentam que a mídia capitalista e demais instituições elaboram discursos válidos que fundamentam a forma de dominação contemporânea.
Os anarquistas consideram, desde o surgimento do anarquismo, que a sociedade capitalista é uma sociedade de classes. Segundo os anarquistas, essas classes são antagônicas e implicam, necessariamente, um processo de luta de classes. Defendendo essa posição, o anarquista mexicano Ricardo Flores Magón afirmou que a desigualdade social torna as classes sociais inimigas naturais umas das outras. Destaca-se, assim, no anarquismo, a relevância das classes sociais e da luta de classes. Entretanto, essa centralidade da luta de classes não pode ser confundida com um determinismo econômico ou com a exclusiva centralidade da exploração das classes trabalhadoras, já que o classismo anarquista é, em geral, definido pelo conceito de dominação, sendo a exploração econômica apenas um dos tipos de dominação. Lucien van der Walt afirma que esse classismo leva em conta tanto a propriedade privada dos meios de produção, como a propriedade injusta dos meios de coerção e dos meios de administração. Nessa concepção, estariam, no campo das classes dominantes, os proprietários dos meios de produção, tanto a burguesia industrial quanto os proprietários de terras, bem como os gestores do capitalismo, do Estado, os militares, juízes e parlamentares em geral. Dentre as classes dominadas, estariam os trabalhadores, o campesinato e os precarizados e marginalizados de maneira geral. Para os anarquistas, nessa estrutura de classes, as classes dominantes exercem a dominação sobre as classes dominadas. Por razão de terem interesses de classe antagônicos, umas e outras estão em permanente conflito. Os anarquistas sustentam que as classes sociais concretas representam, em cada tempo e lugar, os agrupamentos que constituem esses conjuntos mais amplos de dominantes e dominados. Para os anarquistas, relações nas esferas política, econômica, ideológica e cultural contribuem para que essas classes sejam estabelecidas e que, entre elas, se estabeleça permanentemente um conflito social, que é a base dinâmica da mudança e da transformação social.
A anarquista lituana Emma Goldman elaborou muitas críticas à dominação de gênero Ainda que o anarquismo afirme a centralidade da luta de classes, ele se opõe à dominação de maneira geral. Três outros tipos de dominação foram, e ainda são, objeto da crítica anarquista o imperialismo, as dominações de gênero e de raça. Historicamente, os anarquistas estiveram envolvidos em lutas contra essas opressões mais específicas. Ao integrarem essas lutas, os anarquistas, em geral, apresentam programas próprios de ações, visando a ligar essas lutas com o objetivo da revolução social e dar, a elas, um caráter classista e internacionalista. Nas regiões que conviveram com as consequências do imperialismo, o anti-imperialismo foi central nas lutas dos anarquistas. A participação dos anarquistas em lutas anti-imperialistas e de libertação nacional pautou-se, historicamente, em programas classistas que possuíam objetivos revolucionários e se opunham, constantemente, ao nacionalismo, que defendia a colaboração de classes em prol dos interesses do país na luta contra os inimigos imperiais. A crítica à dominação de gênero também é outro traço característico do anarquismo. As mulheres anarquistas tiveram papel determinante na construção dessa crítica, porém os elementos feministas do anarquismo não foram campo exclusivo das mulheres militantes e as atividades das mulheres anarquistas militantes não podem ser reduzidas à defesa da perspectiva feminista. Emma Goldman, anarquista lituana que atuou a maior parte de sua vida nos Estados Unidos, sustentou que o combate à dominação de gênero deveria ser encampado por homens e mulheres, já que a liberdade da mulher estaria inteiramente ligada à liberdade do homem. Lucy Parsons, anarquista norte-americana, relacionando gênero e classe, enfatizava que as mulheres seriam escravas dos escravos, sendo exploradas pelo capitalismo e sendo vítimas da dominação de gênero. Os anarquistas também criticaram a dominação de raça, à qual as minorias étnicas estariam expostas, para além da dominação de classe. Os anarquistas tiveram papel fundamental em diversos países nas lutas contra o racismo, por meio de lutas pela igualdade de direitos e contra a segregação racial.
A defesa anarquista da autogestão envolve, igualmente, a mesma noção ética que norteia sua crítica da dominação. Se, através de uma análise social racional, os anarquistas identificam certas relações de dominação, e se elas são consideradas injustas, realiza-se uma proposição que visa a superar esse problema tais são as bases da defesa anarquista da autogestão. A defesa da autogestão defendida pelos anarquistas também tem, como foco, as esferas econômica, política, ideológica e cultural.
A socialização dos meios de transporte urbanos na Revolução Espanhola foi uma bem-sucedida experiência de autogestão econômica sob os moldes anarquistas Os anarquistas defendem a socialização da propriedade privada dos meios de produção como um aspecto central na defesa da autogestão econômica. Isso implicaria, necessariamente, na coletivização das máquinas, equipamentos, ferramentas, tecnologias, instalações, fontes de energia, meios de transporte, matérias-primas e terra. O anarquista luso-brasileiro Neno Vasco, nesse sentido, afirmou que tal socialização significa confiar a produção ao trabalho coletivo organizado, sendo que os meios de produção devem ser postos à disposição de todos em uma sociedade em que o trabalho, tendendo à satisfação das necessidades dos indivíduos, seja escolhido por cada um e organizado pelos próprios trabalhadores. Os anarquistas sustentam que, com a autogestão econômica, a lógica condutora do trabalho não seria a busca do lucro, envolvendo a exploração levada a cabo por meio da apropriação de parte do trabalho realizado pelos trabalhadores pelos proprietários o trabalho assalariado, da maneira como funciona nos sistemas capitalistas, deixaria de existir. Como afirmou Berkman, uma sociedade fundada nos princípios anarquistas reorganizaria a produção com base nas necessidades do povo. As necessidades populares norteariam a economia autogestionária. Sob a autogestão econômica, sustentam os anarquistas, os trabalhadores usufruiriam de todos os frutos de seu trabalho, e seu envolvimento nos processos decisórios econômicos seria realizado de maneira proporcional a quanto eles são afetados. Segundo os anarquistas, a socialização autogestionária deveria ser levada a cabo tanto no campo como na cidade, em localidades com modos de produção mais ou menos desenvolvidos no campo, poderia se optar pela coletivização ou pela propriedade individual ou familiar, num sistema de posse, onde não haveria exploração do trabalho. Estariam envolvidos, na socialização urbana e rural, produtores e consumidores, articulados por meio de conselhos populares. Tais conselhos teriam, por objetivo, romper com a divisão social do trabalho e garantir a equidade na remuneração, por meio de processos de trabalho que estejam em harmonia com a natureza e aproveitem as tecnologias para benefício dos trabalhadores.
A autogestão política defendida pelos anarquistas implicaria na abolição do Estado, a qual deveria ser levada a cabo ainda durante o processo revolucionário, acabando com a divisão entre governantes e governados. As propostas de socialismo de Estado, como período de transição, são veementemente rejeitadas pelos anarquistas, da mesma maneira que os procedimentos da democracia representativa, que implicariam uma delegação de poder sem controle da base, segundo sustentam os anarquistas. A proposta anarquista de autogestão política é o autogoverno democrático, onde o poder político seria totalmente socializado isto é, o poder decisório ficaria nas mãos de todos . As instituições que substituiriam o Estado e as bases da autogestão política seriam os conselhos, associações voluntárias que, conforme sustentou Kropotkin, representariam uma rede entrelaçada, composta por uma infinita variedade de grupos e federações de todos os tamanhos e graus, locais, regionais, nacionais e internacionais, temporárias, mais ou menos permanentes, para todos os objetivos possíveis. Tais associações fundamentariam-se em um modelo de poder autogestionário que permitiria a participação efetiva de todos nas mais diversas decisões. O conjunto de conselhos, cuja base seria constituída por grupos e associações livres, tomariam as decisões de maneira local e democrática, com as decisões fluindo de baixo para cima, com participação generalizada e ampla, controlando a execução dessas decisões e solucionando conflitos, reunindo as funções tradicionais dos três poderes sob uma perspectiva autogestionária. Tais organismos seriam os responsáveis por deliberarem e executarem todas as medidas relativas aos serviços públicos. Todo o processo político autogestionário, para funcionar em larga escala, implicaria uma articulação que teria, por base, o mecanismo federalista, que, segundo o anarquista brasileiro Domingos Passos, congregaria homens diversos em organismos ou sociedades na federação, sem a perda da autonomia societária. O federalismo permitiria a articulação das estruturas por meio de delegações que levam às instâncias mais amplas isto é, a federações municipais, estaduais, nacionais e talvez até internacionais as decisões das bases e garantindo sua execução os delegados possuiriam autonomia relativa, seriam controlados pela base, suas funções seriam rotativas e seus mandatos revogáveis a qualquer momento. Esse modelo federalista, desenvolvido inicialmente por Proudhon, foi posto em prática em algumas seções da AIT, durante a Comuna de Paris. No autogoverno democrático, haveria amplas liberdades civis, conforme explicitou Magón para ele, o direito de pensar, emitir seu pensamento, reunir-se, exercer o ofício, a profissão ou a indústria que o acomode, transitar pelo território nacional, entre muitos outros direitos e prerrogativas, seriam garantidos. Ainda que conciliadas com a liberdade coletiva, as liberdades individuais também seriam garantidas.
Juntamente com as propostas para a economia e a política, o anarquismo, historicamente, preocupou-se com questões ideológicas e culturais. Para os anarquistas, se a religião, a educação e a mídia vêm sendo responsáveis por legitimar a dominação, os anarquistas devem propor uma cultura distinta, que legitime sua proposta de autogestão. Então, para além da autogestão econômica e política, os anarquistas propõe a criação de uma cultura autogestionária, forjada em bases ideológicas e em uma ética pautada em valores, capaz de sustentar seu projeto econômico e político. Essa ética anarquista é o elemento universal promovido transversalmente em todos os contextos, pautada nos seguintes valores liberdade individual e coletiva, no sentido do desenvolvimento pleno das faculdades, capacidades e pensamento crítico de cada um e de todos igualdade, em termos econômicos, políticos e sociais, promovida por meio da autogestão e incluindo questões de gênero e raça solidariedade e apoio mútuo, sustentando relações fraternas e colaborativas entre as pessoas e não de individualismo e competição estímulo permanente à felicidade, à motivação e à vontade. A intervenção dos anarquistas de acordo com esses valores éticos deve fortalecer as associações voluntárias, de maneira a promover a cultura autogestionária defendida pelos anarquistas. Francisco Ferrer y Guardia foi um dos maiores defensores da pedagogia libertária e fundou a Escola Moderna em Barcelona, na Espanha, em 1901 Um dos aspectos muito desenvolvidos no anarquismo foi a educação, por meio da discussão sobre a pedagogia libertária. Para o francês lisée Reclus, o ideal dos anarquistas não é suprimir a escola, ao contrário, é fazê-la crescer, fazer da própria sociedade um imenso organismo de ensinamento mútuo, onde todos seriam simultaneamente alunos e professores. Para os anarquistas, essa ampliação da educação, estendendo-a ao conjunto da sociedade, é fundamental para estimular os valores condizentes com a prática da autogestão. Essa educação seria integral, pois buscaria fortalecer completamente o desenvolvimento individual intelectualmente, por meio do conhecimento científico das distintas áreas da vida e do estímulo permanente à cultura tecnicamente, preparando para o trabalho e capacitando para a realização de tarefas manuais e intelectuais fisicamente, tendo, por objetivo, promover a saúde e o bem-estar. O espanhol Francisco Ferrer y Guardia enfatizou que o objetivo anarquista na educação seria criar homens capazes de evoluir incessantemente capazes de destruir, de renovar constantemente os meios, renovar-se a si mesmos homens cuja independência intelectual seja a força suprema, que nunca se sujeitem ao que quer que seja, dispostos a aceitar sempre o melhor, feliz pelo triunfo das novas ideias e que aspirem a viver vidas múltiplas em uma única vida. Também faz parte dessa cultura autogestionária o investimento em lazer no tempo livre, os anarquistas consideram fundamental a participação em atividades que envolvem esportes, artes, música, televisão, cinema, teatro e literatura, tanto para o descanso, como para a própria instrução cultural. Os valores éticos do anarquismo constituem os fundamentos dessa produção popular e autogestionária do lazer. Os meios de comunicação defendidos pelos anarquistas seriam autogeridos, possuiriam ampla participação e promoveriam a diversidade e o pensamento crítico, informando, discutindo e divertindo.
Os anarquistas não possuem uma estratégia única de atuação ainda assim, há uma concepção estratégica comum, que constitui parte dos princípios anarquistas. Historicamente, os anarquistas estiveram envolvidos nas mais diversas lutas populares e incidiram sobre as esferas econômica, política, cultural e a ideológica a preocupação em desenvolver estratégias que pudessem combater a dominação em todos esses níveis é um traço comum entre os anarquistas.
A perspectiva classista do anarquismo fornece as bases para que se forje uma noção de sujeito revolucionário, compreendido como o agente social que, inserido no processo de luta de classes, possui capacidade de realização e interesses, mas, fundamentalmente, consciência de classe para investir ativamente em um processo de transformação social revolucionária. Os anarquistas, de modo geral, sustentam que a ação humana possui capacidade significativa de transformar as estruturas sociais, e que essa transformação deve ser dada pelos sujeitos revolucionários. A concepção anarquista de sujeito revolucionário tem, como base, as classes dominadas de maneira geral e, historicamente, envolveu trabalhadores da cidade e do campo, empregados, precarizados, desempregados e marginalizados, assalariados e pequenos proprietários, fundamentalmente camponeses e artesãos. Para os anarquistas, o sujeito revolucionário deve ser criado em um processo longo, que exige a construção e reconstrução dos tecidos sociais, mobilizações, lutas, derrotas e vitórias elementos objetivos e subjetivos, racionais e emocionais, não estando esse sujeito determinado a priori dentro da concepção anarquista, ele se forja historicamente, dentro dos processos de luta das classes dominadas contra as classes dominantes.
A estratégia do anarquismo é revolucionária e, portanto, sustenta-se na perspectiva de realizar uma revolução social, que possa ir além das mudanças políticas. Como afirmou Magón, uma revolução que não garanta, ao povo o direito de viver, é uma revolta de políticos a quem devemos, nós, os deserdados, dar as costas nós, os pobres, necessitamos de uma revolução social, e não de uma revolução política. Os anarquistas sustentam que apenas uma revolução social, concebida como um processo de transformação social profundo, com implicações significativas em todas as esferas sociais, poderia trazer a perspectiva de uma sociedade libertária as classes dominadas, por meio de sua força social, iriam impor suas posições no processo da luta de classes a fim de proporcionar as transformações sociais capazes de superar a sociedade de classes, tornando-se imprescindível, para os anarquistas, a derrubada do capitalismo e do Estado. Para os anarquistas, um processo revolucionário dessa magnitude não poderia descartar completamente a possibilidade da utilização da violência ainda que se tenha discutido o nível de violência necessário em um processo revolucionário, foi constante a crença de que ela seria, muito provavelmente, necessária. notável a preocupação de se diminuir o nível de violência tão logo o processo revolucionário esteja estabilizado, instaurando a paz assim que o funcionamento pleno do poder autogestionário estivesse garantido porém, durante o processo revolucionário, a violência provavelmente teria de ser utilizada. Entretanto, há anarquistas que acreditam na possibilidade de uma revolução praticamente sem violência, como é o caso daqueles que conferem centralidade à propaganda e à educação em suas estratégias, acreditando ser possível transformar a sociedade pelo convencimento, praticamente sem violência Reclus, por exemplo, afirma que quanto maior for a consciência dos trabalhadores e de sua força potencial, mais as revoluções serão fáceis e pacíficas, podendo toda a oposição ceder, até mesmo sem luta. A possibilidade de uma revolução não violenta, para esses anarquistas, é, entretanto, uma probabilidade as ações pacíficas, na maioria dos casos, são defendidas uma questão de estratégia e não de princípios. Ainda assim, posições externas ao anarquismo, que consideram a não violência um princípio, como as de Henry David Thoreau e Liev Tolstói, exerceram alguma influência entre os anarquistas. O processo revolucionário, de acordo com as distintas avaliações anarquistas, é concebido por alguns como um processo lento, fundamentalmente pela envergadura da transformação para outros, é um processo que, inserido numa conjuntura favorável, pode ser acelerado significativamente.
A estratégia revolucionária do anarquismo é formulada a partir de três elementos a crítica do sistema de dominação, o objetivo de um sistema de autogestão e o conjunto de meios a serem utilizados, por meio de uma prática política coerente para promover a transformação social desejada. Para os anarquistas, o sistema de dominação é o resultado de uma imposição de força por parte das classes dominantes às classes dominadas assim, a estratégia fundamental do anarquismo deve contar com sujeitos revolucionários, criados no seio das classes dominadas, que consigam modificar a correlação de forças colocada e implantar um sistema de autogestão. A força social das classes dominadas é, para os anarquistas, o que há de mais relevante para impulsionar essa transformação fazer das classes dominadas os sujeitos revolucionários e protagonistas da transformação social desejada é um dos elementos fundamentais da estratégia anarquista. Os anarquistas sustentam que há uma necessidade de coerência em termos estratégicos defendendo uma congruência entre táticas, estratégias e objetivos. Tal questão foi levada em consideração entre os anarquistas frequentemente por meio da discussão entre meios e fins para Malatesta, é preciso empregar os meios adaptados à realização daquilo que se deseja, esses meios não são arbitrários, para ele, derivam necessariamente dos fins a que os anarquistas se propõem e das circustância nas quais lutam. Malatesta ainda sustentou que se os anarquistas se equivocassem na escolha dos meios, inevitavelmente afastariam-se dele rumo a realidades frequentemente opostas, que seriam a consequência natural e necessária aos métodos empregados de maneira equivocada. Os anarquistas em geral sustentam a necessidade de uma subordinação dos meios aos fins, da tática à estratégia e da estratégia ao objetivo para se chegar à autogestão generalizada, devem-se utilizar meios autogestionários. por esse motivo que os anarquistas descartam a utilização do Estado como um meio de atuação e transformação social para os anarquistas, a ação direta implica a priorização da prática política das classes dominadas fora do Estado e, em grande medida, contra ele. Ao criar e participar de organizações, os anarquistas defendem um modelo orgânico pautado na autogestão esse modelo envolve relações autogestionárias entre os militantes de um grupo ou organização, assim como relações autogestionárias entre grupos, organizações e os movimentos populares, reforçando a independência e autonomia de classe, que garante o protagonismo das classes dominadas na construção de uma prática política desenvolvida a partir das bases sem que haja submissão a relações de dominação internas ou externas. De modo geral, os anarquistas sustentam que para romper com o sistema de dominação e constituir um sistema de autogestão, é fundamental utilizar meios autogestionários nas distintas estratégias e táticas empregadas, em todas as esferas sociais. Historicamente, diferentes estratégias foram levadas a cabo pelos anarquistas em diversos contextos, priorizando algumas ações em relação a outras, mas sempre levando esse princípio em consideração. Na esfera econômica, os anarquistas atuaram criando cooperativas de produção nos moldes mutualistas, participando em ocupações de fábricas, greves expropriadoras e da luta dos trabalhadores articulando-se em organizações sindicais e articulando organizações camponesas para a luta pela terra na esfera política, os anarquistas vêm afirmando a necessidade de ações que envolvam a intervenção direta contra o capitalismo e o Estado, através da organização das classes populares ou do uso da violência na esfera cultural e ideológica, os anarquistas preconizaram a propaganda e iniciativas no campo da educação, além das próprias mobilizações populares, no sentido em que elas pudessem fortalecer uma certa consciência de classe. Entretanto, houve diversos debates relevantes acerca dessas estratégias entre os anarquistas, embora as lutas promovidas pelos anarquistas nas três esferas sustentaram, de modo geral, ações reivindicativas, insurrecionais, revolucionárias, mais ou menos violentas em determinados contextos e buscaram, permanentemente, promover a revolução social, a partir de transformações estruturais nas três esferas.
As posições dos anarquistas em relação a certas questões não constituem um todo homogêneo, e o anarquismo tem sido marcado por diversos debates e divergências. Os debates mais relevantes entre os anarquistas se dão em torno da defesa da autogestão e da estratégia.
Em relação à defesa da autogestão econômica e a socialização da propriedade, apresentam-se dois debates relevantes, entre os anarquistas que defendem o mercado autogestionário e os que defendem a planificação democrática, e entre os que defendem o coletivismo e os que defendem o comunismo como forma de distribuição do trabalho. Em relação à defesa da autogestão política, os debates se dão entre os que sustentam que a articulação política deve se dar no local de trabalho e os que sustentam que ela deve se dar no local de moradia. Há ainda um debate sobre os limites e as possibilidades da cultura na criação de uma sociedade autogestionária.
Há anarquistas que defendem que, em termos econômicos, a sociedade futura deverá ter por base um mercado autogestionário anarquistas que defendem essa posição afirmam que o mercado é um ambiente de circulação e distribuição de mercadorias que sempre existiu, mesmo antes do capitalismo, e sendo o mercado um espaço em que circulam as informações a respeito da oferta e da demanda de bens, ele seria a única forma eficiente de equilibrá-las. Anarquistas que defendem essa posição sustentam que a sociedade é muito complexa para que uma planificação eficiente e que atenda todas as demandas sociais seja possível somente o mercado poderia constituir esse canal de informações imprescindíveis para a economia e sua supressão geraria, necessariamente, uma planificação arbitrária e autoritária, contrariando os princípios da autogestão. Outros anarquistas, entretanto, defendem um tipo de planificação democrática, com a necessidade da supressão do mercado e do dinheiro. Alexander Berkman, que defendeu essa posição, sustentou que na sociedade libertária a troca será livre, sem a intermediação do dinheiro e sem lucro, tendo por base as requisições e o abastecimento à disposição. Outros anarquistas que defendem essa perspectiva econômica afirmam que a interação entre locais de moradia e trabalho, produtores e consumidores, permitiria a planificação econômica democrática, não só participativa, mas em larga escala. Não havendo o Estado para coordenar a produção com um planejamento central ou uma produção ajustada pelo mercado e pelo sistema de preços, surgiria uma economia socializada e autogestionada fundada em uma federação econômica de empresas e comunidades autogeridas, com uma assembleia no topo, que balancearia oferta e demanda, direcionando e distribuindo a produção com base nas demandas que surgiriam de baixo para cima. Essa posição é maioritária entre os militantes do anarquismo.
O russo Piotr Kropotkin foi um dos maiores defensores do que se convencionou a chamar de anarquismo comunista. Para ele, o coletivismo, na medida em que defendia a remuneração baseada no trabalho realizado, seria inadmissível, e que o modo de distribuição comunista seria o mais adequado em uma sociedade libertária O debate entre anarquistas que defendem o coletivismo e os que defendem o comunismo como modo de distribuição, evidenciou-se, marcadamente, em meados da década de 1870 e teve, depois disso, algum impacto entre os anarquistas. Até aquela época, a maioria dos anarquistas defendia o coletivismo, sistema de remuneração baseado no trabalho realizado, reconhecido na máxima a cada um segundo seu trabalho. Mikhail Bakunin, que sustentou essa perspectiva, afirmou que na sociedade libertária cada um deverá trabalhar para viver, cada um será livre para morrer de fome por não trabalhar, a menos que encontre uma associação ou uma comuna que consinta alimentá-lo por piedade, excluindo, entretanto, crianças, velhos e pessoas sem condições para o trabalho. O comunismo, modo de distribuição reconhecido pela máxima de cada um segunda suas possibilidades, a cada um segundo suas necessidades, passou a ser defendido por alguns anarquistas entre 1874 e 1876, e a partir de 1880, tornou-se hegemônico. Nesse sistema, defendido por anarquistas notáveis, como Piotr Kropotkin, cada um trabalharia nas medidas de suas possibilidades e consumiria nas medidas de suas necessidades, exigindo um aprofundamento ético sem precedentes e a garantia de que se cooperará em tal sentido. Cientes disso, houve anarquistas que defenderam posições intermediárias, como James Guillaume e Errico Malatesta, aceitando o coletivismo em uma primeira fase da sociedade libertária e tentando-se chegar progressivamente ao comunismo.
Tratando do local mais adequado para a articulação das instâncias políticas da sociedade autogestionária, há, fundamentalmente, três perspectivas uma que defende a articulação pelo local de moradia comunas , outra, que defende a articulação pelo local de trabalho sindicatos , e uma terceira, que sustenta uma perspectiva moderada entre ambas. O anarquista americano Murray Bookchin foi um defensor da organização política no local de moradia, tendo como base o município. Seu conjunto de ideias ficou conhecido como municipalismo libertário Defensor da primeira perspectiva, Murray Bookchin sustentava que o município deveria ser a base para relações sociais diretas, servindo como base para uma democracia frontal e para a intervenção pessoal do indivíduo, para que as freguesias, comunidades e cooperativas convirjam na formação de uma nova esfera pública. Para ele, somente uma confederação desses municípios poderia lançar um movimento popular capaz de produzir condições para a abolição do Estado. Sua defesa da organização comunitária como um poder popular dual, que se antagoniza com o poder estatal, marca sua crença exclusiva na mobilização em nível comunitário. Defensores da segunda perspectiva, em geral defensores do sindicalismo, acreditam que o poder autogestionário deveria ser articulado pelo local de trabalho, a partir da produção e do consumo, tendo uma base econômica. Diego Abad de Santillán afirmou que a república dos trabalhadores não se faz no parlamento nem por decreto do Estado, há que se construí-la com os trabalhadores, nos locais de trabalho, e não fora deles. Para Neno Vasco, de modo semelhante, o sindicato é o grupo essencial, o órgão específico de luta de classes e o núcleo reorganizador da sociedade futura, e constitui o agrupamento que manterá a continuidade da vida social, assegurando a produção do indispensável. A terceira perspectiva, mais moderada, é maioritária entre os anarquistas, e sustenta que grupos locais democráticos no local de trabalho e de moradia seriam o núcleo do movimento social que criaria o socialismo libertário. Os defensores dessa perspectiva acreditam que o poder da sociedade futura deveria ser compartilhada entre os locais de trabalho e de moradia, conciliando decisões econômicas e políticas.
No anarquismo, o debate que envolve a cultura se dá em torno das distintas expectativas em relação aos seus limites e possibilidades, envolvendo duas concepções teóricas distintas em relação às esferas sociais e os limites e possibilidades da esfera cultural e ideológica em relação às esferas política e econômica, variando entre dois polos com algumas posições intermediárias. De um lado, compreende-se que a criação de uma cultura autogestionária com todos os valores que ela implica é significativamente limitada por elementos políticos e principalmente econômicos. Mikhail Bakunin, que sustentava posições materialistas, afirmava que, embora as esferas política e cultural pudessem determinar a esfera econômica, esta última constituiria sempre uma base sobre a qual se desenvolvem as outras. Bakunin afirmava que a questão da educação não era a mais importante para a luta dos anarquistas e que, em primeiro lugar, estaria a sua emancipação política, que engendra necessariamente sua emancipação econômica e, mais tarde, sua emancipação intelectual e moral, e para ele, uma educação libertária só poderia se desenvolver plenamente sob um regime de autogestão econômica. De outro lado, há anarquistas que compreendem que a criação de uma cultura autogestionária é imprescindível para a sustentação da autogestão nas esferas política e econômica e que ela possui relevância de primeira ordem. Para Rudolf Rocker, um dos anarquistas que mais concederam relevância para a esfera cultural e ideológica no processo de estruturação social, a economia certamente possui influência relevante na sociedade todavia, ele sustentou que há na história milhares de fatos que não se deixam explicar unicamente por bases puramente econômicas, e que além da política, a vontade de poder é em geral uma das forças motrizes mais significativas da história, e portanto, a esfera cultural e ideológica possui lugar de destaque na determinação de fatos econômicos ou mesmo políticos. Estudando a relevância da cultura na determinação dos fatos sociais, Rocker ainda afirmou que é inegável o influxo da conformação psicológica do homem sobre a formação do ambiente social, ressaltando a relevância central da esfera cultural e ideológica, tanto pelo papel da cultura nos embates contra a dominação e da vontade na determinação das estruturas sociais, quanto pela crença de que a política emana, em grande medida, da concepção religiosa, e que a economia possui naturezas culturais. Também defendendo a relevância central da esfera cultural e ideológica, o anarquista chinês Wu Zhihui afirmava que quando a educação é popularizada, todos abandonam os velhos hábitos e começam uma nova vida, sendo a revolução apenas um claro efeito dessa transformação. Entre essas duas posições antagônicas, há uma série de posições intermediárias, sendo uma das mais relevantes a dos anarquistas que consideram que as ações da esfera cultural e ideológica são necessárias e possuem potencial significativo, ainda que reconheçam os limites estruturais e a necessidade de intervirem, ao mesmo tempo, nas esferas política e econômica. De modo geral, as posições que atribuem menos capacidade à esfera cultural e ideológica priorizam como estratégias de luta o sindicalismo e as cooperativas, enquanto as posições que atribuem a essa esfera maior capacidade priorizam a educação e a propaganda.
Em relação às estratégias anarquistas, apresentam-se quatro debates relevantes. O primeiro trata das distintas posições em torno da organização, com concepções anarquistas contrárias e favoráveis à organização o segundo apresenta as diferentes concepções em relação às reformas e lutas de curto prazo e as distintas compreensões em relação ao seu papel para se atingir a revolução o terceiro trata das posições em relação ao momento e ao contexto da utilização da violência o quarto, transversal aos outros, apresenta as diferentes concepções sobre a organização específica anarquista.
O debate sobre a questão da organização no anarquismo envolve três posições fundamentais o antiorganizacionismo, dos anarquistas que são contrários à organização e que defendem, de modo geral, a atuação individual ou em pequenas redes ou grupos informais o sindicalismo e o comunitarismo, dos anarquistas que sustentam que a organização dos anarquistas deve se dar somente no nível social e de massas, e que criar organizações específicas anarquistas seria algo redundante na medida em que os movimentos populares poderiam levar a cabo toda a estratégia anarquista e o dualismo organizacional, que sustenta serem necessárias, além das organizações de massa, as organizações específicas para promover o anarquismo de maneira mais consistente. O ítalo-americano Luigi Galleani foi um dos mais notórios anarquistas antiorganizacionistas. Para ele, os anarquistas deveriam atuar por meio da educação, da propaganda e da ação violenta Os antiorganizacionistas sustentam que qualquer organização política, ainda que fosse anarquista, conduziria necessariamente a uma hierarquia de tipo governamental, violando a liberdade individual, e sustentam também que os anarquistas deveriam se associar em redes pouco orgânicas, quase informais, pois a organização conduziria, necessariamente, à dominação. Tais posições são assumidas também em relação aos movimentos populares. Luigi Galleani, notório antiorganizacionista, afirmava que o movimento anarquista e o movimento operário percorrem caminhos paralelos e a constituição geométrica de linhas paralelas é feita de maneira que elas nunca possam se encontrar ou coincidir, sendo o anarquismo e o movimento operário corpos distintos, ainda para Galleani, as organizações operárias seriam vítimas de um conservadorismo cego e parcial, responsável por estabelecer um obstáculo, muitas vezes um perigo aos objetivos anarquistas. Em geral, os antiorganizacionistas sustentam que os anarquistas deveriam atuar por meio da educação, da propaganda e da ação violenta. Muitas vezes, as posições dos antiorganizacionistas foram sustentadas tendo, como base, alguns argumentos individualistas de origem exterior ao anarquismo, em especial de autores como Stirner e Nietzsche. O italiano Errico Malatesta defendeu o organizacionismo dual. Para ele, os anarquistas deveriam se organizar no nível social, dos sindicatos, como trabalhadores, e no nível político, como anarquistas Os sindicalistas e comunitaristas acreditam que o movimento popular possui as condições de abarcar posições libertárias, de maneira a cumprir todas as funções estratégicas necessárias a um processo revolucionário, opondo-se à criação de organizações específicas anarquistas. Entre os anarquistas que defendem as organizações exclusivamente comunitárias, posições relevantes encontram-se na obra de Bookchin, que defendia mobilizações de massa exclusivamente no campo comunitário, envolvendo trabalhadores, camponeses, profissionais e técnicos e superando os interesses corporativos e setoriais, vinculados necessariamente aos sindicatos. Entre os anarquistas que defendem o sindicalismo, encontram-se, ainda, duas estratégias fundamentais o anarcossindicalismo e o sindicalismo revolucionário. A primeira defende uma vinculação programática entre o anarquismo e o sindicalismo, enquanto a segunda sustenta fundamentalmente a neutralidade, a independência e a autonomia dos sindicatos, não vinculando-se a nenhuma ideologia específica. O dualismo organizacional apoia-se na ideia de que deve haver dois níveis de organização um social, de massas, e outro político e ideológico, anarquista no nível social, dos sindicatos, os anarquistas organizariam-se como trabalhadores no nível político, como anarquistas. Errico Malatesta, um dos mais notórios defensores dessa posição, afirmava que o partido anarquista como o conjunto daqueles que querem contribuir para realizar a anarquia, e que, por consequência, precisam fixar um objetivo a alcançar e um caminho a percorrer, deveria ser o responsável pela concepção da estratégia dos anarquistas e por sua aplicação no campo popular.
Todos os anarquistas defendem uma perspectiva revolucionária de transformação social, entretanto, há um debate relevante entre os anarquistas a respeito das reformas e lutas curto prazo. Alguns anarquistas defendem a posição de que as lutas de curto prazo e as reformas seriam meios para se chegar à revolução, enquanto outros são contrários a essas lutas e às próprias reformas. Geralmente, os primeiros são chamados de possibilistas e os segundos de impossibilistas. Posições impossibilistas foram defendidas constantemente entre os anarquistas e, em alguns contextos, tiveram expressões bastante significativas. Anarquistas que defendem tais posições argumentam que as greves seriam eficazes apenas se tivessem por objetivo imediato a revolução social nesse sentido, Emma Goldman criticou os operários norte-americanos que lutavam pela jornada de oito horas, dizendo que isso era uma perda de energia e de tempo e que seria uma estupidez os trabalhadores lutarem por tão pouco. Os impossibilistas defendem diferentes meios para a atuação anarquista enquanto uns defendem a propaganda pelo ato e sustentam que a utilização da violência por meio de atentados deveria ser a principal estratégia anarquista, outros defendem estratégias insurrecionais distintas, além da propaganda e da educação popular como meio de atuação. FORA pela jornada de oito horas de trabalho Posições possibilistas também foram bastante comuns entre os anarquistas, muitos dos quais envolvidos com a militância sindical ou comunitária. Para esses anarquistas, as lutas reivindicativas podem ser responsáveis pelo desenvolvimento daquilo que alguns chamam de ginástica revolucionária e, dependendo de como forem levadas a cabo, podem contribuir com o objetivo revolucionário anarquista. Malatesta foi um defensor dessa posição, ao afirmar que os anarquistas deveriam tomar ou conquistar as eventuais reformas no mesmo espírito daquele que arranca pouco a pouco do inimigo o terreno que ele ocupa, para avançar cada vez mais. Entretanto, a participação dos anarquistas em lutas de curto prazo não significa a adoção de uma postura reformista Neno Vasco, nesse sentido, afirmou que os anarquistas deveriam favorecer as reformas ou melhoramentos que sejam uma vantagem verdadeira para o proletariado ou que pelo menos não contrariem ou retardem o fim essencial, devendo os anarquistas defender lutas classistas, combativas, autônomas, construídas pela base por mecanismos autogestionários e com uma perspectiva revolucionária.
O momento e o contexto da utilização da violência têm gerado debates relevantes entre os anarquistas A maioria dos anarquistas considera que, muito provavelmente, a violência deverá ser utilizada, em maior ou menor grau, para promover a transformação revolucionária desejada. De qualquer forma, há um debate fundamental em relação ao momento e ao contexto da utilização da violência, envolvendo seus objetivos. Nesse debate, existem duas posições fundamentais uma, que sustenta que a violência funciona como uma ferramenta para criar movimentos revolucionários, sendo ela uma forma de propaganda que inspira os membros das classes populares a ingressarem em um processo revolucionário de luta e outra, que defende que a violência deve ser utilizada a partir de movimentos populares previamente estabelecidos, de maneira a aumentar sua força nos conflitos de classe, sendo a violência, nesse caso, uma ferramenta para favorecer as lutas de massas já existentes. Alfredo Bonanno, defensor da primeira posição, afirmou que a violência é a organização preventiva e o ataque preventivo sobre as forças burguesas. Galleani, também notório defensor dessa posição, sustentava que em vez das inefetivas conquistas de curto prazo, as táticas de corrosão e de ataque contínuo devem ser priorizadas, somente as greves gerais teriam condições de promover a revolução, a qual deveria ser buscada por meio da inevitável utilização da força e da violência. Anarquistas como Ravachol e Severino di Giovanni, que realizaram atentados durante suas vidas, acreditavam que seus atos de violência seriam, além de uma forma de propaganda, uma vingança contra os capitalistas. Embora historicamente minoritária, a defesa dessa posição foi adotada por um certo período por anarquistas notórios como Kropotkin e Malatesta. Anarquistas que defendem a segunda posição enfatizam que a violência deveria dar suporte ao movimento sindical e de massas durante um processo revolucionário. Nesse sentido, a violência é reivindicada como uma forma de autodefesa dos anarquistas e deveria ser utilizada somente nos momentos e contextos em que se vislumbre o fortalecimento do movimento de massas. Em geral, anarquistas envolvidos com o movimento sindical defenderam essa posição, que também foi adotada pela maior parte dos anarquistas, inclusive Kropotkin e Malatesta, durante a maior parte de suas vidas.
Muitos anarquistas defenderam a necessidade, criaram e participaram de organizações anarquistas ao longo da história. Bakunin teorizou sobre o tema e, juntamente com outros outros anarquistas, fundou a Aliança da Democracia Socialista em 1868. Kropotkin, defendendo a organização anarquista, afirmou que o partido que mais fez agitação revolucionária, que mais manifestou vida e audácia, esse partido será mais escutado no dia em que for preciso agir, em que for preciso avançar para a revolução. Malatesta sustentava que permanecer isolado, agindo ou querendo agir cada um por sua conta, sem se entender com os outros, sem preparar-se, sem enfeixar as fracas forças dos isolados, significa, para os anarquistas, condenar-se à fraqueza, desperdiçar sua energia em pequenos atos ineficazes, perder rapidamente a fé no objetivo e cair na completa inação. Emma Goldman sustentava que a organização anarquista deveria se fundamentar no respeito absoluto por todas as iniciativas individuais. Voltairine de Cleyre afirmava que a associação dos anarquistas deveria encontrar sua forma organizativa a partir da experiência. Max Nettlau, que os anarquistas deveriam organizar-se conservando sua autonomia, mas apoiando-se reciprocamente. E José Oiticica reivindicava o dualismo organizacional, sustentando que a organização anarquista deveria ser separada da organização sindical, e as duas deveriam trabalhar em dois níveis complementares de organização e atuação. Organizações específicas anarquistas também tiveram papel fundamental em diversos acontecimentos relevantes na história do anarquismo, e vários anarquistas defenderam a necessidade de tais organizações, articulando e participando de associações do tipo. Entretanto, dentre esses anarquistas, há um debate que tem, como foco, o modelo dessa organização, envolvendo questões como o nível de afinidade teórica, ideológica, estratégica e programática, critério de ingresso e grau de autonomia dos membros. Destacam-se duas posições fundamentais entre os anarquistas sobre essa questão. A primeira, defende um modelo de organização flexível, que insiste na necessidade de agrupar o maior número possível de anarquistas, ainda que com distintas perspectivas estratégicas. A segunda, defende um modelo de organização programático, que prioriza, entre os anarquistas, aqueles que possuam maior afinidade políticas e estratégias. Historicamente, o debate mais rico sobre esses modelos de organização anarquista ocorreu em meados da década de 1920 e início da década de 1930, em torno da polêmica entre a Plataforma Organizacional dos Comunistas Libertários e a Síntese Anarquista, com os defensores da primeira sustentando um modelo de organização programático, e os defensores da segunda, um modelo de organização mais flexível. Anarquistas que defendem um modelo de organização programático partem do pressuposto que há contradições fundamentais entre aqueles que se consideram anarquistas, sendo a solução para isso a criação de uma organização forte, com afinidade ampla entre os membros para incidir de maneira mais adequada nas lutas populares, devendo a organização se dar de modo federalista e autogestionário, com uma organicidade bem definida, direitos e deveres, autodisciplina e responsabilidade, além da defesa de uma unidade tática, ideológica, teórica e estratégica. Os anarquistas que defendem um modelo de organização flexível, por sua vez, partem do pressuposto que há grandes afinidades entre aqueles que se consideram anarquistas, e que deve-se buscar o fim das rusgas entre os anarquistas e a sua união em torno da luta pelos mesmos objetivos, devendo a organização se dar também de modo federalista e autogestionário, porém com uma organicidade limitada e com a participação de todos os anarquistas e prezando a autonomia dos indivíduos e grupos organizados, a diversidade nas posições ideológicas, teóricas e estratégicas.
A série de divergências existentes entre os anarquistas constituíram as bases para uma reflexão acerca do estabelecimento de correntes anarquistas. Entretanto, as diferenciações entre as correntes anarquistas foram estabelecidas de acordo com diferentes critérios pelos autores, não havendo nenhum consenso definido. Os critérios mais utilizados pelos autores clássicos, como Max Nettlau e George Woodcock, para definir as correntes do anarquismo, foram a distribuição dos produtos do trabalho na sociedade futura, subsidiando uma distinção entre coletivistas e comunistas os sujeitos mobilizados pelos anarquistas e as estratégias adotadas por eles subsidiando uma distinção entre anarcossindicalismo, sindicalismo revolucionário, anarquismo terrorista e anarquismo pacifista e critérios de ordem política e filosófica, como a defesa da liberdade individual. Para Woodcock, por exemplo, haveria três correntes anarquistas mutualismo, coletivismo e anarcocomunismo baseadas respectivamente nas obras de Proudhon, Bakunin e Kropotkin, levando em conta os modos de distribuição do trabalho na sociedade libertária anarcossindicalismo ou sindicalismo revolucionário, levando em conta os sujeitos mobilizados e as estratégias de luta anarquismo pacifista, levando em conta também as estratégias de luta, baseadas no repúdio à violência e fundamentadas na obra de Tolstói e anarco individualismo, levando em conta critérios de ordem filosófica, como a defesa radical das liberdades individuais e baseada nas obras de Godwin e Stirner. Entretanto, novos estudiosos do anarquismo, como Michael Schmidt e Lucien van der Walt, têm contestado esses critérios, argumentando que tais definições são insuficientes e que elas foram forjadas levando em conta um conjunto de pensadores muito restrito, alguns dos quais não seriam anarquistas como Godwin, Stirner e Tolstói para eles, foram os debates acerca da estratégia que historicamente dividiram os anarquistas a centralidade e a relevância desses debates indicariam que é em meio a eles que se devem buscar elementos para estabelecer as correntes anarquistas. Seguindo esse critério, os novos estudiosos do anarquismo estabeleceram duas correntes o anarquismo insurrecionário e o anarquismo social ou de massas.
Representação artística da segunda prisão de Ravachol, após um de seus atentados. Embora historicamente minoritário, o anarquismo insurrecionário foi a corrente anarquista que mais se difundiu no imaginário popular e que ficou forjada na imagem do anarquista conspirador e terrorista O anarquismo insurrecionário, segundo Michael Schmidt e Lucien van der Walt, ... afirma que as reformas são ilusórias e que os movimentos de massa organizados são incompatíveis com o anarquismo, dando ênfase à ação armada a propaganda pelo ato contra a classe dominante e suas instituições, como o principal meio de despertar uma revolta espontânea revolucionária. Sendo assim, os anarquistas insurrecionários fazem parte do campo antiorganizacionista e posicionam-se, na maioria dos casos, contrários aos movimentos de massa organizados. Para eles, o sindicalismo é, em geral, considerado um movimento que tende à burocratização e à busca exclusiva de reformas, constituindo um perigo ao anarquismo, que é, para esses anarquistas, essencialmente revolucionário. Em relação à articulação com outros anarquistas, os insurrecionários preferem grupos de afinidade sem muita organicidade às organizações mais estruturadas e programáticas. Para os anarquistas insurrecionários, as lutas reivindicativas são inúteis e, em última instância, ajudam a fortalecer o status quo para eles, somente a revolução social é que poderia promover a transformação social desejada. As reformas são condenadas ou consideradas supérfluas, já que afastam as classes populares dos objetivos prioritariamente revolucionários, na visão desses anarquistas. Os anarquistas insurrecionários são defensores da propaganda pelo ato, ou seja, acreditam que o anarquismo deve ser propagado por atos de violência contra a burguesia e membros do Estado, tomando corpo em assassinatos, atentados à bomba ou insurreições sem bases populares organizadas de antemão. Esses anarquistas consideram que esses atos individuais de violência teriam a capacidade de funcionar como um gatilho para influenciar trabalhadores e camponeses, gerando, a partir deles, movimentos insurrecionais e revoltas populares, capazes de levar, a cabo, a revolução social. Essa estratégia sustenta que a violência pode ocorrer fora dos movimentos populares organizados e sem o respaldo destes. Muitos dos que foram rotulados ou se identificaram como anarquistas individualistas foram incentivadores ou adeptos destas estratégias, principalmente por conta de suas posições contrárias à organização. Apesar de ser historicamente minoritária, essa corrente foi a que mais se difundiu no imaginário popular e que ficou forjada na imagem do anarquista conspirador e terrorista. O anarquismo insurrecionário foi defendido por anarquistas como Luigi Galleani, mile Henry, Ravachol, Nicola Sacco, Bartolomeo Vanzetti e Severino di Giovanni e grupos como o Bando Bonnot, francês, e o Chernoe znamia, russo encontrou respaldo também, por algum tempo, em anarquistas como Nestor Makhno, Kropotkin e Malatesta.
Operários e anarquistas marcham portando bandeiras negras pela cidade de São Paulo durante a greve de 1917. O anarquismo social ou de massas sustenta que os anarquistas devem participar dos movimentos populares de massa para radicalizá-los e transformá-los em alavancas para a transformação revolucionária O anarquismo social ou de massas, como definido por Michael Schmidt e Lucien van der Walt, ... enfatiza a visão de que somente os movimentos de massa podem criar uma transformação revolucionária na sociedade, que tais movimentos são normalmente construídos por meio de lutas em torno de questões imediatas e de reformas em torno de salários, brutalidade policial ou altos preços etc. , e que os anarquistas devem participar desses movimentos para radicalizá-los e transformá-los em alavancas para a transformação revolucionária. Os defensores do anarquismo social ou de massas constituem o setor organizacionista do anarquismo, sendo favoráveis à organização defendem que a transformação social só pode se dar pelo protagonismo dos movimentos populares, sejam eles construídos nos locais de trabalho ou nas comunidades. Entretanto, houve alguns casos de antiorganizacionistas que se vincularam ao anarquismo social ou de massas, embora constituam exceção. Ao contrário dos anarquistas insurrecionários, os anarquistas que defendem o anarquismo social ou de massas se posicionam favoráveis em relação às lutas de curto prazo e sustentam que as reformas desde que sejam conquistadas pelos próprios movimentos populares e não vindas de cima como obra da burguesia ou dos governos são os primeiros objetivos da luta popular de massas. Essa luta, que deve constituir-se com a mobilização social em torno de reivindicações, segundo eles, fortalece a consciência e solidariedade de classe e melhora as condições do povo, quando há conquistas. Assim, para esses anarquistas, reformas e revolução não são necessariamente contraditórias dependendo de como forem conquistadas, podem ser complementares é na luta pelas reformas que se forjam as condições para realizar a revolução, segundo eles. Sobre a questão da violência, esses anarquistas concordam que as ideias anarquistas também devem ser difundidas por atos, ainda que entendam por atos as mobilizações populares de massa, e não os atos isolados de violência atos que também devem ser conciliados com as intervenções por meio de discursos e escritos. A violência não deve, deste ponto de vista, ser realizada com o objetivo de criar movimentos insurrecionais, mas ser perpetrada a partir de movimentos populares amplos já existentes, e, portanto, ter significativo respaldo popular uma violência que deve ser levada a cabo pela própria classe organizada, de maneira a fortalecê-la nos conflitos de classe. Essa corrente foi historicamente majoritária e teve, como adeptos, militantes e teóricos proeminentes como Mikhail Bakunin, Buenaventura Durruti, Fernand Pelloutier, Rudolf Rocker, Voline, Ricardo Flores Magón, Ba Jin e Edgard Leuenroth, além de Makhno, Kropotkin e Malatesta, que, durante a maior parte de suas vidas, defenderam essa abordagem. O anarquismo social ou de massas, entretanto, teria duas subdivisões de ordem estratégica em relação às abordagens sindicais e antissindicais. Dentre as abordagens sindicais, estão as posições anarcossindicalistas e sindicalistas revolucionárias entre as abordagens antissindicalistas, estão as posições que defendem as mobilizações de massa pelos locais de moradia.
As críticas mais comuns ao anarquismo sustentam que este seria uma ideologia utópica e inviável, na medida em que, para esses críticos, as forças repressivas seriam absolutamente necessárias para a manutenção da ordem social, relacionando o anarquismo com a destruição, o caos, a desorganização e com posturas antissociais e desagregadoras, geralmente violentas ou criminosas. Também são comuns críticas no sentido de que o anarquismo se trataria de uma ideologia juvenil, visto que por razão da idade, os jovens estariam mais naturalmente envolvidos em problemas com a autoridade e em revolta contra as concepções morais e sociais dos mais velhos. O anarquismo também tem sido apontado por diversos críticos como uma ideologia incoerente, e sustentam que a disputa e a discórdia sempre fizeram parte de sua mais genuína natureza, e ainda apontam que o anarquismo jamais teve impacto popular relevante e que encontrou a oposição de todas as classes. Críticos marxistas geralmente afirmam que o anarquismo seria uma doutrina pequeno-burguesa, alheia ao proletariado, sem fundamentos, voluntarista, idealista, individualista e sectária, muitas vezes argumentando que o anarquismo se sustenta em versões extremadas do liberalismo individualista e que ele não teria qualquer contribuição significativa para a teoria socialista e o movimento operário de modo geral. Marxista notório, o historiador inglês Eric Hobsbawm afirmou que, em todos os países onde o anarquismo teve um papel importante na vida política, as estratégias dos anarquistas foram totalmente ineficazes, considerando-o um capítulo definitivamente encerrado no desenvolvimento dos movimentos revolucionários e operários modernos, tratando-o como um fenômeno pré-político e pré-industrial que encontrou expressão apenas em países menos desenvolvidos economicamente para ele, o principal atrativo do anarquismo era emocional e não intelectual.
Prominent Anarchists and Left-Libertarians, de flag.blackened.net The Antiauthoritarian Encyclopediafrom the Daily Bleed Calendar Categoria Anarquismo Categoria Anticapitalismo Categoria Antifascismo Categoria Cultura política Categoria Extrema-esquerda Categoria Esquerda política Categoria Ideologias políticas Categoria Sociologia Categoria Socialismo libertário Categoria Regimes políticos Categoria Teorias sociais Categoria Filosofia políticaAlbert Einstein Ulm, 14 de março de 1879 Princeton, 18 de abril de 1955 foi um físico teórico alemão que desenvolveu a teoria da relatividade geral, um dos pilares da física moderna ao lado da mecânica quântica. Embora mais conhecido por sua fórmula de equivalência massa-energia, E mc que foi chamada de a equação mais famosa do mundo , foi laureado com o Prêmio Nobel de Física de 1921 por suas contribuições à física teórica e, especialmente, por sua descoberta da lei do efeito fotoelétrico, que foi fundamental no estabelecimento da teoria quântica. Nascido em uma família de judeus alemães, mudou-se para a Suíça ainda jovem e iniciou seus estudos na Escola Politécnica de Zurique. Após dois anos procurando emprego, obteve um cargo no escritório de patentes suíço enquanto ingressava no curso de doutorado da Universidade de Zurique. Em 1905, publicou uma série de artigos acadêmicos revolucionários. Uma de suas obras era o desenvolvimento da teoria da relatividade especial. Percebeu, no entanto, que o princípio da relatividade também poderia ser estendido para campos gravitacionais, e com a sua posterior teoria da gravitação, de 1916, publicou um artigo sobre a teoria da relatividade geral. Enquanto acumulava cargos em universidades e instituições, continuou a lidar com problemas da mecânica estatística e teoria quântica, o que levou às suas explicações sobre a teoria das partículas e o movimento browniano. Também investigou as propriedades térmicas da luz, o que lançou as bases da teoria dos fótons. Em 1917, aplicou a teoria da relatividade geral para modelar a estrutura do universo como um todo. Suas obras renderam-lhe o status de celebridade mundial enquanto tornava-se uma nova figura na história da humanidade, recebendo prêmios internacionais e sendo convidado de chefes de estado e autoridades. Estava nos Estados Unidos quando o Partido Nazista chegou ao poder na Alemanha, em 1933, e não voltou para o seu país de origem, onde tinha sido professor da Academia de Ciências de Berlim. Estabeleceu-se então no país, onde naturalizou-se em 1940. Na véspera da Segunda Guerra Mundial, ajudou a alertar o presidente Franklin Delano Roosevelt que a Alemanha poderia estar desenvolvendo uma arma atômica, recomendando aos norte-americanos a começar uma pesquisa semelhante, o que levou ao que se tornaria o Projeto Manhattan. Apoiou as forças aliadas, denunciando no entanto a utilização da fissão nuclear como uma arma. Mais tarde, com o filósofo britânico Bertrand Russell, assinou o Manifesto Russell-Einstein, que destacou o perigo das armas nucleares. Foi afiliado ao Instituto de Estudos Avançados de Princeton, onde trabalhou até sua morte em 1955. Realizou diversas viagens ao redor do mundo, deu palestras públicas em conceituadas universidades e conheceu personalidades célebres de sua época, tanto na ciência quanto fora do mundo acadêmico. Publicou mais de 300 trabalhos científicos, juntamente com mais de 150 obras não científicas. Suas grandes conquistas intelectuais e originalidade fizeram da palavra Einstein sinônimo de gênio. Em 1999, foi eleito por 100 físicos renomados o mais memorável físico de todos os tempos. No mesmo ano, a revista TIME, em uma compilação com as pessoas mais importantes e influentes, classificou-o a pessoa do século XX.
Monumento no local onde Einstein nasceu, em Ulm Albert Einstein nasceu em Ulm, no Reino de W rttemberg, Império Alemão atual Baden-W rttemberg, Alemanha , em 14 de março de 1879. Seus pais eram Hermann Einstein, um vendedor e engenheiro, e Pauline Einstein nascida Koch . Os Einstein eram judeus asquenazes não praticantes. Em 1880 a família mudou-se para Munique, onde seu pai e tio fundaram a Elektrotechnische Fabrik J. Einstein Cie, empresa que fabricava equipamentos elétricos acionados por corrente contínua. Um ano mais tarde seus pais deram à luz a uma menina, Maria Maja Einstein, sua irmã mais nova. Com cinco anos de idade o jovem Albert estudou em uma escola primária católica durante três anos. Aos oito foi transferido para o Ginásio Luitpold, hoje conhecido como Ginásio Albert Einstein, onde recebeu educação escolar primária e secundária, até deixar a Alemanha sete anos depois. Seu tio Jacob, um engenheiro, e Max Talmey, um jovem estudante pobre de medicina que jantava na casa da família uma vez por semana entre 1889 e 1894, foram grandes influências durante seus anos de formação. Eles incentivaram sua curiosidade inerente e insaciável sobre tudo. Talmey trouxe livros populares de ciência, incluindo Crítica da Razão Pura de Immanuel Kant, que Einstein começou a ler. Einstein com cerca de 14 anos, 1894 Em 1894, a empresa de seu pai faliu a corrente contínua perdeu a Guerra das Correntes para a corrente alternada. Em busca de negócios, a família de Einstein mudou-se para a Itália, primeiro para Milão e, alguns meses mais tarde, para Pavia. Quando a família se mudou para a cidade italiana, Einstein ficou em Munique para terminar seus estudos no Ginásio Luitpold. Seu pai queria que seguisse a engenharia elétrica, mas o jovem entrou em choque com as autoridades e ressentiu-se com o regime da escola e o método de ensino. Escreveu mais tarde que o espírito do conhecimento e o pensamento criativo foram perdidos na esteira da aprendizagem mecânica. No final de dezembro de 1894, viajou para a Itália para se juntar à sua família em Pavia, convencendo a escola a deixá-lo ir usando um atestado médico. Foi durante seu tempo na Itália que escreveu um pequeno ensaio com o título Sobre a Investigação do Estado do ter num Campo Magnético. No final do verão de 1895, com dezesseis anos, dois antes da idade padrão, realizou os exames de admissão para a Escola Politécnica Federal Suíça hoje a ETH-Zurique . Ele não conseguiu alcançar o padrão exigido em várias disciplinas, mas obteve notas excepcionais em física e matemática. Seguindo o conselho do diretor da Politécnica, frequentou a Escola Cantonal em Aarau, Suíça, entre 1895 e 1896 para completar o ensino secundário. Enquanto se hospedava com a família do professor Jost Winteler, apaixonou-se por sua filha, Marie Winteler mais tarde sua irmã Maja casou-se com o filho dos Wintelers, Paul . Em 28 de janeiro de 1896, com a aprovação de seu pai, renunciou à sua cidadania no Reino de W rttemberg, para evitar o serviço militar. Em 29 de outubro foi aprovado no exame Matura com boas notas. Embora tivesse apenas 17 anos, um a menos que os demais alunos, matriculou-se no curso de quatro anos para obter o diploma de professor de física da Escola Politécnica. Durante os anos de graduação, viveu com uma mesada de 1 franco suíço por mês, da qual guardou uma pequena quantia para pagar por seus papéis de naturalização. Marie Winteler mudou-se para Olsberg, Suíça, onde obteve um cargo como professora. A futura esposa de Einstein, Mileva Mari , também se matriculou na Escola Politécnica no mesmo ano, e era a única mulher entre os seis estudantes de matemática e física nas aulas do curso. Com o passar dos anos, sua amizade com Mari se desenvolveu em romance, e juntos liam livros extra-curriculares de física onde Einstein estava mostrando um interesse crescente. Em 1900, Einstein foi agraciado com o diploma de ensino da Politécnica de Zurique, mas Mari foi reprovada no exame com uma nota baixa em um componente da matemática, a teoria das funções. Houve alegações de que Mari colaborou com Einstein em seus célebres trabalhos de 1905, mas os historiadores da física que estudaram a questão não encontraram nenhuma evidência de que ela tenha feito quaisquer contribuições substanciais.
Mileva Mari e Albert Einstein, 1912 Einstein e Mari casaram-se em 6 de janeiro de 1903, em Berna. Em 14 de maio de 1904 nasceu o primeiro filho do casal, Hans Albert Einstein, na capital suíça. Seu segundo filho, Eduard, nasceu em Zurique, em julho de 1910. Seu casamento não parece ter sido muito feliz. Em cartas reveladas em 2015, escreveu ao seu antigo amor, Marie Winteler, sobre seu casamento e seus ainda fortes sentimentos por ela. Em 1910, escreveu penso em você do fundo do coração em cada minuto livre de que disponho, e estou tão infeliz como só um homem pode estar, enquanto sua mulher estava grávida do seu segundo filho. Falou sobre um amor mal orientado e uma vida desperdiçada em relação aos seus sentimentos por Marie. Em 1914 mudou-se para Berlim, enquanto sua esposa ficou em Zurique com seus filhos. Eles se divorciaram em 14 de fevereiro de 1919, após viverem separados por cinco anos. Existem rumores de que ele era um mulherengo devasso e teve muitos casos. No entanto, essas histórias não seriam fundamentadas. Depois de se tornar famoso, muitas mulheres, jovens e velhas, aproximaram-se dele com o pretexto de tentar entender sua teoria. Mileva não toleraria esse comportamento e se tornou briguenta, e este foi um dos motivos de seu divórcio. Ela viveu em Zurique como uma viúva. Pela maioria dos relatos seu estado mental se acalmou, e ela cuidou de seus dois filhos. Einstein visitou sua ex-esposa e seu filho Eduard, que era esquizofrênico e vivia em uma instituição mental, pela última vez às vésperas da Segunda Guerra Mundial. Mari morreu tranquilamente em um hospital em agosto de 1948. A descoberta e publicação em 1987 de uma correspondência inicial entre Einstein e sua esposa revelou que eles tiveram uma filha, Lieserl, nascida em Novi Sad, onde Mari estava com seus pais. Mari voltou à Suíça sem a criança, cujo nome verdadeiro e destino são desconhecidos. Einstein provavelmente nunca viu sua filha. Seu destino é desconhecido, mas o conteúdo de uma carta que escreveu a Mari em setembro de 1903 sugere que a criança foi adotada ou morreu de escarlatina na infância. Posteriormente, casou-se com Elsa L wenthal em 2 de junho de 1919, após ter tido um relacionamento com ela desde a Páscoa de 1912. Elsa era sua prima materna em primeiro grau e paterna em segundo grau. Em 1933, eles emigraram para os Estados Unidos. Em 1935 Elsa Einstein foi diagnosticada com problemas cardíacos e renais e morreu em 20 de dezembro de 1936. De seus filhos com Mari , Hans Einstein foi o único a gerar descendência, tendo um menino, Bernhard Caesar, nascido em 1930 o único neto conhecido de Einstein. Da esquerda para a direita Conrad Habicht, Maurice Solovine e Einstein, fundadores da Academia Olímpia Depois de formado, Einstein passou quase dois anos frustrantes procurando um cargo de professor. Adquiriu a nacionalidade suíça em 21 de fevereiro de 1901, mas não foi convocado para a conscrição por razões médicas. O pai de Marcel Grossmann o ajudou a conseguir um emprego em Berna, no Instituto Federal Suíço de Propriedade Intelectual, o escritório de patentes da Suíça, onde começou a trabalhar em 16 de junho de 1902 como examinador assistente. Dentre outras atividades avaliou pedidos de patentes de dispositivos eletromagnéticos. Em 1903 seu posto no escritório de patentes tornou-se permanente, embora tenha sido preterido para promoção até que dominasse totalmente a tecnologia da máquina. Muito de seu trabalho no escritório de patentes relacionava-se a questões sobre a transmissão de sinais elétricos e sincronização eletromecânica do tempo, dois problemas técnicos que aparecem visivelmente nos experimentos mentais que o levaram a suas conclusões radicais sobre a natureza da luz e da conexão fundamental sobre o espaço e tempo. Com alguns amigos que conheceu em Berna, começou um pequeno grupo de discussão, autodenominado Academia Olímpia, que se reunia regularmente para discutir ciência e filosofia. As leituras do grupo incluíam trabalhos de Henri Poincaré, Ernst Mach e David Hume, que influenciaram sua visão científica e filosófica.
Einstein no Escritório de Patentes de Berna, 1905 Em fevereiro de 1901, Einstein adquiriu a nacionalidade suíça. Poucos meses depois, no início do mesmo ano, seu artigo Conclusões Retiradas dos Fenômenos da Capilaridade Folgerungen aus den Capillarit tserscheinungen foi publicado no prestigiado periódico acadêmico Annalen der Physik. Foi seu primeiro artigo científico a ser publicado, os editores ficaram impressionados e publicaram o trabalho do jovem cientista desconhecido em março, quando tinha completado apenas 22 anos. Estimulado pelo seu sucesso inicial, poucos meses depois, em setembro, o jovem futuro pai iniciou seu doutoramento pela Universidade de Zurique com o professor de física experimental Alfred Kleiner como orientador, com a tese Uma Nova Determinação das Dimensões Moleculares Eine neue Bestimmung der Molek ldimensionen , um artigo sobre as forças moleculares em gases na qual esperava que lhe conferisse o grau acadêmico de doutor. Ainda no verão de 1901, trabalhou como professor substituto numa escola técnica em Winterthur e como tutor numa escola particular em Schaffhausen. Einstein concluiu sua tese em 30 de abril de 1905. Neste mesmo ano, que tem sido chamado de o Ano Miraculoso, publicou quatro trabalhos revolucionários sobre o efeito fotoelétrico, o movimento browniano, a relatividade especial e a equivalência entre massa e energia, que o levariam ao conhecimento do mundo acadêmico. Em 1906, enquanto era promovido no escritório de patentes, recebeu formalmente o título de doutor e conheceu Max Planck, que começou a discutir algumas implicações da teoria da relatividade especial. No final desse ano terminou um artigo fundamental sobre calor específico, além de escrever resenhas de livros para o Annalen der Physik. No final de 1907, fez seus primeiros passos importantes em direção à teoria da relatividade geral tentando reconciliar a gravidade newtoniana com a relatividade especial, além de tentar usar o princípio da equivalência para a construção de uma nova teoria da gravidade. Retrato oficial de Einstein em 1921 depois de receber o Prêmio Nobel de Física Em fevereiro de 1908 já era reconhecido como um importante cientista e foi nomeado Privatdozent professor na Universidade de Berna. No ano seguinte, deixou o escritório de patentes e o cargo de professor e começou a dar aulas de eletrodinâmica na Universidade de Zurique, Alfred Kleiner recomendou-lhe à faculdade um recém-criado cargo de professor em física teórica. Foi nomeado professor adjunto em 1909. Tornou-se professor catedrático na Universidade Carolina em Praga, em 1911, aceitando a cidadania austríaca no Império Austro-Húngaro para fazer isso. Em 1912, entretanto, retornou à sua alma mater, em Zurique. De 1912 até 1914 foi professor de física teórica no Instituto Federal de Tecnologia de Zurique ETH , onde lecionou mecânica analítica e termodinâmica. Também estudou mecânica do contínuo, a teoria molecular do calor, e o problema da gravitação, no qual trabalhou com o matemático Marcel Grossmann. Em 1914, retornou à Alemanha depois de ser nomeado diretor do Instituto Kaiser Guilherme de Física 1914- 1932 e professor da Universidade Humboldt de Berlim, com uma cláusula especial em seu contrato que o liberou da maioria das obrigações dos docentes. Ele se tornou um membro da Academia Prussiana de Ciências. Em 1916, Einstein foi nomeado presidente da Sociedade Alemã de Física, cargo que ocuparia até 1918. Em novembro de 1911 foi convidado a participar da primeira Conferência de Solvay em Bruxelas, que reunia alguns dos maiores cientistas de todos os tempos, junto de Max Planck e Marie Curie. No mesmo ano, calculou que, com base em sua nova teoria da relatividade geral, a luz de uma estrela seria curvada pela gravidade do Sol. Essa previsão foi dada como confirmada em observações feitas por duas expedições britânicas, durante o eclipse solar de 29 de maio de 1919 uma liderada por Sir Arthur Stanley Eddington na Ilha do Príncipe e outra liderada por Andrew Crommelin e Charles R. Davidson na cidade brasileira de Sobral, no Ceará. Notícias da mídia internacional fizeram Einstein instantaneamente famoso. Em 7 de novembro, The Times, o maior jornal britânico, publicou uma manchete que dizia Revolução na Ciência Nova Teoria do Universo Ideias de Newton Derrubadas. Usando sua imagem na capa, a revista semanal alemã Berliner Illustrirte Zeitung publicou uma manchete intitulada Nova figura na história do mundo. Muito mais tarde, foram levantadas questões se os cálculos foram precisos o suficiente para apoiar a teoria. Em 1980, os historiadores John Earman e Clark Glymour publicaram uma análise sugerindo que Eddington tinha suprimido resultados desfavoráveis. A seleção dos dados de Eddington parece válida e sua equipe realmente fez medições astronômicas verificando a teoria. Posteriormente, em 1979 o Observatório Real de Greenwich fez uma reanalise moderna dos dados, apoiando a medição original de 1919. Em 10 de novembro de 1922, Einstein foi agraciado com o Prêmio Nobel de Física de 1921 por suas contribuições à física teórica e, especialmente, por sua descoberta da lei do efeito fotoelétrico. A relatividade não era bem compreendida. Mais tarde também recebeu a Medalha Copley da Royal Society em 1925 e a Medalha de Ouro da Royal Astronomical Society em 1926.
Einstein visitou Nova Iorque pela primeira vez em 2 de abril de 1921, onde recebeu uma recepção oficial por parte do prefeito John Francis Hylan, seguido de três semanas de palestras e recepções. Apresentou diversas conferências na Universidade Columbia e na Universidade de Princeton, e em Washington acompanhou representantes da Academia Nacional de Ciências em uma visita à Casa Branca. Em seu retorno à Europa, foi convidado do estadista e filósofo britânico Visconde de Haldane, em Londres, onde se encontrou com várias figuras científicas, intelectuais e políticas de renome e apresentou uma palestra na King s College de Londres. Em 1922, viajou por toda a sia e depois à Palestina, como parte de uma excursão de seis meses apresentando palestras. Suas viagens incluíram Singapura, Ceilão e Japão, onde deu uma série de palestras para milhares de japoneses. Sua primeira palestra em Tóquio durou quatro horas e após a apresentação encontrou-se com o imperador e imperatriz no Palácio Imperial, onde milhares vieram assisti-lo. Em uma carta para seus filhos, descreveu sua impressão sobre os japoneses como modestos, inteligentes, atenciosos e tendo sensibilidade para a arte. Em sua viagem de volta também visitou a Palestina durante 12 dias, no que viria a ser sua única visita naquela região. Ao chegar na casa do alto comissário britânico Sir Herbert Louis Samuel com uma saudação com tiro de canhão, foi recebido como se fosse um chefe de Estado, em vez de um físico. Durante uma recepção, o edifício foi invadido por pessoas que queriam ver e ouvi-lo. Na palestra para a audiência, expressou sua felicidade de que o povo judeu estava começando a ser reconhecido como uma força no mundo. Carlos Chagas e a equipe do Instituto Oswaldo Cruz, em recepção a Einstein. Einstein fez uma viagem à América do Sul, em 1925, visitando países como Argentina, Uruguai e também o Brasil. Além de fazer conferências científicas, visitou universidades e instituições de pesquisas. Em 21 de março passou pelo Rio de Janeiro, onde foi recebido por jornalistas, cientistas e membros da comunidade judaica. Visitou o Jardim Botânico e fez o seguinte comentário, por escrito, para o jornalista Assis Chateaubriand O problema que minha mente formulou foi respondido pelo luminoso céu do Brasil. Tal afirmação dizia respeito a uma observação do eclipse solar registrada na cidade cearense de Sobral por uma equipe de cientistas britânicos, liderada por Andrew Crommelin e Charles R. Davidson, que buscava vestígios que pudessem comprovar a teoria da relatividade. Em 24 de abril de 1925, Einstein deixou Buenos Aires e alcançou Montevidéu. Fez ali três conferências e, tal como na Argentina, participou de várias recepções e visitou o presidente do Uruguai. Einstein permaneceu no Uruguai por uma semana, de onde saiu no primeiro dia de maio, em direção ao Rio de Janeiro, no navio Valdívia. Desembarcou novamente no Rio de Janeiro em 4 de maio. Nos dias seguintes percorreria vários pontos turísticos da cidade, incluindo o Pão de Açúcar, o Corcovado e a Floresta da Tijuca. As anotações de seu diário ilustram bem suas percepções quanto à natureza tropical do local. No dia 6 de maio, visitou o então presidente da república, Artur Bernardes, além de alguns ministros. Seu programa turístico-científico no Brasil incluiu diversas visitas a instituições, como o Museu Nacional do Rio de Janeiro, a Academia Brasileira de Ciências e o Instituto Oswaldo Cruz, e duas conferências uma no Clube de Engenharia do Rio de Janeiro, em 6 de maio, e a outra na Escola Politécnica do Largo de São Francisco, atual Escola Politécnica da Universidade Federal do Rio de Janeiro, dois dias depois. Através de ondas da rádio Sociedade, criada em 1923, Einstein proferiu em alemão uma mensagem à população, que foi traduzida pelo químico Mário Saraiva. Nesta mensagem, o cientista destacou a importância dos meios radiofônicos para a difusão da cultura e do aprendizado científico, desde que sejam utilizados e preservados por profissionais qualificados. Einstein deixaria o Rio no dia 12 de maio. Essa sua visita foi amplamente divulgada pela imprensa e influenciou na luta pelo estabelecimento de pesquisa básica e para a difusão das ideias da física moderna no Brasil. Deixando o Rio, o já famoso físico alemão enviou, do navio, uma carta ao Comitê Nobel. Nesta carta, sugeria o nome do marechal Cândido Rondon para o Nobel da Paz. Einstein teria se impressionado com o que se informou sobre as atividades de Rondon em relação à integração de tribos indígenas ao homem civilizado, sem o uso de armas ou algo do tipo. Charlie Chaplin e Einstein em Hollywood na estreia de Luzes da Cidade, em janeiro de 1931 Em março de 1928, durante uma viagem a Davos, Suíça, entrou em colapso com uma condição cardíaca grave. Confinado à cama por quatro meses, levou um ano para se recuperar totalmente. Em dezembro de 1930, visitou os Estados Unidos pela segunda vez, originalmente concebida como uma visita de trabalho de dois meses como pesquisador no Instituto de Tecnologia da Califórnia Caltech . Após a atenção nacional que recebeu durante sua primeira viagem ao país, ele e seus coordenadores tinham o objetivo de proteger sua privacidade. Embora inundado com telegramas e convites para receber prêmios ou falar em público, recusou todos eles. Depois de chegar em Nova Iorque, foi levado para vários lugares e eventos, incluindo Chinatown, um almoço com os editores do New York Times, e uma performance de Carmen no Metropolitan Opera, onde foi aplaudido pelo público em sua chegada. Durante os dias seguintes, recebeu as chaves da cidade pelo prefeito Jimmy Walker e conheceu o presidente da Universidade Columbia, que o descreveu como o monarca da mente. Harry Emerson Fosdick, pastor da Igreja de Riverside, lhe deu uma excursão pela igreja e o apresentou a uma estátua em tamanho real do físico, de pé na entrada. Além disso, durante sua estadia em Nova Iorque, Einstein se juntou a uma multidão de 15 mil pessoas no Madison Square Garden durante uma festa de Hanucá. Em seguida viajou para a Califórnia, onde se encontrou com o presidente da Caltech e Prêmio Nobel, Robert Andrews Millikan. Sua amizade com ele era estranha, já que Millikan tinha uma propensão ao militarismo patriótico, onde Einstein era um pacifista pronunciado. Durante um discurso aos alunos da instituição, observou que a ciência era muitas vezes disposta a fazer mais mal do que bem. Esta aversão à guerra também o levou a fazer amizade com o autor Upton Sinclair e a estrela de cinema Charlie Chaplin, ambos conhecidos por seu pacifismo. Carl Laemmle, chefe da Universal Studios, deu ao físico um passeio em seu estúdio e o apresentou a Chaplin. Tiveram uma comunicação instantânea, com Chaplin o convidando junto de sua esposa, Elsa, a sua casa para jantar. Chaplin disse que a personalidade exterior de Einstein, calma e gentil, parecia esconder um temperamento altamente emocional, a partir do qual chegou a sua energia intelectual extraordinária. Chaplin também lembrou que Elsa lhe contou sobre a época em que concebeu a teoria da relatividade. Durante o café da manhã, parecia perdido em pensamentos e ignorou sua comida. Ela lhe perguntou se algo o incomodava. Ele se sentou em seu piano e começou a tocar. Continuou tocando e escrevendo notas durante meia hora, em seguida, subiu para seus estudos, onde permaneceu por duas semanas, com Elsa trazendo sua comida. No final das duas semanas, desceu as escadas com duas folhas de papel que ostentavam sua teoria. Seu filme, Luzes da Cidade, teve lançamento alguns dias mais tarde, em Hollywood, e Chaplin os convidou a juntarem-se a ele como seus convidados especiais, descrito por Isaacson como uma das cenas mais memoráveis da nova era das celebridades. Ambos chegaram juntos, em gravata preta, com Elsa se juntando a eles, radiante. O público aplaudiu quando eles entraram no teatro. Chaplin visitou Einstein em sua casa em uma viagem mais tarde a Berlim, e recordou o seu pequeno apartamento modesto e o piano em que tinha começado a escrever sua teoria. Chaplin especulou que era usado possivelmente como graveto pelos nazistas.
Caricatura representando Einstein junto a um sinal intitulado Paz Mundial e despojado de suas asas de pacifismo. Ele arregaça suas mangas e segura uma espada intitulada Prevenção cerca de 1933 Em fevereiro de 1933, durante uma visita aos Estados Unidos, Einstein decidiu não voltar para a Alemanha devido à ascensão do Partido Nazista ao poder com seu novo chanceler Adolf Hitler. Enquanto em universidades norte-americanas no início daquele ano, realizou sua terceira visita de dois meses como professor na Caltech, em Pasadena. Junto de sua esposa Elsa, voltou de navio para a Bélgica no final de março. Durante a viagem, foram informados de que sua casa havia sido invadida pelos nazistas e seu veleiro pessoal confiscado. Após o desembarque em Antuérpia em 28 de março, foi imediatamente ao consulado alemão onde apresentou seu passaporte e formalmente renunciou à cidadania alemã. No mesmo dia enviou uma carta na qual apresentou sua renúncia à Academia Prussiana de Berlim. No início de abril, soube que o novo governo alemão tinha instituído leis que proibiam os judeus de ocupar cargos oficiais, incluindo lecionar em universidades. Retrato tirado em Princeton, em 1935 O historiador Gerald Holton descreveu que praticamente nenhum protesto sonoro foi levantado por seus colegas, milhares de cientistas judeus foram subitamente forçados a desistir de seus cargos universitários e seus nomes foram retirados das listas de instituições em que eram empregados. Um mês depois, as obras de Einstein estavam entre os alvos da queima de livros dos nazistas, e o Ministério da Propaganda Joseph Goebbels proclamou o intelectualismo judaico está morto. Einstein também tomou conhecimento de que seu nome estava em uma lista de alvos de assassinato, com uma recompensa de 5 mil dólares por sua cabeça. Uma revista alemã o incluiu em uma lista de inimigos do regime com a frase ainda não enforcado. Residiu temporariamente em Coq sur Mer, na costa da Bélgica, onde junto de sua esposa tiveram guardas designados pelo governo para protegê-los. Em julho foi para Inglaterra por cerca de seis semanas, a convite pessoal do oficial da marinha britânica Comandante Oliver Locker-Lampson, que havia se tornado seu amigo nos anos anteriores. Para protegê-lo, Locker-Lampson secretamente tinha dois assistentes o vigiando em sua casa de campo isolada fora de Londres, com a imprensa publicando uma foto deles protegendo Einstein. Em uma carta para o seu amigo, o físico Max Born, que também emigrou da Alemanha e vivia na Inglaterra, Einstein escreveu que o grau de brutalidade e covardia deles chegou como uma surpresa. Locker-Lampson o levou para conhecer Winston Churchill em sua casa e, mais tarde, Austen Chamberlain e o ex-Primeiro-Ministro David Lloyd George. Einstein pediu-lhes para ajudar a trazer cientistas judeus da Alemanha. Nos dias seguintes, o Comandante introduziu um projeto de lei no Parlamento para ampliar as oportunidades de cidadania aos judeus. Em 17 de outubro voltou para os Estados Unidos, assumindo um cargo no Instituto de Estudos Avançados de Princeton, o que exigia sua presença durante seis meses por ano. Ainda estava indeciso sobre o seu futuro, tinha ofertas de universidades europeias, incluindo a Christ Church, Oxford, mas em 1935 chegou à decisão de permanecer permanentemente nos Estados Unidos e requerer a cidadania norte-americana. No mesmo ano comprou uma casa em Princeton, na 112 Mercer Street, menos de uma milha a pé do futuro campus do Instituto, que estava em construção. Foi um dos membros do corpo docente do Instituto, juntamente com os matemáticos Oswald Veblen, James Alexander, John von Neumann e Hermann Weyl. Ele nunca mais voltou para a Europa. Sua afiliação com o Instituto de Estudos Avançados duraria até sua morte, em 1955. Em 1937 completou a versão final de um artigo sobre ondas gravitacionais. Um ano mais tarde, escreveu em parceria com seu amigo e físico Leopold Infeld A Evolução da Física, um livro popular de ciência publicado para ajudá-lo financeiramente. Einstein e Infeld se conheceram em Berlim, na época em que este era um estudante. Entre 1936 e 1937 foi membro do Instituto de Estudos Avançados, onde colaboraram juntos em três artigos sobre o problema no movimento na relatividade geral. Infeld foi professor da Universidade de Toronto de 1938 até 1950, e da Universidade de Varsóvia de 1950 até sua morte em 1968.
Em 1939, um grupo de cientistas húngaros que incluía o físico emigrante Leó Szilárd tentou alertar Washington de pesquisas nazistas em andamento sobre a bomba atômica. Os avisos do grupo foram ignorados. Einstein e Szilárd, junto com outros refugiados, como Edward Teller e Eugene Wigner, consideravam como sua responsabilidade alertar os americanos para a possibilidade de que cientistas alemães pudessem ganhar a corrida para construir uma bomba atômica, e por avisar que Hitler estaria mais do que disposto a recorrer a tal arma. Em 12 de julho, poucos meses antes do início da Segunda Guerra Mundial na Europa, Szilárd e Wigner visitaram Einstein e explicaram sobre a possibilidade de bombas atômicas por meio de experimentos com urânio e fissão, além de cálculos indicando uma reação em cadeia. Ele respondeu Nisto eu nunca havia pensado. Foi convencido a emprestar seu prestígio, escrevendo uma carta com Szilárd ao presidente Franklin Delano Roosevelt para alertá-lo sobre essa possibilidade. A carta também recomendou que o governo dos Estados Unidos prestasse atenção e se envolvesse diretamente na pesquisa de urânio e de pesquisas associadas à reação em cadeia. Para Sarah Diehl e James Clay Moltz, a carta é provavelmente o estímulo fundamental para a adoção pelos Estados Unidos de investigações sérias em armas nucleares na véspera da entrada do país na Segunda Guerra Mundial. Einstein aceitando a cidadania norte-americana, em 1940 O presidente nomeou um comitê para avaliar a carta, e o grupo que a enviou foi expandido para coordenar a investigação nuclear entre universidades americanas. Entre os membros estavam Szilárd, Teller e Wigner. Roosevelt seguiu a sugestão da carta. Einstein foi convidado a integrar o grupo, mas recusou. Entre 1940 e 1941, pesquisas preliminares confirmaram a viabilidade de uma bomba atômica. Em 7 de dezembro, um ataque japonês surpresa na base naval de Pearl Harbor forçou os Estados Unidos a entrar na guerra. Pouco tempo depois, a Alemanha também declarou guerra contra o país devido a um tratado de defesa com o Japão. Isto aumentou a urgência de pesquisa atômica. No ano seguinte, o governo americano autorizou um esforço maior para produzir bombas atômicas. A fim de manter este projeto secreto e evitar mencioná-lo, foi colocado sob o Distrito Manhattan do Corpo de Engenheiros do Exército e chamado de Projeto Manhattan. Para Einstein, a guerra era uma doença, e ele sempre apelou para a resistência contra a guerra. Ao assinar a carta a Roosevelt, agiu contrariamente aos seus princípios pacifistas. Em 1954, um ano antes do seu falecimento, disse ao seu velho amigo Linus Pauling, Eu cometi um grande erro na minha vida quando assinei a carta ao presidente Roosevelt recomendando a construção da bomba atômica mas nesse tempo havia uma justificativa o perigo de que os alemães a construíssem. Einstein tornou-se um cidadão norte-americano em 1 de outubro de 1940. Não muito tempo depois de iniciar sua carreira na Universidade de Princeton, expressou o seu apreço pela meritocracia da cultura americana, quando comparada com a Europa. De acordo com Isaacson, ele reconheceu o direito dos indivíduos a dizer e pensar o que quisessem, sem barreiras sociais e, como consequência, o indivíduo era incentivado a ser mais criativo, uma característica que valorizava desde sua própria educação inicial. Após o fim da Segunda Guerra Mundial e as memórias e imagens de Hiroshima e Nagasaki ainda frescas na mente das pessoas, cientistas pediram-lhe para participar de um apelo à comunidade científica para que recusassem a trabalhar no desenvolvimento de energia nuclear por causa de seus possíveis usos para o mal. Apesar de relutante a fazê-lo devido as respostas negativas a questões críticas, Einstein posteriormente assinou a carta de proposta. Estava mais disposto a unir seu nome e participar de atividades coletivas com outros cientistas. Por insistência de Szilárd, em maio de 1946, concordou em ser o presidente do Comitê Emergencial de Cientistas Atômicos, cuja missão era promover o uso pacífico da energia nuclear, difundir o conhecimento e informação sobre energia atômica e promover a compreensão geral de suas consequências ver Movimento pró-nuclear e Movimento antinuclear . Einstein em 1947 Como membro da Associação Nacional para o Progresso de Pessoas de Cor NAACP , em Princeton, que fazia campanha pelos direitos civis dos afro-americanos, Einstein se correspondia com o ativista dos direitos dos negros W.E.B. Du Bois, e, em 1946, chamou o racismo de a pior doença da América. Mais tarde, ele afirmou que o preconceito de raça infelizmente se tornou uma tradição americana que é acriticamente transmitida de uma geração para a outra ... Os únicos remédios são a iluminação e a educação. Einstein fez ainda uma palestra na Universidade Lincoln em Pensilvânia, a primeira universidade historicamente negra dos Estados Unidos, onde recebeu um título honoris causa do presidente Horace Mann Bond, em maio de 1946. Em outubro do mesmo ano recebeu os membros da mesma universidade para uma confraternização em sua casa em Princeton. Depois da morte do primeiro presidente de Israel, Chaim Weizmann, em novembro de 1952, o primeiro-ministro David Ben-Gurion lhe ofereceu a posição, um cargo principalmente cerimonial em um sistema que investia mais poder no primeiro-ministro e o gabinete. A oferta foi apresentada pelo embaixador de Israel em Washington, Abba Eban, que explicou que ela encarna o mais profundo respeito que o povo judeu pode repousar em qualquer um de seus filhos. No entanto, recusou e escreveu em sua resposta que estava profundamente comovido e ao mesmo tempo triste e envergonhado, pois não poderia aceitá-la
No verão de 1950, seus médicos descobriram que um aneurisma um vaso sanguíneo fraco em sua aorta abdominal estava ficando maior. Quando foi encontrado, os médicos tinham poucas opções de tratamento e envolveram o vaso sanguíneo inflamado com papel celofane na esperança de evitar uma hemorragia. Einstein parecia ter recebido bem a notícia, assim como recusou quaisquer tentativas cirúrgicas adicionais para corrigir o problema. Recusou a cirurgia dizendo Quero ir quando eu quiser. de mau gosto ficar prolongando a vida artificialmente. Fiz a minha parte, é hora de ir embora e eu vou fazê-lo com elegância. Em 18 de março de 1950, assinou seu testamento. Nomeou sua secretária, Helen Dukas, e amigo Otto Nathan como seus executores literários deixou todos os seus manuscritos para a Universidade Hebraica de Jerusalém, a escola que ajudou a fundar em Israel e legou seu violino para seu primeiro neto, Bernhard Caesar Einstein. Em seus últimos anos, c. 1950 Einstein também organizou seus assuntos funerários. Queria uma cerimônia simples e sem lápide. Escolheu não ser enterrado já que não queria ter um túmulo que poderia ser transformado em um local turístico, e, ao contrário da tradição judaica, pediu para ser cremado. Seus últimos dias foram relativamente pacíficos. Morreu na manhã de segunda-feira em 18 de abril de 1955, no Hospital de Princeton à 1h15 da manhã, com 76 anos de idade, tendo continuado a trabalhar até quase o fim de sua vida. Suas últimas palavras pronunciadas em alemão não puderam ser entendidas pela enfermeira. Durante a autópsia, o patologista de plantão do Hospital de Princeton, Thomas Stoltz Harvey, removeu o cérebro de Einstein para preservação. Harvey dissecou o órgão em cerca de 240 seções, vedou algumas das partes em parafina para preservá-las e outras foram deixadas flutuando livremente em formol. Conforme as pesquisas em seu cérebro continuaram, logo tornou-se público o ocorrido e o patologista realizou uma conferência de imprensa, dizendo que pretendia estudar o órgão para a ciência. Por não ser um neuropatologista, especialistas do campo questionaram sua capacidade de estudar o cérebro, e tentaram persuadi-lo a entregá-lo. Mas Harvey recusou. Desde então, o órgão vem sendo objeto de diversos estudos científicos. Pessoas têm pesquisado motivos anatômicos em relação à inteligência. Seus restos mortais foram cremados e suas cinzas espalhadas muito provavelmente ao longo do rio Delaware, perto de Princeton, por seus amigos. Em sua palestra no memorial de Einstein, o físico nuclear Robert Oppenheimer resumiu sua impressão sobre ele como pessoa Era quase totalmente sem sofisticação e totalmente sem mundanismo ... Havia sempre com ele uma pureza maravilhosa ao mesmo tempo infantil e profundamente teimosa. Após uma colaboração de longa data com o escritor, pacifista e vencedor do Nobel de Literatura Bertrand Russell, Einstein junto com um grupo de cientistas proeminentes assinou o Manifesto Russell-Einstein, em 11 de fevereiro de 1955. O manifesto é um apelo que declarava suas preocupações com o uso de armas nucleares na corrida armamentista entre os Estados Unidos e a União Soviética. Apelou aos cientistas para que assumissem suas responsabilidades sociais e informassem o público sobre as ameaças tecnológicas, particularmente as nucleares. Além de Einstein e Russell, os outros nove signatários do manifesto foram Max Born, Percy Williams Bridgman, Leopold Infeld, Frédéric Joliot-Curie, Hermann Muller, Linus Pauling, Cecil Frank Powell, Józef Rotblat e Hideki Yukawa. Foi publicado em 9 de julho de 1955, em Londres, alguns meses após a morte de Einstein. Foi sua última declaração política.
Ao longo de sua vida, Einstein publicou centenas de livros e artigos. Além do trabalho individual, também colaborou com outros cientistas em outros projetos, incluindo a estatística de Bose-Einstein, o refrigerador de Einstein e outros. Publicou mais de 300 trabalhos científicos, juntamente com mais de 150 obras não científicas.
Os textos do Ano Miraculoso são trabalhos acadêmicos que estabeleceram Einstein como um dos físicos mais importantes do mundo. Não só publicou artigos importantes nesse ano, mas também encontrou tempo para escrever outros 23 de revisão para uma série de revistas. Realizou tudo isso em seu tempo livre depois que chegava em casa do trabalho. No início de 1905 tinha 25 anos, era um homem de família, com dois anos de casamento, e encontrou tempo para pensar sobre física. Independentemente de como conseguiu concentrar-se com sua vida agitada, os resultados alcançados nesse ano foram notáveis. Estão entre os trabalhos mais profundos já publicados na física. Um deles iria finalmente lhe render o seu grau de doutor e ajudar a estabelecer que os átomos realmente existem. Outros dois lançaram uma nova área da física a relatividade especial pela qual ele se tornou mundialmente famoso. Um quarto artigo ligado a curiosa observação sobre o movimento errático do pólen o movimento browniano com o tamanho de átomos. Todos eles foram publicados na prestigiada revista alemã Annalen der Physik. Os quatro artigos são Residência de Einstein em Berna, Suíça na época do Ano Miraculoso. A maioria dos trabalhos acadêmicos deste período foi escrita em seu apartamento no primeiro andar. Sobre um ponto de vista heurístico relativo à produção e transformação da luz. Artigo científico que possui como foco o efeito fotoelétrico, foi recebido pelo periódico em 18 de março e publicado em 9 de junho. Resolveu um quebra-cabeça sem solução, sugerindo que a energia é trocada apenas em quantidades discretas quanta . Esta ideia foi fundamental para o desenvolvimento inicial da teoria quântica. Sobre o movimento de pequenas partículas em suspensão dentro de líquidos em repouso, tal como exigido pela teoria cinético-molecular do calor. Artigo focado no movimento browniano, foi recebido em 11 de maio e publicado em 18 de julho. Explicou evidência empírica para a teoria atômica, apoiando a aplicação da física estatística. Sobre a Eletrodinâmica dos Corpos em Movimento. Com foco na relatividade restrita, foi apresentado em 30 de junho e publicado em 26 de setembro. Reconciliou as equações de eletricidade e de magnetismo de Maxwell com as leis da mecânica, introduzindo alterações importantes na mecânica perto da velocidade da luz, que resultam da análise com base na evidência empírica de que a velocidade da luz é independente do movimento do observador. Desacreditou o conceito de um éter luminoso. A inércia de um corpo depende do seu conteúdo energético . Artigo que investiga a equivalência massa-energia, foi apresentado ao periódico em 27 de setembro e publicado em 21 de novembro. apresentada a equivalência de matéria e energia, E mc e, por consequência, a capacidade da gravidade em curvar a luz , a existência da energia de repouso e a base da energia nuclear a conversão de matéria em energia por seres humanos e no cosmos . Outros cientistas, especialmente Henri Poincaré e Hendrik Lorentz, tinham teorizado partes da relatividade especial. No entanto, Einstein foi o primeiro a reunir toda a teoria em conjunto e perceber o que era uma lei universal da natureza, não uma invenção de movimento no éter, como Poincaré e Lorentz tinham pensado. Originalmente, a comunidade científica ignorou os artigos do Ano Miraculoso. Isso começou a mudar depois que recebeu a atenção de Max Planck, o fundador da teoria quântica, um dos físicos mais influentes de sua geração e o único físico que notou os trabalhos. Ambos viriam a se conhecer em uma palestra internacional na Conferencia de Solvay, após Planck gradualmente confirmar sua teoria.
Fotografia de Arthur Stanley Eddington do eclipse solar de 1919 Articulou o princípio da relatividade. Isto foi entendido por Hermann Minkowski como uma generalização da invariância rotacional, do espaço para o espaço-tempo. Outros princípios postulados por Einstein e mais tarde provados são o princípio da equivalência e o princípio da invariância adiabática do número quântico. A relatividade geral é uma teoria da gravitação que foi desenvolvida por Einstein entre 1907 e 1915. De acordo com a relatividade geral, a atração gravitacional observada entre massas resulta da curvatura do espaço e do tempo por essas massas. A relatividade geral tornou-se uma ferramenta essencial na astrofísica moderna. Ela fornece a base para o entendimento atual de buracos negros, regiões do espaço onde a atração gravitacional é tão forte que nem mesmo a luz pode escapar. Como disse mais tarde, a razão para o desenvolvimento da relatividade geral foi a de que a preferência de movimentos inerciais dentro da relatividade especial não foi satisfatória, enquanto uma teoria que, desde o início, não prefere nenhum estado de movimento mesmo os mais acelerados deve parecer mais satisfatória. Consequentemente, em 1907, publicou um artigo sobre a aceleração no âmbito da relatividade especial. Nesse artigo intitulado Sobre o Princípio da Relatividade e as Conclusões Tiradas Dela, argumentou que a queda livre é um movimento inercial, e que para um observador em queda livre as regras da relatividade especial devem se aplicar. Este argumento é chamado de princípio da equivalência. No mesmo artigo, Einstein previu também o fenômeno da dilatação temporal gravitacional, desvio gravitacional para o vermelho e deflexão da luz. Em 1911, publicou Sobre a Influência da Gravidade na Propagação da Luz, em expansão do artigo de 1907, em que estimou a quantidade de deflexão da luz por corpos maciços. Assim, a previsão teórica de relatividade geral pode, pela primeira vez ser testada experimentalmente. Seu artigo Sobre a Eletrodinâmica dos Corpos em Movimento Zur Elektrodynamik bewegter K rper foi recebido em 30 de junho de 1905 e publicado em 26 de setembro daquele ano. Concilia as equações de Maxwell para a eletricidade e o magnetismo com as leis da mecânica, através da introdução de grandes mudanças para a mecânica perto da velocidade da luz. Isto mais tarde se tornou conhecido como a teoria da relatividade especial de Einstein. As consequências disto incluem o intervalo de espaço-tempo de um corpo em movimento, que parece reduzir de velocidade e se contrair na direção do movimento , quando medido no plano do observador. Este documento também argumentou que a ideia de um éter luminífero uma das entidades teóricas líderes da física na época era supérflua. Em seu artigo sobre equivalência massa-energia, Einstein concebeu E mc de sua equação da relatividade especial. Seu trabalho de 1905 sobre a relatividade permaneceu controverso por muitos anos, mas foi aceito pelos principais físicos, começando com Max Planck. Ilustração da curvatura do espaço-tempo. A teoria da relatividade geral tem uma lei fundamental as equações de Einstein que descrevem como o espaço se curva, a equação geodésica que descreve como as partículas que se movem podem ser derivadas a partir das equações de Einstein. Uma vez que as equações da relatividade geral são não-lineares, um pedaço de energia feita de campos gravitacionais puros, como um buraco negro, se moveria em uma trajetória que é determinada pelas equações de Einstein, e não por uma nova lei. Assim, Einstein propôs que o caminho de uma solução singular, como um buraco negro, seria determinado como uma geodésica da própria relatividade geral. Isto foi estabelecido por Einstein, Infeld e Hoffmann para objetos pontuais sem movimento angular e por Roy Kerr para objetos em rotação. Poucos meses após publicar seu artigo sobre a relatividade geral em 1916, perceberam que distorções no espaço poderiam levar objetos a atalhos que poderiam conectar áreas muito remotas. Foram encontradas soluções que permitiam a possibilidade de um buraco de minhoca um atalho entre duas partes remotas do espaço e, possivelmente, do tempo. Um buraco de minhoca é criado quando uma grande massa cria uma singularidade no tecido do espaço-tempo, algo tornado possível pela relatividade geral. Quando a singularidade de uma massa encontra a de outra, ambas podem se unir e criar uma passagem através da qual algo matéria, luz, radiação pode passar relativamente rápido apesar da grande distância entre elas. No mesmo ano em que Einstein publicou a teoria, dois físicos, Ludwig Flamm e Karl Schwarzschild, descobriram independentemente que os túneis no espaço eram soluções válidas para as equações da relatividade, que eram ferramentas para descrever a forma do espaço. As equações mostram que a gravidade distorceu a própria natureza do espaço, e em áreas de imensa gravidade, uma distorção, ou túnel, poderia aparecer. Schwarzschild já havia postulado a existência do que acabaria se tornando conhecido como buracos negros estrelas mortas tão densas e com uma gravidade tão forte que qualquer coisa que chegasse muito perto seria sugada para sempre. A intensa gravidade associada com esses buracos negros poderia muito bem levar a enormes distorções espaciais. Em 1935, Einstein e Nathan Rosen desenvolveram um modelo mais completo destes túneis, que hoje são referidos como pontes de Einstein-Rosen.
Einstein durante sua visita aos Estados Unidos em 1921 Ao longo da década de 1910, a mecânica quântica expandiu em escopo para cobrir muitos sistemas diferentes. Depois de Ernest Rutherford descobrir o núcleo e propor que os elétrons orbitam como planetas, Niels Bohr foi capaz de mostrar que os mesmos postulados da mecânica quântica introduzidos por Planck e desenvolvidos por Einstein explicariam o movimento discreto dos elétrons nos átomos e a tabela periódica de elementos. Einstein contribuiu para estes desenvolvimentos, ligando-os com os argumentos que Wilhelm Wien tinha apresentado em 1898. Wien tinha mostrado que a hipótese de invariância adiabática de um estado de equilíbrio térmico permite que todas as curvas de um corpo negro a temperaturas diferentes sejam derivadas uma a partir da outra por um processo simples de deslocamento. Einstein observou em 1911 que o mesmo princípio adiabático mostra que a quantidade que é quantizada em qualquer movimento mecânico deve ser um invariante adiabático. Arnold Sommerfeld identificou esta invariante adiabática como a variável de ação da mecânica clássica. Embora o escritório de patentes o tenha promovido para técnico examinador de segunda classe em 1906, Einstein não tinha desistido da carreira acadêmica. Em 1908 tornou-se privatdozent na Universidade de Berna. Em Sobre o desenvolvimento de nossa visão sobre a natureza e constituição da radiação ber die Entwicklung unserer Anschauungen ber das Wesen und die Konstitution der Strahlung , sobre a quantização da luz, e antes em um artigo de 1909, Einstein mostrou que os quanta de energia de Max Planck devem ter momentos bem definidos e agir, em alguns aspectos, como partículas pontuais independentes. Este artigo introduziu o conceito de fóton embora o nome fóton tenha sido introduzido mais tarde por Gilbert Newton Lewis em 1926 e inspirou a noção de dualidade onda-partícula na mecânica quântica. Manchete de jornal em 4 de maio de 1935 Quando os físicos desenvolveram a mecânica quântica, sentiu-se uma grande emoção pois estavam concebendo as ferramentas necessárias para descrever o mundo recém-descoberto das partículas subatômicas. Einstein compartilhava a emoção. Mas o campo da mecânica quântica tomou um rumo que o frustrou as equações desenvolvidas pelos cientistas só foram capazes de prever as probabilidades de como um átomo agiria. A mecânica quântica insiste que as leis mais fundamentais da natureza são aleatórias. Mesmo que os primeiros trabalhos de Einstein levaram diretamente para o desenvolvimento da nova ciência, o próprio sempre se recusou a aceitar essa aleatoriedade. Em 1917, no auge de seu trabalho sobre a relatividade, publicou um artigo no Physikalische Zeitschrift que propôs a possibilidade da emissão estimulada, o processo físico que torna possíveis o maser e o laser. Este artigo mostra que as estatísticas de absorção e emissão de luz só seriam consistentes com a lei de distribuição de Planck se a emissão de luz em uma moda estatística com n fótons fosse aumentada estatisticamente em comparação com a emissão de luz em uma moda vazia. Este artigo foi enormemente influente no desenvolvimento posterior da mecânica quântica, porque foi o primeiro trabalho a mostrar que as estatísticas de transições atômicas tinham leis simples. Einstein descobriu os trabalhos de Louis de Broglie e apoiou as suas ideias, que foram recebidas com ceticismo no início. Em outro grande artigo nessa mesma época, Einstein proveu uma equação de onda para as ondas de Broglie, que sugeriu como a equação de Hamilton-Jacobi da mecânica. Este trabalho iria inspirar o trabalho de Schr dinger de 1926. A intuição física de Einstein o levou a notar que as energias do oscilador de Planck tinham um ponto zero incorreto. Ele modificou a hipótese de Planck, definindo que o estado de menor energia de um oscilador é igual a hf, a metade do espaçamento de energia entre os níveis. Este argumento, que foi feito em 1913 em colaboração com Otto Stern, foi baseado na termodinâmica de uma molécula diatômica que pode se separar em dois átomos livres.
Universidade de Berlim Depois de sua pesquisa sobre a relatividade geral, Einstein entrou em uma série de tentativas de generalizar sua teoria geométrica da gravitação para incluir eletromagnetismo como outro aspecto de uma única entidade. Em 1950, ele descreveu sua teoria do campo unificado em um artigo da Scientific American, intitulado Sobre a Teoria da Gravitação Generalizada. Embora continuasse a ser elogiado por seu trabalho, tornou-se cada vez mais isolado em sua pesquisa, e seus esforços foram infrutíferos. Em sua busca por uma unificação das forças fundamentais, Einstein ignorou alguns desenvolvimentos da física corrente, principalmente as forças nucleares forte e fraca, que não foram muito compreendidas até muitos anos após sua morte. A física corrente, por sua vez, em grande parte ignorou suas abordagens à unificação. O sonho de Einstein de unificar as outras leis da física com a gravidade motivam missões modernas para uma teoria de tudo e em particular a teoria das cordas, onde os campos geométricos surgem em um ambiente da mecânica quântica unificada. Em 1917, aplicou a teoria da relatividade geral para modelar a estrutura do universo como um todo. Ele queria que o universo fosse eterno e imutável, mas este tipo de universo não é consistente com a relatividade. Para corrigir isso, modificou a teoria geral através da introdução de uma nova noção, a constante cosmológica. Com uma constante cosmológica positiva, o universo poderia ser uma esfera eterna estática. Einstein acreditava que um universo esférico estático é filosoficamente preferido, porque obedeceria ao princípio de Mach, elaborado por Ernst Mach. Ele havia mostrado que a relatividade geral incorpora o princípio de Mach, até um certo ponto, no arraste de planos por campos gravitomagnéticos, mas ele sabia que a ideia de Mach não funcionaria se o espaço continuasse para sempre. Em um universo fechado, ele acreditava que o princípio de Mach se manteria. O princípio de Mach tem gerado muita controvérsia ao longo dos anos.
O efeito fotoelétrico. Fótons chegando à esquerda se chocam com uma placa de metal e ejetam elétrons, mostrados como partindo à direita Em seu artigo Sobre um ponto de vista heurístico relativo à produção e transformação da luz ber einen die Erzeugung und Verwandlung des Lichtes betreffenden heuristischen Gesichtspunkt , Einstein postulou que a luz em si consiste de partículas localizadas quanta . Os quanta de luz de Einstein foram quase universalmente rejeitados por todos os físicos, incluindo Max Planck e Niels Bohr. Essa ideia só se tornou universalmente aceita em 1919, com os experimentos detalhados de Robert Millikan sobre o efeito fotoelétrico, e com a medida de espalhamento Compton. Einstein concluiu que cada onda de frequência f é associada com um conjunto de fótons com uma energia hf cada, em que h é a constante de Planck. Ele não diz muito mais, porque não tinha certeza de como as partículas estão relacionadas com a onda. Mas ele sugere que essa ideia poderia explicar alguns resultados experimentais, especialmente o efeito fotoelétrico. Em 1907, propôs um modelo de matéria em que cada átomo de uma estrutura de rede é um oscilador harmônico independente. No modelo de Einstein, cada átomo oscila de forma independente uma série de estados quantizados igualmente espaçados para cada oscilador. Einstein estava consciente de que obter a frequência das oscilações reais seria diferente, mas ele propôs esta teoria porque era uma demonstração particularmente clara de que a mecânica quântica poderia resolver o problema do calor específico na mecânica clássica. Peter Debye aprimorou este modelo.
Einstein voltou para o problema das flutuações termodinâmicas, dando um tratamento das variações de densidade de um fluido no seu ponto crítico. Normalmente as flutuações de densidade são controladas pela segunda derivada da energia livre em relação à densidade. No ponto crítico, esta derivada é zero, levando a grandes flutuações. O efeito da flutuação da densidade é que a luz de todos os comprimentos de onda é dispersada, fazendo com que o fluido pareça branco leitoso. Einstein relaciona isso com a dispersão de Rayleigh, que é o que acontece quando o tamanho da flutuação é muito menor do que o comprimento de onda, e que explica por que o céu é azul.
Ao desenvolver a relatividade geral, Einstein ficou confuso sobre a invariância de gauge na teoria. Formulou um argumento que o levou a concluir que uma teoria geral do campo relativístico é impossível. Desistiu de procurar equações tensoriais covariantes completamente gerais e procurou por equações que seriam invariantes apenas sob transformações lineares gerais. Em junho de 1913, a teoria Entwurf do alemão rascunho foi o resultado dessas investigações. Como o próprio nome sugere, era um esboço de teoria, com as equações de movimento complementadas por condições adicionais de fixação de calibre. Ao mesmo tempo menos elegante e mais difícil do que a relatividade geral, após mais de dois anos de intenso trabalho, Einstein abandonou a teoria em novembro de 1915, depois de perceber que o argumento do buraco estava errado.
O primeiro trabalho de Einstein, publicado em 1900 no Annalen der Physik, versou sobre a atração capilar. Foi publicado em 1901 com o título Folgerungen aus den Kapillarit t Erscheinungen, que se traduz como Conclusões sobre os fenômenos de capilaridade. Dois artigos que publicou entre 1902 e 1903 termodinâmica tentaram interpretar fenômenos atômicos a partir de um ponto de vista estatístico. Estas publicações foram a base para o artigo de 1905 sobre o movimento browniano, que mostrou que pode ser interpretado como evidência sólida da existência das moléculas. Sua pesquisa em 1903 e 1904 estava centrada principalmente sobre o efeito do tamanho atômico finito em fenômenos de difusão.
A relatividade geral inclui um espaço-tempo dinâmico, por isso é difícil identificar a energia e momento conservados. O teorema de Noether permite que essas quantidades sejam determinadas a partir da função de Lagrange com invariância de translação, mas a covariância geral transforma a invariância de translação em uma espécie de simetria de calibre. A energia e o momento derivados pela relatividade geral pelas prescrições de Noether não fazem um tensor real por este motivo. Einstein argumentou que isso é verdade por motivos fundamentais, pois o campo gravitacional poderia ser levado ao desaparecimento por uma escolha de coordenadas. Ele sustentou que o pseudotensor não-covariante de momento de energia era de fato a melhor descrição da distribuição de momento de energia em um campo gravitacional. Esta abordagem tem sido ecoada por Lev Landau e Evgeny Lifshitz, dentre outros, e tornou-se padrão.
A Conferência de Solvay de 1927, em Bruxelas, uma reunião dos principais físicos do mundo. Einstein no centro Além de colaboradores de longa data como Leopold Infeld, Nathan Rosen, Peter Bergmann e outros, também teve algumas colaborações pontuais com vários cientistas, como Banesh Hoffmann, Jeroen van Dongen, Einstein e Wander de Haas demonstraram que a magnetização é devida ao movimento de elétrons, o que hoje em dia é conhecido como a rotação. Para mostrar isto, inverteram a magnetização em uma barra de ferro suspensa em um pêndulo de torção. Confirmaram que isso leva a barra a rodar, devido a mudanças no momento angular do elétron com as mudanças de magnetização. Esta experiência precisava ser sensível, porque o momento angular associado com os elétrons é pequeno, mas estabeleceu definitivamente que o movimento de elétrons é responsável pela magnetização. Sugeriu a Erwin Schr dinger que seria capaz de reproduzir as estatísticas de um gás de Bose-Einstein ao considerar uma caixa. Então, para cada possível movimento quântico de uma partícula em uma caixa, associar um oscilador harmônico independente. Quantizando estes osciladores, cada nível terá um número inteiro de ocupação, que será o número de partículas na mesma. Essa formulação é uma forma de segunda quantização, mas é anterior à moderna mecânica quântica. Schr dinger a aplicou para derivar as propriedades termodinâmicas de um gás ideal semiclássico. Schr dinger pediu que adicionasse seu nome como coautor, mas Einstein recusou o convite. Einstein e Niels Bohr, em 1925 Os debates entre Bohr e Einstein foram uma série de disputas públicas sobre a mecânica quântica entre Einstein e Niels Bohr, que foram dois dos seus fundadores. Seus debates são lembrados por causa de sua importância para a filosofia da ciência. Em 1924 recebeu uma carta com a descrição de um modelo estatístico do físico indiano Satyendra Nath Bose, que criou um método de contagem onde se assume que a luz pode ser entendida como um gás de partículas indistinguíveis, usando uma nova forma para chegar à Lei de Planck. As novas estatísticas de Bose ofereceram mais informações sobre como entender o comportamento dos fótons. Ele mostrou que se um fóton entrou em um estado quântico específico, então há uma tendência para que o próximo entre no mesmo estado. Einstein notou que as estatísticas de Bose aplicavam-se a alguns átomos, bem como partículas de luz propostas, e submeteu a tradução do artigo em alemão para o Zeitschrift f r Physikalische Chemie. Também publicou seus próprios artigos descrevendo o modelo e suas implicações. Entre os resultados, em 1925 fez a notável descoberta em que algumas partículas aparecem em temperaturas muito baixas se um gás tivesse uma temperatura bem próxima do zero absoluto o ponto em que os átomos não se movem todos eles caíam no mesmo estado quântico. O condensado de Bose-Einstein é um tipo de matéria que é distintamente diferente das outras na Terra diferente de líquido, sólido ou gasoso. Foi a última grande contribuição de Einstein à física. Somente em 1995 o primeiro condensado foi produzido experimentalmente por Eric Allin Cornell e Carl Wieman usando equipamentos de ultrarresfriamento construídos no laboratório do Instituto Nacional de Padrões e Tecnologia Instituto Conjunto do Laboratório de Astrofísica da Universidade do Colorado em Boulder. Hoje, as estatísticas de Bose-Einstein são usadas para descrever o comportamento de qualquer conjunto de bósons. Museu Nacional, no Rio de Janeiro, Brasil. Entre os anos de 1926 e 1930, Einstein e Szilárd trabalharam juntos e desenvolveram um silencioso refrigerador doméstico. Em 11 de novembro de 1930, a Patente dos Estados Unidos foi atribuída a ambos pelo refrigerador de Einstein. Sua invenção não foi imediatamente colocada em produção comercial, uma vez que a mais promissora de suas patentes foi rapidamente comprada pela empresa sueca Electrolux para proteger sua tecnologia de refrigeração da competição. Em 1935, Einstein, Boris Podolsky e Nathan Rosen produziram um famoso argumento para mostrar que a interpretação da mecânica quântica defendida por Bohr e sua escola em Copenhague era incompleta se certas suposições razoáveis fossem feitas a respeito de realidade e localidade contra o qual não havia um pouco de evidência empírica naqueles dias. Bohr escreveu um desmentido e foi declarado o vencedor. O debate persistiu em um nível filosófico até 1964, quando John Stewart Bell produziu sua famosa desigualdade baseada no realismo local ou seja, a localidade mais realidade, tal como definido por Einstein, Podolsky e Rosen na qual a mecânica quântica viola. Por fim, a questão foi trazida a baixo de sua altura filosófica ao nível empírico. Mas teve que esperar até 1982 para um verdadeiro veredito experimental. Os experimentos engenhosos realizados pela Aspect e seus colegas com fótons correlacionados mais uma vez pareciam vindicar a mecânica quântica. Após o aparecimento do argumento EPR e a resposta de Bohr, a escola de Copenhague teve que mudar sua postura. Tiveram que abandonar a ideia de que toda medida causava uma perturbação inevitável do sistema de medida. De fato, Bohr admitiu que, em uma causa como a correlatada no paradoxo EPR, não havia dúvida de uma perturbação mecânica do sistema sob investigação. A teoria da gravidade de Einstein-Cartan é uma modificação da teoria da relatividade geral, permitindo que o espaço-tempo tenha torção, além de curvatura, e torção relativa à densidade da quantidade de momento angular intrínseco. Esta modificação foi proposta em 1922 por lie Cartan, antes da descoberta do spin. Cartan foi influenciado pelo trabalho dos irmãos Cosserat 1909 , que consideravam, além de um assimétrico tensor força de estresse, também um tensor momento de estresse em um meio contínuo adequadamente generalizado.
presidente de Israel Chaim Weizmann, sua esposa Vera, Menahem Ussishkin e Ben-Zion Mossinson em 1921 Com seis anos de idade, no final de 1885, Einstein entrou na escola primária católica de seu bairro, provavelmente a partir do segundo grau. Era a única criança judia na classe. Instrução religiosa fazia parte do currículo escolar, assim ele se familiarizou com as histórias da Bíblia e dos santos. Suas opiniões políticas surgiram publicamente em meados do século XX, devido à sua fama e reputação de gênio. Ele era a favor do socialismo e contra o capitalismo, que ele detalhou em seu ensaio Por que o Socialismo Suas opiniões sobre os bolcheviques mudaram com o tempo. Em 1925, ele os criticou por não terem um sistema de governo bem regulado e chamou seu governo de um regime de terror e uma tragédia na história humana. Posteriormente, ele adotou uma visão mais equilibrada, criticando seus métodos, mas elogiando-os, o que é demonstrado por sua observação de 1929 sobre Vladimir Lênin Em Lenin, honro um homem que, em total sacrifício de sua própria pessoa, dedicou toda a sua energia para realizar a justiça social. Não acho seus métodos aconselháveis. Uma coisa é certa, no entanto homens como ele são os guardiões e renovadores da consciência da humanidade. Einstein ofereceu-se e foi chamado a opinar em questões muitas vezes não relacionadas à física teórica e matemática. Seus pontos de vista sobre a crença religiosa foram coletados a partir de entrevistas e escritos originais. Quando jovem dizia que acreditava no conceito de Deus conforme preconizado pelo filósofo Baruch Espinoza, mas não em um Deus pessoal, crença que ele criticava. Nesta visão, deus e a natureza são uma mesma entidade. Chamava-se de agnóstico, ao mesmo tempo que se dissociava do rótulo de ateu quando vinculado ao ateísmo forte ateísmo não cético . Você pode me chamar de agnóstico, mas eu não concordo com o espírito do ateu profissional cujo fervor é um ato de dolorosa restrição da doutrinação religiosa da juventude. Eu prefiro ter uma atitude de humildade em relação ao quão pouco entendemos sobre a natureza e nossos próprios seres, escreveu a Guy H. Raner Jr. em setembro de 1949. Numa carta manuscrita em alemão em 1954 e dirigida ao filósofo judeu Eric Gutkind, Einstein critica enfaticamente as religiões institucionalizadas, em particular a religião judaica, de forma a posicioná-lo como ateu um ano antes de sua morte. Na missiva em questão, o cientista declara que A palavra Deus para mim é nada mais que a expressão e produto da fraqueza humana, a Bíblia é uma coleção de lendas honradas, mas ainda assim primitivas, que são bastante infantis. Conhecida como a Carta de Deus, a carta foi vendida em 2018 em Nova Iorque por 2,89 milhões de dólares num leilão organizado pela Christie s.
Einstein desenvolveu apreciação musical em uma idade precoce. Sua mãe tocava piano razoavelmente bem e queria que seu filho aprendesse a tocar violino, não só para incutir nele o amor pela música, mas também para ajudá-lo a assimilar a cultura alemã. De acordo com o maestro Leon Botstein, Einstein disse ter começado a tocar quando tinha cinco anos, mas não o apreciava nessa idade. Quando completou treze anos, no entanto, descobriu as sonatas para violino de Mozart. Einstein se apaixonou, e estudou música com mais vontade. Aprendeu a tocar sozinho sem nunca praticar sistematicamente, acrescentando que o amor é um professor melhor do que um sentido de dever. Aos dezessete anos, foi ouvido por um examinador de sua escola em Aarau quando tocava as sonatas de violino de Beethoven, tendo o examinador afirmado depois que seu toque era notável e revelador de uma grande visão . O que impressionou o examinador, escreve Botstein, era que Einstein exibiu um amor profundo pela música, uma qualidade que foi e continua a ser escassa. A música possuía um significado incomum para esse estudante. Embora tenha se apresentado em público para concertos de caridade e como um representante da Liga das Nações, Einstein não tocou principalmente para os espectadores, mas para se divertir com amigos ou sozinho, para relaxamento e inspiração. Ele muitas vezes se sentava ao piano e improvisava. Onde quer que fosse, seu violino Lina estava com ele. Desde sua infância havia procurado oportunidades de tocar com outros músicos. Até o fim dos seus dias, teve encontros com outros estudantes e colegas, com Michele Besso e Max Born, Max Planck e Paul Ehrenfest, com particulares e celebridades, com Pauline Winteler, que cuidou dele quando morava em Aarau, e com a Rainha Isabel da Bélgica em Bruxelas. época, tocar música em casa era uma coisa natural durante os encontros, e ele reuniu cientistas e músicos em Princeton para visitar e tocar Mozart, Bach e Schubert. A música assumiu um papel fundamental e permanente em sua vida. Embora a ideia de se tornar um profissional não estivesse em sua mente em nenhum momento, entre aqueles com os quais Einstein tocou a música de câmara estavam alguns profissionais, e ele se apresentou para os amigos e em privado. A música de câmara também se tornou uma parte regular de sua vida social, enquanto vivia em Berna, Zurique e Berlim, onde tocou com Max Planck e seu filho, entre outros. Em 1931, quando estava envolvido em pesquisa no Instituto de Tecnologia da Califórnia, ele visitou o Conservatório da família Zoellner em Los Angeles e tocou algumas das obras de Beethoven e Mozart com os membros do Quarteto Zoellner, que tinha se retirado recentemente após duas décadas de turnês aclamado em todos os Estados Unidos Einstein mais tarde presenteou o patriarca da família com uma fotografia autografada como uma lembrança. Perto do fim de sua vida, em 1952, quando o Quarteto de Cordas Juilliard da Juilliard School, de Nova Iorque visitou-o em Princeton, ele tocou seu violino com eles ainda que diminuísse o ritmo para acomodar suas habilidades técnicas menores, Botstein observa que o quarteto ficou impressionado com o nível de coordenação e entonação de Einstein.
Albert Einstein Memorial em Washington, DC, Estados Unidos. Quando em viagem, Einstein escrevia diariamente para sua esposa Elsa e as enteadas Margot e Ilse. As cartas foram incluídas nos documentos legados à Universidade Hebraica de Jerusalém. Margot Einstein permitiu que as cartas pessoais fossem disponibilizadas ao público, solicitando que fossem esperados vinte anos após sua morte para a publicação, o que ocorreu em 1986. Barbara Wolff, dos Albert Einstein Archives da Universidade Hebraica de Jerusalém, disse à BBC que há cerca de páginas de correspondência privada, escritas entre 1912 e 1955. Einstein doou os royalties do uso de sua imagem para a Universidade Hebraica de Jerusalém. Corbis, sucessor da The Roger Richman Agency, licencia o uso de seu nome e imagens associadas, como agente para a universidade. Suas grandes conquistas intelectuais e originalidade fizeram da palavra Einstein sinônimo de gênio. Sua fórmula de equivalência massa-energia E mc foi chamada por Karen Fox e Aries Keck de a equação mais famosa do mundo. Ao lado da mecânica quântica, sua teoria da relatividade geral foi considerada um dos pilares da física moderna. Em dezembro de 1952, Albert Ghiorso, trabalhando na Universidade da Califórnia em Berkeley, descobriu um novo elemento ao analisar resíduos da detonação da primeira bomba H. Para homenagear Einstein, este novo elemento, o de número 99 na tabela periódica, recebeu o nome Einstênio. No período anterior à Segunda Guerra Mundial, era tão conhecido nos Estados Unidos a ponto de ser indagado na rua por pessoas que solicitavam que ele explicasse aquela teoria. Einstein finalmente descobriu uma maneira de lidar com as perguntas incessantes. Ele passou a responder a elas com o bordão Perdão, sinto muito Sou sempre confundido com o Professor Einstein. Foi o assunto ou inspiração para muitas novelas, filmes, peças de teatro e obras de música. o modelo favorito para representações de cientistas loucos e professores distraídos, seu rosto expressivo e penteado característico têm sido amplamente copiado e exagerado. Em 1999, a revista Time publicou a compilação Time 100 The Most Important People of the Century, no qual classificava as pessoas mais influêntes do século XX. Einstein ficou em primeiro lugar como a pessoa mais importante do século, acrescentando que foi o cientista preeminente em um século dominado pela ciência. As pedras fundamentais da época a bomba, o Big Bang, física quântica e eletrônicos todas trazem sua marca. Frederic Golden escrevendo para a mesma revista disse na publicação que Einstein era o sonho realizado de um cartunista. Também em 1999, 100 físicos renomados elegeram-no o mais memorável físico de todos os tempos.
Notação de Einstein Lei de Hubble-Humason História da mecânica quântica Massa na relatividade especial Constante gravitacional universal Teoria cinética da relação de Einstein Albert Einstein World Award of Science Controvérsia sobre a paternidade da Teoria da Relatividade Václav Hlavat
Categoria Naturais de Ulm Categoria Físicos da Suíça Categoria Relativistas Categoria Filósofos da ciência Categoria Nobel de Física Categoria Judeus da Alemanha Categoria Socialistas da Alemanha Categoria Físicos da Alemanha Categoria Inventores da Alemanha Categoria Laureados da Alemanha com o Nobel Categoria Socialistas dos Estados Unidos Categoria Escritores de ciência dos Estados Unidos Categoria Cosmólogos Categoria Físicos dos Estados Unidos Categoria Pacifistas dos Estados Unidos Categoria Engenheiros dos Estados Unidos Categoria Agnósticos dos Estados Unidos Categoria Membros da Academia de Ciências da Rússia Categoria Físicos teóricos Categoria Físicos quânticos Categoria Medalha Max Planck Categoria Medalha Franklin Categoria Medalha de Ouro da Royal Astronomical Society Categoria Predefinição sobre prémios Nobel que usam a propriedade do Wikidata P8024 Categoria Doutores honoris causa da Universidade de CambridgeTemperaturas globais na década de 1880 e 1980, comparadas à média no período entre 1951 e 1980 O declínio do gelo flutuante do rtico é um dos sinais mais evidentes do aquecimento global. A animação mostra a redução entre 1979 e 2010 Animação mostrando o aquecimento global de 1880 até 2017 Cenários futuros potenciais de emissões globais de gases de efeito estufa. Se todos os países cumprirem suas promessas atuais estabelecidas no acordo climático de Paris, o aquecimento médio até 2100 irá bem além da meta do Acordo de Paris de manter o aquecimento bem abaixo de 2 C Aquecimento global é o processo de aumento da temperatura média dos oceanos e da atmosfera da Terra causado por massivas emissões de gases que intensificam o efeito estufa, originados de uma série de atividades humanas, especialmente a queima de combustíveis fósseis e mudanças no uso da terra, como o desmatamento, bem como de várias outras fontes secundárias. Essas causas são um produto direto da explosão populacional, do crescimento econômico, do uso de tecnologias e fontes de energia poluidoras e de um estilo de vida insustentável, em que a natureza é vista como matéria-prima para exploração. Os principais gases do efeito estufa emitidos pelo homem são o dióxido de carbono ou gás carbônico, CO2 e o metano CH4 . Esses e outros gases atuam obstruindo a dissipação do calor terrestre para o espaço. O aumento de temperatura vem ocorrendo desde meados do século XIX e deverá continuar enquanto as emissões continuarem elevadas. O aumento nas temperaturas globais e a nova composição da atmosfera desencadeiam alterações importantes em virtualmente todos os sistemas e ciclos naturais da Terra. Afetam os mares, provocando a elevação do seu nível e mudanças nas correntes marinhas e na composição química da água, verificando-se acidificação, dessalinização e desoxigenação. Interferem no ritmo das estações e nos ciclos da água, do carbono, do nitrogênio e outros compostos. Causam o degelo das calotas polares, do solo congelado das regiões frias permafrost e dos glaciares de montanha, modificando ecossistemas e reduzindo a disponibilidade de água potável. Tornam irregulares o regime de chuvas e o padrão dos ventos, produzem uma tendência à desertificação das regiões florestadas tropicais, enchentes e secas mais graves e frequentes, e tendem a aumentar a frequência e a intensidade de tempestades e outros eventos climáticos extremos, como as ondas de calor e de frio. As mudanças produzidas pelo aquecimento global nos sistemas biológicos, químicos e físicos do planeta são vastas, algumas são de longa duração e outras são irreversíveis, e provocam uma grande redistribuição geográfica da biodiversidade, o declínio populacional de grande número de espécies, modificam e desestruturam ecossistemas em larga escala, e geram por consequência problemas sérios para a produção de alimentos, o suprimento de água e a produção de bens diversos para a humanidade, benefícios que dependem da estabilidade do clima e da integridade da biodiversidade. Esses efeitos são intimamente inter-relacionados, influem uns sobre os outros amplificando seus impactos negativos e produzindo novos fatores para a intensificação do aquecimento global. O aquecimento e as suas consequências serão diferentes de região para região, e o rtico é a região que está aquecendo mais rápido. A natureza e o alcance dessas variações regionais ainda são difíceis de prever de maneira exata, mas sabe-se que nenhuma região do mundo será poupada de mudanças. Muitas serão penalizadas pesadamente, especialmente as mais pobres e com menos recursos para adaptação. Mesmo que as emissões de gases estufa cessem imediatamente, a temperatura continuará a subir por mais algumas décadas, pois o efeito dos gases emitidos não se manifesta de imediato e eles permanecem ativos por muito tempo. evidente que uma redução drástica das emissões não acontecerá logo, por isso haverá necessidade de adaptação às consequências inevitáveis do aquecimento. Uma vez que as consequências serão tão mais graves quanto maiores as emissões de gases estufa, é importante que se inicie a diminuição destas emissões o mais rápido possível, a fim de minimizar os impactos sobre esta e as futuras gerações. A Organização das Nações Unidas publica um relatório periódico sintetizando os estudos feitos sobre o aquecimento global em todo o mundo, através do Painel Intergovernamental de Mudanças Climáticas IPCC . Estes estudos têm, por motivos práticos, um alcance de tempo até o ano de 2100. Todavia, já se sabe que o aquecimento e suas consequências deverão continuar por séculos adiante, e algumas das consequências mais graves, como a elevação dos mares e o declínio da biodiversidade, serão irreversíveis dentro dos horizontes da atual civilização. Os governos do mundo em geral trabalham hoje para evitar uma elevação da temperatura média acima de 1,5 C, considerada o máximo tolerável antes de se produzirem efeitos globais em escala catastrófica. Num cenário de elevação de 3,5 C a União Internacional para a Conservação da Natureza e dos Recursos Naturais IUCN prevê a extinção provável de até 70 de todas as espécies hoje existentes. Se a elevação superar os 4 C, uma possibilidade que não está descartada e que a cada dia parece se tornar mais plausível, pode-se prever sem dúvidas mudanças ambientais em todo o planeta em escala tal que comprometerão irremediavelmente a maior parte de toda a vida na Terra. Num cenário de altas emissões continuadas, superpopulação humana e exploração desenfreada da natureza, semelhante ao que hoje está em curso, prevê-se para um futuro não muito distante o inevitável esgotamento em larga escala dos recursos naturais e uma rápida escalada nos índices de fome, epidemias e conflitos violentos, a ponto de desestruturar todos os sistemas produtivos e sociais e tornar as nações ingovernáveis, levando ao colapso da civilização como hoje a conhecemos. Se considerarmos o futuro para além do limite de 2100, admitindo a queima de todas as reservas conhecidas de combustíveis fósseis, projeta-se um aquecimento dos continentes de até 20 C, eliminando a produção de grãos em quase todas as regiões agrícolas do mundo e criando um planeta praticamente inabitável. A imprensa ainda dá espaço para controvérsias mal informadas, tendenciosas ou distorcidas sobre a realidade e a gravidade do aquecimento e seus efeitos, e influentes grupos de pressão política e econômica financiam campanhas de negacionismo climático, opondo-se ao consenso científico virtualmente unânime dos climatologistas. Este consenso afirma que o aquecimento global está acontecendo inequivocamente e precisa ser contido com medidas vigorosas sem nenhuma demora, pois os riscos da inação, sob todos os ângulos, são altos demais. De todas as ameaças ambientais contemporâneas, o aquecimento global é a maior e a mais grave, em vista dos seus efeitos múltiplos e duradouros e do seu impacto generalizado sobre todo o mundo. O Protocolo de Quioto e outras políticas e ações nacionais e internacionais visam a redução das emissões. Todavia, as negociações intergovernamentais não têm sido muito frutíferas, os avanços nas ações de mitigação e adaptação têm sido muito lentos e pobres, e a sociedade em geral resiste irracionalmente em acatar as conclusões da ciência e mudar seu estilo de vida. O resultado é que as emissões de gases têm crescido sem cessar, não havendo sinais de que se reduzirão substancialmente no futuro próximo. Ao mesmo tempo, as evidências concretas do aquecimento global e das suas consequências têm se avolumado ano a ano. Os meios necessários para evitar a materialização das previsões mais pessimistas já existem, como por exemplo o uso de energia limpa, redução nos níveis de consumo, reflorestamento, reciclagem de materiais e tratamento de resíduos, e devem ser implementados imediata e agressivamente em ampla escala, caso contrário essas previsões se materializarão de maneira inevitável.
O termo aquecimento global é um tipo específico de mudança climática à escala global. No uso comum, o termo se refere ao aquecimento ocorrido nas décadas recentes devido à influência humana. O termo alteração climática antrópica equivale às mudanças no clima causadas pelo homem. O termo antrópico parece ser mais adequado do que antropogênico, um cognato do inglês anthropogenic, bastante usado neste assunto, inclusive em textos em português. Porém, segundo os dicionários Priberam, Aulete e Michaelis, em português antropogênico refere-se especificamente à antropogênese, a geração e reprodução humanas e às origens e desenvolvimento do homem como espécie do grego ánthropos, homem genesis, origem, criação, geração . Já antrópico é referente àquilo que diz respeito ou procede do ser humano e suas ações, de maneira mais genérica do grego anthropikos, humano . O dicionário Michaelis define como pertencente ou relativo ao homem ou ao período de existência do homem na Terra. O dicionário Houaiss traz até mesmo, em uma de suas definições deste verbete, como relativo às modificações provocadas pelo homem no meio ambiente daí a preferência pelo termo antrópico, neste artigo, para designar as mudanças causadas pela influência humana.
Estimativas da variação da temperatura na Terra nos últimos 2000 anos Variação da temperatura média global de 1880 até 2013 A Terra, em sua longa história, já sofreu muitas mudanças climáticas globais de grande amplitude. Isso é demonstrado por uma série de evidências físicas e por reconstruções teóricas. Já houve épocas em que o clima era muito mais quente do que o de hoje, com vários graus acima da temperatura média atual, tão quente que em certos períodos o planeta deve ter ficado completamente livre de gelo. Entretanto, isso aconteceu há milhões de anos, e suas causas foram naturais. Também ocorreram vários ciclos de resfriamento importante, conduzindo às glaciações, igualmente por causas naturais. Entre essas causas, tanto para aquecimentos como para resfriamentos, podem ser citadas mudanças na atividade vulcânica, na circulação marítima, na atividade solar, no posicionamento dos polos e na órbita planetária. A mudança significativa mais recente foi a última glaciação, que terminou em torno de 10 mil anos atrás, e projeta-se que outra não aconteça antes de 30 mil anos. Este último período interglacial, chamado Holoceno, também sofreu mudanças climáticas naturais, embora tenha sido um período de notável estabilidade quando comparado às interglaciais anteriores. Houve variações perceptíveis, mas tiveram pequena amplitude e provavelmente foram fenômenos localizados e não globais, como o período quente medieval ou a pequena idade do gelo, que são melhor explicadas por causas naturais. Muitas dessas mudanças, especificamente os períodos de aquecimento, são em alguns aspectos comparáveis às que hoje se verificam, mas em outros aspectos o aquecimento contemporâneo é distinto, principalmente no que diz respeito às suas causas e à velocidade em que está acontecendo. inequívoco que a temperatura média da Terra tem se elevado desde meados do século XVII, e é inequívoco que as atividades humanas têm sido o fator determinante nesse processo. No período de 1850 2021 a temperatura global, combinando os registros dos oceanos e dos continentes, aumentou em média 1,09 C. Os continentes estão aquecendo mais rápido do que os oceanos. Nos continentes a média de aumento foi de 1,59 C e nos oceanos de 0,88 C. Apesar de o oceano absorver mais calor do que as massas continentais, responde com mais lentidão, e desde 1979 as temperaturas em terra aumentaram quase duas vezes mais rápido que as temperaturas no oceano 0,25 C por década contra 0,13 C por década . A elevação na temperatura não foi, porém, linear, com várias oscilações para mais e para menos. Variações desse tipo são naturais e esperadas, mas a tendência geral é claramente ascendente. Cada uma das quatro últimas décadas têm sido mais quente do que a década anterior, recordes de temperatura têm sido batidos a cada ano nos últimos anos, e evidências recentes apontam para uma tendência de aceleração na velocidade do aquecimento nos últimos 15 anos. Esse aumento não pode ser explicado satisfatoriamente sem levarmos em conta a influência humana. De fato, há fortes evidências indicando que o aquecimento antrópico tem sido tão importante que reverteu uma tendência natural dos últimos 5 mil anos de resfriamento do planeta. Emissões antrópicas de alguns poluentes em especial aerossóis de sulfato podem gerar um efeito refrigerante através do aumento do reflexo da luz incidente. Isso explica em parte o resfriamento observado no meio do século XX, embora isso possa também ser atribuído em parte à variabilidade natural.
Por efeito estufa entende-se a retenção de calor pela atmosfera, impedindo-o de se dissipar no espaço. A origem primária deste calor é o Sol, que continuamente emite imensas quantidades de radiação em vários comprimentos de onda, incluindo a luz visível e a radiação térmica calor , mas também em comprimentos não observáveis pelo ser humano sem a ajuda de instrumentos, como o ultravioleta. Cerca de um terço da radiação que a Terra recebe do Sol é refletida pela atmosfera de volta para o espaço, mas dois terços dela chegam à superfície, sendo absorvida pelos continentes e oceanos, fazendo com que aqueçam. A atmosfera, por sua vez, é aquecida em parte pela radiação direta do Sol, mas principalmente pelo calor refletido pela superfície da Terra, mas por virtude do efeito estufa, ali fica retido e não se dissipa para o espaço. O efeito estufa é um mecanismo natural fundamental para a preservação da vida no mundo e para a regulação e suavização do clima global, que oscilaria entre extremos diariamente, caso ele não existisse. O efeito estufa funciona como um amortecedor de extremos. Sem ele, a Terra seria cerca de 30 C mais fria do que é hoje. Provavelmente ainda poderia abrigar vida, mas ela seria muito diferente da que conhecemos e o planeta seria um lugar bastante hostil para a espécie humana viver. Porém, mudanças na composição atmosférica podem desequilibrá-lo. O que ocorre hoje, em vista da mudança na composição atmosférica provocada pela emissão continuada e massiva de diversos gases, é sua intensificação, fazendo com que passe a abafar demais o planeta. Vários gases obstruem a perda de calor da atmosfera, chamados em conjunto gases do efeito estufa ou, abreviadamente, gases estufa. Eles têm a propriedade de serem transparentes à radiação na faixa da luz visível, mas são retentores de radiação térmica. Os mais importantes são o vapor d água, o gás carbônico dióxido de carbono ou CO2 , o metano CH4 , o óxido nitroso NO2 e o ozônio O3 . Apesar de em proporções absolutas o vapor d água e o gás carbônico serem os mais efetivos, por existirem em maiores quantidades, a potência desses gases, comparada individualmente, é muito distinta. O metano, por exemplo, é de 20 a 30 vezes mais potente que o gás carbônico. Não só os gases estufa vêm aumentando. O crescimento das concentrações de poluentes aerossóis, que bloqueiam parte da radiação solar antes que atinja a superfície, e tendem a provocar um resfriamento, contribuiu para retardar o processo de aquecimento global.
A emissão aumentada dos gases estufa decorre de uma série de mudanças introduzidas pela sociedade contemporânea. O fator básico é a explosão populacional, que desencadeou a exploração dos recursos naturais em escala cada vez maior e mais rápida a fim de atender às crescentes necessidades de energia, alimento, transporte, educação, saúde e materiais para construção de habitações e infraestruturas e para a produção de uma série infindável de bens de consumo e mesmo luxos supérfluos, criando-se uma civilização que prima pelo desrespeito à natureza, pelo consumismo, pela insustentabilidade, pelos elevados índices de desperdícios e pela vasta produção de lixo e poluição. Desde o início do século XIX a população humana aumentou seu tamanho em sete vezes, desde a década de 1960 até o presente os níveis de consumo duplicaram e cerca de 60 dos recursos naturais já estão esgotados ou em vias de rápido esgotamento. Ao longo do século XXI espera-se um aumento acelerado no consumo, que pode chegar a ser 900 maior do que os níveis atuais. Neste processo de acelerado crescimento populacional e econômico, desenvolveram-se tecnologias e sistemas produtivos que consomem muitos recursos naturais e são altamente poluidores, e que ainda têm no uso dos combustíveis fósseis sua principal fonte de energia. Ao mesmo tempo, a necessidade de espaço para urbanização e para a formação de lavouras e pastagens determinou a derrubada de imensas áreas florestais e a degradação da maior parte dos ecossistemas da Terra. A queima de combustíveis fósseis e as mudanças no uso da terra incluindo o desmatamento, uso de fertilizantes e agrotóxicos, as queimadas e outras práticas agropecuárias são as principais fontes de gases estufa. Outras fontes importantes são a degradação dos solos, o desperdício de alimentos e a produção de resíduos lixo, esgotos, efluentes industriais, etc . Em 2010 o setor elétrico e a produção de energia calorífera respondiam por 25 das emissões globais de gases estufa, incluindo a queima de carvão, gás natural e derivados do petróleo. A indústria respondia por 21 do total, incluindo queima de combustíveis fósseis para processos químicos, metalúrgicos, transformação mineral e manejo de resíduos. A agricultura, a silvicultura, o desmatamento e outros usos da terra eram responsáveis por 24 do total. Ao setor de transporte cabiam 14 , à construção civil 6 , e o restante a uma série de outros agentes de menor expressão.
Recuo do Glaciar McCarty entre 1909 e 2004 Que está em andamento um aquecimento generalizado do planeta é fato comprovado por várias evidências concretas, e reconhecido como inequívoco pelo consenso dos climatologistas. As evidências são recolhidas através de estações meteorológicas, registros de paleoclima, batitermógrafos, satélites, entre outros métodos de medição. Elas incluem O aumento na temperatura da atmosfera sobre terras e mares. Cada uma das quatro últimas décadas foi mais quente que a década anterior. Entre 2001 e 2020 a média global de aumento da temperatura foi de 0,99 C maior que no período de 1850-1900. Entre 2011 e 2021 a média de aumento foi de 1,09 C. Os continentes estão aquecendo mais rápido do que os oceanos. Nos continentes a média de aumento foi de 1,59 C e nos oceanos de 0,88 C. O aumento no nível de umidade atmosférica, possível graças à capacidade do ar quente reter mais vapor de água do que o ar frio A retração da vasta maioria das geleiras A diminuição da área coberta por neve A retração do gelo oceânico global Migração de muitas espécies animais e vegetais de climas mais quentes em direção aos pólos, ou a altitudes mais elevadas O aumento da temperatura do mar, com o resultado de elevar-se o seu nível pela expansão térmica O adiantamento da ocorrência de eventos associados à primavera, como as cheias de rios e lagos decorrentes de degelo, brotamento de plantas e migrações de animais. Esses dados dão provas materiais seguras de que o clima está realmente esquentando.
Em tese, vários fatores poderiam ser responsáveis por um aquecimento do sistema climático terrestre. Modificações na composição do ar por causas naturais já ocorreram antes na história da Terra, produzindo mudanças climáticas e ecológicas às vezes em larga escala. O diferencial contemporâneo é que mudanças importantes estão sendo agora induzidas pelo homem, cujas atividades geram gases estufa e os liberam na atmosfera, aumentando a sua concentração e provocando finalmente um aumento na retenção geral de calor. As evidências observadas, sintetizadas principalmente no Quinto Relatório de Avaliação do Painel Intergovernamental sobre Mudanças Climáticas, apontam que o aquecimento é uma realidade inequívoca e que sua origem deriva principalmente do efeito estufa intensificado pela atividade humana. extremamente improvável que essas mudanças possam ser explicadas por causas naturais, especialmente considerando que nos últimos 50 anos a tendência das causas naturais sozinhas teria sido provavelmente resfriar o planeta. A responsabilização das atividades humanas por esta amplificação é apoiada por várias evidências Variação da concentração atmosférica de CO2 nos últimos 400 mil anos Curvas de concentração na atmosfera de vários gases estufa no período 1976-2013 CO2, N2O, CH4, CFC-12, CFC-11, HCFC-22 e HFC-134a. Apenas dois, dos menos importantes, mostram declínio recente. Todos os outros, inclusive os mais potentes, cresceram constantemente A composição isotópica do gás carbônico atmosférico CO2 indica que tem principalmente origem fóssil, derivando da combustão do petróleo, do gás natural e do carvão mineral, combustíveis fósseis de uso generalizado na sociedade moderna. A quantidade de O2 também tem diminuído de forma consistente com a liberação de CO2 por meio de combustão. Nos últimos 800 mil anos a concentração de CO2 atmosférico manteve-se relativamente estável, variando de 170 a 300 ppm partes por milhão . Contudo, desde a Revolução Industrial, iniciada em meados do século XVIII, a concentração atmosférica aumentou aproximadamente 35 , ultrapassando as 410 ppm em 2011, resultado da emissão de cerca de 375 bilhões de toneladas de gás desde 1750 até 2011 somente nas áreas de combustíveis fósseis e produção de cimento. Um bilhão de toneladas equivale a 1 gigatonelada . De 100 a 260 bilhões de toneladas a mais foram emitidas no mesmo período por mudanças no uso da terra, principalmente o desmatamento nas regiões tropicais. Menores quantidades tiveram origem em outras fontes. Do total, cerca de 240 bilhões se acumularam na atmosfera, e o restante foi absorvido pelos oceanos, pelos solos e pela biomassa. Nas últimas décadas, cerca de 80 desse aumento deriva da queima de combustíveis fósseis, e cerca de 20 advém do desmatamento e de mudanças nas práticas agrícolas. Os níveis de emissão têm crescido quase continuamente, chegando nos últimos anos à ordem de dezenas de gigatoneladas por ano. Em 2012, foram emitidas 31,6 gigatoneladas, e somente nas áreas de combustíveis fósseis e indústria foram 35,9 gigatoneladas em 2014 e 35,7 gigatoneladas em 2015. Dados da FAO mostram que o desperdício de alimentos é a terceira maior causa de emissões de carbono, respondendo pelo lançamento anual de 3,3 bilhões de toneladas de CO2 e outros gases estufa na atmosfera. O CO2 é o maior componente antrópico do efeito estufa, mas outros gases também estão elevando seus níveis atmosféricos. O metano CH4 se origina no uso de combustíveis fósseis, na agricultura, na pecuária e na decomposição de matéria orgânica lixo, esgotos , mais que dobrando sua concentração atmosférica desde o período pré-industrial, tendo passado de uma média de 722 697-747 ppb partes por bilhão em 1750 para 1869 ppb em 2018. Recentemente o papel do metano vem sendo reavaliado, e prevê-se que aumente muito sua contribuição para o efeito estufa à medida que derrete o permafrost das regiões frias, onde é estocado congelado em vastas quantidades. A elevação do óxido nitroso N2O , devida principalmente ao uso de fertilizantes, variou de 270 ppb pré-industrial para 331,1 ppb em 2018, e os níveis de ozônio O3 aumentaram de 25 para 34 ppb em 2012. Menos calor está escapando para o espaço. Num planeta em aquecimento, este fato é consistente apenas com um efeito estufa intensificado. Além disso, este calor é retido nas faixas de frequência correspondentes aos gases estufa, como o CO2 e CH4. Mais calor está retornando da atmosfera de volta à superfície. Esta evidência é o outro lado da moeda da evidência anterior, pois o calor que deixa de ser liberado ao espaço acaba retornando para a superfície. Também nesse caso, observam-se os padrões no espectro de frequência que indicam a ação dos gases estufa. O padrão de aquecimento nas diferentes profundidades dos oceanos é consistente com o que se esperaria com o aumento do efeito estufa atmosférico. A forma com que têm se aquecido as diferentes camadas da atmosfera é consistente com o padrão provocado pela intensificação do efeito estufa. As temperaturas noturnas têm aumentado mais do que as diurnas. Os invernos têm apresentado maior aquecimento do que os verões. No seu conjunto, as evidências são consistentes apenas com a intensificação do efeito estufa causado pela atividade humana.
Uma explicação alternativa popular é que o aquecimento recente poderia ser originado por maior atividade solar. luz das evidências, entretanto, esta hipótese não se confirma. Neste caso, as temperaturas subiriam mais quando o sol está mais presente durante o verão, e durante o dia não haveria aumento de retenção de energia na atmosfera nas faixas de frequência dos gases estufa e teria de haver aumento da atividade solar que justificasse, quantitativamente, o aquecimento observado. Ao contrário, não há tendência de aumento dessa atividade pelo menos nos últimos 60 anos. certo que, na história geológica de nosso planeta, variações de irradiância solar tiveram consequências climáticas importantes. Todavia, o aquecimento das últimas décadas não pode ser atribuído a isso. Alguns estudos indicaram que uma parte do aquecimento observado no início do século XX pode ser atribuível a causas naturais, como a variabilidade climática natural e emissões vulcânicas de gases, mas o consenso atual é de que a partir da segunda metade do século as atividades humanas têm sido o fator largamente preponderante. Outras hipóteses sugeriram como possíveis influências naturais no aquecimento os raios cósmicos e alterações no campo magnético da Terra, afetando a formação das nuvens e de chuva, mas o IPCC considera que uma influência neste sentido não foi comprovada com segurança, e mesmo se existir, ela seria pequena demais para ter exercido qualquer modificação significativa no sistema climático ao longo do século XX.
O aquecimento verificado não é globalmente uniforme, o que era previsto em teoria já desde o trabalho seminal de Svante Arrhenius no fim do século XIX. Os modelos climáticos esperavam que as regiões polares fossem as mais afetadas, que os continentes aqueceriam mais do que os oceanos, e que o Hemisfério Norte aqueceria mais que o Sul. Os registros confirmam a previsão e indicam que a região do rtico aumentou suas temperaturas duas vezes mais rápido do que a média mundial nos últimos 100 anos. Algumas partes do rtico já se aqueceram 4 C desde a década de 1960, enquanto a média mundial elevou-se menos de 1 C em todo o século XX. A maioria das projeções teóricas espera que o rtico continue a experimentar os maiores índices de aquecimento. A causa mais importante para essa diferença regional é a diferença na superfície coberta por terra firme em relação à coberta por água. O Hemisfério Norte tem muito mais terras firmes do que o Sul. Em primeiro lugar, as terras aquecem mais rapidamente do que o mar, e em segundo, há mais superfície coberta por neve e gelo perenes. Os gelos, com sua brancura albedo , têm grande capacidade de refletir a radiação recebida do Sol de volta para o espaço. Com o rápido degelo que ocorre no rtico o albedo total se reduz e ao mesmo tempo mais terra fica exposta para aquecer. Esses efeitos podem ser potencializados pela grande estabilidade da baixa troposfera sobre o rtico a chamada inversão ártica , que tende a concentrar o calor junto à superfície, embora o real papel da inversão seja disputado. Também influem na variabilidade regional mudanças na cobertura de nuvens, na circulação marítima e nos sistemas de ventos e correntes de jato. Uma rápida elevação na temperatura também é observada no sul do globo em trechos da Antártida, especialmente no centro-oeste e na Península Antártica, embora nestas regiões o fenômeno seja muito menos compreendido e muito mais polêmico pela menor disponibilidade de dados confiáveis e por estudos que trazem conclusões conflitantes. A causa do menor aquecimento observado no continente antártico é incerta, mas foi atribuída a um aumento na potência dos ventos, originada por sua vez de alterações na camada de ozônio. Mapa do globo mostrando a anomalia térmica mundial da década 2000-2009 em comparação à média do período 1951-1980. As regiões mais aquecidas estão no Hemisfério Norte, próximas ao rtico e nas zonas temperadas. No Hemisfério Sul as mudanças mais importantes são limitadas à Península Antártica. A diferente concentração do calor pelas várias regiões é consistente com os modelos teóricos.
Por várias questões práticas, os modelos climáticos referenciados pelo IPCC normalmente limitam suas projeções até o ano de 2100. São análises globais, e por isso não oferecem grande definição de detalhes. Embora isso gere mais incerteza para previsão das manifestações regionais e locais do fenômeno, as tendências globais já foram bem estabelecidas e têm se provado confiáveis. Os modelos usam para seus cálculos diferentes possibilidades cenários de evolução futura das emissões de gases estufa pela humanidade, de acordo com tendências de consumo, produção, crescimento populacional, aproveitamento de recursos naturais, etc. Estes cenários são todos igualmente plausíveis, mas não se pode ainda determinar qual deles se materializará, uma vez que dependem de desdobramentos imprevisíveis, como a evolução tecnológica e a adoção ou não de políticas de mitigação. Considerando estes vários cenários, em seu 5 Relatório o IPCC previu que até 2100 a temperatura média global deve ficar mais provavelmente na faixa de 1,5 C a 4 C acima dos valores pré-industriais, com alguns cenários indicando até 6 C. As estimativas mais recentes, contudo, apresentadas na Conferência do Clima de 2019 pelo secretário-geral das Nações Unidas, apontam para uma elevação de 3,4 C a 3,9 C até 2100. Embora níveis mais elevados sejam considerados menos prováveis, não está excluída a possibilidade de mudanças abruptas e radicais imprevisíveis nos parâmetros do clima, e essa possibilidade aumenta à medida que a temperatura aumenta.
A determinação da temperatura global à superfície é feita a partir de dados recolhidos em terra, sobretudo em estações de medição de temperatura em cidades, e nos oceanos, por meio de navios e batitermógrafos. feita uma seleção das estações a considerar, que são as tidas como mais confiáveis, e é feita uma correção no caso de estas se encontrarem perto de urbanizações, a fim de compensar o efeito de ilha de calor criado nas cidades. As tendências de todas as seções são então combinadas para se chegar a uma anomalia de temperatura global o desvio apurado a partir de uma determinada temperatura média de referência. O método de cálculo varia segundo os procedimentos de cada instituição de pesquisa. Por exemplo, no Met Office do Reino Unido, o globo é dividido em seções por ex., quadriláteros de 5 latitude por 5 longitude e é calculada uma média ponderada da temperatura mensal média das estações escolhidas em cada seção. As seções para as quais não existem dados são deixadas em branco, sem as estimar a partir das seções vizinhas, e não entram nos cálculos. A média obtida é então comparada com a referência para o período de 1961-1990, obtendo-se o valor da anomalia para cada mês. A partir desses valores é então calculada uma média pesada correspondente à anomalia anual média global para cada Hemisfério e, a partir destas, a anomalia global. s vezes a acurácia e a confiabilidade dessas medições são contestadas, ou se diz que há poucos dados, mas segundo o Met Office, existem imprecisões, certamente, mas elas são pequenas. Mesmo utilizando-se de métodos diferentes, as várias instituições de pesquisa que calculam este dado regularmente encontram valores similares. Desde janeiro de 1979, os satélites da NASA passaram a medir a temperatura da troposfera inferior de 1 000 m a 8 000 m de altitude através da monitoração das emissões de microondas por parte das moléculas de oxigénio O2 na atmosfera. O seu comprimento de onda está diretamente relacionado com a temperatura estima-se uma precisão de medida da ordem dos 0,01 C . Não são, portanto, diretamente comparáveis à temperatura de superfície, mas a tendência de aquecimento apresentado nas séries históricas de temperatura por satélite são bastante similares àquelas medidas por termômetros na superfície enquanto os dados de superfície da National Oceanic and Atmospheric Administration NOAA mostram aquecimento de 0,154 C por década, os dados da Universidade de Huntsville, Alabama, tomados a partir dos satélites da NASA, indicam 0,142 C no mesmo período entre 1979 e 2012.
Várias estimativas de sensibilidade climática, a partir de diferentes abordagens. O círculo representa o valor mais provável de cada estimativa. A faixa representa a margem de incerteza abrangendo mais de 66 da probabilidade Mudanças nas concentrações de gases estufa e aerossóis, na cobertura dos solos e outros fatores interferem no equilíbrio energético do clima e provocam mudanças climáticas. Essas interferências afetam as trocas energéticas entre o Sol, a atmosfera e a superfície da Terra. O quanto um dado fator tem a capacidade de afetar este equilíbrio é a medida da sua forçante radiativa. A sensibilidade climática, por sua vez, é como o sistema climático responde a uma certa forçante radiativa sustentada, e é definida praticamente como o quanto a temperatura média sobe em função da duplicação da quantidade de gás carbônico na atmosfera. Vários fatores podem alterar a resposta da natureza à forçante radiativa. Por exemplo, as emissões de gases e poeira em uma grande erupção vulcânica causam maior reflexão da luz solar de volta ao espaço, provocando resfriamento do sistema climático. Variações na concentração de vapor d água também alteram o equilíbrio, ou a diminuição da calota polar ártica, assim como outros fatores. O primeiro estudo desse tipo data de 1896, feito pelo sueco Svante Arrhenius. Daí em diante, inúmeros outros foram feitos, a partir de diversos conjuntos de dados e abordagens metodológicas, em países e épocas diferentes. Neles incluem-se tanto levantamentos empíricos, realizados a partir de dados paleoclimáticos ou medições instrumentais recentes, quanto cálculos teóricos baseados em simulações de computador os modelos climáticos. O 5 Relatório do IPCC indica uma sensibilidade climática entre 1,5 e 4,5 C, se a concentração de CO2 subir para o dobro dos níveis pré-industriais, isto é, de 280 ppm para 560 ppm. Uma elevação acima de 4 C foi considerada improvável em quase todos os modelos do IPCC. Uma elevação maior que 6 C não foi excluída mas é muito improvável, e valores abaixo de 1 C são extremamente improváveis, dentro dos parâmetros de emissão mencionados. Vide nota Virtualmente certo, para os cientistas, equivale a 99 ou mais de chances de um evento ocorrer Extremamente provável fica com 95 de chances ou mais de acontecer Muito provável está no intervalo entre 90 e 100 Provável permanece com 66 ou mais Chances equilibradas ou iguais delimita o centro, dos 33 aos 66 Improvável, até 33 de chances de ocorrer Muito improvável, até 10 Extremamente improvável fica com 5 de chances ou menos de acontecer Virtualmente impossível, 1 de chance ou menos.IPCC. Climate Change 2013 The Physical Science Basis Technical Summary. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change, 2013 Nenhum dos cenários matemáticos é otimista quanto à perspectiva de conseguirmos manter o aquecimento em torno de 2 C isso se as metas oficiais de emissão forem cumpridas , e nenhum deu a esta possibilidade uma chance maior do que 50 . O pessimismo é justificado Em 2011 a concentração do CO2 atmosférico ultrapassou as 410 ppm e continua em ascensão ininterrupta, com novos recordes sendo quebrados continuamente. Projeções conservadoras apontam para mais de 700 ppm até 2100, mas a evolução das emissões, mantidas como vêm se mostrando até aqui, sugere mais de 1 000 ppm até o final do século. Nenhum dos efeitos produzidos pelas forçantes climáticas é instantâneo. Devido à inércia térmica dos oceanos terrestres e à lenta resposta dos outros efeitos indiretos, o sistema climático da Terra leva mais de três décadas para se estabilizar sob novos parâmetros. Ou seja, o aquecimento experimentado atualmente é o resultado do acúmulo de gases emitidos até a década de 1970-80. Estudos de comprometimento climático indicam que, por esse motivo, ainda que os gases estufa se estabilizassem nos níveis do ano 2000, um aquecimento adicional de aproximadamente 0,5 C ainda ocorreria devido a um efeito cumulativo retardado. Este aquecimento adicional é inevitável. Se considerados feedbacks lentos como a mudança da vegetação ou mantos de gelo, o sistema climático pode lever milênios aquecendo-se lentamente até se estabilizar. Quaisquer que sejam os níveis atingidos em 2100 na concentração de gás carbônico, seus efeitos perdurarão por muitos séculos, pois o gás permanece na atmosfera por muito tempo.
Um modelo climático é uma representação matemática de cinco componentes do sistema climático atmosfera, hidrosfera águas , criosfera ambientes gelados , superfície continental e biosfera seres vivos . Estes modelos se baseiam em princípios físicos que incluem dinâmica de fluidos, termodinâmica e transporte radiativo. Podem incluir componentes que representam os padrões de ventos, temperatura do ar, densidade e comportamento de nuvens, e outras propriedades atmosféricas temperatura oceânica, salinidade e circulação marinha cobertura de gelo continental e oceânica transferência de calor e umidade do solo e vegetação para a atmosfera processos químicos e biológicos, entre outros. Porém, o comportamento natural destes elementos não foi suficiente para explicar as mudanças climáticas recentes. Apenas quando os modelos incluem influências humanas, como o aumento da concentração de gases estufa ou a mudança no uso da terra, é que eles conseguem reproduzir adequadamente o aquecimento recente. significativo que nenhum dos modelos que excluem os fatores humanos pôde reproduzir os registros objetivos com fidelidade. Para provar sua confiabilidade os modelos que estabelecem previsões futuras precisam reproduzir as observações reais registradas historicamente. Os modelos mais usados são globais, notoriamente imprecisos no que diz respeito a detalhamentos localizados, e certamente têm limitações e margens de erro, mas eles reproduzem com grande aproximação as mudanças do clima em escala global observadas no passado e atestadas por registros de vários tipos. Se a checagem com as séries históricas se confirma, pode-se usar o mesmo modelo de maneira reversa para prever o futuro com bom grau de confiabilidade. Mas, pelas suas limitações, os modelos não podem chegar ao nível do detalhe regional microscópico, e também porque não se pode saber antecipadamente como a sociedade responderá no futuro próximo ao desafio de continuar florescendo sem destruir o meio ambiente. Essa resposta, ainda incerta, introduzirá novos fatores na equação, podendo mudar os cenários de longo prazo radicalmente para melhor ou para pior. De qualquer modo, para minimizar as incertezas, os modelos vêm sendo constantemente aperfeiçoados. Apesar dos pesquisadores procurarem incluir tantos processos quanto possível, simplificações do sistema climático real são inevitáveis, uma vez que há limitações quanto à capacidade de processamento e disponibilidade de dados. Os resultados podem variar também devido a diferentes projeções de emissões de gases, bem como à sensibilidade climática do modelo. Por exemplo, a margem de erro nas projeções do Quarto Relatório do IPCC de 2007 deve-se ao uso de diversos modelos com diferentes sensibilidades à concentração de gases estufa, ao uso de diferentes estimativas das emissões humanas futuras de gases estufa, e a outras emissões provindas de feedbacks climáticos que não foram incluídas nos modelos constantes no relatório do IPCC, como a liberação de metano quando derrete o permafrost. Os modelos não tomam o aquecimento como premissa, mas calculam, segundo as leis da física conhecidas, como os gases estufa vão interagir quanto ao transporte radiativo e outros processos físicos. Apesar de haver divergências quanto à atribuição de causas do aquecimento ocorrido na primeira metade do século XX, eles convergem no tocante ao aquecimento a partir da década de 70 ter sido causado por emissões humanas de gases estufa. De fato, as principais projeções do IPCC, quando comparadas às observações subsequentes, mostram-se precisas. Em alguns casos, como o aumento do nível do mar e a retração da calota polar rtica, estas projeções mostraram-se conservadoras demais, com os eventos observados ocorrendo em ritmo bem mais rápido que o previsto.
A expressão aquecimento global não era conhecida até a década de 1970 ela só foi cunhada em 1975, num artigo do geoquímico Wallace Broecker publicado na revista Science. Nesta altura ainda não havia sido despertada a atenção geral para o fenômeno que a expressão descreve, e embora os cientistas há bastante tempo já soubessem que o homem poderia teoricamente afetar as condições climáticas do planeta, e que certos gases como o dióxido de carbono deviam estar envolvidos num efeito estufa, não se podia discernir exatamente como as mudanças aconteceriam. Joseph Fourier, trabalhando na década de 1820, foi o primeiro a assinalar que os gases da atmosfera poderiam reter calor do Sol. John Tyndall, em experimentos realizados na década de 1850, tentou comprovar a hipótese de Fourier, descobrindo exatamente o que este havia previsto, e identificando o vapor d água e o CO2 como alguns dos gases envolvidos no processo de retenção de calor. Svante Arrhenius, com a ajuda de Arvid H gbom, produziram entre o fim do século XIX e o início do século XX novos avanços no conhecimento, identificando o CO2 como um elemento-chave na variação da temperatura da Terra, prevendo que os oceanos absorveriam parte do gás atmosférico e associando a elevação em seus níveis à atividade industrial, mas eles acreditaram que o homem não seria capaz de provocar uma mudança significativa na temperatura através da emissão de gases senão ao longo de séculos ou milênios de atividade. Os cálculos de Arrhenius foram em geral considerados pouco plausíveis e exerceram uma impressão desprezível na comunidade científica, e a questão estagnou. Guy Stewart Callendar, baseando-se nas pesquisas anteriores, deixou outra contribuição fundamental em 1938. Analisando registros históricos mundiais, foi o primeiro a demonstrar a partir de evidências concretas que o que vinha sendo previsto teoricamente já estava acontecendo na prática. Identificou e mediu a atual tendência de elevação nas temperaturas, descobrindo que o mundo havia esquentado aproximadamente 0,3 C nos 50 anos anteriores, e confirmou a associação dessa elevação com as emissões de carbono derivadas das atividades humanas. Suas conclusões chamaram alguma atenção mas foram recebidas com bastante ceticismo e seu estudo caiu na obscuridade, em parte porque este campo de pesquisas recém começava a ser desbravado e havia muita incerteza, mas também porque Callendar era apenas um climatologista amador. Seus gráficos, porém, se aproximam notavelmente das análises mais recentes. Em meados do século XX, com um acelerado progresso nas pesquisas em vários campos relacionados, muitos especialistas já chegavam a resultados semelhantes. Roger Revelle, por exemplo, escreveu em 1965 Em torno do ano 2000 a elevação nos níveis atmosféricos de CO2 pode ser suficiente para produzir mudanças mensuráveis e talvez marcantes no clima, que quase certamente causarão mudanças significativas na temperatura e em outras propriedades da estratosfera, previsão que, na data apontada, havia se confirmado. Nuvem de poluição sobre Kuala Lumpur. Além de causarem a maior parte do aquecimento global, as emissões gasosas derivadas da combustão de combustíveis fósseis, usados por exemplo em automóveis, indústrias e usinas termoelétricas, são uma das maiores causas da poluição atmosférica Nos anos 1970 o tema já estava sendo estudado em larga escala, multiplicando-se a bibliografia especializada, mas os cientistas do clima e os ambientalistas ainda não haviam ganhado força política para colocar suas conclusões nas mesas de negociação dos governos. Um dos trabalhos mais importantes desta década foi o Relatório Charney, publicado em 1979 pela National Academy of Science dos Estados Unidos, que enfocou claramente o problema e declarou que se o dióxido de carbono continuar a se elevar, não há razão para duvidar que resultarão mudanças climáticas, e não há razão para acreditar que elas serão desprezíveis. Nos anos 80, foram feitos outros estudos dos impactos das emissões humanas de gases estufa em projeções futuras de temperatura. Dois destes trabalhos foram realizados em 1981 e 1988 por James Hansen, da NASA, um dos principais climatologistas do mundo, junto com uma equipe de colaboradores, prevendo um aquecimento claramente observável na década de 1990 e efeitos prolongados pelo século XXI adentro, incluindo a formação de áreas sujeitas à seca, derretimento do gelo polar, elevação do nível do mar e altos impactos sociais. Além das limitações da época quanto aos dados e capacidade computacional disponíveis, havia incertezas quanto à própria sensibilidade climática, bem como à evolução das emissões humanas de gases estufa. Mesmo assim, ambos os trabalhos, quando comparados às observações subsequentes, mostram bastante precisão. A Conferência de Toronto, realizada em 1986, foi a primeira a colocar o clima na pauta de debates, contando com a participação de um grupo de trabalho sobre os gases estufa, mas o grupo não tinha caráter oficial e não podia impor recomendações e práticas. Em 1988 Hansen apresentou seus resultados para o Congresso dos Estados Unidos, marcando uma das primeiras tentativas bem sucedidas da comunidade científica de alertar o poder público da necessidade de ação para limitar emissões de gases estufa. Sua representação recebeu larga divulgação na imprensa e o tema se tornou imediatamente popular, mas até a data havia grande cautela entre os cientistas na associação da elevação da temperatura com as atividades humanas. Desde então as pesquisas se multiplicaram, e a referida associação ganhou crescente grau de certeza com a compilação de numerosas evidências adicionais, embora ao mesmo tempo se levantasse grande polêmica sobre a confiabilidade dos achados e das previsões. A partir de 1990 o Painel Intergovernamental sobre Mudanças Climáticas IPCC , organizado sob a chancela da Organização Meteorológica Mundial OMM e do Programa das Nações Unidas para o Meio Ambiente PNUMA , e coordenando uma equipe científica vasta composta de vários milhares dos melhores especialistas de todo o mundo, passou a publicar seus relatórios. O IPCC não produz pesquisa original, mas sintetiza o estado da arte neste tema. O relatório de 1990 já declarou que os gases estufa emitidos pelo homem já tinham alterado perceptivelmente a temperatura global, e previu que essas emissões, entre outras consequências, vão amplificar o efeito estufa, resultando em média num aumento adicional na temperatura da superfície terrestre. O principal gás estufa, o vapor d água, vai aumentar em resposta ao aquecimento global e fazer com que este também aumente. Em 2007 veio à luz o Quarto Relatório, confirmando, com muito elevado grau de confiança, que o homem é responsável pelo aquecimento presente, e detalhando com profundidade as evidências disponíveis e as condições atuais nos vários ecossistemas e na vida humana, bem como os impactos potenciais futuros sob diferentes cenários de emissão, sugerindo adicionalmente formas de combate às origens e efeitos do problema. Em 2015 foi concluída a publicação do Quinto Relatório do IPCC, apresentando a mais ampla e atualizada síntese do conhecimento científico sobre o aquecimento global até a data, atualizando a situação e fazendo previsões com modelos mais sofisticados e dados observacionais novos. A bibliografia especializada mais que dobrou desde o último relatório, dando muito maior segurança sobre as conclusões da síntese do IPCC, e trazendo análises novas sobre dados antes não computados, que ampliaram consideravelmente o entendimento do fenômeno. Em essência, os resultados do novo documento aumentaram o nível de certeza sobre a origem humana do problema, confirmaram as tendências climáticas assinaladas nos relatórios anteriores e a gravidade das perspectivas futuras, e alertaram que os riscos da inação se tornam a cada dia maiores. No prefácio da publicação, o secretário-geral da OMM e o diretor-executivo do PNUMA fizeram uma declaração conjunta, dizendo O relatório confirma que o aquecimento do sistema climático é inequívoco, e muitas das mudanças observadas não têm precedentes no intervalo entre as últimas décadas e milênios atrás o aquecimento da atmosfera e do oceano, a redução da neve e do gelo, a elevação do nível do mar e a crescente concentração de gases estufa. Cada uma das últimas três décadas foi mais quente que qualquer outra década desde 1850. ... A mudança climática é um desafio de longa duração, que requer ação urgente devido à velocidade e escala com que os gases estufa estão se acumulando na atmosfera, e devido aos riscos envolvidos em uma elevação de temperatura superior a 2 C. Hoje precisamos estar focados no essencial e na ação, senão os riscos se tornarão maiores a cada ano. Em 2018 o IPCC publicou um relatório especial, Aquecimento global de 1,5 C, que analisa os impactos de um aquecimento de 1,5 C, meta definida internacionalmente no Acordo de Paris de 2015. No documento são enfatizadas as vantagens de se conter o aquecimento neste nível e não no nível de 2 C, que vigorou antes, e a necessidade de mudanças rápidas e profundas no sistema de produção e consumo para que a meta seja alcançada. Em 2021 o IPCC publicou seu Sexto Relatório, reforçando as conclusões anteriores e trazendo dados novos sobre vários aspectos, com um melhor entendimento das relações entre as emissões e seus efeitos uma melhor qualidade e segurança nas previsões de aquecimento futuro refinamento nos modelos climáticos usados para análise estreitamente da margem de sensibilidade climática de 1,5 4,5 C para 2,5-4 C avanços na compreensão dos impactos regionais atualização das medições do aumento de temperatura na série histórica e pela primeira vez foram feitas avaliações das possibilidades de pontos de ruptura no clima global levando a mudanças catastróficas no sistema do clima.
Projeção das mudanças no regime anual de chuvas até o fim do século XXI. As zonas mais azuis devem receber mais chuvas, e as mais alaranjadas devem experimentar a maior redução. O mapa mostra que praticamente toda a área de produção agropecuária do Brasil, e grandes biomas úmidos que dependem vitalmente de água e chuva abundantes, como o Pantanal e a Mata Atlântica, estão sob ameaça de tornarem significativamente mais secos. Outros que naturalmente têm menos precipitação, como o Cerrado e a Caatinga, também devem ter seu equilíbrio afetado negativamente. A Caatinga, que é naturalmente a região mais seca do Brasil, poderá receber até 50 menos de chuvas nas projeções mais pessimistas 6 C de aquecimento . O Pampa, por outro lado, poderá ter sua precipitação aumentada em até 40 . Em ambos os casos, as mudanças que isso provocará no equilíbrio dos biomas provavelmente serão significativas. Vários estudos preveem a savanização de grandes áreas da Floresta Amazônica e a desertificação de outros ecossistemas brasileiros, com extensa perda de biodiversidade e impacto socioeconômico. Portugal todo deve ficar sob influência semelhante O aquecimento da atmosfera aumenta sua capacidade de reter vapor d água, bem como aumenta a evaporação das águas superficiais oceanos, lagos e rios . Isso tem dois efeitos importantes em primeiro lugar, aumenta a quantidade de água disponível na atmosfera, e em certas regiões, quando essa água em vapor se converte em chuva, tende a chover com mais intensidade porque há mais água a descarregar. Prevê-se que essa precipitação aumentada tenha uma distribuição irregular nas diferentes regiões do mundo, enquanto outras zonas devem experimentar uma redução nas chuvas. Esta irregularidade é resultado da combinação de vários outros fatores influenciados pelo aquecimento, como a mudança no regime de ventos, nas correntes oceânicas e na linha de monções. Uma série de eventos extremos recentes associados ao ciclo das águas, como chuvas torrenciais, secas recorde e ciclones tropicais devastadores com pesada precipitação, vem sendo relacionada ao progressivo aquecimento global. O segundo efeito deriva do fato de que o vapor d água é um gás estufa por si mesmo, e de todos o mais importante, porque existe em grande quantidade na nossa atmosfera naturalmente. Com o aumento do calor, o aquecimento global se intensifica por um ciclo de auto-reforço aumenta a evaporação, mais vapor d água vai para a atmosfera e o efeito estufa se acentua então o calor aumenta ainda mais, aumenta a evaporação e assim sucessivamente. Em função do desequilíbrio hídrico, em algumas regiões subtropicais está prevista tendência à desertificação, perdendo-se áreas férteis necessárias às lavouras e diminuindo a superfície coberta por florestas, de onde o homem obtém madeira e vários outros produtos naturais valiosos, e que são responsáveis por boa parte da produção de oxigênio e da redução dos níveis de gás carbônico. Com a diminuição da capacidade da natureza de reciclar o gás carbônico, o efeito estufa se realimenta. Ao mesmo tempo a redução nas florestas provoca regionalmente o declínio dos mananciais de água e das chuvas, criando outro ciclo de auto-reforço para aumento dos danos ambientais. Espera-se que as alterações nas temperaturas, no ciclo da água e no clima em geral afetem negativamente de múltiplas maneiras a biodiversidade, a agricultura, a pecuária, a silvicultura e a produção de alimentos. O ciclone Nargis. O aumento da ocorrência ou intensidade de fenômenos de clima extremo como esses é uma consequência provável do aquecimento global Também estão previstas mudanças no padrão dos ventos e o aumento na frequência e intensidade das tempestades severas e das ondas de calor extremo. Mesmo os eventos climáticos normais devem sofrer alguma intensificação, pois todo o sistema do clima está mais quente e úmido. Desde a década de 1950 a maior parte do mundo tem experimentado ondas de calor mais frequentes e intensas, e as ondas de frio também podem se agravar sob certas condições. A intensidade dos furacões ou ciclones tropicais depende numa relação estreita da quantidade de umidade na atmosfera e do nível de calor na atmosfera e na água do mar sobre a qual se formam. Os ciclones tropicais são a catástrofe natural que mais causa prejuízos materiais nos países desenvolvidos, e nos países em desenvolvimento são uma das maiores causas de fatalidades e ferimentos decorrentes de catástrofes naturais. um exemplo o ciclone Nargis, que afligiu a Birmânia em 2008. Pelo menos 85 mil pessoas morreram, um ano depois cerca 54 mil ainda eram dadas como desaparecidas o número exato é controverso e pode ser muito maior as Nações Unidas estimaram em mais de 300 mil entre mortos e desaparecidos , 1,5 milhão foram evacuadas, e um total de 3,2 milhões foram afetadas de diversas maneiras em torno do delta do rio Irauádi, a região mais atingida, e onde se localiza Yangon, a principal cidade do país. Cerca de 700 mil moradias foram destruídas, 3 4 das criações de animais pereceram, metade da frota pesqueira afundou, um milhão de acres de terras cultivadas foram salgadas por uma maré de tempestade de 3,5 metros que acompanhou o ciclone, os mananciais de água doce foram salgados e contaminados, e os sobreviventes sofreram com epidemias de febre tifoide, cólera, disenteria e outras doenças, além de fome, sede e falta de assistência médica e abrigo. A recuperação das nações pobres atingidas por desastres tão graves às vezes leva anos, só para em pouco tempo serem sujeitas a novos desastres, muitas delas estando localizadas em áreas naturalmente propensas a eles, como no sudeste asiático e no Caribe. Com o crescimento constante da população do mundo e sua progressiva concentração nas cidades, que frequentemente não conseguem se adaptar a tempo para acompanhar o inchaço populacional e se tornam por isso particularmente vulneráveis, os impactos tendem a ser maiores pela maior exposição da população somada à maior intensidade dos fenômenos destrutivos. Mais umidade vapor de água no ar pode também significar uma presença de mais nuvens na atmosfera, o que, na média, poderia causar um efeito de arrefecimento. As nuvens têm um papel importante no equilíbrio energético porque controlam a energia que entra e a que sai do sistema. Podem arrefecer a Terra ao refletirem a luz solar para o espaço, e podem aquecê-la por absorção da radiação infravermelha radiada pela superfície, de um modo análogo ao dos gases estufa. Variações regionais são esperadas e o efeito dominante depende de muitos fatores, entre eles a altitude e do tamanho das nuvens e das suas gotículas. Pesquisas recentes mostram que as nuvens interagem também com muitas outras alterações físicas e biológicas que ocorrem na Terra, como por exemplo o aumento nos níveis de aerossóis antrópicos, o aumento na umidade troposférica e as imprevisíveis emissões por vulcanismo, e teoriza-se que possam sofrer influências tão distantes quanto dos raios cósmicos, que poderiam ser capazes de afetar a formação dos núcleos primários de condensação das gotículas da chuva. Efeitos combinados de mudanças no tipo ou quantidade de nuvens, maior umidade e temperatura também devem afetar a produção de precursores biológicos do ozônio atmosférico, mas todo o papel das nuvens em relação ao aquecimento ainda é incerto e pouco compreendido.
Projeção do aquecimento global até meados do século XXI O aumento da temperatura global, junto com seus efeitos secundários diminuição da cobertura de gelo, subida do nível do mar, mudanças dos padrões climáticos, etc. , provocam importantes alterações nas condições que mantém estáveis os ecossistemas, influindo negativamente, por extensão, nas atividades humanas. Uma consequência abrangente do aquecimento é a contração latitudinal, na qual as zonas climáticas tendem a se deslocar em direção aos polos e às altitudes mais elevadas. Este fenômeno já tem sido observado há algumas décadas, e tem impacto grave na estabilidade dos ecossistemas. A mudança nas zonas climáticas provoca em todas as regiões um desarranjo no ciclo das estações. No Hemisfério Norte a primavera tem chegado de seis a dez dias mais cedo do que o fazia na década de 1950. Os eventos associados à chegada são, por exemplo, a data da última geada de inverno e o aparecimento dos primeiros brotos novos nas plantas depois do período de perda das folhas. Da mesma forma, os eventos associados à chegada do outono têm sofrido atraso de cerca de seis dias. O degelo antecipado das neves tem causado inundações, e o maior calor tem ressecado mais os solos, de modo que no fim do verão os estoques de água se tornam mais escassos e têm ocorrido mais incêndios florestais. Nas regiões de tundra os rios têm degelado mais cedo e alguns já não congelam completamente, e a área coberta por neve reduziu significativamente nas últimas décadas. Essas mudanças têm gerado efeitos variados sobre a biodiversidade. A disponibilidade de alimento e os ciclos de reprodução e crescimento dos animais e plantas estão intimamente ligados às estações e aos parâmetros do clima. As aves, por exemplo, podem se ajustar com alguma facilidade às mudanças nas estações voando para regiões onde as condições são adequadas para a época de nascimento dos filhotes, mas nos novos locais a oferta de alimento não é a mesma que em suas regiões originais, e o período de sua maior abundância nem sempre coincide com o período de alimentação das ninhadas. O degelo antecipado dos rios interfere de maneira semelhante nos ciclos reprodutivos de espécies aquáticas e no das que dependem delas para sua própria alimentação, como aves e mamíferos. Todas as espécies devem ser prejudicadas em alguma medida, mas as espécies das zonas tropicais e equatoriais são especialmente vulneráveis porque de modo geral têm baixa tolerância a mudanças duradouras nos padrões de temperatura e, por conseguinte, baixa capacidade adaptativa, habituadas a viver em zonas cujo clima normalmente pouco varia ao longo do ano. Também são sensíveis espécies que já estão ameaçadas ou são raras, as migratórias, as polares, montanhosas e insulares, as geneticamente empobrecidas e as muito especializadas. Algumas espécies podem ser obrigadas a migrar até mil quilômetros ou mais em questão de décadas a fim de encontrar zonas em que o clima seja semelhante ao da sua região original. Poucas espécies terrestres não-voadoras terão capacidade de mobilização tão ampla em tão exíguo intervalo de tempo, especialmente as plantas, cujos indivíduos são imóveis e cujas espécies só migram através da dispersão de sementes. A capacidade de mobilização das plantas é consideravelmente inferior à atual velocidade das mudanças ambientais, e os problemas aumentam porque elas são a base das cadeias alimentares e oferecem locais de descanso, nidificação e abrigo para inúmeras outras espécies. Mesmo que as espécies possuam uma capacidade intrínseca de migração rápida, em grande parte dos casos ela não ocorrerá porque os ecossistemas mundiais foram largamente fragmentados e muitos corredores ecológicos até as zonas mais favoráveis desapareceram pela própria mudança no clima ou pelo desmatamento, urbanização e outras intervenções humanas, condenando irremediavelmente as espécies que ficaram ilhadas ao declínio ou eventual extinção. Quando chegam a ocorrer, as migrações tornam as espécies migrantes invasoras de ecossistemas diferentes, entrando em competição com as espécies nativas, podendo levar estas últimas a um declínio populacional ou extinção, mas nem sempre as invasoras se adaptam bem aos novos ambientes e podem da mesma maneira desaparecer. Uma vasta redistribuição geográfica da biodiversidade está ora em andamento por força do aquecimento global. Declínio na quantidade de gelo flutuante no oceano rtico entre 2012 e 1984 O degelo do permafrost abalou as fundações desta casa na Sibéria Na região do rtico, a que está aquecendo mais rápido, com os últimos anos batendo recordes de temperatura, já foi observada uma migração de espécies exóticas arbóreas e arbustivas perenes para uma faixa de 4 a 7 de latitude em direção ao norte nos últimos 30 anos, equivalendo a 9 milhões de km , invadindo sistemas de tundra e redefinindo as características e a biodiversidade de toda essa região. Dos 26 milhões de km de área vegetada do rtico, de 32 a 39 já sofreram um aumento nos índices de crescimento de vegetais no mesmo período. Prevê-se que uma faixa adicional de 20 possa ser invadida até o fim do século por causa do aquecimento global, se a tendência continuar. O maior calor no rtico também tem aumentado o número e a gravidade dos incêndios na tundra e nas florestas boreais, que lançam grandes quantidades de gases estufa na atmosfera, destroem ecossistemas e derretem o permafrost, o solo permanentemente congelado que existe em vastas áreas do Hemisfério Norte e também, em menor extensão, no Sul . Entre as décadas de 1950 e 1990 a espessura do gelo flutuante do oceano rtico diminuiu em média de 1 a 3 metros, desde a década de 1970 a dimensão da sua área km no período de verão diminui em média de 3 a 4 por década, e desde 2002, com a exceção de quatro anos, em todos os anos a redução anual na área têm batido o recorde do ano anterior. Muitas espécies dependem deste gelo flutuante para sua sobrevivência, como as morsas, as focas e os ursos-polares. O derretimento da camada superficial do gelo continental da Groelândia no verão também se acelera e em 2016 seus níveis se aproximam do recorde de 2012. Outro efeito preocupante nas regiões frias é o derretimento do permafrost. Cerca de 24 do solo exposto do Hemisfério Norte é de permafrost, que pode chegar a uma profundidade de até 700 m. Este solo preserva grandes quantidades de carbono fixado na matéria orgânica, principalmente nas formas de gás carbônico e metano, até agora congelados e inertes. Calcula-se que haja de 1 400 a 1 850 gigatoneladas de carbono estocadas no permafrost global, concentradas, ao que parece, especialmente em seus 3 metros superficiais, exatamente onde fica mais exposto às variações do clima. A liberação de todo esse gás congelado para a atmosfera amplificaria o efeito estufa de maneira dramática, adicionando cerca de duas vezes mais carbono do que o encontrado na atmosfera atualmente, que está em torno de 850 gigatoneladas. Em várias regiões já está sendo observado um rápido derretimento, que vem acelerando nos últimos anos. Outros efeitos do derretimento são estruturais. Este solo congelado é frágil, é facilmente degradado pela erosão e pela intervenção humana, está sempre em movimento naturalmente, seja pela expansão do gelo subterrâneo no inverno, seja pelos derretimentos superficiais no verão, quando fica encharcado e fluido, e sua conservação está ligada a muitas variáveis. De firmeza sempre um tanto precária, o derretimento mais acelerado dos solos permafrost pode ter um impacto importante nas regiões onde há estruturas humanas construídas sobre ele, como oleodutos, estradas, represas, linhas de transmissão energética e cidades, como evidenciam diversos exemplos de desabamentos já ocorridos. Entre os impactos ecossistêmicos previstos do derretimento do permafrost estão a redistribuição e declínio de espécies, intensificação de incêndios florestais, alterações nos sistemas hidrológicos, assoreamento e secura de rios e lagos e erosão de suas margens. Esses efeitos se combinam e reforçam mutuamente, e têm um grande impacto no atual ritmo de extinções de fato, o aquecimento está entre as principais causas do declínio recente da biodiversidade, e vem ganhando crescente importância relativa no total. O progressivo declínio faz com que as cadeias alimentares se rompam, o ciclo dos componentes inorgânicos se perturbe, e o processo entrópico se auto-reforce. Além de certo ponto, os ecossistemas tendem a entrar em colapso irreversível. Algumas pesquisas servem de exemplo das vastas implicações do problema. Um estudo prevê que 18 a 35 de 1 103 espécies de plantas e animais observadas serão extintas até 2050, baseado nas projeções do clima no futuro. Outro estudo indica que 34 dos animais e 57 das plantas do mundo devem perder cerca de metade de seus habitats até 2080 em virtude do aquecimento. De acordo com o IPCC um aquecimento de 2 C exterminará mais de 99 dos corais de todo o mundo. Os corais formam os mais ricos ecossistemas marinhos e são a base de sustentação de um grande número de espécies. Uma revisão da bibliografia publicada em 2019 indicou que cerca de 40 das espécies de insetos estão sofrendo um declínio dramático e podem estar extintas em poucas décadas, sendo o aquecimento uma das causas, de especial relevo nas regiões tropicais. Os insetos estão na base de muitos ciclos naturais e cadeias alimentares e são os principais polinizadores das plantas com flores e das culturas agrícolas, e seu desaparecimento em tal escala teria consequências catastróficas para a biodiversidade e para a sociedade. Já se tornou um consenso que o aquecimento provocará um grave empobrecimento da biodiversidade. A União Internacional para a Conservação da Natureza indica que um aquecimento em níveis elevados, acima de 3,5 C, causará uma extinção provável de até 70 de todas as espécies conhecidas, e segundo a pesquisadora Rachel Warren, da Universidade de East Anglia, a mudança climática reduzirá em muito a biodiversidade, mesmo para animais e plantas comuns. Analisando volumosa bibliografia recente o IPCC em seu 5 Relatório admitiu pela primeira vez com alto grau de confiança a extinção de significativo número de espécies se a temperatura subir mais do que 2 C, e se subir a 4 C o número de extinções deve ser extenso, apontando que isso deve produzir efeitos negativos para o homem em larga escala. Além disso, as perdas de ecossistemas e biodiversidade contribuem para aumentar o aquecimento global pela liberação para a atmosfera de grandes quantidades de carbono estocado nas formas vivas e pelas mudanças que induzem no equilíbrio entre biomassa e energia. O mapa à esquerda mostra a distribuição média do CO2 em 2011. Note-se como há grande variação regional. Os dois mapas pequenos à direita mostram as variações sazonais. O gráfico abaixo mostra a curva de elevação da concentração do CO2 atmosférico Ao mesmo tempo, são previstos alguns benefícios menores para as regiões temperadas, como a provável redução no número de mortes devido à exposição ao frio. Outro efeito positivo possível deriva do fato de que aumentos de temperaturas e aumento de concentrações de CO2 podem aprimorar a produtividade de certos ecossistemas, já que o CO2 estimula a fotossíntese, o crescimento vegetal e o melhor aproveitamento da água pelas plantas. Mas os resultados das pesquisas sobre este aspecto têm sido contraditórios. Alguns apontam um significativo aumento na produtividade, outros indicam um aumento que depois é revertido, e outros ainda apontam para um declínio. Por exemplo, um estudo que avaliou 47 hot-spots de florestas tropicais de altitude em todo o mundo, indicou que a produtividade vegetal era ascendente até meados dos anos 90, quando a tendência se inverteu de repente, sendo desde lá registrada a diminuição na sua atividade fotossintética e no total da biomassa produzida. Acredita-se que o fator limitante tenha sido a precipitação reduzida que acompanhou a elevação de temperatura. Os estudos que indicam aumento da produtividade por causa do aumento do CO2, embora autênticos, são feitos em geral em ambiente laboratorial controlado, analisando o efeito isolado do gás sobre as plantas, mas na natureza os fatores não podem ser tomados isoladamente, havendo sempre múltiplas interações que ainda não foram bem consideradas, de modo que os efeitos positivos da elevação de CO2 são duvidosos. Pesquisas feitas em condições mais próximas do ambiente natural atestam um índice de produtividade 50 menor do que o acusado em ambientes controlados. Outros trabalhos analisaram a produtividade de gramíneas consumidas por bovinos no Brasil e nos Estados Unidos, revelando que a produtividade aumentou, mas sua qualidade nutricional baixou, as folhas se tornaram mais fibrosas e continham mais componentes indigeríveis para os animais. Previu-se que os animais terão tendência a desenvolver menor tamanho e menos peso e serão necessários mais investimentos para compensar as perdas. Mesmo existindo alguns efeitos positivos localizados, a quantidade e gravidade dos efeitos negativos em outros domínios os torna, no balanço geral, irrelevantes.
Mapa indicando as variações regionais no nível do mar entre 1993 e 2010 Elevação recente do nível médio dos oceanos Gráfico mostrando a taxa de aquecimento médio dos oceanos entre 1957 e 2013. O gráfico aponta para uma aceleração na taxa de aquecimento no período mais recente Uma outra causa de grande preocupação é a subida do nível do mar. Entre 1901 e 2010 o nível médio do mar subiu cerca de 19 centímetros, com uma faixa de variação entre 17 e 21 cm. A elevação está acelerando. Entre 1901 e 2010 o nível subiu cerca de 1,7 milímetros por ano variação de 1,5 a 1,9 mm, 2,0 mm por ano variação de 1,7 a 2,3 mm entre 1971 e 2010, e 3,2 mm por ano variação de 2,8 a 3,6 mm entre 1993 e 2010. O nível dos mares é sujeito a muitas variáveis naturais e, ao contrário do que se poderia imaginar, é bastante desigual nas diferentes regiões oceânicas. Foi preciso ter em conta muitos fatores para se chegar a uma estimativa do aumento do nível do mar e o cálculo que levou à conclusão não foi simples de fazer, porque este nível é influenciado pela constante movimentação natural da crosta terrestre, que eleva algumas regiões enquanto outras afundam. O aquecimento global provoca subida dos mares através de dois fatores principais o primeiro é a expansão térmica das águas, um mecanismo pelo qual as águas se expandem ao aquecer, ocupando maior volume. Os oceanos absorvem cerca de 90 do calor gerado pelo efeito estufa, e por isso aquecem e se expandem. Segundo informa o IPCC, calcula-se que a expansão térmica contribua atualmente com pelo menos 0,4 0,1 mm de elevação anual. A expansão térmica da água tem sido responsável até agora por cerca de 50 da elevação total, mas essa proporção poderá mudar futuramente com a variação da contribuição do derretimento dos gelos. Um estudo de 2012 de Levitus et al. encontrou que se todo o calor armazenado nos oceanos desde 1995 fosse liberado de uma só vez para a atmosfera inferior 10 km , esta camada teria sua temperatura elevada em 36 C. Isso não vai ocorrer desta maneira, mas dá uma medida do grande papel dos mares na dinâmica da temperatura mundial, e evidencia o quanto eles têm retardado o aumento do aquecimento atmosférico geral. Porém, este importante armazenamento de calor tem gerado efeitos negativos de grande amplitude para a vida marinha. O aquecimento tem sido observado de forma consistente em todas as bacias oceânicas do mundo, mesmo levando em conta a variabilidade regional ou multidecadal que ocorre naturalmente, como o fenômeno do El Ni o e a Oscilação do Atlântico Norte. O segundo fator importante é o derretimento das calotas polares e dos glaciares de montanha, que acrescenta água líquida aos mares. As perdas totais de gelo mundial entre 2005 e 2009 foram calculadas pelo 5 Relatório do IPCC em 301 gigatoneladas por ano em média. As perdas vão continuar grandes no futuro próximo mesmo se as temperaturas se estabilizarem imediatamente. Não há garantia de que a tendência será reversível. Dados da NASA revelam que o gelo perdido nas geleiras e calotas polares entre 2003 e 2010 totalizou cerca de 4,3 trilhões de toneladas, adicionando cerca de 12 milímetros ao nível do mar. Colapso da banquisa antártica Larsen B em 2002, relacionado ao aquecimento global. O gelo cobria uma área de c. 3 250 km . O contorno do estado de Rhode Island, nos Estados Unidos, foi sobreposto para comparação Perda de terra firme na costa da Louisiana entre 1932 e 2011 Os modelos utilizados pelo IPCC dão resultados bastante divergentes, mas todos apontam para uma elevação que até 2100 deve ficar entre 26 e 98 centímetros, e é virtualmente certo que a elevação continuará depois de 2100. Essa continuidade é inevitável porque o calor que penetra no oceano leva muito tempo para chegar às zonas profundas e exercer seu efeito expansivo sobre toda a coluna de água. Ao mesmo tempo, os gelos devem continuar derretendo até que se atinja um novo patamar estável nas médias globais de temperatura. Projeções independentes indicam níveis bem maiores do que 98 cm. Se o gelo polar derreter significativamente, isso acarretaria um grande aumento do nível das águas oceânicas. O IPCC calcula que se todo o gelo da Groelândia derreter o nível do mar se elevaria em até 7 metros. No entanto, em geral não se espera um derretimento em tal proporção ao longo do século XXI, embora o recuo dos gelos esteja ocorrendo inequivocamente em virtualmente todas as regiões geladas do mundo, e esteja acelerando. Avaliações realizadas nos últimos anos provaram que a capa de gelo da Groelândia é muito mais instável do que se imaginava, e a velocidade do seu derretimento aumentou em cerca de cinco vezes desde 1990. Na Antártida essa velocidade duplicou nos últimos 15 anos. Outros estudos recentes apontam que várias grandes regiões da Antártida estão dando crescentes sinais de instabilidade, e podem num prazo de 200 a 500 anos acrescentar vários metros ao nível do mar. Um estudo de 2011 realizado pela NASA confirmou que o derretimento dos gelos polares está acontecendo muito mais rápido do que as projeções teóricas, e três vezes mais rápido do que a taxa registrada nos glaciares de montanha. Isso é confirmado também por medições do nível do mar realizas em 2015 através de metodologias novas que não foram utilizadas pelo IPCC, e que apontam para uma aceleração no ritmo de elevação das águas. As projeções não excluem a possibilidade de mudanças súbitas e imprevistas de grande proporção no processo de elevação do mar, e o ritmo atual, já em aceleração, pode vir a se tornar muito mais rápido. Em 2015 uma equipe de pesquisadores publicou na revista Science o resultado de 30 anos de trabalho. Analisando épocas da pré-história em que a temperatura da Terra esteve apenas 1 C ou 2 C acima da média atual, foi constatado que o mar subiu mais de seis metros, e um estudo conduzido por James Hansen em 2015 apontou que em alguns momentos críticos daqueles períodos geológicos a elevação foi extremamente rápida, chegando a 2-3 metros em questão de décadas. Cabe lembrar que as estimativas mais recentes do IPCC preveem que até o fim do século XXI a temperatura deve ficar na faixa de 3,4 C a 3,9 C acima dos valores pré-industriais. Se a situação presente repetir o efeito das épocas geológicas passadas, mais de 375 milhões de pessoas em todo o mundo terão de se mudar por terem suas terras inundadas. No Brasil, mais de 100 mil quilômetros quadrados de terra ficariam debaixo d água, e mais de 11 milhões de pessoas seriam desalojadas. Mesmo nos cenários mais otimistas os impactos sobre o homem serão seguramente vastos. Muitas ilhas e regiões litorâneas baixas, onde se concentra uma parte expressiva da população mundial e onde hoje florescem muitas megacidades, como Hong Kong, Nova Iorque, Rio de Janeiro, Buenos Aires, serão inundadas em graus variáveis, o que causará perdas materiais e culturais incalculáveis e provocará migrações em massa para regiões mais elevadas, gerando novos transtornos e despesas em larga escala. Pelo menos oito megacidades litorâneas são construídas sobre terrenos frágeis que estão afundando, aumentando ainda mais a rapidez do processo de inundação. Um estudo avaliou os custos para os Estados Unidos de uma elevação de um metro no nível do mar isso inundaria até 30 mil km de costas, e cada proprietário de terreno habitacional típico junto à costa deveria gastar de mil a dois mil dólares em medidas de contenção das águas. No total, junto com outros custos, seriam gastos de 270 a 475 bilhões de dólares. Isso poderia ser viável economicamente, mas o estudo concluiu que as perturbações ambientais que a movimentação e alteração maciça do terreno costeiro causariam poderiam ser inaceitáveis. Outra pesquisa, analisando o caso do Senegal, calculou que a elevação de um metro significaria a inundação de 6 mil km de terra da região mais populosa do país, provocando um êxodo de até 180 mil pessoas e danos a propriedades que chegariam a 700 milhões de dólares, o que equivalia, na data do estudo, a 17 do PIB nacional. A elevação do nível do mar também compromete a estrutura de internet como redes de fibra ótica e centros de processamento de dados que foram projetados e construídos na década de 1990, quando o aquecimento global não era tão preocupante. Bairro de New Orleans, nos Estados Unidos, com casas com água até o teto após a passagem do furacão Katrina Já existem vários projetos destinados a obras de adaptação e a conter a subida do mar em alguns locais críticos, construindo-se canais, comportas, diques, ilhas artificiais, muros, estruturas flutuantes, terraços e outros métodos, como o reflorestamento costeiro e fixação de dunas. Os Países Baixos, que possuem grande parte de seu território muitos metros abaixo do nível do mar e construíram um eficiente sistema de grandes diques para protegê-lo, são frequentemente apontados como um modelo bem sucedido de ação. Mas os custos de erguer e manter obras desse tipo são altíssimos. Os novos diques para proteção apenas da cidade de Veneza, por exemplo, custaram mais de 5 bilhões de euros. Os planos para proteção de Nova Iorque têm um custo calculado em cerca de 20 bilhões de dólares. Também é questionada a eficiência dessas proteções em situações extremas, quando seriam especialmente importantes, e cita-se como exemplo o caso de Nova Orleans, cujos sólidos e bem conservados diques de proteção foram rompidos pelo furacão Katrina, alagando vários bairros da cidade com metros de água. Miami já gastou cerca de 100 milhões de dólares em proteção, no futuro próximo deve gastar mais algumas centenas de milhões, e mesmo assim, em função do terreno permeável onde se assenta, seu destino é incerto. Tais obras geralmente desencadeiam impactos ambientais sérios pela escala monumental das intervenções na geografia e nos ecossistemas litorâneos, baixam o valor das propriedades costeiras e limitam seu uso recreativo. O muralhamento costeiro em escala mundial, por sua vez, além de ser em si mesmo indesejável, seria impraticável, especialmente se as previsões mais pessimistas se confirmarem. Assim, para muitos cientistas e administradores, tentar conter o avanço do mar na maior parte dos casos já mostrou ser uma batalha perdida, produzindo apenas benefícios efêmeros e ilusórios, valendo mais a pena iniciar uma retirada estratégica para o interior em larga escala em uma perspectiva de longo prazo, a qual, para ser bem sucedida, deve ser feita com muito planejamento. Porém, o tempo para isso está diminuindo, enquanto que a ameaça está aumentando. Mesmo se adotada, a solução da retirada deve enfrentar sérias dificuldades. Experimentos já realizados nos Estados Unidos em âmbito limitado mostraram que mesmo com ajuda oficial e disponibilidade de recursos é extremamente difícil operacionalizar a mudança, especialmente se ela envolve grandes grupos de pessoas. As populações geralmente resistem em deixar seus locais habituais de residência, mesmo diante de ameaças os custos são sempre elevados, o processo costuma ser muito moroso, e as complicações jurídicas, imobiliárias, securitárias e políticas provocadas pelo reassentamento são desanimadoras, além de a mudança causar a desagregação de comunidades e conflitos sociais difíceis de manejar. Estrada destruída pela erosão costeira na Baía Palliser, na Nova Zelândia A elevação do nível do mar também afetará os ecossistemas costeiros, causando sua degradação ou erradicação, com perdas ou modificações importantes na biodiversidade. Outro efeito direto é a erosão costeira, provocando o recuo da linha de areia nas praias, mudanças no perfil dos litorais e destruição de infra-estruturas litorâneas construídas pelo homem, como barragens, estradas e habitações, além de prejudicar o lazer, o turismo e outras atividades econômicas e sociais. Ao mesmo tempo, os aquíferos costeiros subterrâneos de água doce tendem a ser invadidos por água salgada, diminuindo a oferta de água potável para as populações humanas, gerando por extensão problemas de saúde e inquietação social. O aquecimento da água, além de causar a elevação do nível do mar, produz vários outros efeitos negativos. Altera as correntes marinhas, a salinidade, os níveis de oxigênio e de evaporação, modifica a estratificação das camadas de água, e acelera as taxas de derretimento do gelo flutuante, com variados efeitos secundários sobre a biologia marinha e o clima de todo o planeta. As reações químicas do metabolismo animal e vegetal são diretamente influenciadas pela temperatura do meio em que vivem. O aquecimento das águas provoca também um maior consumo de oxigênio, torna as espécies mais vulneráveis a malformações congênitas e doenças, altera os padrões e ritmos de crescimento e os ciclos de reprodução, e interfere na oferta de alimentos. Curva que mostra a relação entre a pressão e a temperatura na liberação do metano Um outro efeito do aquecimento da água, que até recentemente era desconhecido, é a liberação de metano estocado em sedimentos depositados no fundo do oceano, sob a forma de hidratos de metano ou clatratos , que resultam da sua combinação com as moléculas de água em condições de baixa temperatura e ou alta pressão, como as que ocorrem nas regiões frias ou em águas profundas. Nesta combinação, o metano não representa ameaça ambiental. Contudo, o atual aquecimento do oceano cria as condições ideais para que esta combinação seja desfeita nas águas rasas e o metano escape para a atmosfera, circunstância que tem sido chamada de detonação da bomba de clatratos. O grande problema é que a quantidade de gás estocado desta forma é imensa, calculada em até cerca de dez mil gigatoneladas dez trilhões de toneladas , uma quantidade maior do que todas as reservas conhecidas de combustíveis fósseis juntas. Além disso, o metano é até 36 vezes mais potente do que o gás carbônico em sua capacidade de aumentar o efeito estufa. Em condições normais, cerca de 90 do metano liberado de águas profundas é oxidado em seu caminho até a superfície e perde seu potencial de ameaça térmica, mas por outro lado contribui para a maior acidificação e desoxigenação da água. Em águas rasas, como as que cobrem a parte ocidental da plataforma continental da Sibéria, sua emergência não sofre neutralização significativa e o metano acaba escapando para a atmosfera. Esta e outras zonas de pouca profundidade são sujeitas a terremotos, aumentando o risco de exposição direta de grandes quantidades de metano. Segundo Archer, existe na Terra tanto metano na forma de hidratos que parece o ingrediente perfeito para um cenário apocalíptico. ... O reservatório de hidratos de metano tem o potencial de aquecer o clima da Terra até um estado semelhante ao da estufa do Eoceno num intervalo de poucos anos. O potencial para uma devastação planetária colocado pelo reservatório de hidratos de metano parece, portanto, comparável à destrutividade de um inverno nuclear ou de um impacto de um meteorito. Apesar do entendimento desses mecanismos ainda ser incompleto e haver controvérsia, a maioria dos estudos não considera provável uma liberação massiva de metano a partir dos hidratos dentro dos próximos séculos, embora admitam que alguma quantidade, ainda incerta, deva ser efetivamente liberada neste período. Se a mudança climática levar a uma grande elevação das temperaturas, contudo, a longo prazo este metano pode vir a ser liberado em vastas quantidades.
Alteração do pH índice de acidez na superfície oceânica devido ao aumento de CO2 entre 1700 e 1990. As zonas amarelas e vermelhas mostram onde a acidificação foi mais intensa pterópode Limacina helicina dissolveu-se em 45 dias em condições de acidez marítima previstas para o ano 2100 Animais mortos por desoxigenação no fundo do mar Báltico, 2006 Já se sabe também que os gases atmosféricos em alteração estão mudando a composição química dos oceanos, já que os gases se dissolvem nas águas a partir da atmosfera e voltam para o ar em um processo ininterrupto de intercâmbio e equilíbrio mútuo. Todos os ecossistemas marinhos dependem fortemente das condições do mar próximas da superfície, entre outros motivos, porque ali se realiza a maior parte da oxigenação da água e ali principalmente viceja o plâncton, que está na base das cadeias alimentares marinhas, e nesta camada superficial as águas são mais sujeitas à influência da atmosfera. O efeito é potencializado pelo aumento das temperaturas oceânicas e está relacionado a muitos outros efeitos secundários físicos e biológicos que por sua vez influem de volta sobre a atmosfera, sendo importantes reguladores naturais do clima. Os oceanos são os maiores sequestradores de CO2 atmosférico. Esta impregnação excessiva das águas pelo gás carbônico constitui uma forma de poluição química. A elevação da concentração de CO2 nos mares fez com que as águas se tornassem 26 mais ácidas do que eram no período pré-industrial. Este fenômeno é especialmente daninho para os animais que utilizam sais de cálcio para construir suas conchas e estruturas corporais, destacando-se entre eles os corais, os moluscos e crustáceos, bem como muitas espécies de plâncton, que têm essas estruturas dissolvidas ou malformadas pela elevada acidez da água. Segundo estudo publicado pela Royal Society, mesmo que a poluição química dos mares cesse imediatamente, a acidificação precisará de milênios para ser revertida por processos naturais, e não foi provado que o homem poderá revertê-la artificialmente. Paralelamente, baixaram as concentrações de O2 oxigênio , que é essencial para a preservação da vida. O conhecimento científico sobre as interações gasosas entre o ar e o mar ainda precisa ser aprofundado, mas há um consenso de que deve haver mudanças biológicas negativas em larga escala nos seres marinhos. Observações em grupos específicos de criaturas aquáticas indicaram que seu metabolismo já foi afetado em alguma medida em várias regiões oceânicas, desde o plâncton, passando por corais e moluscos de concha, até grandes peixes, fazendo com que apresentem distúrbios de comportamento e de crescimento, ou diminuam suas populações, seja em função da acidez, da desoxigenação, da combinação de ambas e ou da influência de outros agravantes, como os despejos de lixo e esgotos. Já existem vários indícios de que a salinidade está diminuindo em vários mares do mundo, com impacto potencial mas indeterminado sobre a bioquímica marinha. Embora as evidências não sejam suficientes para indicar uma causa com segurança, parece provável a influência das mudanças climáticas globais, especialmente através do degelo de glaciares e banquisas polares e mudanças nas chuvas e na umidade atmosférica. A combinação de aquecimento, mudança na salinidade, derretimento dos gelos e elevação do nível do mar também modifica a circulação termoalina, as correntes marinhas e a estratificação das camadas de água. A Corrente do Atlântico Norte, por exemplo, aparentemente está enfraquecendo à medida que a temperatura média global aumenta. Isso significa que áreas como a Escandinávia e a Inglaterra, que são aquecidas pela corrente, poderão apresentar climas mais frios a despeito do aumento do aquecimento global. Evidências recentes mostram em alguns lugares, como na área entre as Ilhas Canárias e a Flórida, uma redução de 25 a 30 na velocidade média e mudanças anuais súbitas e irregulares na Circulação do Atlântico Meridional, parte do sistema de circulação termoalina global, o que tende a fortalecer os furacões no Atlântico e pode elevar em até 13 cm o nível do mar na costa norte-americana ao norte de Nova Iorque. Os giros do Pacífico Norte e do Pacífico Sul parecem ter se expandido e reforçado desde 1993, e a Corrente Circumpolar Antártica parece ter se deslocado cerca de 1 de latitude para o sul desde 1950, o que corresponde a cerca de 110 km. Mudanças nas correntes marinhas e na estratificação também afetam a biodiversidade de várias maneiras importantes, modificando os padrões de oxigenação das águas e de trocas térmicas entre as camadas de água e entre o mar e o ar, alterando rotas de migração e os ciclos reprodutivos e interferindo na oferta de alimento, fatores que levam ao declínio das populações ou à sua redistribuição geográfica, e por fim repercutem negativamente sobre os interesses humanos. Muitas espécies marinhas de grande valor comercial e alimentício já mostram acentuadas modificações regionais em suas populações por virtude de efeitos do aquecimento global, e outras sofrem redistribuição geográfica, movendo-se para latitudes mais altas e águas mais profundas. Acrescentando-se a isso o aumento da poluição marítima por outros contaminantes antrópicos, como o lixo marinho, os agrotóxicos e os fertilizantes, descarregados no mar pelos rios e pelas chuvas, espera-se que as mudanças sejam severas e venham a afetar virtualmente toda a vida marinha no longo prazo. Todos esses efeitos são agravados pela pesca excessiva. Cerca de 50 de todas as espécies de valor comercial já estão com suas populações no limite máximo de exploração, e cerca de 30 delas, incluindo a maioria das dez mais importantes, estão superexploradas e em declínio rápido, devendo estar completamente esgotadas em meados do século XXI se o declínio não for revertido. Por causa dos impactos combinados os oceanos estão sob o grave risco de sofrerem uma extinção em massa e se tornarem ambientes muito simplificados, com uma diversidade biológica extremamente reduzida, composta em sua grande maioria de seres microscópicos e de pequeno tamanho. Em 2008 haviam sido identificadas mais de 400 zonas mortas em mares de todo o mundo. Desde a década de 1960 o seu número tem duplicado a cada dez anos, e prevê-se que o aparecimento de novas se acelere.
Uma consequência esperada do somatório de todos os efeitos do aquecimento global é o sério comprometimento da produção de alimentos. Como foi assinalado, as mudanças nos mares devem significar uma importante ameaça aos estoques de peixes, moluscos e crustáceos para consumo, que constituem alimento básico ou importante para grande parte da população mundial. O aquecimento global também afeta a produção de outros alimentos. A elevação das temperaturas, as mudanças nas chuvas, na circulação de umidade atmosférica, no ritmo das estações, no ciclo do carbono, no ciclo do nitrogênio e outros nutrientes, a redução da umidade do solo e dos mananciais de água, o aumento nas taxas de evaporação superficial, a tendência à desertificação subtropical, sem dúvida vão prejudicar a agricultura, a pecuária e a silvicultura de grandes áreas produtoras em todo o mundo. Todas essas atividades, que vêm sendo desenvolvidas há milênios, e que dependem essencialmente de outros seres vivos, dependem também das condições estáveis e previsíveis do clima às quais todas as espécies foram acostumadas há muito tempo. As mudanças atuais são rápidas e grandes demais para a natureza absorvê-las, e deverão alterar todo o conhecido equilíbrio das forças naturais, desorganizando e desestruturando grande parte dos sistemas produtivos da humanidade construídos sobre esse mesmo equilíbrio, cuja razoável estabilidade e previsibilidade possibilitou o desenvolvimento de sistemas de alta produtividade em larga escala como os que existem hoje, dos quais depende a humanidade para sua sobrevivência e conforto. Em consequência, prevê-se que deverão crescer a pobreza, a incidência de doenças e a fome, bem como os conflitos violentos derivados da competição entre grupos e nações por recursos em declínio. Devem aumentar também o uso de pesticidas e adubos nas culturas para compensar a queda na produtividade, o que contaminará ainda mais o ambiente e elevará os custos de produção, gerando novos prejuízos num efeito de cascata. Temperatura e umidade atmosférica mais altas e extremos climáticos mais frequentes e intensos também afetam o metabolismo de animais e vegetais, tornando-os mais propensos a epidemias e a distúrbios de crescimento e reprodução, e dificultam a preservação da qualidade de grãos e outros alimentos armazenados, fatores que juntos concorrem para reduzir ainda mais a produtividade geral e aumentar as perdas. Um estudo da UNEP publicado em 2016 alertou para um aspecto antes pouco conhecido, referindo que mais do que prejudicar as colheitas, o aquecimento pode tornar algumas das principais culturas agrícolas venenosas para o consumo, uma vez que plantas submetidas a estresse prolongado, como o que ocorre sob temperaturas elevadas demais ou na escassez de chuvas, ficam debilitadas e podem produzir substâncias químicas em níveis tóxicos para o homem. São conhecidas cerca de 80 espécies de plantas que sob circunstâncias adversas deixam de converter nitratos em aminoácidos e os acumulam em seus tecidos em níveis tóxicos tanto para o homem como para animais que as consomem, incluindo algumas das mais importantes culturas de grãos, como a cevada, o milho, o sorgo, a soja e o trigo, que estão na base da alimentação humana e de uma série de criações de animais. Além disso, se depois de um período de seca as plantas são irrigadas, o seu rápido crescimento subsequente faz com que algumas espécies acumulem uma outra substância tóxica, o ácido prússico, sendo incluídas nesta categoria, por exemplo, o milho, a soja, algumas gramíneas consumidas pelo gado de corte, o damasco, as peras e maçãs. Outra ameaça produzida pelo aquecimento é que plantas em estresse impregnam-se mais facilmente de toxinas produzidas por fungos e outros microrganismos invasores, um problema que em estimativa de 1998 afetava cerca de 25 de todas as culturas de cereais e que tende a piorar. Hoje quase um bilhão de pessoas sofre de fome crônica. Sistemas produtivos cada vez mais fragilizados por crescentes ameaças e perdas em várias frentes, associados ao rápido aumento populacional, multiplicam os riscos para a segurança alimentar das nações.
O mosquito transmissor de malária tem sua multiplicação e dispersão favorecidas pelo aumento de temperatura esperado o aumento na incidência e mudanças na distribuição geográfica de várias doenças, especialmente as cardiorrespiratórias, as infecciosas e as ligadas à má nutrição, elevando significativamente os custos com a assistência médica e social. O aquecimento deve provocar também a redistribuição geográfica de todas as doenças que de alguma forma são influenciadas pelo clima e pelas condições do tempo. Doenças como a malária e a dengue, que são veiculadas por mosquitos, ocorrem em regiões quentes, onde o desenvolvimento do mosquito é favorecido. Com a elevação das temperaturas globais, regiões mais frias, antes imunes a essas doenças, estão se tornando novos focos epidêmicos, e onde elas já existiam, estão se agravando. Segundo Barcellos et al., a malária é um dos principais problemas de saúde pública na frica, ao sul do deserto do Saara, no sudeste asiático e nos países amazônicos da América do Sul, e a dengue é a principal doença reemergente nos países tropicais e subtropicais. Várias outras moléstias influenciadas pelo clima, como a leishmaniose, febre amarela, filariose, febre do oeste do Nilo, doença de Lyme, ebola e várias arboviroses, provavelmente seguirão neste caminho. Outras perturbações nos ecossistemas ou nos sistemas produtivos, que favoreçam a proliferação de vetores dessas doenças ou diminuam a resistência humana às infecções, como a subnutrição, a água potável de baixa qualidade, problemas de saneamento como ocorre nas inundações, tendem a aumentar a gravidade e a incidência das epidemias. Alterações de temperatura, umidade e chuva podem amplificar os efeitos das doenças respiratórias, assim como alterar as condições de exposição aos poluentes atmosféricos. Outras doenças que estão tendo condições mais favoráveis de difusão em virtude do aquecimento são as zoonoses, aquelas que são típicas de animais mas podem contaminar o homem. A degradação ambiental generalizada que ocorre hoje força migrações de populações selvagens e muitas vezes elas invadem áreas habitadas pelo homem em busca de novos locais de abrigo e alimento, facilitando as infecções. Outros fatores colaboram ativamente neste processo, como o crescente comércio de espécies selvagens exóticas e mudanças no uso da terra. Epidemias recentes de gripe aviária, Vírus Ebola e síndrome respiratória aguda grave, que custaram muitas vidas e enormes recursos financeiros, são exemplo dramáticos de zoonoses que provavelmente se tornarão mais frequentes, e sob certas circunstâncias podem degenerar em perigosas pandemias. A saúde geral das populações e sua capacidade de responder às novas doenças também devem ser afetadas pelo aquecimento. O aumento nas concentrações atmosféricas de CO2 deve favorecer a disseminação de diversos vegetais que provocam grandes incômodos para o homem na forma de alergias, e o gás estimula a produção de pólen, outro alérgeno importante. As populações urbanas, os mais pobres, os excluídos, os idosos, as crianças e os que já são doentes são os grupos cuja saúde é mais vulnerável às alterações do clima, o aquecimento é uma das principais causas do surgimento de novas doenças, e prevê-se que os problemas derivados do aquecimento sejam o principal desafio na área da saúde no século XXI. Gráfico representando a onda de calor de 2015 na Europa As ondas de calor extremo desencadeiam importantes problemas para a saúde humana, e podem afetar as capacidades cognitivas das pessoas. Nas últimas décadas sua frequência e intensidade vêm aumentado. Segundo Lugber McGeehin elas são responsáveis por mais mortes anualmente do que os furacões, os raios, os tornados, a enchentes e os terremotos combinados. A onda de calor de 2003 na Europa matou mais de 70 mil pessoas, e estima-se que a onda de calor no Hemisfério Norte em 2010 tenha causado a morte de 55 mil pessoas apenas na parte ocidental da Rússia. Esses eventos costumam causar paralelamente grandes incêndios nas florestas, crises no abastecimento de água e energia e sérios prejuízos econômicos, sociais e agrícolas. Também estão sendo estudados os possíveis efeitos do aquecimento sobre a produtividade humana. Que temperaturas elevadas são inadequadas para a realização de esforço físico é fato notório, mas esta interação em relação ao aquecimento global somente há pouco vêm sendo estudada e não foi avaliada nos relatórios do IPCC, e se torna cada vez mais um elemento importante a ser computado nos planos de adaptação. Uma pesquisa publicada em 2013 pelo NOAA indica que o aquecimento global deve aumentar em média até 50 os problemas de saúde relacionados ao estresse térmico no trabalho, reduzindo a capacidade de operários da construção civil, agricultores, esportistas e outros que exercem atividades físicas intensas a céu aberto. Esse tipo de estresse pode levar a crises cardíacas, cãibras, desconforto, desidratação e exaustão, entre outros efeitos, e se torna um agravante de moléstias pré-existentes. Outros estudos fazem projeções similares. As regiões tropicais devem ser as mais afetadas, com grande repercussão social e econômica provável, mas efeitos sensíveis podem se verificar em outras áreas e afetar outras atividades, como o turismo, o lazer e programas escolares. Desastres climáticos como chuvas torrenciais seguidas de deslizamentos de morros e inundações causam perda de vidas, prejuízos materiais de grande monta e intenso estresse nas populações atingidas, e ao mesmo tempo criam condições para o surgimento de epidemias Outro aspecto desafiador que vem sendo levantado recentemente é o impacto dos problemas gerados pelo aquecimento sobre a saúde emocional e mental das populações afetadas por desastres ambientais. Tem sido demonstrado que eventos deste tipo podem desencadear sérias perturbações, tais como crises de ansiedade, distúrbios do sono, depressão, estresse, risco aumentado de suicídio, de surtos de violência social e de consumo de drogas, que se assemelham à síndrome pós-traumática, estado clínico severo que pode levar vários anos para ser superado após um evento concreto desencadeante, como uma inundação. A simples expectativa de que possam acontecer desastres, por outro lado, tem gerado efeitos similares à síndrome pré-traumática, um estado de preocupação difusa e desalento ante a possibilidade de catástrofes ou outras perdas graves. Segundo Elizabeth Haase, professora de psiquiatria na Universidade de Colúmbia, somente nos Estados Unidos espera-se que até 200 milhões de pessoas desenvolvam algum tipo de problema mental em decorrência das mudanças climáticas, e os autores de um estudo publicado na revista científica Lancet consideram que as doenças mentais estão entre as mais perigosas ameaças indiretas do aquecimento global. O mesmo tipo de ameaça foi apontado por José Marengo, que colaborou na elaboração do Primeiro Relatório de Avaliação Nacional sobre Mudanças Climáticas Quando pensamos em problemas relacionados a extremos climáticos, pensamos em qualidade da água, leptospirose, dengue, malária... Uma pesquisadora do painel nos mostrou, no entanto, que não só problemas ditos físicos devem nos preocupar, mas também os problemas mentais e psicológicos que ocorrem como consequência da alteração dos padrões climáticos. Aumento de infartos, acidentes vasculares cerebrais, depressão. Isso foi realmente uma novidade. Foram feitas pesquisas em Blumenau, estado de Santa Catarina, depois das fortes chuvas de 2008. Meses depois foram registrados altos níveis de estresse na região mesmo em pessoas que moram em áreas rurais, distantes dos clássicos problemas urbanos. Outro exemplo impactante vem da ndia, que no início de 2016 experimentou uma das mais intensas e prolongadas secas de sua história, com ondas de calor cujas temperaturas chegaram a 51 C, estabelecendo um novo recorde nacional. Além de provocar a morte direta de centenas de pessoas, devastar as colheitas e causar um grande êxodo populacional das regiões mais criticamente afetadas, o desespero diante da calamidade climática fez com que somente na região de Maharashtra mais de 400 agricultores cometessem suicídio.
Missão Jesuítica de Santa Ana, na Argentina, declaradas Patrimônio da Humanidade, mostrando grande acúmulo de vegetais. Num clima mais quente e úmido o crescimento de vegetação, líquens, fungos e musgos sobre patrimônio edificado se acelera. Essas mudanças climáticas também impõem maior estresse físico às estruturas, fatores que em conjunto aumentam os problemas de conservação Todos os impactos ambientais se conjugam para afetar negativamente vários aspectos das culturas e sociedades mundiais e problematizam a conservação do seu patrimônio histórico. As migrações e êxodos populacionais causados pela disrupção climática tendem a desintegrar valores sociais, culturais, identitários, estéticos, afetivos, psicológicos, linguísticos, políticos e religiosos das populações migrantes, que se formam intimamente vinculados às suas regiões de origem. A chegada de grande afluxo de populações em novas regiões tende a exacerbar os conflitos violentos, as desigualdades e a competição por recursos entre os os recém-chegados e as populações residentes, minando as bases das culturas autóctones e suas relações com a história e a memória local. Populações em movimento deixam para trás tanto suas raízes culturais quanto seu patrimônio edificado e seus sítios históricos, que se degradam pelo abandono. As mudanças no clima prejudicam atividades culturais e econômicas como o turismo, as celebrações e festividades tradicionais e folclóricas, e as culturas dos povos indígenas, que são essencialmente ligadas à terra e ao ambiente onde vivem. O declínio ou desaparecimento de espécies associadas a valores culturais, afetivos ou religiosos também acarreta danos à cultura e às tradições. Declarou a UNESCO que a mudança climática produzirá impactos em aspectos sociais e culturais, com comunidades mudando as maneiras como vivem, trabalham, cultuam e socializam em seus edifícios, sítios e paisagens. Temperatura e umidade aumentadas implicam em aceleração na degradação de patrimônio histórico edificado, sítios históricos e arqueológicos, e aumentam as dificuldades de conservação de acervos de museus. Além disso, os diferentes materiais nas diferentes regiões do mundo responderão a um clima modificado de formas novas, às quais as populações locais que cuidam de sua conservação não estão acostumadas. Alterações na biodiversidade das diferentes regiões decorrentes das mudanças climáticas trazem consigo ameaças antes inexistentes para os patrimônios em função da invasão por novas pragas biológicas. A elevação do nível do mar inundará em graus variáveis todos os litorais, onde se localiza vasto número de cidades históricas ou culturalmente importantes. Grande número de monumentos, sítios históricos e paisagens culturais declarados Patrimônio da Humanidade pela UNESCO já sofrem danos e estão sob séria ameaça, e os patrimônios nacionais, regionais e locais estão à mercê das mesmas influências climáticas. Com o progressivo agravamento dos desafios econômicos e das carências de recursos, devem ser prejudicados também aspectos de educação e preparação profissional de novos conservadores e a disponibilidade e facilidade de aquisição de materiais de conservação, com impactos desproporcionais nos países mais pobres. Mesmo em países ricos são previstas maiores dificuldades de conservação patrimonial em um cenário de mudança climática. O cenário é tão grave que o Conselho Internacional de Monumentos e Sítios ICOMOS desde 2007 admitiu que não será possível salvar todo o patrimônio ameaçado, e que será necessário estabelecer prioridades, referindo que a herança das mudanças climáticas globais é uma herança de perda.
O aquecimento deve fazer aumentar a população que vive em condições sub-humanas. Na imagem, detalhe da favela da Rocinha, no Rio de Janeiro, com uma população de quase 70 mil habitantes, a maior favela do Brasil Levando em conta que mais de 40 da economia mundial depende diretamente de produtos ou processos biológicos, e que todo ser humano precisa de sustento vindo diretamente da natureza, os efeitos no longo prazo do aquecimento global para a sociedade, combinados aos dos outros problemas ambientais que são associados ou derivados, como a poluição e o desmatamento, seriam catastróficos. Na realidade, como disse Michael Cutajar, ex secretário-executivo da Convenção-Quadro das Nações Unidas sobre a Mudança do Clima, já são A mudança climática não é só uma ameaça distante, mas um perigo atual já estamos sentindo o seu impacto econômico. Um estudo recente desenvolvido por mais de 50 cientistas estimou que o aquecimento global custa diretamente mais de 1,2 trilhão de dólares, com impacto maior sobre os países pobres. O sub-secretário-geral da ONU, Achim Steiner, afirmou que somente a perda e degradação de florestas gera um prejuízo anual de cerca de 4,5 trilhões. Os custos derivados das invasões de espécies exóticas representam mais 1,4 trilhão, conforme declaração do Secretariado da Convenção sobre a Biodiversidade. Se nada for feito para mitigá-lo significativamente, os custos do aquecimento podem corroer de 5 a 20 do Produto Mundial Bruto por ano, ao passo que o custo de mitigação ficaria em torno de apenas 1 , segundo informa o Relatório Stern. Some-se a isso prejuízos culturais e sociais, e patenteia-se o imenso impacto prático e imediato dessas perturbações ecológicas para o homem. Um relatório produzido pelo Banco Mundial em 2012, intitulado Reduzir o calor por quê precisamos evitar um mundo 4 C mais quente, causou surpresa pelo tom incomumente dramático para uma organização caracterizada pela sisudez, juntando-se ao consenso dos cientistas e ambientalistas e prevendo um cenário assustador para o mundo, em termos de disrupção social e perturbações ambientais, se a temperatura média se elevar aos 4 C, nível esperado pela maioria dos estudos se nada for feito em contrário. As primeiras palavras do presidente do Banco, Jim Yong Kim, na apresentação do estudo, foram Espero que este relatório nos choque, levando-nos à ação. Após considerar todos os riscos que se colocam, o relatório encerrou com a declaração Um mundo 4 C mais quente apresentará para a humanidade desafios jamais vistos. E fica claro que danos e riscos em escala local e global provavelmente acontecerão bem antes deste nível de aquecimento ser atingido. ... Simplesmente não podemos permitir que a projetada elevação de 4 C aconteça. Em 2013 o presidente reiterou seu apelo a todas as nações, dizendo que as mudanças climáticas devem estar no topo da agenda internacional, pois o aquecimento global põe em risco qualquer desenvolvimento que for conseguido em outros setores, inclusive o econômico. O Relatório de Desenvolvimento Humano 2013, elaborado pelo Programa das Nações Unidas para o Desenvolvimento PNUD , previu que o número de pessoas vivendo em pobreza extrema em 2050 como consequência do problema ambiental aumentaria em 2,7 bilhões. No cenário mais grave, o ndice de Desenvolvimento Humano IDH médio global diminuiria 15 em 2050, mas os países mais pobres experimentariam índices de declínio ainda maiores. O Grupo de Trabalho de Economia da Adaptação às Mudanças Climáticas do Programa das Nações Unidas para o Meio Ambiente PNUMA estimou perdas anuais no PIB das nações de 1 a 12 até 2030. Em um cenário de mudanças mais radicais no clima, as perdas econômicas relacionadas ao aquecimento podem chegar se elevar em 200 em 2030. Um estudo mostrou que em 2010 o aquecimento global causou a morte de 5 milhões de pessoas, e Bekele Geleta, secretário-geral da Federação Internacional da Cruz Vermelha, relatou que no mesmo ano a organização fez mais de 30 milhões de atendimentos a vítimas de desastres naturais derivados do aquecimento global. Maiores mudanças no clima devem tornar a situação ainda pior. Para o equilíbrio e saúde da natureza em geral e para a biodiversidade em si, cujo valor de existência ainda está para ser reconhecido, os danos são incalculáveis, e as espécies que se extinguirem em função do aquecimento representam perdas irreversíveis, um triste legado para as futuras gerações, que terão, se nada for feito em contrário, a difícil tarefa de sustentar uma população bem maior com os recursos generalizadamente empobrecidos de um planeta que terá, além de tudo, um clima bem mais imprevisível e hostil, que complicará de maneira significativa o atendimento das crescentes demandas. Hoje vivem no mundo 7 bilhões de pessoas. Projeta-se para 2050 uma população de 9 bilhões, e recente relatório da ONU prevê para este século um aumento de 300 a 900 no consumo global, aumentando proporcionalmente a pressão sobre recursos naturais cada vez mais escassos. Crianças subnutridas em um orfanato da Nigéria na década de 1960. A fome, que sempre assombrou a humanidade, e que hoje ainda aflige mais de 800 milhões de pessoas, deve piorar se o aquecimento global não for combatido Por causa disso, é esperada também uma escalada nas migrações populacionais, nas guerras civis e nos conflitos internacionais violentos. Suzana Kahn, uma das vice-presidentes do Grupo de Trabalho III do IPCC, explica A alteração no ambiente aumentará o fosso entre nações. Fugindo da seca e ou de inundações, populações inteiras, com muito pouco a perder, se transformarão em refugiados climáticos. Eles serão recebidos com hostilidade, principalmente nos países mais ricos, que em sua maioria já sofrem com o aumento da densidade demográfica nas cidades. Na primeira metade de 2019, 70 das migrações internas registradas nos países foram causadas por desastres climáticos. Em 2011 o Conselho de Segurança da ONU reconheceu por unanimidade que as mudanças climáticas podem ser uma ameaça para a paz e a estabilidade mundial, e o tema tem recebido crescente atenção da diplomacia internacional em função de suas múltiplas consequências econômicas, sociais e políticas e seu caráter transnacional. Conflitos violentos como os que ocorrem na Síria, por exemplo, que desencadeiam êxodos populacionais importantes e atritos internacionais, têm sido em parte causados por problemas locais derivados do aquecimento global. Estudos recentes que analisam o desempenho das políticas climáticas das nações vêm indicando que sociedades instáveis e violentas e com problemas de governança crônicos tendem notoriamente a ser incapazes de gerir suas políticas de maneira eficiente e atender às crescentes demandas de suas populações num cenário climático em modificação, multiplicando as chances da ocorrência de falhas críticas em sistemas vitais. O último relatório do IPCC pela primeira vez reconheceu que a instabilidade social gerada pelas mudanças climáticas tende a fortalecer os governos de extrema-direita, e o aumento nos níveis de tensão política em um mundo de recursos em declínio e economias em erosão onde aumentem a fome e a pobreza pode também problematizar os debates sobre a mitigação e adaptação e a assinatura de acordos de cooperação internacional justamente quando seriam mais necessários. Em 2016 o Fórum Econômico Mundial apontou o fracasso no combate ao aquecimento como a principal ameaça global pelas suas consequências negativas sobre o ambiente, a segurança, a geopolítica, a economia e a sociedade. O recente progresso da humanidade gerou muitos benefícios, mas desencadeou efeitos negativos que não haviam sido previstos e para os quais o mundo não estava preparado, dada sua enorme amplitude e suas múltiplas consequências indiretas. O impacto ambiental antrópico pode ser sumarizado em cinco grandes ameaças desequilíbrio do clima, declínio da biodiversidade, poluição, perda e degradação de ecossistemas e a explosão demográfica, todas intimamente ligadas entre si. Um estudo publicado em março de 2013 por pesquisadores da Universidade de Stanford e ratificado por mais de 500 outros especialistas de todo o mundo, afirmou A vasta maioria dos cientistas que estudam as interações entre as pessoas e o resto da biosfera concordam em uma conclusão central as cinco tendências perigosas citadas acima estão produzindo efeitos negativos, e, se continuarem, os efeitos negativos já aparentes sobre a qualidade de vida do homem se tornarão muito piores dentro de poucas décadas. A abundância de evidências científicas sólidas substanciando os prejuízos foi sumarizada em muitos estudos individuais e em declarações de consenso ... e foi documentada em centenas de artigos publicados na literatura científica sujeita à revisão por pares. ... Assegurar um futuro para nossos filhos e netos que seja tão desejável para ser vivido como a vida que levamos hoje exigirá aceitarmos que já fizemos inadvertidamente o ecossistema global rumar em direções perigosas, e que temos o conhecimento e o poder de colocá-lo de volta em seus eixos mas se agirmos agora. Esperar mais somente tornará mais difícil, se não impossível, termos sucesso, e produzirá custos substancialmente maiores, tanto em termos monetários como em sofrimento humano. Em geral se considera que uma ampliação do problema e as suas piores sequelas ainda podem ser evitadas, desde que medidas radicais sejam tomadas nesta direção sem demora. Refletindo esse consenso, disse Paul Ehrlich que a raiz de todo este problema planetário é cultural Enquanto que a mudança climática já está na agenda política, a maior parte dos outros desafios não está, e o entendimento do público sobre o que produz a degradação ambiental, ou dos fenômenos naturais em geral, é mínimo. Poucos leigos estão familiarizados com a ideia fundamental de que a degradação do ambiente é um produto do tamanho da população humana, do consumo per capita, e dos tipos de tecnologias e sistemas econômicos e sociais que suprem o consumo. No último século, aproximadamente, criou-se um vasto hiato cultural entre o que a sociedade como um todo sabe e o que cada indivíduo sabe um hiato que se provou especialmente problemático no caso dos representantes eleitos e outros líderes que não possuem quase nenhum conhecimento de ciência. Infelizmente, levará muitas décadas até que as ações humanas produzam mudanças significativas na atual trajetória da população. Mesmo assim, sabemos que padrões de consumo mudam virtualmente da noite para o dia, como foi demonstrado pelas mobilizações e desmobilizações durante a Segunda Guerra Mundial. Mudanças enormes na produção e no consumo aconteceram nos Estados Unidos em quatro ou cinco anos, e, durante esses anos, os americanos aceitaram racionamentos de gasolina, de açúcar e de carne. Se são dados incentivos adequados, a economia pode se transformar muito rapidamente. ... o comportamento humano, das próprias pessoas entre si e em relação ao planeta que sustenta a todos, o que requer modificação rápida. As medições do gás carbônico atmosférico realizadas diariamente pelo Observatório de Mauna Loa no Havaí mostram não apenas uma elevação constante nos níveis mas uma tendência à aceleração. Note-se que a linha média não é uma reta, mas uma leve curva ascendente. Dados do período de 1958-2015. Em 2016 já foram ultrapassadas as 409 ppm Com o avanço nas pesquisas nos últimos anos veio a se considerar imprudente e perigosa demais a meta de redução na emissão de gases que levaria a um aumento máximo de 2 C na temperatura média, meta que vigorou por muitos anos, e as comunidades científica e ambientalista conseguiram que o Acordo de Paris, celebrado em 2015, a reduzisse para 1,5 C. De acordo com o IPCC, este nível de aquecimento, se as tendências continuarem inalteradas, deve ser atingido antes de c. 2050 como uma média global, mas algumas regiões podem atingi-lo antes. Isso não significa que este aquecimento possa ser atingido despreocupadamente, ao contrário, o IPCC afirma que não existe nenhum nível seguro de aquecimento, e qualquer elevação adicional aos níveis atuais deveria ser evitada, pois a elevação já observada, de menos de 1 C, já provoca consequências de ampla repercussão, e elevações ainda maiores só podem piorar o quadro altamente preocupante que se vive no presente. Ao mesmo tempo, surge o problema adicional de que os objetivos globais de emissão, que antes já eram considerados na prática inalcançáveis por muitos cientistas, ficam ainda mais difíceis de cumprir, e para que a nova meta possa ser atingida as medidas de contenção de emissões precisam se tornar muito mais agressivas do que têm sido planejadas até agora, o que possivelmente vá acirrar ainda mais, em vários setores da economia e da sociedade, as resistências em relação às mudanças necessárias. De acordo com o último relatório do IPCC, os cenários que produziriam uma temperatura média global em torno de 1,5 C acima dos níveis pré-industriais implicam uma concentração atmosférica de CO2 de 430 ppm até 2100, e exigiriam uma redução de 45 no total de emissões de cerca até 2030, em relação às emissões de 2010, mas as metas do Acordo de Paris não são suficientes para alcançar esse objetivo. Para piorar, a reação da sociedade tem sido lenta demais, as emissões de CO2 continuam a crescer e chegaram a um recorde em 2013, ultrapassando as 400 ppm. De fato, os recordes têm sido quebrados continuamente, e em fevereiro de 2019 a concentração ultrapassava as 414 ppm. Outros gases do efeito estufa também estão aumentando, como o metano e o óxido nitroso.
importante lembrar outra vez que diversos efeitos dos gases estufa só se manifestam muitos anos depois de ocorrerem as emissões, e outros são de longa duração. Os gases estufa podem levar mais de trinta anos para produzirem efeitos em termos de temperatura. Ou seja, o aquecimento experimentado atualmente é o resultado dos gases emitidos até a década de 1980. Por isso, é inevitável um aquecimento adicional mesmo se as emissões cessassem hoje totalmente, pois os gases emitidos entre os anos 80 e a atualidade só produzirão seus efeitos daqui a algumas décadas. Porém, desde então as emissões só cresceram, e evidências recentes indicam que a tendência é não apenas continuarem crescendo, mas também que o crescimento deve se acelerar. A acidificação do oceano, por exemplo, levará milênios para ser revertida pelos processos naturais, e o nível do mar continuará a se elevar por séculos, podendo chegar a vários metros acima dos níveis atuais. Alguns gases, além disso, têm um longo ciclo de vida, permanecendo ativos por muito tempo. De acordo com o IPCC, o ciclo de vida dos hidrofluorocarbonetos importantes industrialmente varia de 1,4 a 270 anos. O gás carbônico, o principal gás estufa antropogênico, pode permanecer ativo na atmosfera por até centenas de anos, e o óxido nitroso, até 114 anos. Outros gases, como os compostos perfluorados e o hexafluoreto de enxofre, embora em menores quantidades no total, mas muito potentes, têm ciclos ainda mais longos, que variam de mil a 50 mil anos. Queimada para abertura de novas áreas para agricultura, uma prática comum que provoca grande degradação ambiental e emite grandes quantidades de gases estufa Não há nenhuma garantia de que todos os efeitos serão reversíveis se esta crise for superada, nem que uma eventual recuperação levará os ecossistemas a um estado semelhante ao que eram antes, sendo, ao contrário, virtualmente certo que eles reemergirão transformados de maneira substancial e provavelmente muito empobrecidos. Assim, se eles terão capacidade de sustentar a população futura adequadamente, é questão muito duvidosa e preocupante. Além disso, as perdas na biodiversidade por extinção são obviamente irreversíveis. O aquecimento, com seu longo elenco de efeitos diretos e indiretos, é um dos principais agentes do declínio contemporâneo da biodiversidade mundial, e se as tendências não mudarem levarão a uma extinção em massa em escala global, que acarretaria resultados catastróficos para o ambiente e também para a humanidade. A atual biodiversidade da Terra é o resultado de 3,5 bilhões de anos de evolução. Após as grandes extinções em massa de tempos pré-históricos, uma recuperação significativa da variedade biológica sempre exigiu muitos milhões de anos para acontecer. Todos esses dados apontam para a vasta magnitude do problema e indicam que muitos efeitos persistirão para além dos horizontes da presente civilização, mesmo se as emissões cessarem hoje, o que enfatiza a necessidade de sua redução drástica e imediata. O Secretariado da Convenção sobre Diversidade Biológica foi enfático ao analisar as perspectivas de futuro A maioria dos cenários futuros projeta altos índices contínuos de extinções e perda de habitats ao longo deste século. ... As medidas tomadas durante as duas próximas décadas e a direção traçada no âmbito da Convenção sobre a Biodiversidade, determinarão se as condições ambientais relativamente estáveis das quais a civilização humana tem dependido durante os últimos 10 mil anos continuarão para além deste século. Se não formos capazes de aproveitar essa oportunidade, muitos ecossistemas do planeta se transformarão em novos ecossistemas, com novos arranjos sem precedentes, nos quais a capacidade de suprir as necessidades das gerações presentes e futuras é extremamente incerta.
O IPCC é largamente considerado a maior autoridade mundial em aquecimento global, recebeu o Prêmio Nobel da Paz pelo seu trabalho, e suas conclusões foram aceitas por um largo leque de outras organizações e academias científicas de todo o mundo, entre elas a Royal Meteorological Society do Reino Unido, a Network of African Science Academies, com a participação de academias nacionais de 13 países africanos, o Relatório Conjunto das academias científicas de 11 países, a National Oceanic and Atmospheric Administration dos Estados Unidos, a European Geosciences Union, e o International Council for Science, representando 119 organizações científicas nacionais e 30 organizações internacionais.. Muitas outras importantes sínteses científicas internacionais também aceitaram as conclusões do IPCC, entre elas a Avaliação Ecossistêmica do Milênio, a série Global Environment Outlook, da UNEP, e o Vital Forest Graphics da UNEP FAO UNFF, escritos e revisados por milhares de especialistas. Porém, por mais que os resultados dos relatórios do IPCC sejam preocupantes, eles não estão livres de críticas, e há vários anos uma expressiva quantidade de trabalhos independentes vêm indicando que eles são excessivamente conservadores em vários aspectos importantes, em parte devido ao fato de que as conclusões do IPCC são adotadas no sistema do consenso, onde participam da tomada de decisão representantes políticos das nações, que têm a tendência de minimizar as previsões mais alarmantes. Esses estudos mostram que as mudanças climáticas estão se agravando bem mais rápido do que o IPCC previu e que os piores cenários estimados ficam cada vez mais perto de se concretizarem. Além disso, Stefan Rahmstorf, pesquisador da Universidade de Potsdam, assinalou que os cientistas em geral são muito cautelosos no momento de fazer declarações extraordinárias e temem ser acusados de alarmismo, e em parte a isso se deve o conservadorismo do IPCC, mas acrescenta que quando existe uma ameaça da magnitude daquela representada pelo aquecimento global, seria mais prudente superestimar os riscos do que subestimá-los. Vários outros cientistas, incluindo colaboradores do IPCC, além de concordarem com essas críticas, reivindicam que os relatórios sejam mais eficientes em veicular uma mensagem de alerta suficientemente clara para a população leiga e os criadores de políticas. Outro fator que colabora para justificar as críticas é o longo tempo necessário para que se façam todas as revisões antes da publicação, o que torna os relatórios ultrapassados em alguns aspectos assim que são divulgados, deixando de considerar muitos estudos mais recentes. parte essas críticas, como já foi mencionado, o próprio IPCC reconhece que à medida que as temperaturas se elevam inevitavelmente aumentam os riscos de mudanças súbitas e dramáticas nos efeitos do aquecimento global, um risco que foi reconhecido também por várias outras autoridades. Evidências em registros paleoclimáticos atestam que mudanças abruptas radicais no sistema do clima são não apenas possíveis, mas já aconteceram no passado, às vezes em questão de apenas uma década ou menos. Daca, Bangladesh. A superpopulação exerce crescente pressão sobre o meio ambiente, alimentando as causas do aquecimento Mantido o atual ritmo de emissões, diz o IPCC que a temperatura atingirá 1,5 C entre 2030 e 2052 como uma média global, mas algumas regiões podem atingi-la antes, e até 2100, conforme as diferentes projeções, deve alcançar de 4 a 6 C. Se houver muita demora na redução, em algum momento a quantidade de gases lançados na atmosfera ultrapassará um ponto crítico, após o qual serão inevitáveis e irreversíveis efeitos cumulativos devastadores. Adicionalmente, considerando que os esforços para combate ao aquecimento e outros agravos à natureza que atuam em sinergia têm sido até o momento pouco efetivos, o cenário futuro não pode ser senão sombrio. Um aquecimento descontrolado, que supere os 4 C, desencadearia um vasto número de extinções e desestruturaria todos os sistemas produtivos humanos e as sociedades, tornando as nações ingovernáveis. Vários cientistas de grande prestígio, deixando de lado sua costumeira discrição, têm manifestado em palavras dramáticas o temor de que os problemas ambientais se avolumem a ponto de levar a civilização como a conhecemos à desintegração. um exemplo Paul Ehrlich, presidente do Center for Conservation Biology da Universidade de Stanford e co-fundador do projeto Millenium Alliance for Humanity and the Biosphere Hoje, pela primeira vez, a civilização humana global ... está ameaçada de colapso por uma massa de problemas ambientais. A humanidade está engajada no que o príncipe Charles chamou de um ato de suicídio em larga escala , enfrentando o que John Beddington, o principal conselheiro científico do Reino Unido, chamou de a tempestade perfeita de problemas ambientais. Um estudo patrocinado pela National Science Foundation dos Estados Unidos e pela NASA projetou que sob condições que se aproximam de perto da realidade vivida atualmente o colapso futuro é difícil de evitar, e nas palavras de Ban Ki-Moon, ex-secretário-geral da ONU, as tendências atuais estão nos levando cada vez mais perto de potenciais pontos de ruptura, que reduziriam de maneira catastrófica a capacidade dos ecossistemas de prestarem seus serviços essenciais. Os pobres, que tendem a depender mais imediatamente deles, sofreriam primeiro e mais severamente. Estão em jogo os principais objetivos delineados nas Metas de Desenvolvimento do Milênio segurança alimentar, erradicação da pobreza e uma população mais saudável. Em 2018 o novo secretário-geral da ONU, António Guterres, disse que se as tendências de emissão não mudarem radicalmente a partir de 2020 quando entra em vigor o Acordo de Paris, nos arriscaremos a perder a ocasião de evitar um aquecimento descontrolado, com consequências desastrosas para as pessoas e os sistemas naturais que nos sustentam. Alguns poucos cientistas, como Stephen Hawking, temem que o descontrole do sistema climático possa chegar ao extremo de levar o planeta a uma condição semelhante à de Vênus, sufocado por um efeito estufa extremo e com uma temperatura superficial de 480 C. A maioria dos cientistas, contudo, considera esse cenário impossível de se materializar, embora considerem possível uma grande elevação da temperatura. Um aquecimento de 11 ou 12 C pode tornar o planeta praticamente inabitável, e se projetarmos o futuro para além do limite de 2100, e considerarmos a queima de todas as reservas conhecidas de combustíveis fósseis, projeta-se aquecimento dos continentes de até 20 C. O PNUMA, acompanhado de um crescente grupo de cientistas, acredita que a oportunidade que a humanidade tinha de evitar um aquecimento catastrófico já pode ter sido perdida pela excessiva demora na tomada de ações efetivas. Um aquecimento descontrolado poderia colocar em risco a própria sobrevivência da humanidade. Reconhecendo a urgência e vastidão da ameaça, até julho de 2019 mais de 700 administrações estatais, regionais e locais de vários países, e mais de 7 mil universidades, escolas técnicas e faculdades de todo o mundo declararam estado de emergência climática, como forma de criar mecanismos e incentivos para uma redução total das emissões até meados do século.
Os principais aspectos do aquecimento global estão bem estabelecidos na ciência, como a propriedade dos gases estufa de reterem radiação infravermelha, o aumento de temperatura decorrente da maior concentração destes gases, a causa humana em sua acumulação, e a importância deste aquecimento no clima. De fato, o consenso do meio científico a este respeito é virtualmente unânime. Vários estudos atestam este consenso, analisando milhares de trabalhos publicados nos últimos anos. O levantamento mais recente, que em 2015 analisou mais de 24 mil trabalhos sobre o tema, indicou que 99,99 dos climatologistas concordam que o aquecimento é real e produzido pelo homem. De acordo com The National Academies, uma reunião de academias científicas nacionais dos Estados Unidos, as principais dúvidas ainda existentes dizem respeito apenas à velocidade deste aquecimento, a que níveis vai chegar ao final, e como afetará localmente as diversas regiões do mundo. Para a maioria dos cientistas, o aquecimento é um dos maiores desafios do nosso tempo, se não for o maior de todos. Olympia, nos Estados Unidos. Em contraste, a mídia não-científica, numa enganosa busca por equilíbrio e imparcialidade, com frequência procura apresentar os dois lados da questão, dando o mesmo espaço e a mesma importância a quem afirma a realidade do problema e a aqueles que a negam. Isso é um erro, pois de um lado há argumentos muito fortes, sustentados por uma maioria esmagadora de especialistas científicos, e do outro, muito fracos, apoiados em geral por amadores, empresas, políticos e grupos de interesse. Como o grande público obtém suas informações principalmente da mídia, esse equilíbrio artificioso tem sido apontado como um importante fator para a pouca importância que o público dá ao problema, o que se reflete na presente dificuldade de se adotar em larga escala medidas preventivas e mitigadoras do aquecimento. Uma pesquisa feita com alguns grandes e influentes jornais dos Estados Unidos, analisando 3 543 artigos que trataram do aquecimento no período de 1988 a 2002, encontrou que 52,65 dos artigos dava peso igual a quem negava e a quem afirmava que a atividade humana tem impacto sobre o clima. Discutindo o que deveria ser feito, apenas 10,6 acatavam o consenso científico e enfatizavam a necessidade de ação internacional urgente e compulsória, enquanto 78,2 apresentavam um texto equilibrado, induzindo a opinião pública a tirar conclusões equivocadas. Analisando cronologicamente o impacto do problema entre o público, a mesma pesquisa mostrou que entre 1988 e 1989, quando o aquecimento começou a chamar grande atenção internacional, os jornais diziam praticamente o mesmo que os cientistas, mas que desde então vêm sendo impostas ao público dúvidas artificiais e a distância entre a opinião científica e a popular vem se alargando. Nos Estados Unidos, um dos poucos países que não ratificaram o Protocolo de Quioto, a resistência em acatar a ciência tem uma longa história, e é um dos países com mais alto índice de negacionismo climático. A situação do país é importante devido à sua influência política global. Mas desde o governo Bush cientistas são pressionados a mudar suas conclusões, funcionários do governo são forçados a ignorar pareceres técnicos, e um poderoso lobby negacionista está sediado nos EUA, com conexões internacionais. Uma pesquisa de 2013 descobriu que 140 fundações gastaram um total de 558 milhões de dólares entre 2003 e 2010 financiando campanhas e organizações negacionistas. Nas últimas décadas o governo de Barack Obama foi o mais sintonizado com a ciência, mas encontrou forte resistência interna, e os avanços que alcançou em grande parte foram revertidos com a entrada de Donald Trump, que se tornou notório como um negacionista sistemático. Sua administração revogou leis ambientais e tem se caracterizado por suprimir evidências, impor a censura aos cientistas do governo e distorcer o discurso científico a seu favor. Ao longo desses anos, a opinião pública nos EUA tem permanecido largamente cética em alguns aspectos ou decididamente negacionista. Uma pesquisa de opinião do Instituto Gallup de 2019 mostrou que nos últimos 18 anos os norte-americanos evoluíram pouco na aceitação da ciência, mas a evolução está acontecendo, passando de 57 em 2001 para 66 em 2019. No resto do mundo os problemas continuam grandes, o lobby negacionista e múltiplos grupos de pressão político-econômica continuam ativos e influentes, interferindo na opinião pública e nas políticas públicas em larga escala, reunindo esforços para desacreditar a ciência deslocando suas conclusões da sua categoria de fatos para colocá-las no incerto e confuso domínio da teoria, no que esses grupos têm sido muito bem sucedidos. Ficheiro AnInconvenientTruth-Pôster.jpg thumb Cartaz do premiado documentário Uma Verdade Inconveniente, de Al Gore. O filme de modo geral está bem sintonizado com a ciência, os especialistas encontraram nele apenas uns poucos erros, nenhum muito importante. Seu título ironiza a situação da polêmica artificial sobre o aquecimento todos sabem que é verdade, mas reconhecê-lo publicamente exigiria grandes mudanças de atitude, o que muitos não estão dispostos a fazer Na lista abaixo, com dados do projeto Skeptical Science, que se dedica a refutar as crendices populares sobre o aquecimento, esclarecer os mal entendidos e divulgar a ciência de ponta em uma linguagem acessível, vão citados os dez mais frequentes argumentos A correntes entre o povo para negar a realidade ou a gravidade do fenômeno atual, usados também por políticos e empresas, junto com a resposta dos cientistas R em forma sintética A O clima já mudou no passado. R O clima é um sistema sensível à influência de vários fatores. No passado houve fatores naturais que provocaram mudanças. Hoje, o fator determinante é a atividade humana. A O sol é a causa. R Desde a década de 1980 as tendências da atividade solar e da temperatura terrestre vão em direções opostas, ou seja, o sol está esfriando e a Terra está esquentando. A Não vai fazer mal. R Efeitos positivos sobre o meio ambiente, a produção de alimentos e a saúde humana são duvidosos, efeitos negativos importantes já estão sendo documentados por múltiplos estudos e provavelmente devem se agravar se o aquecimento continuar em sua progressão atual, ultrapassando largamente os alegados benefícios. A Não há consenso entre os cientistas. R O consenso existe e é esmagador 99,99 dos climatologistas concordam que o aquecimento é real e sua causa é humana. A Está na verdade esfriando. R A última década foi a mais quente na história dos registros. A Os modelos teóricos não são dignos de confiança. R Os modelos usados têm limitações e margens de erro, e como em geral são modelos globais, são imprecisos no que diz respeito a detalhamentos regionais, mas reproduzem com grande aproximação as mudanças em escala global do clima observadas historicamente, e por isso suas projeções para o futuro são plausíveis e confiáveis. Não obstante, os modelos vêm sendo constantemente aperfeiçoados. A Os registros não são dignos de confiança. R Muitas estações meteorológicas não são instaladas como deveriam para colher os dados adequadamente, podendo estar próximas de fontes de calor ou de estruturas que criam microclimas diferenciados, como os centros urbanos e suas ilhas de calor, mas os cientistas sabem disso e fazem as compensações necessárias para corrigir os dados e torná-los confiáveis. Além disso, os dados colhidos em estações terrestres são checados com outros obtidos por métodos diferentes, como por exemplo a sondagem por satélite e a análise de registros contidos no gelo e em sedimentos oceânicos. Essa checagem cruzada minimiza em muito a possibilidade de erro grave, e revela em todas as formas de análise resultados comparáveis. A Plantas e animais podem se adaptar a mudanças no clima. R verdade, mas a adaptação das espécies selvagens a mudanças ambientais só acontece em largos períodos de tempo. A rapidez da mudança atual é demasiada para que os processos naturais de adaptação se completem a tempo para a vasta maioria das espécies, inevitavelmente levando à extinção ou a significativo declínio populacional muitos tipos de seres vivos. De fato, a União Internacional para a Conservação da Natureza e dos Recursos Naturais IUCN prevê que se a elevação da temperatura chegar a 3,5 C, até 70 de todas as espécies existentes hoje serão provavelmente extintas. A Desde 1998 não esquenta. R Em termos globais, 2005 e 2010 foram os anos mais quentes na história dos registros. As três últimas décadas foram as mais quentes desde 1850. A A Antártida está ganhando gelo. R Embora a área coberta por gelo possa estar se expandindo em alguns locais, o volume total do gelo está em declínio. Medições de satélite apontam que a Antártida perde mais de 100 quilômetros cúbicos de gelo a cada ano desde 2002. Em suma, os argumentos verdadeiros, o primeiro e o oitavo, são inaplicáveis ao caso contemporâneo, e os outros são falsos segundo os dados objetivos, já detalhados nas seções anteriores. A pesquisadora Caren Cooper, da Universidade de Cornell, analisando os problemas gerados pelas dúvidas e incertezas que ainda circulam popularmente sobre a realidade ou a gravidade do aquecimento global, advertiu que se o grande público não adquirir uma sólida confiança na ciência e acatar suas recomendações, os governos democráticos não conseguirão enfrentar com sucesso o problema, porque sua base de apoio popular está dividida e insegura ou não se importa com a questão. Além disso, como antes foi mencionado, a força das mídias e dos grupos de pressão política e econômica é imensa, distorcendo os debates públicos e influenciando a criação de leis muitas vezes de acordo com seus interesses exclusivos. Ainda segundo Cooper, esses agentes que negam as mudanças climáticas têm sido formadores de opinião muito mais eficientes do que os cientistas e professores, porque suas mensagens criam nas pessoas a impressão de que o que a imprensa divulga é o bastante para capacitá-las a participar legitimamente do debate científico de alto nível e criticar suas conclusões, uma impressão que, ela enfatiza, é profundamente equivocada. Naomi Oreskes resumiu a questão da seguinte maneira Os políticos e a mídia, especialmente nos Estados Unidos, frequentemente afirmam que a ciência do clima é altamente incerta. Alguns têm usado este argumento contra a adoção de medidas fortes para reduzir as emissões de gases do efeito estufa. ... Algumas corporações, cujos lucros poderiam ser afetados negativamente pelo controle das emissões de gás carbônico, também têm alegado que a ciência padece de graves incertezas. Tais declarações sugerem que poderia persistir uma controvérsia significativa dentro da comunidade científica sobre a realidade da mudança climática causada pelo homem. Mas isso não é verdade. O consenso científico é claramente expresso nos relatórios do Painel Intergovernamental sobre Mudanças Climáticas. ... O Painel não está sozinho em suas conclusões. Nos anos recentes, todos os principais corpos científicos nos Estados Unidos cujos membros são peritos no assunto têm publicado declarações semelhantes. ... Certamente, os autores que avaliaram os impactos, desenvolveram métodos ou estudaram as mudanças paleoclimáticas poderiam acreditar que a mudança é natural. Contudo, nenhum deles considerou essa hipótese. ... Muitos detalhes sobre as interações do clima não são bem entendidos, e há muito espaço para mais pesquisas que forneçam uma base mais sólida para nosso entendimento da dinâmica do clima. Mas há um consenso sobre a realidade da causa humana na mudança climática. Os cientistas têm repetidamente tentado deixar isso claro. hora de o resto de nós ouvir o que eles dizem.
Discurso de Ban Ki-moon, Secretário-geral das Nações Unidas, durante a Conferência das Nações Unidas sobre as Mudanças Climáticas de 2010, em Cancún, México A nuvem de poluição sobre Pequim Por mitigação entende-se as medidas que visam diminuir as emissões de gases estufa e absorver os já emitidos, combatendo diretamente as causas do problema, e por adaptação as que objetivam administrar as suas consequências, preparando e adequando a sociedade para os efeitos já desencadeados e os que devem surgir no futuro. O amplo consenso entre os cientistas do clima de que as temperaturas globais continuarão a aumentar tem levado nações, estados, empresas e cidadãos a implementar ações para tentar reduzir o aquecimento global ou ajustar-se a ele. O principal acordo mundial para combater o aquecimento global é o Protocolo de Quioto, uma emenda à Convenção-Quadro das Nações Unidas sobre a Mudança do Clima, negociado em 1997, onde foram definidas metas concretas de mitigação por cada país signatário, com a exceção dos países em desenvolvimento, que não foram obrigados a estabelecer metas. O protocolo abrange mais de 160 países e mais de 55 das emissões de gases do efeito estufa. Apenas os Estados Unidos, historicamente o maior emissor de gases estufa do mundo, e o Cazaquistão, recusaram-se a ratificar o tratado. Os países menos desenvolvidos e mais pobres em geral são pequenos emissores de gases estufa, mas devem sofrer suas consequências mais pesadamente do que os ricos que são grandes emissores e os maiores responsáveis pela origem do problema justamente porque têm menor capacidade de se adaptar aos impactos. Essa desproporção entre a responsabilidade causal e o sofrimento das consequências tem dado margem a uma grande polêmica sobre as políticas internacionais de redução de emissões, e em parte devido a isso os avanços têm sido lentos e modestos. O debate passa também pela questão de saber em que medida é que países recém-industrializados, como China e ndia, deverão ter o privilégio de poder aumentar suas emissões a fim de que seu crescimento não seja prejudicado, especialmente a China, uma vez que ela é atualmente o maior emissor individual do mundo, mas o líder chinês Li Keqiang em 2015 reafirmou o compromisso de iniciar uma redução progressiva das emissões até 2030, e se possível antes. A fim de auxiliar os países menos favorecidos, o Protocolo de Quioto introduziu três instrumentos principais para a flexibilização das exigências o Comércio de Emissões, a Implementação Conjunta e o Mecanismo de Desenvolvimento Limpo. O Comércio de Emissões instituiu os chamados créditos de carbono, através dos quais empresas, em conjunto com os governos, concordam em limitar suas emissões ou comprar créditos daqueles que emitiram menos do que as suas quotas. Convencionou-se que uma tonelada de gás carbônico corresponde a um crédito de carbono, que pode ser negociado no mercado internacional. Em 2015, 15 países já haviam instituído impostos sobre a emissão de CO2, e em 17 regiões do mundo o carbono já se tornou uma commodity. Porém, os progressos neste sentido são lentos, os valores de mercado ainda são baixos, o que não incentiva sua adoção, e sua eficiência global, bem como suas bases científicas, são questionadas. Muitos ambientalistas já têm denunciado este sistema como um incentivo indireto à destruição do ambiente e ao incremento de desigualdades e injustiças entre as nações e sociedades. A Implementação Conjunta prevê que países desenvolvidos, os chamados países do Anexo I, possam desenvolver projetos de mitigação em outros países do Anexo I, e o Mecanismo de Desenvolvimento Limpo incentiva projetos de redução de emissões em países em desenvolvimento que não estabeleceram metas no âmbito do Protocolo de Quioto, e estimula a transferência de tecnologia entre países desenvolvidos e países em desenvolvimento. Também nestes campos os resultados são menores do que o esperado, e as isenções de países em desenvolvimento de algumas cláusulas do Protocolo de Quioto têm sido criticadas pelos Estados Unidos e estão sendo usadas como sua justificativa para não ratificar o protocolo. Outros sistemas de mitigação adotados recentemente como consequência do Protocolo de Quioto são o Bioenergia-CCS para captura de CO2 e produção de biomassa como fonte de energia o Fundo Verde para o Clima, uma espécie de banco mundial para captação de recursos destináveis à mitigação e adaptação o Mercado Voluntário de Carbono, destinado a empresas, ONGs, instituições, governos e mesmo cidadãos que assumem a responsabilidade de reduzir as emissões voluntariamente. Uma série de outros projetos e políticas estão sendo desenvolvidos em escala nacional e regional, mas também nestes casos no geral os avanços ainda são tímidos e despertam grandes controvérsias sobre a relação custos-benefícios, eficiência e viabilidade prática. Abertura da COP 19 em 11 de novembro de 2013 Acordo de Paris 2015 No ocidente, a ideia da influência humana no clima e os esforços para combatê-lo ganharam maior aceitação na Europa que nos Estados Unidos. A União Europeia pretende, até 2050, reduzir entre 60 e 80 as emissões de gases estufa, aumentar em 30 a eficiência energética, e aumentar para 60 a percentagem de energias renováveis, face ao consumo energético total da UE. O Protocolo de Quioto expirou em 2012, e há muitos anos se prolongam os debates internacionais sobre um novo tratado para sucedê-lo. A Conferência do Clima de 2013 das Nações Unidas COP 19 , realizada com grande tumulto em Varsóvia, conseguiu chegar a um acordo formal sobre o programa Redução de Emissões por Desmatamento e Degradação de Florestas REED , depois de muitos anos de discussão. O programa prevê incentivos econômicos e outras medidas para a redução de emissões. O documento produzido deu ênfase às medidas de prevenção do aquecimento e aos países pobres, e contemplou também, entre outras, ações nas áreas de financiamento, envolvimento institucional, monitoramento de florestas, agilização administrativa, padronização de procedimentos técnicos e manejo de impactos. A definição dos parâmetros do REED foi considerada positiva, mas no geral foi um acordo fraco e deu margem a retrocessos ao revogar a obrigatoriedade no cumprimento das metas, que passam a ser contribuições voluntárias, além de criar para as políticas de mitigação uma indesejável dependência do sistema de financiamento, o Fundo Verde, cujas verbas ainda são muito pequenas. Em 2015 foi realizada em Paris outra Conferência COP 21 , onde foi conseguido um consenso de que deve-se evitar que a temperatura suba acima de 1,5 C. A aprovação do Acordo de Paris foi louvada internacionalmente como um marco nas negociações climáticas, principalmente pelo reconhecimento de que o aquecimento global é um problema de extrema gravidade, por dar um sinal claro aos mercados de que a transição para a economia verde é inevitável, e pela criação de um vultoso fundo de apoio aos países emergentes. Porém, o acordo foi criticado por não estabelecer um cronograma preciso de ações definidas e por não ter força legal, dependendo de reduções voluntárias, o que pode levar ao descumprimento dos objetivos traçados ou a um excessivo atraso no seu atingimento. Ao mesmo tempo, em conjunto, as metas voluntárias que os países ofereceram não são suficientes para a redução global de emissões considerada necessária, e em muitas nações os objetivos acordados podem ser bloqueados pelos legisladores locais em virtude de pressões econômicas e políticas. Uma revisão da literatura produzida pelo IPCC em 2018 enfatizou que as metas estabelecidas pelo Acordo de Paris são insuficientes para manter o aquecimento abaixo de 1,5 C. O IPCC, no seu 5 Relatório, enfatizou que as metas de redução das emissões também não vão ser atingidas se cada região ou país pensar em resolver o seu problema isoladamente e o esforço global for descoordenado. Ao mesmo tempo, o relatório apontou que as medidas de mitigação e adaptação têm se revelado ineficientes em comunidades e nações com problemas crônicos de governança. Políticas climáticas mal informadas, descoordenadas ou realizadas com dados maquiados e atenuados artificialmente podem produzir efeitos colaterais imprevistos tão indesejáveis quanto os que a inação produziria.
Imagem de satélite mostrando o desmatamento em uma região do Mato Grosso, o estado brasileiro que sofre com as perdas recentes mais agudas. O combate ao desmatamento contribui para conter o aquecimento global, já que as florestas são grandes fixadoras de carbono e têm importante papel na regulação geral do clima Muitos grupos ambientais encorajam ações individuais contra o aquecimento global, frequentemente por parte dos consumidores, mas também através de organizações comunitárias e regionais. Outros têm proposto o estabelecimento de um limite máximo para a produção de combustíveis fósseis. Também têm sido feito esforços para um melhor manejo de resíduos, o combate ao desmatamento e o mau uso da terra, o aumento da eficiência energética e o uso de fontes alternativas de energia. O IPCC oferece em seus relatórios uma multiplicidade de maneiras para a mitigação e adaptação, sumarizadas abaixo Desencorajar o consumo e a lucratividade dos combustíveis fósseis como o carvão mineral e o petróleo. Melhorar o rendimento dos sistemas de captação, distribuição e consumo de água, incluindo uso agropecuário, industrial e doméstico. Melhorar as técnicas de manejo da terra, incluindo a pecuária, a agricultura, a silvicultura e o extrativismo, protegendo o solo contra a erosão, degradação e poluição. Definir planos de contenção da subida do mar como fixação de dunas, reflorestamento costeiro, construção de represas e outras estruturas. Modificar hábitos de produção e consumo de bens e serviços e de descarte de resíduos para um modelo sustentável. Aumentar os incentivos financeiros para projetos de crescimento sustentável. Dar educação qualificada para a população, incluindo, decisivamente, a educação ambiental, fomentando a formação de lideranças multiplicadoras do conhecimento. Redesenhar as políticas públicas com maior atenção aos fatos científicos e às necessidades reais, prevendo ações integradas em perspectivas de longo prazo. Incrementar a cooperação internacional, a pesquisa e a divulgação livre do conhecimento. Criar uma política transnacional efetiva sobre o aquecimento. Aproveitar conhecimentos de comunidades indígenas e tradicionais. Organizar o manejo do provável crescimento de doenças infecciosas e epidemias melhorar o atendimento médico e as infraestruturas sanitárias urbanas. Organizar planos de assistência social e defesa civil em emergências coletivas e desastres ambientais. Diversificar o turismo. Adaptar os sistemas de transporte a temperaturas mais elevadas e à possibilidade de inundações mais frequentes. Reforçar as infraestruturas de produção e distribuição de energia e de telecomunicações, usar preferencialmente energias renováveis e diversificadas. A geoengenharia foi desencorajada devido aos seus altos riscos e incertezas. Parque eólico no Texas, Estados Unidos Entre as várias alternativas energéticas que estão sendo buscadas, o último relatório desencorajou o uso da energia nuclear, devido aos seus altos riscos e a efeitos negativos potencialmente catastróficos em casos de acidentes. Os biocombustíveis, em geral considerados melhores opções para os fósseis, devem ser avaliados com mais cuidado, pois podem ter efeitos colaterais indesejáveis, podendo provocar, por exemplo, a elevação nos preços dos alimentos por induzir a uma redução nos investimentos e na área de produção agrícola alimentar. As evidências disponíveis indicam que os biocombustíveis são opções fracas e incertas na melhoria da qualidade de vida das populações, embora alguns sejam muito econômicos no que diz respeito a emissões de gases. O etanol, que dá uma redução de 8 para 1, é a melhor opção até agora em termos de emissões, mas, por exemplo, se todo o combustível brasileiro em 2007 fosse etanol, metade da área agricultável do país teria de ser convertida ao cultivo da cana, de onde se extrai o etanol. O IPCC indica que no Brasil o etanol gerou muita renda e emprego, mas não corrigiu as desigualdades estruturais no setor. O biodiesel, por sua vez, é pouco vantajoso para a redução das emissões, com uma redução máxima de 3 para 1. Globalmente, os biocombustíveis têm gerado crescente incerteza para o setor da segurança alimentar num cenário de população em crescimento rápido, e têm mostrado significativa capacidade de induzir conflitos sociais e produzir danos diretos e indiretos à biodiversidade e outros recursos naturais como a água, e podem trazer grandes impactos negativos para povos indígenas. Usinas hidrelétricas frequentemente são classificadas como fontes limpas de energia, mas múltiplos estudos recentes vêm mostrando que essa imagem é enganosa. A formação das bacias muitas vezes exige um grande desmatamento, por si um fator de emissão de gases estufa, além de produzir severos impactos ambientais e sociais paralelos interfere nos ciclos naturais de cheia e vazante dos rios e nos ciclos reprodutivos de peixes migrantes, modifica ecossistemas, pode prejudicar a oferta de alimentos para outras espécies aquáticas, afetar negativamente povos ribeirinhos que dependem da pesca e povos indígenas, dificultar o acesso à água a jusante, pode exigir remoção forçada de populações e muitas vezes gera importantes conflitos sociais. Hidrelétricas também podem ser altas emissoras de gases estufa, especialmente se localizadas em zonas tropicais e se a área inundada é vasta, devido à decomposição de matéria orgânica residual troncos, folhas e material no solo após a inundação. Bacias que não são limpas adequadamente antes da inundação emitem mais gases por longos períodos do que plantas produtoras de energia equivalente baseadas em combustíveis fósseis. As opções mais promissoras atualmente no setor energético são os projetos de aproveitamento da energia do sol e do vento e algumas formas de energia hidráulica que não exijam criação de reservatórios, como o aproveitamento da energia das ondas do mar e moinhos de água. Essas tecnologias de produção de energia limpa já se encontram maduras, seus custos de implantação têm se reduzido sensivelmente nos últimos anos e seus benefícios são altos, e deveriam ser adotadas em larga escala. Também pode ser uma boa opção, em algumas regiões, a energia geotérmica. Projetos de captura e estocagem artificial do carbono atmosférico podem ser uma alternativa no futuro, mas ainda estão em uma fase inicial de desenvolvimento e sua efetividade ainda é incerta. A atenção principal das nações tem sido dada ao setor energético, mas a mitigação e a adaptação abrangem a totalidade da sociedade, especialmente setores que são grandes emissores de gases, como o mau uso da terra, a indústria, a agricultura, o desperdício de alimentos, os transportes, a construção civil e a urbanização das cidades, além dos hábitos culturais e modos de vida em si que produzem ou perpetuam um modelo insustentável de desenvolvimento. Esses aspectos devem ser igualmente valorizados, pois geram causas de aquecimento igualmente influentes. Destruição nas enchentes e deslizamentos de terra no Rio de Janeiro em 2011. Eventos como este devem se tornar mais frequentes e graves num cenário de aquecimento não controlado Muitas ilhas e arquipélagos de baixa altitude, como Tuvalu e Kiribati, microestados do Oceano Pacífico, são habitados por expressiva população e estão ameaçados pela elevação dos mares. Na imagem, foto de satélite do atol de Tarawa, em Kiribati, habitado por mais de 50 mil pessoas O fenômeno da urbanização acelerada da população humana deve receber grande atenção, pois as cidades usam de 67 a 76 da energia disponível e nelas são gerados de 71 a 76 das emissões de CO2 relacionadas à energia. Em torno de 2050 de 64 a 69 da população mundial deve viver em cidades, zonas especialmente vulneráveis aos efeitos do aquecimento global. Muitos dos sistemas mais vitais das cidades, como o abastecimento de energia, alimentos e água, as redes de esgoto e transporte, assistência médica, segurança pública e comunicações, facilmente podem entrar em colapso diante de catástrofes naturais como os tufões e inundações, deixando imensas populações ao desamparo em um único evento. Estudos recentes têm enfatizado uma elevação desproporcional na vulnerabilidade das populações urbanas diante de eventos climáticos intensificados pelo aquecimento, pois se aumentando a população exposição aumenta o risco mesmo em eventos normais, o aumento da exposição combinado ao aumento na intensidade multiplica os efeitos. Além disso, o colapso de sistemas urbanos durante catástrofes climáticas gera falhas sistêmicas em cadeia que afetam toda uma grande região suburbana e rural em torno, podendo afetar ainda regiões muito distantes. Assim como as cidades são grandes receptoras e consumidoras de bens e serviços, são grandes produtoras e distribuidoras. Os modelos de urbanismo e de construção civil em geral adotados nas cidades não foram previstos para enfrentar as mudanças climáticas com sucesso e devem ser adaptados rapidamente. Como uma grande parte da população mundial vive em cidades e comunidades litorâneas, ali as medidas de adaptação devem levar em conta com grande cuidado e realismo a questão da elevação do nível dos oceanos. Em muitas regiões as populações litorâneas devem considerar prioritariamente a retirada, e não o combate ao avanço das águas, por ser a opção mais efetiva no longo prazo, especialmente levando em conta a grande incerteza que cerca a previsão exata do nível que o mar vai atingir, podendo chegar a vários metros nos próximos séculos, ultrapassando em muito a capacidade protetora dos projetos atuais de muralhamento costeiro. Também já se torna cada vez mais claro que a humanidade terá de encontrar formas efetivas de controlar seu crescimento populacional. Os recursos do mundo são limitados, e um aumento infinito da população é obviamente impossível. O aquecimento e todos os outros problemas ambientais de hoje em última análise se devem, de fato, à explosão demográfica e ao acelerado consumo de recursos naturais que ela desencadeou, cujos efeitos de longo alcance modificaram todo o equilíbrio da biosfera. O controle populacional apenas recentemente começou a ser debatido em relação ao aquecimento global, e ainda permanece largamente ausente das políticas oficiais de adaptação e mitigação. Não se prevê solução fácil para este tema espinhoso, cercado como é de controvérsias éticas e científicas, e entretecido a tradições culturais, sociais e religiosas arraigadas. Porém, o controle teria um grande impacto na redução de emissões de gases estufa. Um estudo britânico de 2009 indicou que a cada 4 libras gastas em planejamento familiar uma tonelada de carbono deixaria de ser emitida. Uma redução da mesma magnitude através das tecnologias convencionais exigiria um investimento de 8 libras em reflorestamento, 15 libras em energia eólica, 31 libras em energia solar ou 56 libras em veículos híbridos. Reforçando esse cenário, o Programa das Nações Unidas para o Desenvolvimento publicou em 2013 seu Relatório de Desenvolvimento Humano prevendo cerca de 3 bilhões de pessoas vivendo na pobreza extrema em 2050 em função do aquecimento global não mitigado e outros problemas ambientais, um terço da população mundial estimada para aquela data. Abrigo improvisado em um ginásio para famílias desabrigadas em Teresópolis nas enchentes de 2011 no no Rio de Janeiro Marcha Gaúcha Pelo Clima, realizada em Porto Alegre, Brasil, em 29 de novembro de 2015, parte de uma mobilização internacional para pressionar os governos a adotarem metas de mitigação mais ambiciosas na 21 Conferência do Clima em Paris COP 21 Embora a polêmica ainda seja grande sobre os mais variados aspectos, os estudos recentes mais qualificados já deixaram cristalinamente claro que a mudança para um modelo sustentável não é mais uma questão de escolha, é questão de sobrevivência. Essa mudança, se pode trazer alguns problemas imediatos de adaptação, abre muitos outros campos para investimento e é mais lucrativa no médio e longo prazo do que a persistência no modelo atual, coisa que também não parece ter sido ainda bem compreendida pelos legisladores, políticos e grandes empresários. Segundo o Banco Mundial, investimentos e subsídios para novas tecnologias, para difusão de conhecimentos e para a tomada de outras ações de mitigação salvam vidas, preservam safras agrícolas da quebra, reduzem os riscos do surgimento de novos problemas, estimulam o crescimento econômico, aumentam a eficiência energética, criam empregos, reduzem custos operacionais e perdas econômicas em vários níveis, produzem benefícios sociais, elevam a qualidade de vida e incentivam a competitividade e a inovação em larga escala. Hoje o consumo de recursos naturais do planeta já é maior do que sua capacidade suporte. Além da população mundial estar em crescimento rápido, o consumo de recursos per capita também está aumentando. O IPCC prevê que se não houver modificações nas tendências atuais, até 2100 o consumo mundial aumentará de 300 a 900 . Percebe-se assim o enorme impacto que a humanidade impõe aos recursos naturais e a urgência de medidas que limitem o consumo à capacidade suporte do planeta. Manter o atual curso de ação significará impor um pesado fardo às gerações futuras, pois espera-se que importantes desafios sociais, hoje já difíceis de enfrentar, se agravem ainda mais, como a fome, a pobreza e a violência. Além disso, existe uma questão ética ligada a uma modificação ambiental em tão ampla escala e tão desenfreada como a que hoje está em curso, que tem desencadeado tão nefastos efeitos para o homem e para a biodiversidade, que põe em xeque o futuro de todas as nações e da riqueza natural hoje existente. Em resumo, questiona-se o direito do homem de agir com tamanha imprudência, prepotência e descaso em relação a tudo o que vive e que sustenta sua própria vida. A Declaração de Estocolmo, adotada pela ONU, por exemplo, afirma que o homem tem a responsabilidade especial de salvaguardar e manejar sabiamente o patrimônio da vida selvagem e seus habitats, que estão atualmente em grave perigo, e a Carta da Terra, elaborada durante a conferência Rio 92 e adotada pela UNESCO em 2002 como um código de ética global, diz explicitamente que a proteção da vitalidade, diversidade e beleza da Terra é um dever sagrado. Esta questão poucas vezes tem sido levada em conta, mas de acordo com o IPCC deveria ser encarada com a mesma seriedade que as questões técnicas. O último relatório da UNEP sobre o descompasso entre as medidas de adaptação adotadas até agora e as necessárias mostra que além de fazer aumentar os riscos, a inação provoca uma constante elevação dos custos de adaptação As estimativas anteriores dos custos de adaptação nos países em desenvolvimento eram de 70 a 100 bilhões de dólares por ano para o período de 2010-2050. Contudo, a literatura resumida neste relatório indica que os custos de adaptação podem se elevar para 100 a 300 bilhões por ano em 2030, e de 200 a 500 bilhões em 2050. Em 2015 foram aprovados apenas 35 bilhões para adaptação em nível internacional. O relatório continua Este descompasso é grande e provavelmente vai aumentar substancialmente nas próximas décadas, a menos que seja feito um significativo progresso para assegurar novos fundos para adaptação e se coloque em prática ambiciosas medidas de mitigação. Os fundos de adaptação têm crescido mas ainda ficam muito aquém das necessidades atuais, e provavelmente esta desproporção deve continuar no futuro. Este contexto enfatiza a necessidade de que sejam tomadas medidas urgentes antes de 2020 para que a futura adaptação aos efeitos já desencadeados do aquecimento global seja bem sucedida. O último relatório do IPCC e outros documentos recentes vêm deixando bastante clara a importância e a realidade da sua mensagem e seu caráter de urgência, ressaltando que as opções de mitigação e adaptação são maiores do que foram no passado, e muitas delas vêm tendo seus custos de implantação significativamente reduzidos em anos recentes, cabendo aos governos e à sociedade fazer bom uso das oportunidades e dos avanços tecnológicos e científicos que se colocam à disposição. Caso contrário, dificuldades em larga escala seguramente se concretizarão e só tenderão a crescer. Outra conclusão importante foi o reforço do consenso que já se formara antes de que as decisões positivas tomadas nas próximas duas décadas terão efeitos decisivos e de longo prazo. Ainda há algum tempo para evitar o pior previsto nos modelos teóricos, mas esse tempo está chegando rapidamente ao fim. O último relatório do IPCC considerou, em suma, que o mundo agora tem apenas cerca de 50 de chance de conseguir manter a elevação da temperatura abaixo dos 2 C, e para conseguir manter os níveis abaixo de 1,5 C as emissões precisariam cair 45 até 2030, e chegar a zero em torno de 2050. Isso não será possível sem uma ação rápida e uma mudança em larga escala nos sistemas produtivos e nos hábitos de consumo. Se a sociedade optar por deixar para a última hora tudo o que precisa ser feito, será tarde demais, pois muito ainda precisa ser feito e o tempo corre contra. Processo de mudança social em tal escala requererá muito esforço, honestidade e boa vontade, e levará necessariamente muitos anos, não se justificando mais, portanto, a demora. Este gráfico da NASA mostra a intensidade da anomalia térmica global no ano de 2015 em relação à média de 1880. Os últimos anos têm batido recorde sobre recorde em termos de temperatura, e 2016 foi o ano mais quente desde o início dos registros