Podmorska i lądowa wieczna zmarzlina

Wieczna zmarzlina to bogata w węgiel zamarznięta gleba, która pokrywa 24% powierzchni lądowej półkuli północnej, obejmując rozległe obszary Alaski, Kanady, Syberii i Grenlandii.

Po raz pierwszy rozmarzanie zmarzliny zaobserwowano w latach 90 XX wieku. A więc, kiedy naukowcy zauważyli wyraźnie, że ostatnia dekada ubiegłego wieku mocno ociepliła się, po tym jak ludzkość podjęła się na początku wspomnianej dekady redukcji zanieczyszczeń przemysłowych, takich jak związki siarki i azotu, które będąc gazami chłodzącymi tworzyły wraz z pyłami duże zachmurzenie nad wieloma regionami przemysłowymi, dzięki czemu mniej światła słonecznego dochodziło do powierzchni Ziemi i mniej przez to była ogrzewana powierzchnia Ziemi. Ale redukcja tych aerozoli oznaczała rozjaśnienie nieba i większy dopływ promieniowania słonecznego, czyli większe nagrzewanie planety przy rosnącym stężeniu gazów cieplarnianych. Okazało się, że to nagłe ocieplenie globu ziemskiego uderzyło z dużym impetem w Arktykę i właśnie w zmarzlinę znajdującą się w głębi tajgi i tundry i też nad wybrzeżami zmarzliny lądowej, a także podmorskiej, na szelfach kontynentalnych. W tym ostatnim przypadku, dotyczy to wód syberyjskich, a konkretniej Morza Łaptiewów i Morza Karskiego. Kiedy dobiegł końca ostatni glacjał Würm (115-11,7 tys. lat temu), Ocean Arktyczny i przybrzeżne morza wokół Eurazji i Ameryki Północnej oraz Grenlandii zaczęły podnosić swój poziom, zalewając wiele obszarów suchej zmarzliny na szelfach kontynentalnych

W 2020 roku dr Sayedeh Sara Sayedi i starszy badacz dr Ben Abbott z Brigham Young University (BYU) w Provo w Stanie Utah oszacowali, że podmorska wieczna zmarzlina zawiera około 560 gigaton węgla (GtC – gigatonnes carbon), czyli 170-740 GtC [w przedziale ufności 90%] w samej materii organicznej (OM – organic matter) wraz z organicznym węglem (OC – organic carbon) oraz 45 GtC, czyli 10-110 GtC [w przedziale ufności 90%] w samym tylko metanie (CH4). Z kolei aktualne strumienie CH4 i dwutlenku węgla (CO2) w słupie wody oszacowano na 18 (2-34) i 38 (13-110) megaton węgla (MtC – megatonnes) przez rok czasu (C / rok) 1.


Fot.1. Klatrat metanu (Wikipedia).


Rys.1. Szacunki ekspertów skumulowanych emisji gazów cieplarnianych w ekwiwalentach CO2 (CO2e) z podmorskiej domeny wiecznej zmarzliny dla scenariuszy emisji RCP2.6, RCP4.5 i RCP8.5. Mediana dolnych, środkowych i górnych oszacowań jest reprezentowana przez ciągłe czarne linie, z szarym wypełnieniem między nimi, co oznacza jakościowy 90% przedział ufności. Względne udziały metanu (CH4) (znormalizowane do CO2e) i CO2 tylko dla oszacowań centralnych są pokazane w kolorze różowym i niebieskim. Dla porównania, żółta przerywana linia pokazuje skumulowany CO2e, gdyby emisje z podmorskiej zmarzliny miały pozostać na obecnym poziomie do 2300. Szczegółowe dane i obliczenia w tabeli S5 (Sayedi S. S. i in., 2020)


Autorzy pracy powiedzieli w swojej pracy wprost:

Szelfy kontynentalne Oceanu Arktycznego i otaczających go mórz zawierają duże zapasy materii organicznej (OM) i metanu (CH4), co stanowi potencjalne sprzężenie zwrotne ekosystemu ze zmianą klimatu, nieuwzględnione w międzynarodowych porozumieniach klimatycznych.

Aby porównać ogólne wymuszanie klimatu z podmorskiej zmarzliny naukowcy przeliczyli emisje metanu (CH4) na ekwiwalent (równoważnik) dwutlenku węgla (CO2e), stosując 100-letni współczynnik przeliczeniowy z potencjałem cieplarnianym 28-krotnie większym dla metanu w horyzoncie czasowym 100 lat uwzględnionym w Piątym Raporcie Oceny IPCC (Schuur i in . 2013 , Abbott i in . 2016 ). Po przeliczeniu [tabela S5 w artykule], CH4 odpowiadał za ponad połowę całkowitego wymuszania klimatu, stanowiąc średnio 65%, 67% i 72% skumulowanych uwolnień CO2e dla RCP2.6, RCP4.5 i RCP8.5, odpowiednio (rys.1.).


Rys.2. Arktyczna zmarzlina (permafrost).

1/5 zamarzniętych gleb na wysokich szerokościach podlega nagłemu i nieustannemu odmrażaniu (tajaniu), doprowadzając do osuwisk i powodzi, co skutkuje uwalnianiem węgla do atmosfery.

Poziomy gleb bogatych w węgiel – kilogramy węgla na  metr kwadratowy

Kg C/m2   

a) nagłe odmrażanie:

> 139 (8%) ; 139-105 (10%) ; 104-70 (60%) ; 69-36 (19%)

b) stopniowe odmrażanie:

>139 (4%) ; 139-105 (3%) ; 104-70 (26%) ; 69-36 (39%)

—-

  1. North Slope, Alaska, USA

Nagłe rozmrażanie powoduje osuwiska i erozję gór.

  1. Cieśnina Dmitrija Łaptiewa, półnowschodnia Syberia

Wieczna zmarzlina zawierająca grube warstwy lodu gruntowego zapada się nagle, gdy lód się topi.

  1. Nizina Zatoki Hudsona

Rozmrażanie torfowisk może spowodować uwolnienie dużej ilości węgla.

  1. Tavvavuoma, północna Szwecja

Narastające jeziora roztopowe są głównym źródłem metanu.

(Turetsky M.R. in., 2019)


Kierownik katedry badań kanadyjskich na Wydziale Biologii Integracyjnej Uniwersytetu Guelph w Kanadzie, Meritt R. Turetsky, wraz ze swoimi współpracownikami, dokonał głębszej analizy dotyczącej rozmrażającej się zmarzliny lądowej, ostrzegając świat przed grożącym podwojeniem ocieplenia klimatu przez coraz szybciej uwalniające się z niej gazy cieplarniane 2.

Na wstępie swojej pracy naukowcy napisali tak:

Gdy temperatura gleby wzrasta powyżej zera, mikroorganizmy rozkładają materię organiczną w glebie. Gazy cieplarniane, takie jak: dwutlenek węgla, metan i podtlenek azotu – są uwalniane do atmosfery, przyspieszając globalne ocieplenie. Gleby w regionie wiecznej zmarzliny zawierają dwa razy więcej węgla niż atmosfera – prawie 1600 miliardów ton.

W skład wiecznej zmarzliny wchodzą różnego rodzaju gleby, skały lub osady, często wymieszane z dużymi bryłami lodu. Na Ziemi, na półkuli północnej, jest około ¼  gleb zamarzniętych w ten sposób. Węgiel w nich gromadził się przez okresy długich tysiącleci, dlatego, że materia organiczna, składająca się ze szczątków martwych roślin, zwierząt i mikroorganizmów, nie uległa rozkładowi.

Naukowcy dalej napisali:

Modelarze próbują przewidzieć, ile tego węgla zostanie uwolnione, gdy topi się wieczna zmarzlina. Jest to skomplikowane: na przykład muszą zrozumieć, ile węgla w powietrzu zostanie pobrane przez rośliny i zwrócone do gleby, uzupełniając część utraconych. Prognozy sugerują, że powolne i stałe rozmrażanie spowoduje uwolnienie około 200 miliardów ton węgla w ciągu najbliższych 300 lat w ramach scenariusza emisji „biznes jak zwykle”. Odpowiada to około 15% całego węgla w glebie gromadzonego obecnie na zamarzniętej północy.

Zespół naukowy Meritta stwierdził, że powinno być wdrożone więcej badań dotyczących klimatu i gleby, w nurtującej kwestii, ile i skąd będą pochodzić największe emisje gazów cieplarnianych, takich jak: dwutlenek węgla, metan i podtlenek azotu.

Nadal jest słabo poznana erozja rozmrożonych gleb na zboczach wzgórz, gdyż zapadające się zbocza są trudne do wykrycia za pomocą satelitów i tylko przeprowadzono kilka badań tego typu na dużą skalę. Dlatego też naukowcy muszą ustalić, ile węgla z wiecznej zmarzliny przemieszcza się po rozmrożeniu, no i co dzieje się dalej z tym węglem. Na przykład nadal nie wiadomo, ile pozostanie go w ziemi i zostanie w niej zakopane, a ile dostanie się niestety do atmosfery już jako gaz cieplarniany. W warunkach tlenowych jako dwutlenek węgla, a w warunkach beztlenowych jako metan. No i też badacze rozważają, co się stanie z tym węglem, jeśli dostanie się do naturalnych jezior, rzek czy estuariów?

Dalej, wspomniani naukowcy analizują w jakim stopniu wzrost roślin mógłby zrównoważyć węgiel uwalniany przez wieczną zmarzlinę, która rozmarza i zapadając się tworzy specyficzne jeziora, tak zwane termokrasowe. Wiadomo już, że z biegiem czasu te jeziora są zarastane przez rośliny mokradłowe, które ostatecznie mają tendencje do osuszania i przekształcania tychże jezior z powrotem w tundrę. A obszary zerodowane są kolonizowane skutecznie przez rośliny, co pomaga stabilizować gleby i przyspieszać ich regenerację, tym bardziej, że wzrost poziomu CO2, wilgotności gleb oraz nutrientów w nich zawartych, sprzyja rozwojowi roślinności i jej nasilonym procesom fotosyntezy. Dlatego też modelarze będą musieli dokładnie szacować procesy biogeochemiczne pod względem przyszłych sprzężeń zwrotnych obiegu węgla pomiędzy gatunkami tundrowymi a przekształcaną geomorfologią w krajobrazie tundry.

Fot.2. Jeziora termokrasowe wzdłuż wybrzeża Arktyki na Alasce, które powstają podczas topnienia lodu i wiecznej zmarzliny. (Steven Kazlowski / NPL).

Na koniec Meritt ze swoim zespołem naukowym stwierdzają fakt, że rozmieszczenie lodu w ziemi jest właśnie głównym czynnikiem wpływającym na losy węgla w wiecznej zmarzlinie. Jednak obserwacje ogólne lodu na ziemi są nieliczne. Bardziej rozpowszechnione są pomiary geofizyczne, które mogłyby stworzyć mapę zagłębień lodu pod powierzchnią, ujawniając, gdzie się koncentruje i jak szybko topi się.

—-

Z kolei niemiecki badacz Boris Biskaborn z Instytutu Alfreda Wegenera, Centrum Badań Polarnych i Morskich im. Helmholtza, wraz ze swoim międzynarodowym zespołem badawczym, po głębszej analizie terenowej stwierdził fakt, że wieczna zmarzlina ociepla się w skali globalnej 3.

Stosując globalny zestaw danych serii czasowych temperatury wiecznej zmarzliny, na podstawie programu Globalna Sieć Lądowa dla Zmarzliny (GTNP – Global Terrestrial Network for Permafrost), naukowcy obliczyli zmiany temperatury w regionach wiecznej zmarzliny w okresie 2007-2016, poczynając od Międzynarodowego Roku Polarnego (IPY – International Polar Year) (2007-2009).


Rys.3. Temperatura wiecznej zmarzliny i tempo zmian w pobliżu głębokości zerowej amplitudy rocznej.

a , b Średnie roczne temperatury gruntu w latach 2014–2016 na półkuli północnej i na Antarktydzie, n  = 129 otworów wiertniczych.

c , d Dziesięcioletnie tempo zmian temperatury wiecznej zmarzliny od 2007 do 2016 roku, n  = 123 odwiertów.

Zmiany w średniej dokładności pomiaru około ±0,1°C są zaznaczone na zielono.

Strefa ciągłej wiecznej zmarzliny (pokrycie >90%); strefa nieciągłej wiecznej zmarzliny (pokrycie <90%).

Strefy wiecznej zmarzliny pochodzą z mapy Międzynarodowego Stowarzyszenia Zmarzliny (IPA – International Permafrost Association). Dane dotyczące granic świata pochodzą z http://thematicmapping.org/downloads/world_borders.php i na licencji CC BY-SA 3.0 ( https://creativecommons.org/licenses/by-sa/3.0)

(Biskaborn B. i in., 2019)

 

Szacunki pokazały wyraźnie, że w latach 2007-2016 temperatura gruntu, znajdującego się w pobliżu głębokości zerowej rocznej amplitudy w strefie ciągłej wiecznej zmarzliny, wzrosła o 0,39 ± 0,15°C. W tym samym okresie, nieciągła wieczna zmarzlina ogrzała się o 0,20 ± 0,10°C. Wieczna zmarzlina w górach ociepliła się o 0,19 ± 0,05°C, a na Antarktydzie o 0,37 ± 0,10°C. W skali globalnej temperatura wiecznej zmarzliny wzrosła o 0,29 ± 0,12°C.

Sami autorzy mówią:

Nasze wyniki pokazują, że w ciągu dekady po IPY wieczna zmarzlina ogrzała się w 71 otworach, w 12 ochłodziła, a w pozostałych 40 pozostała niezmieniona (w zakresie dokładności pomiaru) (Rys.3). Z kolei temperatura gruntu wzrosła powyżej 0°C w pięciu otworach wiertniczych, co wskazuje na rozmarzanie na głębokości pomiarowej 10 m w rocznej amplitudzie zerowej (Z*).


Rys.4. Reżim termiczny wiecznej zmarzliny. Schemat przedstawiający maksymalną (linia czerwona) i minimalną temperaturę gruntu (linia niebieska) w ciągu roku oraz ich zbieżność w celu uzyskania średniej rocznej temperatury gruntu T¯ (Biskaborn B. i in., 2019)


Referencje:

  1. Sayedi S. S. et al., 2020 ; Subsea permafrost carbon stocks and climate change sensitivity estimated by expert assessment ; Environmental Research Letters ; https://iopscience.iop.org/article/10.1088/1748-9326/abcc29
  2. Turetsky M. R. et al., 2019 ; Permafrost collapse is accelerating carbon release ; Nature ; https://www.nature.com/articles/d41586-019-01313-4
  3. Biskaborn B. K. et al., 2019 ; Permafrost is warming at a global scale ; Nature Communications ; https://www.nature.com/articles/s41467-018-08240-4

 

Bez mitygacji nic nam się nie uda

Powinniśmy sobie to uzmysłowić bardzo poważnie, że mamy dwa czynniki, które decydują o ochronie Ziemi. Nie tylko ekologiczny, ale i też klimatologiczny.
Akurat tego nie rozumie nie tylko wielu zwyczajnych ludzi, ale i też aktywistów i miłośników przyrody.
Planeta ocieplać się zaczęła od około 1850 roku z powodu rosnącej koncentracji gazów cieplarnianych (GHG) takich głównie jak dwutlenek węgla oraz sprzężona z nim para wodna. Mniejsze znaczenie, ale wzrastające mają kolejne dwa istotne gazy – metan i podtlenek azotu. Również jeszcze wpływ mają gazy przemysłowe jak freony, choć tutaj podjęto wiele działań o wycofywaniu z użycia wielu gazów chloroflurowęglowodorowych (CFC) i zastępowaniu ich gazami chlorofluorowodorowymi (HFC). Te drugie jednak mając ekstremalnie silny potencjał cieplarniany, oddziałują silnie na wzmacnianie efektu cieplarnianego.
Generalnie, to nie tyle same gazy cieplarniane są problemem, co procesy fizykochemiczne, które one wytwarzają w atmosferze. Ich rosnące stężenia zatrzymują duże ilości promieniowania cieplnego w zakresie długofalowych fal w podczerwieni. To znaczy ich rosnąca obecność w atmosferze wpłynęła na powstanie nierównowagi energetycznej. To znaczy przy względnie regularnym dopływie energii słonecznej do układu ziemskiego, obserwuje się w troposferze naszej planety zmniejszony odpływ energii podczerwonej w przestrzeń kosmiczną. Rosnące emisje gazów cieplarnianych, głównie z sektorów gospodarczych opartych na spalaniu paliw kopalnych powodują nie tylko wzrost stężenia (koncentracji) gazów cieplarnianych w atmosferze, ale i też przy okazji wzrost średniej temperatury globalnej. Według wytycznych Międzyrządowego Panelu ds. Zmian Kliamtu (IPCC), mając na względzie punkt odniesienia – 1850 rok odkąd pojawił się ten problem – świat ocieplił się dziś o co najmniej 1,2 stopnia Celsjusza. I właśnie to ocieplenie zaczyna oddziaływać nie tylko na system klimatyczny planety, ale i również na biosferę, na ekosystemy, na biocenozy, na populacje wielu różnorodnych gatunków zamieszkujących Ziemię.
Niestety, wielu ludzi dalej nie rozumie tego, że naczynia są połączone. Nie rozumie tego, że to co się dzieje z klimatem ma także wpływ na biosferę. Nie ma żadnej cykliczności odkąd cały czas spalamy paliwa kopalne oraz dokonujemy zmian użytkowania terenu, głównie wylesiania. To wszystko zostało zachwiane. Dystrybucja temperatury i opadów na Ziemi została zakłócona w taki sposób, że mając na względzie wykres z 30 lub więcej latami, widać wyraźnie, że w rejonach dotychczas bardzo suchych będzie jeszcze bardziej sucho, a w rejonach bardzo wilgotnych będzie jeszcze bardziej wilgotno. Tak pokazuje symulacje większość modeli klimatycznych, z którymi zgadza się wielu klimatologów, w tym specjalistów od analiz statystycznych i rachunku prawdopodobieństwa.
Są rejony na Ziemi, takie jak np. Polska, które będą wysychać wraz z każdym wzrostem ułamka stopnia Celsjusza w stosunku do okresu przedprzemysłowego 1850-1900. W obecnie trwającym VI Raporcie IPCC mamy pięć scenariuszy emisji GHG: od najłagodniejszego SSP1-1.9 poprzez mniej łagodny SSP1-2.6. , średni SSP2-4.5 , mniej ostry SSP3-7.0 do najostrzejszego SSP5-8.5. Jakim scenariuszem będziemy podążać przez następne kilka dekad, wszystko zależy od nas samych, jakie decyzje podejmiemy. Czy takie by przyspieszyć dekarbonizację, czy niestety zachowawcze i kunktatorskie jak do tej pory.
Wiele się pisze teraz o adaptacji klimatycznej, ale są one zależne od mitygacji (łagodzenia) klimatycznej. Podobnie jak para wodna jest zależna w atmosferze od obecności dwutlenku węgla, gdyż ta pierwsza powoduje najsilniejsze w systemie klimatycznym planety dodatnie sprzężenie zwrotne, a ten drugi powoduje najsilniejsze wymuszenie radiacyjne. Tak więc, bez mitygacji, czyli zmasowanej globalnej redukcji emisji GHG, adaptacja nic nam nie da.
Aby uchronić bioróżnorodność w wielu ekosystemach morskich i lądowych, potrzeba właśnie przede wszystkich działań mitygacyjnych. Bez nich adaptacyjne nic nie dadzą. I owszem należy budować wszelkie zabezpieczenia technologiczne, organizacyjne w miastach, wioskach czy także w ekosystemach lądowych i morskich, zwłaszcza przed kataklizmami takimi jak sztormy, huragany, nawalne opady deszczu, powodzie, fale upałów, susze, pożary. Jednak to niewiele pomoże bez konkretnych jednoczesnych zadań mitygacyjnych, czyli konkretnie zaplanowanych znaczących globalnych redukcji emisji GHG.
Jeśli podejmiemy skuteczne działania renaturalizacyjne ekosystemów, np. mokradłowych czy też rzek czy jezior, to w dłuższej perspektywie czasowej nic to nam nie da jeśli jednocześnie nie podejmiemy natychmiastowych działań mitygacyjnych – redukcji globalnych emisji GHG.
Nie łudźmy się tym, że ekosystemy wrócą do stabilnej formy jak w przeszłości jeśli zignorujemy działania dekarbonizacyjne. Tak samo nic nam nie da sekwestracja gleb, zalesianie czy budowanie infrastruktury retencyjnej rzek, jezior czy też mokradeł takich jak oczka wodne, bagna, jeśli zlekceważymy tak samo działania dekarbonizacyjne polegające głównie na redukcji emisji GHG pochodzącej ze spalania paliw kopalnych takich jak węgiel kamienny, węgiel brunatny, ropa naftowa, piaski bitumiczne czy też gaz ziemny.
Generalnie największym problemem są właśnie paliwa kopalne. Emisje tych surowców w prawie żadnym zakresie nie są sekwestrowane. A poza tym geoinżynieria nie rozwiąże problemu z jakim borykamy się jako ludzkość. Stężenie (koncentracja) dwutlenku węgla w atmosferze zawiera teraz prawie 415 ppm (parts per million). Naszym celem jako ludzkości jest w tej chwili zatrzymanie wzrostu tego stężenia. Tak samo jak innych gazów, takich głównie jak metan (1892,2 ppb – ok. 1,9 ppm) czy podtlenek azotu (331,1 ppb – ok. 0,3 ppm), czyli pomimo znacznie wyższego potencjału cieplarnianego, to i tak koncentracja tych gazów jest wielokrotnie mniejsza niż dwutlenku węgla.
Nadal emisje gazów cieplarnianych ze wszystkich sektorów gospodarczych, głównie z energetyki, wynoszą w skali globalnej 84%. Jeśli nie podejmiemy wielkoskalowych działań mitygacyjnych, to nie tylko my ludzie odczujemy dalszy uciążliwy wzrost temperatury globalnej oraz nasilenie się ekstremów pogodowych, ale i również wiele gatunków zwierząt i roślin to bardzo mocno odczuje. Wiele ekosystemów, które zamieszkują będą dla nich niezdatne do życia. Podobnie jak wiele miast i wsi dla ludzi.
Źródła:

Nasilony efekt cieplarniany

Pierwszym uczonym, który użył terminu efekt cieplarniany był Francuz Joseph Fourier, który  w swoich pracach z 1824 i 1827 roku, wyjaśnił jego działanie na naszej planecie. Odkrył, że obok konwekcji powietrza atmosferycznego i przewodnictwa cieplnego pary wodnej, ważne znaczenie ma trzeci czynnik napędzający efekt cieplarniany, którym okazało się wypromieniowywane ciepło w zakresie fal w podczerwieni zwane też ciepłem termicznym Ziemi 1,2.

Ciepło jest dostarczane, od naszej gwiazdy Słońca ku powierzchni chmur oraz powierzchni wodnej i lądowej naszej planety, w postaci promieniowania elektromagnetycznego. A ściślej, krótkofalowego, dla ludzkich oczu niewidzialnego nadfioletowego oraz widzialnego dla nas ; pomiędzy bliskim nadfioletem i bliską podczerwienią oraz długofalowego, także dla ludzkich oczu niewidzialnego.

Generalnie ponad 90% światła w nadfiolecie pochłania atmosfera i chmury. Tylko niewielka część dociera do powierzchni naszej planety. Zdecydowana większość światła docierającego do naszego globu, to światło widzialne. Część jego jest odbijana, w tak zwanym efekcie albedo, od powierzchni jasnych chmur. Część jego jest pochłaniana przez powierzchnię chmur. Tak samo, mniejsza część jego jest odbijana od jaśniejszej lądowej powierzchni planety (w największym stopniu przez śnieg i lód oraz piasek pustynny), a większa jego część jest pochłaniana przez nią, głównie przez oceany i morza, ale i też w mniejszym stopniu przez lasy. Odbite światło słoneczne (albedo), czy to od powierzchni chmur czy od powierzchni planety, bezpośrednio trafia w przestrzeń kosmiczną. Jednak, pochłonięte powoduje nagrzewanie się chmur i atmosfery czy powierzchni planety, co z kolei prowadzi do emisji promieniowania podczerwonego we wszystkich kierunkach. Wypromieniowane z powierzchni Ziemi światło podczerwone pochłonięte przez chmury i atmosferę (przez rosnącą koncentrację gazów cieplarnianych), następnie reemituje je w dużym zakresie z powrotem ku powierzchni naszej planety, przez co jest jeszcze bardziej wzmacniany efekt cieplarniany.

W drugiej połowie XIX wieku pionierem badań transferu radiacyjnego, czyli transferu promieniowania elektromagnetycznego o różnych długościach fal w atmosferze był amerykański fizyk i inżynier, pionier lotnictwa oraz założyciel Smithsonian Astrophysical Observatory (obserwatorium astrofizycznego), Samuel Pierpoint Langley. Za pomocą zbudowanego przez siebie bolometru mierzył on natężenie promieniowania padającego na wybraną powierzchnię oraz dokonywał obserwacji dwóch zasadniczych promieniowań: widzialnego i podczerwonego, (opisanych powyżej). Uczony ten, wykonując swoje doświadczenia, dokonywał ich, zarówno nad poziomem morza, jak i wysoko w górach. Mierząc o różnych długościach fal cały zakres promieniowania elektromagnetycznego w poszczególnych warstwach atmosfery, badacz ten oszacowywał, kiedy i jak ono jest absorbowane i rozpraszane przez gazy, chmury i cząstki unoszące się w powietrzu, a kiedy ono jest odbijane od powierzchni chmur czy planety 3.

Dziś już wiemy, że planetarne albedo najczęściej zachodzi w chmurach niskich posiadających mniejsze kropelki wody łatwiej odbijające te promieniowanie słoneczne z powrotem w przestrzeń kosmiczną. Z kolei najrzadziej ma ono miejsce w chmurach wysokich, w których z kolei kryształki lodowe skutecznie absorbują energię cieplną w zakresie fal w podczerwieni.

Jeśli chodzi o długofalowe promieniowanie niewidzialne, czyli podczerwone, to duża jego część jest zatrzymywana w systemie klimatycznym Ziemi, a tylko mniejsza jego część opuszcza naszą planetę bezpośrednio z jej powierzchni przez tak zwane okna atmosferyczne. Natomiast, większa część tego promieniowania opuszcza nasz system klimatyczny z wierzchołków chłodniejszych warstw chmur.

Czyli w sumie, jak już zostało to wcześniej wspomniane, energia cieplna w zakresie fal w podczerwieni pochłonięta w warstwach chmur i w molekułach gazów cieplarnianych reemituje we wszystkich kierunkach, w tym ku powierzchni Ziemi. I co najmniej od połowy XIX wieku jej zawartość rośnie dzięki zwiększaniu się koncentracji dwutlenku węgla i innych gazów cieplarnianych. Zostaje w ten sposób zaburzona równowaga radiacyjna, o której naukowcy zaczęli pisać już coraz dokładniej, podejrzewając działalność człowieka jako główną przyczynę ocieplenia klimatu.

W 1957 roku, jeszcze w Związku Radzieckim, Michaił I. Budyko opracował pierwszy atlas bilansu radiacyjnego, który jednak nie odbił się szerokim echem w świecie naukowej klimatologii 4.

Pierwszymi naukowcami, którzy zwrócili uwagę, w swoich wynikach badań, na zaburzenie równowagi radiacyjnej Ziemi byli fizycy atmosfery Syukuro Manabe i Richard Wetherald. Obaj pracowali w latach 60 w Laboratorium Dynamiki Płynów Geofizycznych (GDFL – Geophysical Dynamics Fluid Laboratory), w Waszyngtonie, które było jednym z siedmiu laboratoriów w Narodowej Administracji Oceanicznej i Atmosferycznej (NOAA – National Oceanic and Atmospheric Administration).

Obaj uczeni w 1966 r. opisali w globalnym modelu numerycznym strukturę termiczną atmosfery wyjaśniającą rolę procesów radiacyjnych i konwekcyjnych w ogólnym bilansie energetycznym naszej planety. Opisali między innymi rozkład temperatury w atmosferze z wysokością w różnych warunkach i na różnych szerokościach geograficznych 5.


Rys.1. Po lewej – Regularne poziomy dwutlenku węgla (CO2), metanu (CH4) i podtlenku azotu (N2O) są tworzone przez normalne procesy życiowe, zatrzymując część ciepła słonecznego i zapobiegając zamarzaniu planety. Po prawej – Niesamowita emisja CO2 ze spalania paliw kopalnych zatrzymuje nadmiar ciepła i powoduje wzrost średniej temperatury naszej planety. Rozwiązaniem jest ograniczenie działalności człowieka, która emituje gazy zatrzymujące ciepło. (Fot. Will Elder, NPS)


Warto też wiedzieć, że w troposferze, dolnej warstwie atmosfery, ciepło jest przenoszone w górę także przez ciepło utajone, czyli parowanie z gleb (ewaporacja) czy z roślinności (transpiracja), oraz przez ciepło jawne (konwekcję powietrza ciepłego), dzięki czemu temperatura na Ziemi wraz z wysokością spada powoli, aż do tropopauzy, tuż pod stratosferą, warstwą atmosfery, w której dzięki warstwie ozonowej temperatura wraz z wysokością wzrasta. Najdynamiczniej, procesy te zachodzą w obszarach równikowych podczas tak zwanej głębokiej konwekcji.

W ogólnym bilansie cieplnym Ziemi, ciepło unoszone do góry, jest również przenoszone adwekcyjnie przez wiatry z niższych cieplejszych do wyższych chłodniejszych szerokości geograficznych. A także pod wpływem nagrzewania się oceanów, ciepło w nich jest przenoszone rówńież z niższych cieplejszych do wyższych chłodniejszych wód.

—-

Pomiary satelitarne atmosfery Ziemi są prowadzone od 1970 roku. Z biegiem lat naukowcy pod kierownictwem Johna Harriesa z Zespołu Fizyki Kosmicznej i Atmosferycznej, w Laboratorium Blackett w Królewskiej Uczelni w Londynie, zauważyli, że w badanym okresie czasu 1970-1996 więcej energii termicznej kumuluje się w troposferze, a mniej w stratosferze 6.


Rys.2. Zmiana w spektrum od 1970 do 1996 roku spowodowana gazami śladowymi. Na osi pionowej temperatura jasnościowa (Harries i inni 2001).


Pomiary zostały ponownie powtórzone po kilku latach przez Johna Harriesa  i Jennifer Griggs z Bristolskiego Centrum Glacjologii na Uniwersytecie w Bristolu 7.

Autorzy w swoich wynikach badań posłużyli się pomiarami porównawczymi satelitarnymi na tle nieba bezchmurnego. Porównali widmo promieniowania podczerwonego zmierzone w 1971 roku przez amerykańskiego satelitę  Nimbus-1 z widmem radiacyjnym w zakresie fal w podczerwieni zmierzonego w 1996 roku przez japońskiego satelitę ADEOS.

Oto co Harries i Griggs na wstępie swojej pracy napisali:

Dane są kalibrowane w celu usunięcia skutków różnych rozdzielczości i pól widzenia, aby można było dokonać bezpośredniego porównania. Dokonuje się porównań średniego widma promieniowania długofalowego bezchmurnego nieba wychodzącego nad oceanami w kwietniu, maju i czerwcu. Widma różnicowe są porównywane z symulacjami tworzonymi przy użyciu znanych zmian w gazach cieplarnianych, takich jak CH4 (metan), CO2 (dwutlenek węgla) i O3 (ozon) w tym okresie czasu. Stanowi to bezpośredni dowód na znaczące zmiany w gazach cieplarnianych w ciągu ostatnich 34 lat, co jest zgodne z obawami dotyczącymi zmian radiacyjnego wymuszania klimatu.

—-

Z kolei Rolf Philipona z Fizyczno-Meteorologicznego Obserwatorium i Światowego Centrum Radiacji w Davos Dorf w Szwajcarii, wraz ze swoimi współpracownikami zauważył przy wykonywaniu pomiarów w Alpach zmiany trendów strumieni promieniowania na powierzchni oraz ich związek ze wzrostem gazów cieplarnianych, a także zmiany temperatury i wilgotności w badanym okresie czasu 1995-2002, i to, że skoro satelity mierzą coraz mniej energii cieplnej uciekającej z troposfery do stratosfery, to obserwowany jest jej większy przyrost tuż przy powierzchni Ziemi 8.

To znaczy, fale w podczerwieni emitowane z powierzchni Ziemi są absorbowane przez rosnące stężenie gazów cieplarnianych, głównie dwutlenku węgla, a następnie wyemitowywane we wszystkich kierunkach, ale w niższych warstwach troposfery w największym zakresie ku powierzchni naszej planety. Jest to tak zwane promieniowanie zwrotne atmosfery.

—-

W 2013 roku Benjamin Santer z Programu dla Diagnostyki i Wzajemnego Porównania w Narodowym Laboratorium Lawrence Livermore oraz jego współpracownicy, na podstawie modelu pochodzącego z projektu porównawczego sprzężonych modeli w fazie 5 (CMIP5 – Coupled Model Intercomparison Project Phase 5), jeszcze wyraźniej wskazali, że ciągłe emisje gazów cieplarnianych i rosnące ich koncentracje przyczyniają się właśnie do tego, że coraz więcej ciepła gromadzi się przy powierzchni Ziemi. W szczególności tam gdzie jest wysoka koncentracja pary wodnej 9.

Naukowcy napisali w swoim artykule:

Porównujemy wyniki symulacji z obserwowanymi zmianami temperatury atmosferycznej wywnioskowanymi z satelitarnych jednostek sondowania mikrofalowego (MSU – Microwave Sounding Units). Skupiamy się na uśrednionych strefowo zmianach temperatury w trzech szerokich warstwach atmosfery: dolnej stratosferze (TLS – the lower stratosphere), środkowej i górnej troposferze (TMT – the mid- to upper troposphere) i dolnej troposferze (TLT – the lower troposphere).

Korzystamy z informacji obserwacyjnych MSU z dwóch różnych grup: systemów teledetekcyjnych (RSS – Remote Sensing Systems) i Uniwersytet Alabama w Huntsville (UAH – University of Alabama at Huntsville). Ważnym aspektem naszego badania odcisku palców jest wykorzystanie dodatkowych szacunków niepewności obserwacji dostarczonych przez grupę RSS.


Rys.3. Szeregi czasowe symulowanych miesięcznych średnich prawie globalnych anomalii w temperaturze dolnej stratosfery (TLS), środkowej do górnej troposfery (TMT) i dolnej troposfery (TLT) ( A–C ). Wyniki modelu pochodzą z połączonych symulacji historycznych/RCP8.5 z połączonym antropogenicznym i naturalnym wymuszaniem zewnętrznym (ALL+8.5) oraz z symulacji wyłącznie z naturalnym wymuszaniem zewnętrznym (NAT).

Pogrubione linie oznaczają średnie multimodelowe ALL+8,5 i NAT, obliczone dla modeli CMIP5 (odpowiednio). Temperatury są uśrednione w zakresie 82,5°N-82,5°S dla TLS i TMT oraz ponad 82,5°N-70°S dla TLT.

(Benjamin Santer i inni, 2013)


Referencje:

  1. Fourier J. B. J. , 1824 ; Remarques Générales Sur Les Températures Du Globe Terrestre Et Des Espaces Planétaires ; Annales de Chimie et de Physique 27: 136-67. ; https://books.google.fr/books?id=1Jg5AAAAcAAJ&hl=fr&pg=PA136#v=onepage&q&f=false
  2. Fourier J. B. J. , 1827 ; Mémoire Sur Les Températures Du Globe Terrestre Et Des Espaces Planétaires ; Mémoires de l’Académie Royale des Sciences 7: 569-604. ; https://www.academie-sciences.fr/pdf/dossiers/Fourier/Fourier_pdf/Mem1827_p569_604.pdf
  3. Langley S. P., 1881 ; The Bolometer and Radiant Energy ; Vol. 16 (May, 1880 – Jun., 1881), pp. 342-358 (17 pages) ; Proceedings of the American Academy of Arts and Sciences ; https://www.jstor.org/stable/25138616?origin=crossref&seq=1
  4. Budyko M. I., 1957 ; Тепловой баланс земной поверхности ; Booksite ; https://www.booksite.ru/fulltext/1/001/008/109/891.htm
  5. Manabe S. et al., 1967 ; Thermal Equilibrium of the Atmosphere with a Given Distribution of Relative Humidity ; Journal of the Atmospheric Sciences ; https://journals.ametsoc.org/view/journals/atsc/24/3/1520-0469_1967_024_0241_teotaw_2_0_co_2.xml
  6. Harries J. E. et al., 2001 ; Increases in greenhouse forcing inferred from the outgoing longwave radiation spectra of the Earth in 1970 and 1997 ; Nature ; https://www.nature.com/articles/35066553
  7. Griggs J. A. et al., 2007 ; Comparison of spectrally resolved outgoing longwave data between 1970 and present ; Journal of Climate ; https://journals.ametsoc.org/view/journals/clim/20/15/jcli4204.1.xml
  8. Philipona R. et al., 2004 ; Radiative forcing ‐ measured at Earth’s surface ‐ corroborate the increasing greenhouse effect ; Geophysical Research Letters ; https://agupubs.onlinelibrary.wiley.com/doi/10.1029/2003GL018765
  9. Santer B. D. et al., 2013 ; Human and natural influences on the changing thermal structure of the atmosphere ; Proceedings of the National Academy of the Science ; https://www.pnas.org/content/110/43/17235

Znaczący wpływ chmur na klimat

Chmury dają wysoką niepewność. Symulacje komputerowe modeli wskazują, że przy obecnych albo wyższych emisjach gazów cieplarnianych może dojść do nieprzewidzianych zmian klimatu przyśpieszających wzrost globalnej temperatury.


Fot. Rola chmur w klimacie (w uproszczeniu):

– chmury wysokie (lewa część rysunku) przepuszczają większość padającego na nie promieniowania słonecznego (żółte strzałki), ale zatrzymują wypromieniowywane przez Ziemię promieniowanie podczerwone (czerwone strzałki), powodując wzrost średnich temperatur,

– chmury niskie (prawa część rysunku) silnie rozpraszają promieniowanie słoneczne, powodując spadek średnich temperatur powierzchni Ziemi. Zdjęcia chmur dzięki uprzejmości NASA (Nauka o klimacie, 2014).

 

Z pracy naukowej, której autorami są Jenny Bjordal ,Trude Storelvmo i Tim Carlsen z Wydziału Nauk o Ziemi na Uniwersytecie w Oslo oraz Kari Alterskjær z Centrum Międzynarodowych Badań Klimatu i Środowiska (CICERO) również w Oslo, dowiadujemy się, że chociaż niskie chmury uwodnione dają większy efekt albedo ochładzając klimat aniżeli te same wysokie chmury lodowe, to i tak gdy ocieplenie klimatu sprawia, że tych drugich ubywa, to tych pierwszych jednak nie przybywa na tyle dużo by było znacząco duże zachmurzenie i opady deszczu 1.


Rys.1. Przestrzenny rozkład optycznego sprzężenia zwrotnego głębokości netto (w watach na metr kwadratowy na stopień Kelvina) dla a) pierwszych 15 lat i b) ostatnich 15 lat dla 150-letniej symulacji (2020-2170) po czterokrotnym zwiększeniu CO2 za pomocą modelu CESM2. Cieniowanie wskazuje na dodatnie (czerwone) i ujemne (niebieskie) sprzężenie zwrotne. Źródło: Bjordal i in. (2020).

 

Naukowcy tych cennych informacji na temat zmienności chmur dowiedzieli się dzięki symulacjom środowiskowego modelu systemu Ziemi w fazie 2 (CESM2 – Community Earth System Model phase 2), w okresie przyszłych 150 lat, który oszacował średnio równowagową czułość klimatu (ECS – Equilibrium Climate Sensitivity) na 5,3 stopnia Celsjusza.

Analizując złożoną i chaotyczną dynamikę chmur w systemie klimatycznym Ziemi od 2020 do do 2170 roku, badacze oszacowali, że w ciągu pierwszego okresu 15 lat (0-15 na górnym wykresie rys.1.) jeszcze jest umiarkowana przewaga dodatnich sprzężeń zwrotnych nad ujemnymi, ale gdy badacze wzięli pod obserwację w symulacjach ostatni okres 15 lat (135-150 na dolnym wykresie, rys.1.; już w 2 połowie XXII w.), to dodatnie sprzężenia zwrotne bardzo wyraźnie przeważają nad ujemnymi (rysunek w serwisie Carbon Brief) 2.

Symulacje CESM2 pokazały, że po 150 latach ujemne sprzężenie zwrotne prawie zniknęło na Oceanie Południowym (które dziś jeszcze przeważa w tamtym regionie Ziemi), za to pojawiło się już dodatnie (na dolnym wykresie rys.33.)

Ogólnie mówiąc, w drugiej połowie XXII wieku może wystąpić wyższa równowagowa czułości klimatu z powodu spadku niskiego zachmurzenia. I w takim razie można wyciągnąć taki wniosek, że rośnie ona wraz z dalszym zmniejszaniem się ilości niskich chmur uwodnionych.

Aczkolwiek paradoksalnie, gdy w chłodniejszym klimacie mieliśmy więcej wysokich chmur lodowych słabiej odbijających promienie słoneczne, a silniej absorbujących promieniowanie podczerwone, wówczas ilość takich chmur dramatycznie spadła, zwłaszcza nad oceanami. A na ich miejsce pojawiła się większa ilość niskich chmur uwodnionych powodujących silniejsze ochłodzenie klimatu.

Jednak obecnie, gdy klimat ociepla się, naukowcy zaobserwowali, że gdy ubywa chmur lodowych, toteż zaczęło jeszcze szybciej ubywać chmur uwodnionych. Dlatego też czułość klimatu według zestawu modeli CMIP6 jest obliczana na 5-6 stopni Celsjusza powyżej okresu 1850-1900, z powodu narastania dodatniego sprzężenia zwrotnego, właśnie z przyczyny zanikania wspomnianych chmur uwodnionych.

—-

Coraz wyższy wzrost temperatury w atmosferze sprawia, że niska graniczna atmosfera „wysycha”, na co zwrócił uwagę już w 2014 roku Steven Sherwood z Centrum Badań nad Zmianą Klimatu i Centrum Doskonałości ARC dla Nauk o Systemie Klimatu na Uniwersytecie Nowej Południowej Walii w Sydney wraz ze swoimi współpracownikami: Sandrine Bony i Jeanem-Louisem Dufresne z Laboratorium Dynamicznej Meteorologii i z Instytutu im. Pierre’a Laplace’a na Uniwersytecie Pierre’a i Marii Curie (LMD/IPSL) w Paryżu 3.

Przyczyną jest zanikanie tworzenia stratocumulusów, głównie nad oceanami, z powodu mieszania się powietrza z różnych warstw atmosfery i zapobiegania tworzenia się głębokiej konwekcji, co z kolei skutkuje tym, że para wodna wędruje na wyższe wysokości, gdzie się ona skrapla i tworzy więcej chmur średnich i wysokich dających mniej deszczu i słabsze albedo niż chmury niskie. Oznacza to, że sprzężenie zwrotne jest dodatnie, dające większy efekt ocieplenia klimatu.

Rys.2. Wykształcenie się głębokiej (8-16 km, zależnie od szerokości geograficznej) konwekcji oznacza, że para wodna zabierana z warstwy granicznej atmosfery (poniżej ok. 2 km) i zużywana do tworzenia chmury powraca na powierzchnię Ziemi w postaci opadów. Mieszanie może zapobiegać powstawaniu rozbudowanych w pionie chmur a w rezultacie – opadów. W efekcie w „wysuszonej” warstwie granicznej atmosfery chmur na piętrach niskich ubywa, a przybywa chmur na piętrach średnich i wysokich (2-8 km) (Nauka o Klimacie, 2014) 4.

 

Jeszcze w trakcie ukazania się V Raportu Oceny IPCC (2013-14) dla decydentów, autorzy powyższej pracy na jej wstępie tak napisali:

Równowagowa czułość klimatu odnosi się do ostatecznej zmiany średniej globalnej temperatury w odpowiedzi na zmianę wymuszeń zewnętrznych. Pomimo dziesięcioleci badań próbujących zawęzić niepewność, szacunki równowagowej czułości klimatu, na podstawie modeli klimatycznych, nadal obejmują około 1,5 do 5 stopni Celsjusza, co oznacza podwojenie stężenia dwutlenku węgla w atmosferze, uniemożliwiając dokładne prognozy przyszłego klimatu. Rozprzestrzenianie się wynika w dużej mierze z różnic w sprzężeniu zwrotnym z niskich chmur, z powodów, które nie zostały jeszcze poznane.

Tutaj pokazujemy, że różnice w symulowanej sile mieszania konwekcyjnego między dolną i środkową troposferą zwrotnikową wyjaśniają około połowy wariancji czułości klimatu oszacowanej przez 43 modele klimatyczne. Pozornym mechanizmem jest to, że takie mieszanie powoduje odwodnienie warstwy granicznej niskich chmur, w tempie, które wzrasta wraz z ociepleniem klimatu, a ta szybkość wzrostu zależy od początkowej siły mieszania, łącząc mieszanie ze sprzężeniem zwrotnym z chmurami.

Mieszanie wywnioskowane z obserwacji wydaje się być wystarczająco silne, aby sugerować czułość klimatyczną większą niż 3 stopnie na podwojenie dwutlenku węgla. Jest to znacznie wyższa wartość niż obecnie akceptowana dolna granica 1,5 stopnia, co ogranicza prognozy modelowe w kierunku stosunkowo poważnego przyszłego ocieplenia.

Dziś jak już wiemy, czułość klimatu ma zakres, w przypadku pracy zespołowej Stevena Sherwooda z 2020 roku (omawianej w poprzednim rozdziale),           2,6-4,1°C , a w przypadku prac Veronici Eyring i jej zespołu naukowego (2016) oraz Marka Zelinki i jego zespołu badawczego (2021), zgodnie z projektem porównywania modeli sprzężonych (CMIP6), zakres 1,8-5,6°C .

—-

Joel Norris z Instytutu Oceanografii im. Scrippsa (Scripps Institution of Oceanography) na Uniwersytecie Kalifornijskim w San Diego, w Ja Jolla, wraz ze swoim zespołem badawczym, dzięki badaniom satelitarnym, stwierdził, że wraz z dalszym wzrostem globalnej temperatury chmury wędrują też wzdłuż szerokości geograficznych 5.

Naukowcy zaobserwowali trzy zmiany istotne względem przesuwania się chmur. Mianowicie; z obszarów suchych subtropikalnych, jak pustynie: Sahara na północnej półkuli i Kalahari na południowej półkuli, chmury przesuwają się w kierunku biegunów. Również z obszarów średnich szerokości geograficznych, tez na obu półkulach, tory burzowe także przesuwają się w kierunku biegunów, co obserwują satelity. Wniosek z tego wpływa taki, że mniejsze zachmurzenie nad oceanami sprawi, że więcej energii słonecznej pochłoną oceany, jeszcze bardziej przyczyniając się do globalnego ocieplenia.

Ponadto badacze stwierdzili, że coraz cieplejsza atmosfera sprawia, że w niej tworzy się coraz więcej chmur na większych wysokościach. A to oznacza, że noce w pochmurne dni będą jeszcze bardziej gorące, gdyż mniej promieniowania w zakresie fal w podczerwieni będzie uchodzić w przestrzeń kosmiczną.

Joel Norris dla Carbon Brief wyjaśnia 6:

Chmury ograniczają również emisję termicznego promieniowania podczerwonego w przestrzeń kosmiczną – dlatego pochmurne noce są cieplejsze niż pogodne noce. Wzrost wierzchołka chmur skutecznie zagęści „koc chmur” i zmniejszy emisję termicznego promieniowania podczerwonego w przestrzeń kosmiczną, co również doprowadzi do większego globalnego ocieplenia.


Rys.3. Zmiany w pokryciu się zachmurzenia (Joel Norris i inni, 2016).

 

Autorzy powyższej pracy na jej wstępie piszą:

Tutaj pokazujemy, że kilka niezależnych, empirycznie skorygowanych zapisów satelitarnych wykazuje wielkoskalowe wzorce zmian chmur między latami 80 a 2000 latami., które są podobne do tych wytwarzanych przez modelowe symulacje klimatu z niedawnym historycznym zewnętrznym wymuszeniem radiacyjnym.

Obserwowane i symulowane wzorce zmian chmur są zgodne z wycofywaniem się w kierunku biegunów torów burzowych na średnich szerokościach geograficznych, rozszerzaniem się subtropikalnych stref suchych i rosnącą wysokością najwyższych wierzchołków chmur na wszystkich szerokościach geograficznych.

Wydaje się, że głównymi czynnikami tych zmian w chmurach są rosnące stężenia gazów cieplarnianych i wpływ wulkanicznego chłodzenia radiacyjnego. Wyniki te wskazują, że zmiany chmur najbardziej konsekwentnie przewidywane przez globalne modele klimatyczne zachodzą obecnie w przyrodzie.

—-

Jedna z najnowszych prac na temat interakcji: chmura – aerozol, wskazuje na podstawie symulacji modelowania chmur, że równowagowa czułość klimatu (ECS), którą pokazuje większość modeli z zestawu CMIP6, jest nie tylko wyższa niż w poprzednim zestawie CMIP5, ale również to, że pokazuje podobne efekty równoważenia się emisji dwutlenku węgla i innych gazów cieplarnianych w kontrze do chłodzących emisji aerozoli, ale tylko przez większą część XX wieku.

Te wyniki badań przeprowadzili Chenggong Wang i Gabriel Vecchi z Programu Nauk Atmosferycznych i  Oceanicznych na Uniwersytecie w Princeton, Brian Soden ze Szkoły Nauk Morskich i Atmosferycznych im. Rosenstiela na Uniwersytecie w Miami oraz Wenchang Yang z Wydziału Nauk o Ziemi na Uniwersytecie w Princeton 7.

Naukowcy dokonali w swojej pracy badawczej analizy w okresie 1850-2014 na podstawie przeprowadzonych symulacji dziewięciu modeli B9 i dziewięciu modeli T9. Wykonali niezależny dwupróbkowy test studenta t, aby rozróżnić statystycznie istotne cechy w tychże modelach. I zaobserwowali, że kompensacja w interakcji: gazy cieplarniane – aerozole, nie występuje w przyszłych scenariuszach emisji gazów cieplarnianych (GHG – Greenhouse Gases), w których przewiduje się, że aerozole ulegną zmniejszeniu w miarę dalszego wzrostu CO2 i innych gazów cieplarnianych. A więc, oznaczać to będzie zmaksymalizowanie dodatniego sprzężenia zwrotnego w przyszłości przy kontynuacji obecnych emisji według scenariusza „biznes jak zwykle”.

Z kolei do obliczenia siły sprzężenia zwrotnego chmur, naukowcy zastosowali tzw. jądra radiacyjne wzięte z modelu GFDL (Brian Soden i inni, 2008), w celu uzyskania odpowiedzi radiacyjnej na szczycie atmosfery (TOA – Top of Atmosphere) wymuszonej zmianami temperatury, pary wodnej, albedo powierzchni i chmur.


Rys.4. Modelowana i obserwowana zmiana temperatury powierzchni. Roczne szeregi czasowe:

Modele o mniejszej czułości na klimat są bardziej zgodne z obserwowanymi różnicami temperatur, szczególnie między półkulą północną i południową. Wykres przedstawia:

a)    zmiany rocznej średniej temperatury powierzchni                                                            b)    zmiany różnicy temperatur między półkulą północną i południową w latach 1850-2000

Czerwona linia reprezentuje modele T9 o wysokiej czułości na klimat, a niebieska linia reprezentuje modele B9 o niskiej czułości na klimat.

Czarna linia pokazuje obserwowane fluktuacje temperatury zebrane przez Goddard Institute for Space Studies projekt analizy temperatury powierzchni, które są bardziej zbliżone do niebieskiej linii, jeśli chodzi o temperaturę między półkulami.

Szare tła wskazują lata, w których różnice między modelami o wysokiej i niskiej czułości na klimat są znaczące.

Parametry:

NH-SH (północna półkula-południowa półkula) ;

ΔTs – przyrost temperatury powierzchni w stopniach K (Kelwina)

(Chenggong Wang i inni, 2021).

 

Modele klimatyczne dotychczas pokazywały, że większa ilość aerozoli jest na półkuli północnej, aniżeli na południowej, co jest sprzeczne z obserwacjami, wykonanymi na podstawie globalnej analizy obserwacji temperatury powierzchni, wziętej z danych GISS Surface Temperature Analysis version 4 (GISTEMP v4).

Ze względu na większy efekt chłodzenia w interakcji: aerozol – chmura (ACI – Aerosol, Cloud – Interaction), modele T9 (czerwona linia) symulują nieco chłodniejsze anomalie temperatury powierzchni od połowy do końca XX wieku w porównaniu z modelami B9 (niebieska linia) (Rysunek 36a), pomimo, że modele T9 mają bardziej dodatnie sprzężenie zwrotne chmur i wyższą równowagową czułość klimatu (ECS).

Chociaż, jak piszą autorzy w pracy, ta różnica między anomalią temperatury powierzchni w modelach B9 i T9 jest niewielka, to jest ona uśredniona globalnie. Asymetria obu półkul Ziemi pod względem historycznego wymuszania aerozolu powoduje z kolei znaczne różnice asymetryczne w ociepleniu międzypółkulowym (rysunek 36b).

Dalej zespół naukowy Chenggonga Wanga, na podstawie symulacji komputerowych, podał informację w swojej publikacji, że dalszy wzrost temperatur pod koniec XX wieku ukazał, że asymetria międzypółkulowa w ewolucji temperatur pod koniec XX wieku odróżnia modele T9 i B9. Te pierwsze pokazały symulacje bardziej nagrzanej półkuli południowej (SH – Southern Hemisphere) niż północnej (NH – Northern Hemisphere) w ostatnim stuleciu, na podstawie nie tylko silniejszego sprzężenia zwrotnego chmur, ale i pośredniego efektu aerozolowego w interakcji z nimi, co jest sprzeczne z wynikami pomiarowymi na podstawie obserwacji. Z kolei, te drugie, pokazały symulacje, w których wprawdzie jest słabsze sprzężenie zwrotne chmur, ale i też pośredni efekt aerozolowy jest mniejszy, co jest bardziej zgodne z obserwacjami.

Symulacje pokazały, że różnice w asymetrii ocieplenia, między obu półkulami, pomiędzy modelami T9 i B9 są szczególnie wyraźne w latach 1950-2000 (szare cieniowanie na rys. 36b).

Podsumowując temat, naukowcy odkryli, że modele o niższej czułości klimatycznej są bardziej zgodne z obserwowanymi różnicami temperatury między półkulą północną i południową, a zatem stanowią dokładniejszy obraz przewidywanej zmiany klimatu niż nowsze modele z wyższą czułością klimatu.

Badanie zostało wsparte przez inicjatywę łagodzenia emisji dwutlenku węgla (CMI) z siedzibą Instytucie Środowiskowym High Meadows (HMEI – High Meadows Environmental Institute) w Princeton.

Współautor powyższej pracy Gabriel Vecchi, profesor nauk o Ziemi w Princeton i High Meadows Environmental Institute oraz główny badacz w CMI w serwisie Eurekalert, tak powiedział 8:

Większa czułość klimatu wymagałaby oczywiście znacznie bardziej agresywnego ograniczania emisji dwutlenku węgla.

Społeczeństwo musiałoby znacznie szybciej zmniejszyć emisje dwutlenku węgla, aby osiągnąć cele porozumienia paryskiego i utrzymać globalne ocieplenie poniżej 2 stopni Celsjusza. Zmniejszenie niepewności czułości klimatu pomaga nam opracować bardziej niezawodną i dokładną strategię radzenia sobie ze zmianami klimatu.


Referencje:

  1. Bjordal J. et al., 2020 ; Equilibrium climate sensitivity above 5°C plausible due to state-dependent cloud feedback ; Nature Geoscience ; https://www.nature.com/articles/s41561-020-00649-1
  2. Carlsen T. et al., 2020 ; Guest post: How declining ice in clouds makes high ‘climate sensitivity’ plausible ; Carbon Brief ; https://www.carbonbrief.org/guest-post-how-declining-ice-in-clouds-makes-high-climate-sensitivity-plausible
  3. Sherwood S. C. et al., 2014 ; Spread in model climate sensitivity traced to atmospheric convective mixing ; Nature ; https://www.nature.com/articles/nature12829
  4. Kardaś A., 2014 ; Chmury, klimat i przyśpieszony wzrost temperatur ; Nauka o klimacie ; https://naukaoklimacie.pl/aktualnosci/chmury-klimat-i-przyspieszony-wzrost-temperatur-32/
  5. Norris J. R. et al., 2016 ; Evidence for climate change in the satellite cloud record ; Nature ; https://www.nature.com/articles/nature18273
  6. McSweeney R., 2016 ; Shifting global cloud patterns could amplify warming, study says ; Carbon Brief ; https://www.carbonbrief.org/shifting-global-cloud-patterns-could-amplify-warming-study-says
  7. Wang C. et al., 2021 ; Compensation Between Cloud Feedback and Aerosol-Cloud Interaction in CMIP6 Models ; Geophysical Research Letters ; https://agupubs.onlinelibrary.wiley.com/doi/full/10.1029/2020GL091024
  8. Princeton University, 2021 ; High end of climate sensitivity in new climate models seen as less plausible ; EurekAlert ; https://www.eurekalert.org/news-releases/820279

 

Wilgotne fale upałów – przy dalszym ociepleniu – zwiastun ponurej przyszłości klimatycznej

Fale upałów, nawet intensywne i długotrwałe, gdy są suche, to są jeszcze do zniesienia. Gorzej jeżeli są one wilgotne i gorące. Na szczęście dziś jeszcze są bardzo rzadkie. I to z reguły występują one przy maksymalnej temperaturze 28 stopni Celsjusza. Znacznie rzadziej przy 31°C. Ale kilka razy zdarzyło się w życiu, że była to temperatura 35°C, tyle, że w bardzo krótkim czasie. W dłuższym czasie praktycznie ta temperatura oznacza niewydolność organizmu każdego ssaka, w tym człowieka.
Adiunkt Eun-Soon Im z Wydziału Środowiska i Zrównoważonego Rozwoju i Wydziału Inżynierii Lądowej i Środowiska na Uniwersytecie Nauki i Technologii w Hongkongu w Kowloon ; profesor Jeremy S. Pal z Wydziału Inżynierii Lądowej i Nauk o Środowisku na Uniwersytecie Loyola Marymount w Los Angeles ; profesor Elfatih A.B. Eltahir z Laboratorium Ralpha M. Parsonsa w Instytucie Technologii Massachusetts (MIT – Massachusetts Institute of Technology), zaobserwowali, że latem 2015 r. temperatura mokrego termometru (TW – wet-bulb temperature) w Bandar Mahshahr w Iranie (Zatoka Perska/Arabska) w dłuższym okresie czasu niż zazwyczaj osiągnęła prawie 35°C, co sugeruje, że próg może zostać przekroczony wcześniej niż przewidywano. Na szczęście tam raczej nie było ludzi, choć nie wiadomo czy nie ucierpiały jakieś zwierzęta i rośliny 1.
Narażenie człowieka na TW o temperaturze około 35°C przez nawet kilka godzin spowoduje śmierć nawet najsilniejszych ludzi w zacienionych, dobrze wentylowanych warunkach
Wysokie wartości TW oznaczają gorące i wilgotne warunki. Wzrost temperatury mokrego termometru zmniejsza różnicę między temperaturą skóry ludzkiego ciała (średnio temperatura powinna wynosić 36°C), a wewnętrzną temperaturą ludzkiego ciała (średnio temperatura powinna wynosić 36,6°C), co zmniejsza zdolność ludzkiego ciała do chłodzenia. To znaczy dzieje się tak wówczas, gdy większe ciepło z organizmu słabiej odparowuje, czyli wydziela pot, gdy mniejsze ciepło zewnętrznej skóry ma podwyższone wartości z przyczyny nagrzania słonecznego podczas ekstremalnego upału.
—-
Rys.1. Rozkład przestrzenny najwyższej dobowej maksymalnej temperatury termometru wilgotnego, TW max (°C), we współczesnym zapisie (1979–2015).
Globalny rozkład TW max jest obliczany przy użyciu 3-godzinnych danych ERA-Interim z rozdzielczością poziomą 0,75° × 0,75°. Powiększona domena uwydatnia trzy wyróżniające się regiony o wyższej TW max: południowo-zachodnią Azję wokół Zatoki Perskiej/Arabskiej i Morza Czerwonego, Południową Azję w dolinach rzek Indusu i Gangesu oraz wschodnie Chiny. Wartości TW max poniżej 27°C nie są pokazane.
—-
Według V Raportu Oceny IPCC, w scenariuszu RCP4.5 w żadnym regionie nie przewiduje się jeszcze przekroczenia 35°C. Jednak przewiduje się, że rozległe regiony Azji Południowej doświadczą epizodów przekraczających 31°C, co jest już uważane za niezwykle niebezpieczne dla większości ludzi. Ale, przewiduje się mniej surowe warunki na wyższych położeniach górskich. Np., dla płaskowyżu Dekanu w Indiach, Himalajów i zachodnich pasm górskich w Pakistanie.
Również mniejszy wpływ wilgotnych fal upałów oddziaływać będzie na mniejszą populację ludzi zamieszkujących rejon Zatoki Perskiej, gdzie kultura jest mniej rolnicza, a więc, mniej narażona na bezpośredni wpływ ekstremalnych dni upalnych. Gorzej będzie to niestety znosić bardzo liczna populacja mieszkańców Indii i Pakistanu licząca 1,5 miliarda ludzi, gdzie z kolei jest bardzo dużo biednych rolników bezpośrednio narażonych na ekstremalne warunki wilgotnej, letniej fali upałów.
Profesor Elfatih Eltahir w serwisie Science Daily podkreślił 2:
Podczas gdy prognozy pokazują, że Zatoka Perska może stać się regionem najgorszych fal upałów na świecie, północne Indie są na drugim miejscu, a wschodnie Chiny, również gęsto zaludnione, są na trzecim miejscu. Jednak najwyższe koncentracje ciepła w Zatoce Perskiej występowałyby nad wodami samej Zatoki, a mniejsze byłyby nad zamieszkaną ziemią.
Nowa analiza badaczy opiera się na niedawnych badaniach wykazujących, że najbardziej zabójcze skutki upałów dla ludzi wynikają z połączenia wysokiej temperatury i wysokiej wilgotności, wskaźnika mierzonego odczytem znanym jako temperatura mokrego termometru.
Badanie to pokazuje, że do końca XXI wieku, przy zwlekaniu podejmowania poważnych redukcji globalnych emisji GHG, najbardziej ekstremalne, występujące dziś raz na 25 lat, fale upałów wzrosną z temperatury mokrego termometru z około 31°C do 34,2°C. A więc, zbliży to nas ludzi i inne ssaki do progu przeżywalności.
W dzisiejszym klimacie około 2% populacji Indii jest czasami narażonych na ekstremalne temperatury termometru wilgotnego wynoszące nawet 32 stopnie Celsjusza. Według tego badania, przy kontynuacji scenariusza wysokich emisji GHG „biznes jak zwykle” do 2100 roku, liczba ta wzrośnie do około 70 % populacji, natomiast około 2 procent ludzi będzie wtedy czasami narażonych na granicę przeżycia 35 stopni Celsjusza.
Naukowcy przypominają ostrzegając, że lato 2015 roku wywołało również jedną z najbardziej śmiercionośnych fal upałów w historii Azji Południowej, zabijając około 3500 osób w Pakistanie i Indiach.
Wówczas mieliśmy do czynienia z długotrwałym i bardzo silnym El Niño, które jak pokazały wyniki badań, opóźnia nadejście indyjskiego monsunu letniego, co z kolei powoduje silniejsze i trwalsze fale upałów w Indiach, w tym wilgotne, jak właśnie latem 2015 roku.
—–
W kolejnej podobnej interesującej pracy, Simone Russo z Instytutu Ochrony i Badań Środowiska w Rzymie (Isprze), Jana Sillmann z Centrum Międzynarodowych Badań Klimatu i Środowiska (CICERO) w Oslo oraz Andreas Sterl z Królewskiego Holenderskiego Instytutu Meteorologicznego (KNMI) w De Bilt, przedstawili następujący punkt widzenia, że zarówno w wilgotnych, jak i suchych regionach, występowanie fali upałów może być związane z utrzymującymi się stanami synoptycznymi, takimi jak: wzorce blokowania niżów, zmniejszone zachmurzenie i adwekcja ciepłego powietrza 3.
Nowatorstwo tego badania polegało na tym, że w celu oszacowania wielkości i wpływu fal upałów uwzględniona została nie tylko temperatura, ale i także wilgotność względna (tzw. wskaźnik ciepła, czyli temperatura odczuwalna), która w coraz cieplejszym świecie będzie bardzo poważnym problemem wpływającym ujemnie na zdrowie ludzi i innych ssaków.
Według badania, fala upałów jest uważana za wilgotną, jeśli co najmniej jeden z jej dni wykazuje temperaturę odczuwalną (AT – Apparent Temperature), która przekracza temperaturę termometru suchego.
W przypadku stresu fizjologicznego u ludzi i innych ssaków, najczęściej występuje wilgotność względna, oznacza ona niezdolność organizmu do utraty ciepła poprzez chłodzenie wyparne. W krytycznych przypadkach prowadzi to niestety do przegrzania i śmierci.
Aby uwzględnić wpływ wilgotności względnej podczas kolejnych upalnych dni, naukowcy wprowadzili nowy wskaźnik odczuwalnej fali upałów (AHWI – Apparent Heat Wave Index), który obliczany jest analogicznie do dziennego wskaźnika wielkości fali upałów (HWMId – Heat Wave Magnitude Index daily), ale z maksymalną dobową temperaturą zastąpioną przez AT dla dni fali upałów z AT > T. Pierwszy odnosi się do temperatury odczuwalnej (temperatury i wilgotności względnej), a drugi tylko do temperatury.
—-
Rys.2. Prawdopodobieństwo wystąpienia ekstremalnie wilgotnych fal upałów przy różnych poziomach ocieplenia w stosunku do lat 1861-1880.
a) Symulowany globalny wzrost średniej temperatury powierzchni w funkcji czasu. Mediana modelu dekadowego w okresie historycznym (1860–2010) jest reprezentowana przez czarne krzyżyki. Mediana modelu dekadowego w przyszłym okresie (2011–2100) dla trzech scenariuszy Reprezentatywnych Ścieżek Stężeń (RCP2.6, RCP4.5 i RCP8.5) jest reprezentowana odpowiednio przez czarne kwadraty, koła i trójkąty.
( b – d) prawdopodobieństwo wystąpienia fal upałów o wielkości większej niż maksymalna wielkość wykryta w Rosji w 2010 r. (HWMId > 60) obliczone w każdym punkcie siatki dla wszystkich lat modelowych z globalną anomalią średniej temperatury względem okresu 1861-1880 między 1,4° a 1,6° (poziom ocieplenia 1,5°), patrz metoda), odpowiednio 1,9–2,1° (poziom ocieplenia 2°) i 3,9°–4,1° (poziom ocieplenia 4°). e-g jak b-d, ale dla wilgotnych fal upałów i względnego wskaźnika odczuwalnej fali upałów (AHWI > 60). Ten rysunek został stworzony przy użyciu projektu R w wersji 3.3.2 – link (https://cran.r-project.org/).
—-
Naukowcy przeprowadzili zestawy analiz atmosfery z danych ERA-Interim i NCEP-2 za pomocą modelu sprzężonego CMIP5, w którym prześledzili przebieg wspomnianych wskaźników łącznie z AT dla świata cieplejszego o 1,5 , 2 i 4°C powyżej okresu przedprzemysłowego.
Regiony takie jak wschodnie stany USA oraz Chiny są i będą (przy kontynuacji scenariusza wysokich emisji „biznes jak zwykle”) podatne na wpływy temperatury wzmacnianej przez wysoką wilgotność względną, gdyż powstawanie wilgotnej fali upałów nad tymi regionami bierze swój początek znad wodnych obszarów. W pierwszym przypadku gorące i wilgotne powietrze napływa znad Zatoki Meksykańskiej, a w drugim przypadku z tropikalnych wód najprawdopodobniej Morza Południowochińskiego.
Natomiast w Europie i zachodniej części Stanów Zjednoczonych mamy do czynienia z tworzeniem się suchej fali upałów, która jest i najprawdopodobniej będzie często powodowana uporczywą blokadą niżową i związaną z nią adwekcją gorącego, suchego powietrza z rejonów pustynnych.
W pierwszym przypadku z Sahary, a w drugim przypadku z bardziej gorącej pustyni w Meksyku, najprawdopodobniej Sonory.
Na przykład rosyjska fala upałów w 2010 roku wynikała z powstania silnego antycyklonu, który pojawił się nad obszarami względnie chłodnej Rosji, dzięki czemu, znad Sahary w Afryce Północnej napłynęły masy ekstremalnie gorącego i suchego powietrza.
Naukowcy w swojej pracy napisali:
W niektórych kluczowych regionach, takich jak środkowo-zachodnie i wschodnie stany USA, Chiny, północna Ameryka Łacińska i Malezja, zarówno ponowna analiza, jak i dane modelowe pokazują, że wielkość fali upałów i szczytowa temperatura zostały wzmocnione przez wysoką wilgotność względną w niedalekiej przeszłości. Wybrane fale upałów z Chicago 1995 i Szanghaju 2003 są wyraźnymi przykładami udziału wilgotności względnej podczas fali upałów. Wręcz przeciwnie, wpływ wilgotności względnej był znikomy podczas dwóch słynnych fal upałów, które miały miejsce w Europie Środkowej w 2003 r. i w Rosji w 2010 r.
Podsumowując temat, naukowcy ostrzegają, że fale upałów coraz bardziej wzmacniane przez wysoką wilgotność i temperaturę powyżej 40°C, mogą występować w świecie cieplejszym o 2 stopnie Celsjusza względem okresu przedprzemysłowego, nawet co dwa lata. Będzie to doprowadzało wielu ludzi do poważnych zagrożeń zdrowia, a nawet życia. Jeśli globalne temperatury wzrosną o 4°C, nowa fala upałów o temperaturze 55°C może regularnie nawiedzać wiele części świata, w tym Europę. W szczególności ta ekstremalna wilgotna fala upałów dotknie gęsto zaludnione obszary, takie jak wschodnie wybrzeże USA, przybrzeżne Chiny, duże obszary Indii i Ameryki Południowej.
—-
Referencje:
1. Im E-S et al., 2017 ; Deadly heat waves projected in the densely populated agricultural regions of South Asia ; Science Advances ; https://www.science.org/doi/10.1126/sciadv.1603322
2. Massachusetts Institute of Technology, 2017 ; Deadly heat waves could hit South Asia this century ; Science Daily ; https://www.sciencedaily.com/rel…/2017/08/170802152547.htm
3. Russo S. et al., 2017 ; Humid heat waves at different warming levels ; Scientific Reports ; https://www.nature.com/articles/s41598-017-07536-7

Ocieplenie klimatu szybsze niż mitygacja, ale nie nadmiernie szybkie dzięki rozwojowi niskoemisyjnej energetyki

Świat się ociepla, ale nie tak mocno jak niektórzy to sobie wyobrazili. Powstało wiele książek przedstawiających wręcz apokaliptyczne scenariusze. Komu zależało na tym szaleństwie. W ciągu minionej dekady powstał potężny boom na odnawialne źródła energii. Czy się to komuś podoba czy nie podoba, ta energetyka ma przyszłość i będzie się rozwijać. Żaden wzrost temperatury nie spowoduje zaburzeń farm wiatrowych czy słonecznych. Tak samo będą funkcjonować instalacje biogazowe czy geotermalne i wiele innych. Fakt. Energetyka jądrowa w wielu krajach przyhamowała, a nawet zaczęła być wycofywana. I to jest oczywiście błąd, gdyż to jest też niskoemisyjna energetyka jak energetyka odnawialnych źródeł. Przyszłość mogą mieć też małe reaktory modułowe. Pilotażowe projekty ruszyły już chociażby w Kanadzie. Możliwe, że ruszą już niedługo także instalacje termojądrowe, które zamiast rozszczepiać jądra atomowe, będą dokonywać ich fuzji. Może jeszcze pojawią się nowe technologie. W tym samym czasie rozpowszechnią się magazyny energii. Elektromobilność i wodór w transporcie nie tylko motoryzacyjnym, ale i kolejowym, lotniczym i żeglugowym.
Przed nami trzecia dekada, w której musimy też zachować wiele naturalnych ekosystemów, w tym kluczowych dla klimatu, leśnych i bagiennych. Ogólnie musimy też na odpowiednich siedliskach leśnych sadzić wiele drzew, krzewów. A w miastach obowiązkowo to wykonywać. Drzewa i krzewy i także roślinność zielna spełniają nie tylko funkcje rekreacyjne i estetyczne, ale i także ekologiczne i klimatyczne. To czysty zysk i zdrowie dla planety, dla jej zwierzęcych i roślinnych mieszkańców, w tym dla nas ludzi. W wielu krajach podchodzi się poważnie do tych ważnych działań proekologicznych i proklimatycznych, ale niestety nie wszędzie. Jak to przełoży się w tej dekadzie, trudno powiedzieć. Popyt na drewno jest ogromny. Musimy też wziąć pod poprawkę, że mamy wiele produktów domowych właśnie z drewna. Tylko co istotne, najważniejsze by były one produktami certyfikowanymi. A tak niestety nie jest do końca.
Spalanie biomasy jest uczciwe i zaliczane jest do OZE, gdy są spalane odpady w postaci wiórów i zrębków. Jednak spalanie biomasy jest nieuczciwe i nie jest zaliczane do OZE przez aktywistów ekologicznych i naukowców, gdy pochodzi one z wyrębów drzew w lasach. To nieuczciwa gra jest wtedy. Jak politycy Unii Europejskiej tak uważają, to ja i wielu rozsądnych aktywistów sprzeciwia się temu by spalane drzewa zaliczać do OZE. Zresztą politycy często są ignorantami ekologicznymi i klimatycznymi. Taka jest prawda o wielu z nich. chociaż oczywiście nie wszyscy są tacy.
Generalnie jednak kluczowa jest redukcja emisji gazów cieplarnianych (GHG), tak by ich stężenie coraz wolniej rosło, wypłaszczało się i w końcu zaczęło spadać z roku na rok. Obecnie na całej naszej planecie emisje GHG (dwutlenku węgla, metanu, podtlenku azotu, gazów przemysłowych, głównie freonów) wynoszą 84%. To bardzo dużo. Ponad 5 razy więcej niż emisje z powodu wylesiania i osuszania i degradacji torfowisk. Dlatego eksperci przykładają główną wagę do nich. Oczywiście to nie znaczy, że nie należy brać pod uwagę ochrony ekosystemów. Ale trzeba uczciwie powiedzieć sobie, że tutaj w grę wchodzą odpowiednie rozwiązania zwiększania puli genowej gatunków i ich siedlisk, czyli zwiększanie bioróżnorodności.
Wracając do kwestii klimatu, trzeba powiedzieć wprost, że obecnie wiele modeli klimatycznych pokazuje, że przy obecnym scenariuszu emisji, pomiędzy SSP-4.5 a SSP-7.0 (6 Raport IPCC) raczej mało jest realne, że w 2100 roku ocieplimy świat o 5 stopni Celsjusza powyżej okresu przedprzemysłowego 1850-1900. Nie możemy się zafiksowywać nierealnymi postapokalitycznymi temperaturami. Przecież pracujemy nad tym już. Może ślamazarnie jeszcze, ale coś jednak robimy w kierunku mitygacji klimatycznej (Pielke et al., 2022).
Roger Pielke jego współpracownicy na samym wstępie pracy piszą:
Scenariusze emisji wykorzystywane przez Międzyrządowy Zespół ds. Zmian Klimatu (IPCC) mają kluczowe znaczenie dla badań i polityki w zakresie zmian klimatycznych. W tym miejscu identyfikujemy podzbiory scenariuszy z 5. (AR5) i nadchodzących 6. (AR6) raportów oceniających IPCC, w tym scenariuszy wspólnej ścieżki społeczno-ekonomicznej, które dotyczą projektu 2005–2050 dotyczącego paliw kopalnych i przemysłu (FFI) tempo wzrostu emisji CO2 jest najbardziej zgodne z obserwacjami z lat 2005-2020 i prognozami Międzynarodowej Agencji Energii (IEA) do roku 2050. Scenariusze te przewidują ocieplenie od 2 °C do 3 °C do 2100 r., przy medianie 2,2 °C. Podzbiór prawdopodobnych scenariuszy IPCC nie odzwierciedla wszystkich możliwych trajektorii przyszłych emisji i ocieplenia. Łącznie prognozują ciągły postęp w zakresie łagodzenia skutków i sugerują, że świat znajduje się obecnie na niższej trajektorii emisji, niż się często zakłada. Jednak scenariusze te wskazują również, że świat wciąż nie jest na dobrej drodze do ograniczenia ocieplenia w XXI wieku do 1,5 °C lub poniżej 2 °C.
Właśnie to jest realne co piszą naukowcy. I o tym powinno się wszędzie pisać i mówić. Przestańmy wytwarzać apokaliptyczne scenariusze emisji GHG, bo są na obecną chwilę nierealne. Realne jest to, że przy obecnym scenariuszu w 2100 roku przekroczymy z bardzo wysokim prawdopodobieństwem, może nawet wyższym niż 66%, 2,2 stopnia Celsjusza powyżej poziomu przedprzemysłowego. Jednak nie zapominajmy się, że nie siedzimy bezczynnie, tylko już coś robimy.
—–
Rys.1. a) Szeregi czasowe maksymalnej dobowej temperatury uśrednionej na badanym obszarze od maja do sierpnia 2021 r. na podstawie ERA5, z dodatnimi i ujemnymi odchyleniami od średniej klimatycznej maksymalnej dobowej temperatury z lat 1991-2020 zaznaczonymi odpowiednio na czerwono i niebiesko. b) Maksimum roczne serii indeksów ze średnią kroczącą z 10 lat (linia zielona). Źródło: ERA5 (Philip S. et al., 2021)
Rys.2. Dane dotyczące aktywnego pożaru ze spektroradiometru obrazowego średniej rozdzielczości (MODIS) (Kolekcja 6, produkty w czasie zbliżonym do rzeczywistego i standardowe) przedstawiające dotkliwość pożarów buszu od 1 października 2019 r. do 10 stycznia 2020 r., przy czym najpoważniejsze pożary oznaczono na czerwono. Obraz pokazuje również obszary zalesione na niebiesko. Wielokąt przedstawia obszar analizowany w tym artykule (Oldenborough et al., 2020).
Rys.3. Na lewym panelu – opady skumulowane w ciągu dwóch dni (48h akumulacja 13 lipca 00:00 UTC – 15 lipca 2021, 00:00 UTC). Na prawym panelu – opady skumulowane w ciągu 24 godzin dla każdego dnia, w którym wystąpiły ekstremalne opady (Kreienkamp F. et al., 2021).
—-
Problem polega na tym, że nie możemy dopuszczać do każdego wzrostu ułamka stopnia Celsjusza, bo przede wszystkim będziemy narażeni na zwiększenie intensywności i częstości najgroźniejszych fal upałów oraz równie groźnych susz, wielkoskalowych pożarów, nawalnych opadów deszczu, nasilenia tornad, tajfunów, huraganów, cyklonów i sztormów, powodzi, a nawet nie tak częstego, intensywnego i długotrwałego, ale uciążliwego występowania śnieżyc. Oczywiście w świecie globalnego ocieplenia mają one także miejsce, gdy przede wszystkim dochodzi do rozbijania wirów polarnych i gwałtownych napływów polarnego, mroźnego powietrza na średnie, a nawet, rzadko, ale jednak, na subtropikalne szerokości geograficzne. Duży udział w tym ma spowalnianie i meandrowanie polarnego prądu strumieniowego. W tym samym czasie często dochodzi do napływu gorącego, zwrotnikowego powietrza poza koło polarne, nawet w kierunku bieguna północnego.
Ekstrema pogodowe przede wszystkim już najmocniej uderzają w ludzi najbiedniejszych, którzy nie mają klimatyzacji i bardzo często są poszkodowani. Ludzkość już zdaje sobie sprawę, że żywioły na Ziemi są coraz silniejsze dzięki temu, że na czynniki naturalne nakładają się czynniki antropogeniczne. Badaniami tych zjawisk i procesów zajmuje się dział klimatologii atrybucji zmian klimatu. Główną instytucją badawczą jest europejski World Weather Attribution, która dokonuje pomiarów ekstremalnych fal upałów (Filip S. et al., 2021), wielkoskalowych pożarów (megapożarów) (Oldenborgh G. J. et al., 2021) czy też powodzi (Kreienkamp F. et al., 2021).
I to właśnie na ekstremach pogodowych powinniśmy się skoncentrować. Przyspieszanie redukcji emisji GHG spowoduje mniejszy przyrost temperatury globalnej. Musimy dążyć za wszelką cenę do wypłaszczania, a więc względnej stabilizacji temperatury i w końcu jej spadku. Ostatnie badania zamieszczone także w 6 Raporcie Oceny IPCC wskazują, że całkowite wyzerowanie emisji GHG nie wpłynie na to, że jeszcze przez kilkadziesiąt lat będzie rosła temperatura, ale tylko przez kilka lat – mówi Michael E. Mann, dyrektor Centrum Nauk Systemu Ziemi na Uniwersytecie Pensylwanii.
—-
Referencje:
Pielke R. et al., 2022 ; Plausible 2005-2050 emissions scenarios project between 2 °C ; Environmental Research Letters https://iopscience.iop.org/article/10.1088/1748-9326/ac4ebf
Philip S. et al., 2021 ; Rapid attribution analysis of the extraordinary heatwave on the Pacific Coast of the US and Canada June 2021 ; Earth System Dynamics ; https://www.researchgate.net/…/356177995_Rapid…
Oldenborgh G. J. et al./ 2020 ; Attribution of the Australian bushfire risk to anthropogenic climate change ; Natural Hazards and Earth System Sciences ; https://nhess.copernicus.org/articles/21/941/2021/
Kreienkamp F. et al., 2021 ; Heavy rainfall which led to severe flooding in Western Europe made more likely by climate change ; World Weather Attribution ; https://www.worldweatherattribution.org/…/Scientific…
6 Raport Oceny IPCC (2021-2022) https://www.ipcc.ch/assessment-report/ar6/

Nieuchronny wzrost poziomu morza

Wzrost stężenia gazów cieplarnianych, zwłaszcza dwutlenku węgla w atmosferze powoduje wzrost w niej temperatury, co z kolei ma wpływ na wzrost energii cieplnej w systemie klimatycznym naszej planety. To ocieplenie występuje od lat 70 również w oceanach. Już od początku XX wieku cofają się lodowce górskie, powoli topnieje lód morski w Arktyce oraz od lat 30 XX wieku topnieją pokrywy lodowe Grenlandii i Antarktydy, co też ma w końcu wpływ na podnoszenie się poziomu morza, które w całym XX wieku bardzo mocno przyspieszyło.

Fot.1. Wzrost poziomu morza (Internet)


Odkąd wykonuje się pomiary satelitarne, czyli od 1993 roku, wzrost poziomu morza według NASA GISS wynosi 98 (± 4,0) mm. A całościowy wzrost poziomu morza w okresie 1900-2018, również mierzony przez NASA, wyniósł ponad 200 mm.

Rys.1. Według satelitarnych pomiarów NASA GISS poziom morza wzrósł o ponad 9 cm od 1993 r. I przy tym tempie do końca stulecia nastąpiłby wzrost poziomu morza o ponad 30 cm (źródło: NASA Global Climate Change).


Rys.2. Według instrumentalnych i satelitarnych pomiarów NASA GISS wzrost poziomu morza w latach 1900-2018 (źródło: NASA Global Climate Change).


Robert Kopp z Uniwersytetu Rutgers z Wydziału Nauk Ziemi i Planetarnych, w swojej zespołowej pracy zwrócił uwagę, że nauka o poziomie morza wskazuje na dużą niepewność w prognozach przyszłego systemu klimatycznego. Wszystko w dużej mierze zależy od tego jakie scenariusze emisji gazów cieplarnianych obierze nasza cywilizacja 1.

Autorzy powyższej pracy zaznaczyli, że w długoterminowym oddziaływaniu wzrost temperatury globalnej spowoduje coraz szybszy wzrost poziomu morza z powodu topnienia lodu na Ziemi, zarówno pokryw lodowych Grenlandii i Antarktydy, jak i lodowców górskich oraz z powodu rozszerzalności termicznej, czyli rosnącej objętości coraz cieplejszych wód oceanicznych i morskich, i ze zmiany magazynowania wody na lądach.

Natomiast w krótkoterminowym oddziaływaniu zmienności klimatyczne, jak np. pływy czy sztormy już w tej chwili wywierają poważne szkody w przybrzeżnych ekosystemach oraz w infrastrukturze budowlanej oraz drogowej ludzi.

Ponadto autorzy napisali o przesuwaniu się masy między kriosferą, hydrosferą lądową i oceaniczną, które wywołuje efekty grawitacyjne i rotacyjne, które zmieniają wysokość powierzchni morza, a także deformują skorupę ziemską, wpływając na wysokość lądu. Są to tzw. efekty grawitacyjne, rotacyjne i deformacyjne (GRD – gravitational, rotational, and deformational) (np. Clark i Lingle, 1977 ; Mitrovica i in., 2011 ). Gdyż, ciągła reakcja płaszcza Ziemi na przeszłe zmiany obciążenia powoduje wzrost dodatkowych efektów GRD, znanych jako glacjalna korekta izostatyczna (GIA – Glacial Isostatic Adjustment); np. (Farrell i Clark 1976 ; Lambeck et al., 2014 ; Peltier et al., 2015).


Rys.3. (a) Czynniki wpływające na zmianę średniego globalnego poziomu morza (GMSL – Global Mean Sea Level) i regionalnego poziomu morza (RSL – Regional Sea Level). Pogrubione etykiety identyfikują proces, który napędza zmiany GMSL, z przybliżonym średnim wkładem w latach 1993-2017 (Mouginot i in., 2019 ; Rignot i in., 2019 ; WCRP Global Sea Level Budget Group, 2018 ; Zemp i in., 2019). Na podstawie Milne et al. (2009). (b) Różnica między medianą RSL a medianą projekcji GMSL w RCP 8.5 w 2100, na podstawie prognoz Robert Kopp i inni (2014).


Skoro z powodu ocieplenia klimatu topnienie lodu na Ziemi podnosi poziom morza, to naukowców intrygowało to kiedy dokładnie i w jakich obszarach planety przebiega on najszybciej.

Tą zagadkę udało się rozwiązać w 2019 roku niemieckiemu oceanografowi Sönke Dangendorfowi, który wraz ze swoim zespołem badawczym z Uniwersytetu w Siegen dokonał tak zwanej rekonstrukcji hybrydowej (HR – Hybrid Reconstruction) poszczególnych regionów oceanicznych na Ziemi 2.

To znaczy, naukowcy zastosowali dwie metody : probabilistyczną, w której dobrze da się uchwycić długoterminowe zmiany klimatu, ale słabo krótkoterminowe zmiany, jak np. takie zmienności klimatyczne jak ENSO (El Nino / La Nina) oraz empiryczną ortogonalną, w której na odwrót, dobrze da się uchwycić zmiany krótkoterminowe, a słabiej długoterminowe. Dzięki temu właśnie skompletowali zapis z pływomierzy (mareografów) od 1900 roku do dziś łącznie z pomiarami z altymetrów (wysokościomierzy) satelitarnych wykonywanymi od 1991 roku przez ESA (Europejską Agencję Kosmiczną) i od 1993 roku przez NASA (Narodową Amerykańską Agencję Kosmiczną).

Badacze zauważyli najważniejsze, że w latach 60 wzrost poziomu morza zaczął przyspieszać, co widać na poniżej przedstawionym wykresie.

Naukowcy z Uniwersytetu w Siegen analizując wzrost poziomu morza sprzed 60 lat zaobserwowali, że jest najwyższy na półkuli południowej na styku Oceanu Indyjskiego i Oceanu Spokojnego oraz w Oceanie Atlantyckim. Na 40-tym stopniu południowej szerokości geograficznej wieją bardzo silne Wiatry Zachodnie, tzw. „ryczące czterdziestki”, które silnie spychają ciepłą górną warstwę wody daleko na północ, po to by spowodować wypływ zimniejszej gęstszej wody z głębin oceanu. I właśnie ta zimna woda pochłania znacznie więcej ciepła, co skutkuje większą rozszerzalnością termiczną, czyli zwiększaniem się objętości wody morskiej. Wyniki badań wskazały w ciągu 70 lat intensyfikację Wiatrów Zachodnich o 15%, co poskutkowało wzrostem średniego globalnego poziomu morza do 40 mm.

Z kolei szacuje się, że termosteryczny wzrost poziomu morza odpowiada w przybliżeniu za jedną czwartą obserwowanego tempa globalnego wzrostu poziomu morza w latach 1961-2003, przyczyniając się do wzrostu 0,32 ± 0,12 mm w ciągu roku, dzięki ociepleniu wód do głębokości 700 m oraz 0,42 ± 0,12 mm w ciągu roku dzięki ociepleniu wód do głębokości 3000 m.


Rys.4. Wydajność rekonstrukcji hybrydowych (HR) w porównaniu do wysokościomierza satelitarnego i pływów

a) Korelacja między względnym poziomem morza skorygowanym przez glacjalną korektę izostatyczną (GIA – Glacial Isostatic Adjustment) wziętą z rekonstrukcji hybrydowych (HR) i z wysokościomierza satelitarnego w latach 1993-2015 (cieniowanie) oraz z HR i z pływomierzy (czarne kółka) w ich nakładających się okresach.

Korelacje obliczono na podstawie rocznych zmanipulowanych szeregów czasowych.

b) Średnie w skali basenu obliczone z rekonstrukcji hybrydowej (kolor niebieski) i wysokościomierza satelitarnego (kolor czerwony). Cienkie linie pokazują średnie miesięczne, podczas gdy grube linie oznaczają średnie roczne.

(Sönke Dangendorf i inni, 2019)


Referencje:

  1. Kopp R. E. et al., 2019 ; Usable Science for Managing the Risks of Sea-Level Rise ; Earth’s Future ; https://agupubs.onlinelibrary.wiley.com/doi/full/10.1029/2018EF001145
  2. Dangendorf S. et al., 2019 ; Persistent acceleration in global sea-level rise since the 1960s ; Nature Climate Change ; https://www.nature.com/articles/s41558-019-0531-8

 

Wpływ fal upałów na ptaki pustynne

Coraz częściej fale upałów mają bardzo ujemny wpływ na wiele gatunków zwierząt. Dotychczas przeprowadzono niewiele badań na ten temat. Jednak ten problem będzie coraz bardziej się nasilał z każdym wzrostem ułamka stopnia Celsjusza powyżej okresu przedprzemysłowego.

Bardzo często długotrwałym okresom fal upałów towarzyszą równie długotrwałe okresy suszy, które oddziałują na behawioryzm zwierząt oraz na ich reprodukcyjność, a także na przeżywalność.

Eric Riddell z Muzeum Zoologii Kręgowców na Uniwersytecie Kalifornijskim w Berkeley w swojej pracy zespołowej wskazał główną przyczynę drastycznego zmniejszenia się populacji ptaków na Pustyni Mojave – stres cieplny z powodu fal upałów 1.

Zbiorowiska ptaków na pustyni Mojave w ciągu ostatniego stulecia zredukowały się o 29% pośród 135 gatunków, które występowały 100 lat temu.

Najbardziej zagrożone z powodu fal upałów okazują się większe ptaki oraz te, które mają dietę owadzią lub zwierzęcą, gdyż mają większe zapotrzebowanie na wodę, której w warunkach pustynnych, w trakcie dalszego wzrostu średniej temperatury powierzchni Ziemi, będzie tylko ubywać.

Stres cieplny w szczególności pojawia się u ptaków, gdy musiały opuścić zacienione gniazda w celu poszukania partnerów lub pożywienia dla siebie lub dla swojego potomstwa.

Główny autor pracy, Eric Riddell, będący stypendystą podoktoranckim na Uniwersytecie Kalifornijskim w Berkeley, dla serwisu Science Daily powiedział 2:

Często myślimy, że zmiana klimatu może spowodować masową śmiertelność w przyszłości, ale to badanie mówi nam, że zmiana klimatu, która już nastąpiła, jest zbyt gorąca, a na niektórych obszarach zwierzęta nie tolerują ocieplenia i wysuszenia, które już się wydarzyło.

Z kolei starszy autor badania – Steven Beissinger, profesor nauk o środowisku, polityki i zarządzania na UC Berkeley, w tym samym serwisie stwierdził:

To jedno z pierwszych badań, które bezpośrednio wiążą wzrost wymagań fizjologicznych z cieplejszego i bardziej suchego klimatu ze zmianami zachodzącymi w bioróżnorodności.

Większość poprzednich badań nie wykazała bezpośredniego związku fizjologicznego między zmianą klimatu a zmianą bioróżnorodności, której zwykle pośredniczą zmiany w sieci pokarmowej lub konkurujących gatunkach. Nasze badanie wskazuje na bezpośredni wpływ zmiany klimatu poprzez zwiększone zapotrzebowanie na wodę do chłodzenia wyparnego by utrzymać temperaturę ciała w strefie komfortu.

Według analizy naukowców z Berkeley, ptaki owadożerne i drapieżne prawie nie piją wody, tylko ją pobierają z ciał zjadanych swoich ofiar. Większy wzrost temperatury jednak powoduje większe chłodzenie wyparne, a więc utratę wody z organizmów tychże ptaków, a to z kolei prowadzi do jeszcze większego wydatku energetycznego na polowania na owady oraz drobne kręgowce.


Fot. Pustynia Mojave (Fot. Secret World)


Swoje spadki populacyjne zaznaczyły drapieżne ptaki, jak: pustułka amerykańska (Falco sparverius), sokół preriowy (Falco mexicanus) i sępnik różogłowy (Cathartes aura) oraz owadożerne, jak: aeronauta białogardły (Aeronautes saxatalis), nadobniczka białoskrzydła (Tachycineta thalassina), piwik północny (Contopus cooperi), wojak żółtogardły (Sturnella neglecta) i błękitnik meksykański (Sialia mexicana).

Mniejsze owadożerne ptaki czy wszystkożerne oraz roślinożerne mają mniejszy wydatek energetyczny, gdyż mniej się nagrzewają i przez to mniej wydzielają też wody ze swoich ciał. Należą do nich: siwuszka ciemnobrewa (Polioptila caerulea), ogniczek (Corthylio calendula), sikora górska (Poecile gambeli), siwuszka czarnosterna (Polioptila melanura), wąsatek czarnogardły (Amphispiza bilineata), żółtoliczek (Auriparus flaviceps), skalik ostrodzioby (Catherpes mexicanus).

Jednak ptaki na diecie wegetariańskiej są zależne od picia wody powierzchniowej ze strumieni, stawów, rzek i jezior. W obszarach gdzie tychże wód powierzchniowych jest bardzo mało albo wysychają one z powodu nasilonego nasłonecznienia podczas długotrwałych fal upałów i susz albo też z powodu pompowania wód gruntowych przez ludzi, ptaki takie jak ziarnojady mocno cierpią i mają ogromny wydatek energetyczny na znalezienie takiej wody, co odbija się ujemnie na ich kondycji zdrowotnej, w tym też na ich sukcesie reprodukcyjnym.

Riddell w serwisie Science Daily powiedział:

Dla roślinożerców jest to bardziej binarne: to, czy gatunek przetrwał w danym miejscu w ciągu ostatnich 100 lat, czy nie, miało więcej wspólnego z obecnością lub brakiem wód powierzchniowych by móc się napić.

W przypadku owadożerców jest to bardziej zależne od stopnia ochłodzenia, determinowanego przez wielkość ciała i chłonność piór. Im większe zapotrzebowanie na wodę, tym większy spadek liczby gatunków. w którym zmiany klimatu objawiają się dla różnych członków ptasiej społeczności.


Rys. Niska trwałość w gorących, suchych miejscach sugeruje, że zapotrzebowanie na wodę leży u podstaw załamania się zbiorowisk ptaków.

  1. A) Trwałość ptaków w ciągu ostatniego stulecia była najniższa w najgorętszych, najbardziej suchych miejscach, przy braku wód powierzchniowych. Trwałość była umiarkowana w mniej gorących i suchych miejscach i nieznacznie spadła w chłodnych i wilgotnych miejscach, prawdopodobnie z powodu czynników niezwiązanych z kosztami chłodzenia.
  2. B) Prognozy dotyczące trwałości w obecności wód powierzchniowych wskazują, że trwałość była znacznie wyższa na obszarach z wyjątkiem gorących i suchych miejsc.

(Eric Riddell i inni, 2019)


Naukowcy zauważyli, że ptaki próbują sposobów na uniknięcie największy fal upałów, przenosząc się na północ lub w górę na zbocza górskie w celu znalezienia chłodniejszych siedlisk. A jeśli zostają w danym miejscu narażonym na ekstremalnie wysokie temperatury, to przesuwają swoje okresy lęgowe na wcześniejsze pory na początku lata.

Na podstawie dokładnych notatek na temat fauny pustynnej, sporządzonych na początku XX wieku przez Josepha Grinnella, przemierzającego samochodem dzikie tereny Kalifornii, Riddell ze swoimi współpracownikami zaobserwował 50-procentową redukcję różnorodności gatunkowej w miejscach na pustyni odwiedzonych sto lat temu przez Grinnella. Dzięki temu naukowcy też zauważyli, że ten spadek nastąpił dzięki coraz szybszemu ocieplaniu się klimatu oraz wysychaniu wielu mokradeł, zbiorników i cieków wodnych, niezbędnych do egzystencji dla zwierząt i roślin pustynnych, w tym wśród fauny dla ptaków pustynnych, które są szczególnie narażone na fale upałów.


Referencje:

  1. Riddell E. A. et al., 2019 ; Cooling requirements fueled the collapse of a desert bird community from climate change ; Proceedings of the National Academy of Sciences ; https://www.pnas.org/content/116/43/21609
  2. University of California – Berkeley, 2019 ; Collapse of desert bird populations likely due to heat stress from climate change ; Science Daily ; https://www.sciencedaily.com/releases/2019/09/190930161854.htm

Polarny prąd strumieniowy a wir polarny

Czy polarny prąd strumieniowy może mieć taki wpływ, że już na początku września czy pod koniec maja mogą pojawić się nie tylko przymrozki, ale i nawet krótkotrwałe opady śniegu na nizinach średnich szerokości?

Wszystko zależy od tego, jak daleko na niskie szerokości będą trafiać coraz częściej masy polarno-arktycznego powietrza. I na odwrót. Jak daleko na wysokie szerokości będą trafiać coraz częściej masy tropikalno-zwrotnikowego powietrza.

Szczególnie wzbudzają zainteresowanie wśród naukowców wiry polarne na obu biegunach. Zwłaszcza ten nad Arktyką, którego rozbicie wywołało w drugiej połowie zimy w 2018 i 2021 roku powstanie dość dużych fal zimna.

 


 

Rys.1. Ujemna i dodatnia faza oscylacji północnoatlantyckiej. Pierwsza przy wolno falującym polarnym prądzie strumieniowym, a druga przy szybko płynącym polarnym prądzie strumieniowym. (Źródło: Met Office)


Daniela Domeisen z Instytutu Nauk o Atmosferze i Klimatu w ETH w Zürichu (Szwajcaria) i Amy Butler z Narodowej Administracji Oceanicznej i Atmosferycznej (NOAA) z Laboratorium Nauk Chemicznych w Boulder (Kolorado w USA), powiedziały na podstawie swoich obserwacji symulacji modeli numerycznych, że pionowe fale planetarne rozchodzące się na granicy troposfery i stratosfery mogą doprowadzić do tzw. nagłego ocieplenia stratosferycznego (SSW – Sudden Stratospheric Warming), co z kolei może wywołać propagację fal lodowatego powietrza ze stratosfery w dół do troposfery i ku powierzchni Ziemi. Często ma ono związek z ujemną fazą oscylacji północnoatlantyckiej (NAO – North Atlantic Oscillation) 1.

Naukowczynie piszą, że ekstrema stratosferycznych wirów polarnych na półkuli północnej (NH – North Hemisphere), takie jak SSW w środku zimy lub silne wirowe zdarzenia, zwykle poprzedzają zmianę w kierunku anomalnie trwałych warunków pogodowych, trwającą nawet do 2 miesięcy. Gdy następuje zakończenie SSW , wówczas pojawiają zazwyczaj wybuchy zimnego powietrza w średnich szerokościach geograficznych, powiązane z ekstremalnie niskimi dziennymi minimalnymi i maksymalnymi temperaturami. W szczególności jest to bardzo dotkliwe w Europie Północnej i Azji, które mają wpływ na zdrowie ludzi i zwierząt.

Wybuchy zimnego powietrza występują również nad Północnym Atlantykiem i Oceanem  Arktycznym. Są to tzw. morskie ogniska zimnego powietrza (MCAO – Marine Cold Air Outbreaks) (rys.147.). Te zjawiska atmosferyczne są skorelowane z ekstremalnymi prędkościami przyziemnego wiatru (rys.147.), czasami związanymi ze zwiększonym ryzykiem tworzenia się specyficznych niżów polarnych (znanych również jako arktyczne huragany), które często zwiększają ryzyko narażenia infrastruktury morskiej i przybrzeżnej oraz żeglugi arktycznej.


Rys.2. Kompozyty SSW dla średnich i ekstremalnych wskaźników dobowej temperatury powierzchni.

Różnica pomiędzy kompozytem 30 dni następujących po 24 zaobserwowanych SSW a kompozytem n losowo dobranych 30-dniowych okresów od grudnia do kwietnia, powtórzonych 3000 razy, dla:

  1. dobowych anomalii średniej temperatury powierzchni
  2. najzimniejszych (w okresie 30 dni) minimalnych dziennych anomalii temperatury powierzchni
  3. najcieplejszych (w okresie 30 dni) maksymalnych dobowych anomalii temperatury powierzchni.

Dane dotyczące temperatury powierzchni i daty SSW są obliczane przy użyciu ponownej analizy tymczasowej ERA (1979–2016).

Stippling (punktowanie: technika graficzna) pokazuje, gdzie anomalie złożonych SSW różnią się istotnie (prawdopodobieństwo: p < 0,05, przy użyciu testu bootstrap z testem wymiany) od anomalii złożonych losowo dobranych.

(Danielle Domeisen i inni, 2020)


Rekordowo silny wir polarny na półkuli północnej (NH), który miał miejsce na początku 2020 roku był związany z serią kolejnych burz, które uderzyły w Wielką Brytanię i Europę Północną. Te ekstremalne zdarzenia pogodowe przyniosły z sobą rozległe zniszczenia oraz bezprecedensowe pojawienie się długotrwałego ciepła w Eurazji. Zdarzenia odbicia fal propagacyjnych wpłynęły na powstanie wybuchów zimnego powietrza nad środkową Kanadą.

Śnieżyce (sztormy śnieżne lub inaczej cyklony śnieżne) są przez ostatnie lata dość częste w północno-wschodniej części USA i na wschodnich wybrzeżach Labradoru we wschodniej Kanadzie, które stają się silniejsze im wolniej zaczyna meandrować polarny prąd strumieniowy. Nieco rzadziej, ale również występują one także w Europie. Np. Tak było zimą na przełomie lutego i marca 2018 roku. To właśnie wtedy zaobserwowano, że któregoś dnia temperatura w Warszawie była chłodniejsza niż na samym biegunie północnym. Do tego zdarzenia doszło po rozbiciu wiru polarnego na trzy części, gdy stratosferyczne zimno rozlało się z polarnych wysokich szerokości daleko na średnie niskie szerokości geograficzne w Ameryce Północnej, Europie i Azji  Na ten temat w serwisie Nauka o klimacie napisali Hubert Bułgajewski i Marcin Popkiewicz 2.

Naukowczynie wyżej wymienionej pracy mówią, że po zakończeniu SSW wraz z ujemną fazą NAO przeważnie występują miesiące wiosenne i letnie bardzo chłodne na średnich szerokościach oraz mocno wilgotne w obszarach podzwrotnikowych o klimacie śródziemnomorskim. Często ma to związek z wychyleniem toru burz daleko na południe z północnego Atlantyku w kierunku równika, co niejednokrotnie zwiększa prawdopodobieństwo występowania również uciążliwych powodzi w Europie południowej. Zmiana frontu polarnego w kierunku południowym prowadzi do powstawania okresów susz w północno-zachodniej części Skandynawii i na Wyspach Brytyjskich. Wówczas po drugiej stronie północnego Atlantyku we wschodniej części Kanady panuje anomalne ciepło. Również jest bardzo gorąco w subtropikach Afryki i Azji.


Rys.3. W dużej części Kanady i Stanów Zjednoczonych raz na rok lub co 2 lata występują bardzo niskie temperatury. Jest to spowodowane zapadnięciem się normalnie jednolitego wiru polarnego. Źródło: Kjeller Vindetknikk ,  Met Office.


Z kolei bez zdarzenia SSW normalnie płynący szybko wir polarny podczas dodatniej fazy NAO, przyczynia się często do występowania susz w południowej Europie, ponieważ tor burz wzdłuż frontu polarnego płynie prawidłowo na wysokości północnego Atlantyku przynosząc z sobą wilgotne i mokre miesiące w północnej Europie, w szczególności w Wielkiej Brytanii. Wówczas panuje rekordowe ciepło w Eurazji, a ekstremalne zimno pojawia się nad środkową Kanadą i środkowymi USA.

Wszystkie te zawirowania pogodowe mają związek z długofalową naturalną zmiennością, na którą nakładają się antropogeniczne zmiany klimatu. Coraz częstsza obecność wolno meandrującego polarnego prądu strumieniowego jest związana z nierównowagą konwekcyjno-radiacyjną, to znaczy z tym, że do układu ziemskiego wchodzi więcej energii niż z niego wychodzi w kosmos. Kiedy nastąpi kolejna równowaga konwekcyjno-radiacyjna, może to oznaczać, że polarny prąd strumieniowy może znowu przyspieszyć, ale już przy wyższej temperaturze globalnej.

Jednak dalsze emisje gazów cieplarnianych znowu sprawią, że nastąpi wzmocnienie arktyczne i gradient temperatur pomiędzy biegunem północnym a równikiem znowu mocno zwiększy się, co może oznaczać ponownie wzmocnienie ekstremalnych zjawisk pogodowych.


Referencje:

  1. Domeisen D. I. V. et al., 2020 ; Stratospheric drivers of extreme events at the Earth’s surface ; Communications Earth & Environment ; https://www.nature.com/articles/s43247-020-00060-z

2. Bułgajewski H., Popkiewicz M., 2018 ; W Warszawie zimniej niż na biegunie północnym ; Nauka o klimacie ; https://naukaoklimacie.pl/aktualnosci/w-warszawie-zimniej-niz-na-biegunie-polnocnym-277/

Oscylacje oceaniczne – El Niño / La Niña (ENSO)

ENSO (El Niño / Southern Oscillation), czyli oscylacja południowa – to naprzemienne występowanie ciepłych, dodatnich faz El Niño i chłodnych, ujemnych faz La Niña.


Rys.1. Anomalia temperatury powierzchni morza czyli jej odchylenie od średniej wieloletniej. Ilustracja dzięki uprzejmości NASA Earth Observatory.


Pierwszym naukowcem, który zdefiniował oscylację ENSO był brytyjski matematyk i meteorolog sir Gilbert Walker. Było to w latach 20 XX wieku. Również jako pierwszy odkrył oscylację północnoatlantycką oraz komórkę atmosferyczną na Pacyfiku i Oceanie Indyjskim nazwaną od jego nazwiska, odpowiedzialną za powstawanie monsunów w Indiach 1.

Walker zauważył również, gdy ciśnienie na Oceanie Spokojnym jest wysokie, zwykle jest niskie na Oceanie Indyjskim od Afryki po Australię; warunki te są związane z niskimi temperaturami na obu tych obszarach.

—-

Natomiast norweski meteorolog Jacob Bjerknes, jako pierwszy zauważył, że atmosfera równikowa jest mocno z nią sprzężona, i to, że maksymalne temperatury morza we wschodnim i środkowym równikowym Pacyfiku powstają w wyniku anomalnego osłabienia pasatów na półkuli południowej z jednoczesnym osłabieniem upwellingu równikowego u wybrzeży zachodnich Ameryki Południowej 2.

Bjerknes jako pierwszy też odkrył przeciwieństwo ciepłego El Niño, którym jest chłodna La Niña.

2011 rok z najsilniejszą La Niña był chłodniejszy od rekordowo ciepłego w XX wieku 1998 roku z drugim największym w historii pomiarów El Niño, to wtedy rekordowo ciepłe były głębiny oceanów. Podczas La Nina bardzo silnie wieją na tropikalnym Pacyfiku pasaty w kierunku od wybrzeży Ameryki Południowej ku Australii i Indonezji eksportując masy nagrzanego powietrza do oceanu i dalej w głębiny. Wzmaga się wtedy silnie upwelling, czyli wypływ z głębin ku powierzchni oceanu chłodniejszych wód dzięki czemu parowanie z niego do atmosfery jest słabsze i atmosfera na jakiś czas w skali planetarnej ochładza się.


Rys.2. El Niño (po lewej) i La Niña (po prawej). Górny panel: Efekty: grudzień – luty. Dolny panel: Efekty: czerwiec – sierpień sierpień (zdjęcie z serwisu Oceans and Climate).


Wprawdzie najsilniejsze w historii pomiarów El Niño było w latach 1982/1983, ale wtedy był jeszcze mniejszy przyrost temperatury globalnej niż we wspomnianych latach 1997/1998 czy też w latach 2015/2016. W tym ostatnim przypadku było ono jednym z najdłuższych najsilniejszych, odkąd je się mierzy.

—-

El Niño

Agus Santoso z ARC Centrum Badań Zmian Klimatu na Uniwersytecie Nowej Południowej Walii w Sydney, Michael McPhaden z Laboratorium Środowiska Morskiego Pacyfiku oraz Wenju Cai z Centrum Badań Oceanów Półkuli Południowej i CSIRO w dziale Oceany i Atmosfera, w pracy swojej stwierdzają, że chociaż El Niño 2015/2016 było najsilniejsze w XXI wieku, to i tak w historii badań było ono dopiero trzecie, po 1982/1983 i 1997/1998 Wystąpiło ono już w znacznie bardziej ocieplonym świecie zaznaczonym wieloma ekstremalnymi zjawiskami pogodowymi na miarę katastrof ekologicznych 3.

Autorzy w swojej pracy napisali:

Chociaż El Niño 2015/2016 różni się w charakterystyczny sposób od wydarzeń z lat 1982/1983 i 1997/1998, nadal można je uznać za pierwsze ekstremalne El Niño XXI wieku. Jego skrajność można przypisać po części niezwykle ciepłym warunkom w 2014 r. i długotrwałemu ociepleniu tła. W efekcie badanie to dostarcza listę fizycznie znaczących wskaźników, które można łatwo obliczyć w celu identyfikacji i śledzenia ekstremalnych zdarzeń ENSO w obserwacjach i modelach klimatycznych.

Jak czytamy w powyższym artykule, 2014 rok był rokiem bez El Niño, ale już najcieplejszym wówczas w historii pomiarów. Wzmocnienie El Niño tylko jeszcze bardziej zwiększyło ocieplenie Ziemi w dalszych latach 2015 i nadal rekordowym 2016.

Niniejszy artykuł przeglądowy omawia obecny pogląd na ENSO i jego skrajności w świetle charakterystyki El Niño 2015/2016, poprzez analizę różnych obserwowanych zmiennych, które charakteryzują procesy ENSO.

Naukowcy ocenili ekstremalne wydarzenia El Niño i La Niña, a następnie sporządzili listę fizycznych indeksów, najbardziej ekstremalnych cech ENSO, w celu ich obliczenia.


Rys.3. Klimatologia sezonowa tropikalnego Pacyfiku, pokazująca temperaturę powierzchni morza SST (Sea Surface Temeperature) (zacienienie kolorów), opady (kontury) i prędkości wiatru powierzchniowego (wektory) dla (a) wiosny borealnej (średnia z marca-maja; MAM), (b) lata (średnia z czerwca-sierpnia) , JJA), (c) jesień (średnia wrzesień-listopad, SON) oraz (d) zima (średnia grudzień-luty, DJF). Dane są oparte na ERSSTv5, opadach CMAP i wiatrach NCEP w latach 1979-2017 (Agus Santoso i inni, 2017).


Takie wskaźniki mogą być przydatne nie tylko dla społeczności naukowej i agencji prognozowania klimatu, ale także dla branż, takich jak ubezpieczenia (np. Khalil i in., 2007 ) i rolnictwo (np. Fraisse i in., 2008 ; Iizumi i in. , 2014), które rozważały już wdrożenie niektórych wskaźników w celu opracowania strategii zarządzania ryzykiem.

Autorzy pracy napisali:

Tropikalny Pacyfik zawiera podstawowe elementy geograficzne i fizyczne, które generują i wspierają istnienie ENSO, z których wszystkie ewoluowały w historii Ziemi (np. Lyle i in., 2008 ). W świecie bez mas lądowych nie byłoby cyklu ENSO, ponieważ nie ma południkowych granic, które mogą wspierać taki strefowy tryb zmienności (Marshall i in., 2007 ).

Zasadniczo ENSO istnieje dzięki temu, że na tropikalnym Pacyfiku występują pasaty wiejące w kierunku równikowym, które pod wpływem siły Coriolisa skręcają na zachód, akumulując ogromne ilości wody o temperaturze powyżej 28°C w kierunku kontynentu morskiego [rys.155.] (Yan i in., 1992), określany jako ciepły basen zachodniego Pacyfiku (WPWP – western Pacific warm pool). Ciepły basen napędza energiczną konwekcję wilgotnego powietrza, tworząc wznoszącą się gałąź cyrkulacji Walkera. Ten wielkoskalowy ruch masy powietrza opada nad suchym wschodnim równikowym Pacyfikiem, naznaczonym przez język chłodniejszych wód wznoszących się w górę, które rozciągają się na północny zachód od wybrzeży Ameryki Południowej z powodu pasatów.

Międzytropikalna strefa konwergencji (ITCZ – Intertropical Convergence Zone), pasmo opadów konwekcji atmosferycznej, znajduje się na północ od tego „zimnego języka”, rozciągając się na zachód w kierunku WPWP (Schneider et al., 2014 ). Inną ważną strefą konwekcyjną jest strefa konwergencji południowego Pacyfiku (SPCZ – Southern Pacific Convergence Zone), pasmo deszczu rozciągające się na południowy wschód od ciepłego basenu w kierunku Polinezji Francuskiej (Kiladis et al., 1989). W związku z tym układem klimatologicznym ciśnienie atmosferyczne na poziomie morza jest niższe w zachodnim tropikalnym Pacyfiku niż we wschodnim tropikalnym Pacyfiku.

Ogólnie, naukowcy w badaniach wykonali pomiary anomalii temperatur powierzchni morza, opadów deszczu, zawartości ciepła w górnym oceanie oraz ewolucji wiatrów strefowych.

—-

W coraz cieplejszym świecie ekstremalne zdarzenia El Niño będą coraz częstsze. Na ten temat już w ubiegłej dekadzie wypowiedzieli się naukowcy.

Praca zespołowa z 2014 roku, której głównym autorem jest Wenju Cai z Organizacji Badań Naukowych i Przemysłowych Wspólnoty Narodów (CSIRO – Commonwealth Scientific and Industrial Research Organisation), Instytutu Badań Morskich i Atmosferycznych w Aspendale, w stanie Wiktoria w Australii, mówi o tym, że takie ekstremalne zdarzenia El Niño, jak w latach 1997/98 i 1982/83 ulegną wręcz podwojeniu w przyszłym coraz cieplejszym świecie z temperaturą 1,5 stopnia Celsjusza powyżej okresu bazowego 1850-1900 4.

Są to typowe zmienności klimatu, które już oddziałują na wymuszenia antropogenicznych gazów cieplarnianych. Charakteryzują się one wyraźnym rozszerzeniem na wschód ciepłego basenu zachodniego Pacyfiku i rozwojem konwekcji atmosferycznej. Dlatego też występuje ogromny wzrost opadów na zazwyczaj zimnym i suchym równikowym wschodnim Pacyfiku.

Tak ogromna przebudowa planetarnej konwekcji atmosferycznej, w postaci ekstremalnego El Niño, powoduje bardzo poważnie zakłócone globalne wzorce pogodowe, które oddziałują ujemnie zarówno na ekosystemy, jak i na naszą gospodarkę. Np. rolnictwo, rybołówstwo. Te ekstremalne oscylacje oceaniczne również powodują nasilenie się cyklonów tropikalnych, susz, pożarów buszu, powodzi i innych ekstremalnych zjawisk pogodowych na całym świecie.

Wenju Cai w serwisie Carbon Brief powiedział 5:

Te ruchy powodują masową reorganizację cyrkulacji atmosfery, prowadząc do ekstremalnych warunków klimatycznych i pogodowych na całym świecie. Na przykład powodzie w Ekwadorze, Peru i południowo-zachodniej Ameryce, ale susze w Indonezji i innych krajach zachodniego Pacyfiku.

—-

Guojian Wang i Wenju Cai z Organizacji Badań Naukowych i Przemysłowych Wspólnoty Narodów (CSIRO – Commonwealth Scientific and Industrial Research Organisation) przedstawili wykres na poniższym rysunku, który pokazuje globalny wzrost temperatury (czarna linia; oś po lewej) oraz częstotliwość ekstremalnych zdarzeń El Niño (linia fioletowa; oś po prawej stronie) 6.


Rys.4. Wykresy pokazują liczbę ekstremalnych El Niños na 100 lat (linia fioletowa, oś po prawej stronie) wykreślone w stosunku do średniej globalnej temperatury (linia czarna, oś po lewej stronie, w stosunku do linii bazowej sprzed epoki przemysłowej z lat 1869-1899). Wykresy przedstawiają prognozy do końca XXI wieku (po lewej), a następnie do połowy 23 wieku (po prawej). Obszar zacieniony na zielono wskazuje średnią z 31 lat, ześrodkowaną na ociepleniu o 1,5°C; fioletowy zacieniony obszar wskazuje średnią 2050-2150. Źródło: (Guojian Wang i inni, 2017).


Do czasu, gdy ocieplenie nie osiągnie 1,5°C powyżej poziomu sprzed epoki przemysłowej (patrz zielony zacieniony pasek), ekstremalne El Niños będą występować mniej więcej raz na 10 lat. Jest to i tak wzrost o 130 % w stosunku do częstotliwości sprzed epoki przemysłowej.

Naukowcy, na podstawie symulacji 13 modeli w okresie 1869-2100, przedstawili dowody modelowania klimatu podwojenia liczby zdarzeń ekstremalnych El Niños w przyszłości w odpowiedzi na coraz bardziej postępujące ocieplenie atmosfery i oceanów. Oszacowali zmianę, agregując wyniki z modeli klimatycznych, zarówno w fazie 3 (CMIP3 – IV Raport Oceny IPCC 2007), jak i 5 (CMIP5 – V Raport Oceny IPCC), z wielomodelowych baz danych oraz zespołu zaburzonej fizyki.

Zwiększona częstotliwość wynika z przewidywanego ocieplenia powierzchni nad wschodnim równikowym Pacyfikiem, które zachodzi szybciej niż w sąsiednich otaczających wodach oceanicznych,  a to sprzyja rozwojowi większej liczby wystąpień konwekcji atmosferycznej we wschodnim regionie równikowym.

—-

Autorzy w zespole francusko-amerykańskim, Janeet Sanabria i David Labat z wydziału Geonauk Środowiska na Uniwersytecie w Tuluzie oraz Carlos M. Carillo z wydziału Nauk o Ziemi i Atmosferze na Uniwersytecie im. Cornella w Nowym Jorku, w swojej pracy zamieścili następującą wypowiedź 7:

Korzystając z pionowo zintegrowanej pary wodnej i jej konwergencji, związanej z regionalną cyrkulacją atmosferyczną na dużą skalę, odkryliśmy dwa wzorce opadów na wschodnim Pacyfiku (EP – Eastern Pacific) i w tropikalnych Andach – ze szczególnym uwzględnieniem Ekwadoru i północnego Peru – podczas trzech niedawnych zdarzeń El Niño: 1983, 1998 i 2016.

Chociaż te trzy zdarzenia były najsilniejszymi El Niños, różne źródła wilgoci przyczyniły się do różnych wzorców opadów między El Niños w latach: 1983, 1998 a 2016. W regionie rozkład przestrzenny opadów podczas El Niño z 2016 roku przedstawia bezprecedensową reakcję atmosferyczną poza fazą, spójną i zweryfikowaną z transportem pary wodnej w porównaniu z El Niños z lat 1983 i 1998. Podczas El Niño z 2016 roku opady w Andach zostały wzmocnione przez wilgotne powietrze transportowane z Amazonii – z odwrotnym reżimem w porównaniu z jego osiadaniem, które dominowało w latach 1983 i 1998. Podczas El Niños w latach 1983 i 1998, źródło wilgoci zasilającej Wschodni Pacyfik zostało wzmocnione przez dywergencję wyższego poziomu ciśnienia (300 hPa), które wspomogło napływ wilgoci do średnich poziomów na wschodnim Pacyfiku. W El Niño 2016 ten rozbieżny przepływ górnego poziomu wilgoci migrował na północ. Badanie to ilustruje związek między cyrkulacją na wyższym poziomie na dużą skalę a regionalnymi mechanizmami niskiego poziomu transportu wilgoci w określaniu różnych wzorców opadów podczas wydarzeń El Niño.

Gdy mamy rok z bardzo silnym El Niño, przynosi ono z sobą ekstremalne opady deszczu na naturalnie suchych wybrzeżach Ameryki Południowej w Peru i w Ekwadorze oraz niebezpieczne lawiny błotne w Andach. Również następuje wtedy znaczne osłabienie upwelllingu powodujące drastyczny spadek w rybołówstwie oraz także zakłócenia w rytmach biologicznych gatunków morskich i nadmorskich.


Rys.5. Kompozyty od stycznia do kwietnia (JFMA – January, February, March, April) anomalii temperatury powierzchni morza (° C) nad tropikalnym Pacyfikiem podczas trzech silnych zdarzeń El Niños ( a ) 1982/1983, ( b ) 1997/1998 i ( c ) 2015/2016 . Te anomalie pochodzą ze zbioru danych Met Office HadISST z lat 1950–2016 (Janeet Sanabria i inni, 2019).


—-

Z kolei Hege-Beate Fredriksen z Wydziału Fizyki i Technologii na Arktycznym Uniwersytecie Norwegii w Tromsø UiT) i jej współpracownicy opisali badania wpływu ocieplenia klimatu na region Niño 3.4, w których wykorzystali najnowszej generacji zestaw modeli CMIP6. Modele te mają już zastosowanie w pracach naukowych wykorzystanych w obecnym VI Raporcie IPCC 8.

Naukowcy zasugerowali, że w wielu pracach zbadano reakcję ENSO na globalne ocieplenie w poprzednich generacjach modeli klimatycznych, ale nie ma jasnego konsensusu co do tego, jak ENSO zmieni się w warunkach globalnego ocieplenia.

Poprzednie analizy z modeli CMIP5 wykazywały zmiany w cyrkulacji oceanicznej Walkera oraz w samej temperaturze powierzchni morza (SST), ale jednak nie miało to przełożenia na zmiany amplitudy ENSO mierzonej poszczególnymi wskaźnikami – w tym Niño 3.4 – będącymi średnimi anomalii SST w stałych lokalizacjach.

Naukowcy stwierdzili, że nastąpił wzrost amplitudy ENSO pod wpływem, zarówno zwiększonej średniej temperatury globalnej Ziemi, jak i pod względem stratyfikacji oceanów, w których w powierzchniowej warstwie występuje często najcieplejsza woda. Dlatego też przyjrzeli się w swoim badaniu związkowi pomiędzy zmianami amplitudy ENSO a zmianami  średniego gradientu strefowego temperatury powierzchni morza (SST).

ENSO to jest przede wszystkim tropikalny proces sprzężony z oceanem i atmosferą, który ma globalny wpływ poprzez telekoneksyjne połączenia atmosferyczne i oceaniczne.

Dużą rolę odgrywają zmiany telekoneksji atmosferycznych i oceanicznych oddziałujących na ENSO.

Naukowcy w swojej pracy napisali:

Diagnostyka telekoneksji zastosowana w tym badaniu jest zgodna z diagnostyką Stevensona i in. ( 2012). Kompozyty El Niño i La Niña dla średniego zestawu CMIP6 są obliczane dla anomalii ciśnienia na poziomie morza (SLP – Sea Level Pressure).

Zmiany w telekoneksjach są następnie oceniane przez porównanie dla scenariusza wysokich emisji SSP5-8.5. Zmiany w przyszłym klimacie w całym zestawie modeli CMIP6 pokazane są czarnymi konturami na rysunku 158 poniżej.

Naukowcy zaobserwowali wyraźne zmiany w rejonie wysp aleuckich na półkuli północnej i w rejonie Oceanu Południowego. Co ciekawe, telekoneksje atmosferyczne wykazują słabszy sygnał w scenariuszu SSP5-8.5 w porównaniu z symulacjami modelu piControl. Zostało to zbadane w poprzednich wersjach podobnych modeli klimatycznych i częściowo zostało to przypisane wzrostowi statycznej stabilności atmosfery w cieplejszym klimacie (Ma et al.,  2012 ; Stevenson et al.,  2012).


Rys.6. Wzór telekoneksji ENSO dla zimowych miesięcy: grudzień, styczeń, luty (DJF – December, January, February) pokazany jako średnie anomalie ciśnienia nad poziomem morza (SLP – Sea Level Pressure) w modelach piControl (kolory) dla (a) El Niño i (b) La Niña oraz odpowiadające im zmiany średnich anomalii SLP dla przyszłego scenariusza wysokich emisji SSP5-8.5 (czarne kontury). (c) El Niño i (d) La Niña – ich rozrzut anomalii SLP w modelu piControl (kolory) i zmiana dla przyszłego scenariusza SSP5-8.5 (czarne kontury), mierzone przez odchylenie standardowe (SD – Standard Deviaton).(Hege Beate Fredriksen i inni, 2020).


Pasaty podczas El Niño na środkowym tropikalnym Pacyfiku słabną coraz częściej w tak zwanym regionie Niño 3.4 i zawracają, zakłócając upwelling u wybrzeży zachodnich Ameryki Południowej. Nagrzana wówczas powierzchnia Pacyfiku mocno paruje ocieplając silnie atmosferę i podnosząc znacząco jej globalną temperaturę.


Rys.7. Regiony Niño: Niño 1+2, Niño 3, Niño 4 i Niño 3.4 (NCDC/NOAA.GOV)


——

La Niña

La Niña z kolei jest wzmocnieniem neutralnej fazy i często przynosi z sobą znacznie silniejsze pasaty wiejące ze wschodniego Pacyfiku na zachodni oraz nadmierne opady deszczu i powodzie w Australii i w archipelagu indonezyjskim, przynosząc z sobą również straty ekonomiczne, zarówno w ekosystemach, jak i w infrastrukturze miast i wsi.

Wenju Cai za pomocą symulacji modelu CMIP5 oszacował, że nastąpił przyrost ekstremalnych zdarzeń La Niña z jednego na 23 lata do jednego na 13 lat. A dzieje się tak dlatego, ponieważ przewidywane jest szybsze średnie ocieplenie kontynentu morskiego niż środkowego Pacyfiku. Następnie przewidywane są zwiększone pionowe gradienty temperatury w górnej części oceanu i zwiększona częstotliwość ekstremalnych zjawisk El Niño sprzyjają rozwojowi ekstremalnych zdarzeń La Niña 9.

Naukowcy piszą, że w latach 1998–1999 ekstremalne wydarzenie La Niña, które nastąpiło po ekstremalnym El Niño w latach 1997–1998, wpłynęło na zamianę ekstremalnych susz wywołanych przez El Niño w niszczycielskie powodzie w krajach zachodniego Pacyfiku i w południowo-zachodnich Stanach Zjednoczonych. Co też miało taki wpływ, że podczas ekstremalnych wydarzeń La Niña na środkowym Pacyfiku zaczęły rozwijać się zimne warunki powierzchniowe, dzięki którym zaczął powstawać zwiększony gradient temperatury od strony kontynentu morskiego w kierunku środkowego Pacyfiku.


Rys.8. Różnica temperatur powierzchni morza (SST) między słabym (górnym) a ekstremalnym (dolnym) zdarzeniem La Niña. (Wenju Cai i inni, 2015).

 

Na podstawie modeli CMIP5, naukowcy przedstawili dowody podczas modelowania klimatu i ekstrapolacji w przyszłość, że zwiększona częstotliwość takich ekstremalnych wydarzeń La Niña będzie miała miejsce w coraz cieplejszym świecie.

W sumie jednak przyszłość oscylacji La Niña jest jednak trudna do dokładniejszej analizy. Nie można też tego wykluczyć, że będą nasilone. Tego do końca tak dokładnie jeszcze nie wiemy.


Referencje:

  1. Walker G. et al., 1926 ; Correlation in seasonal variations of weather, IX. A further study of world weather ; Monthly Weather Review, Volume 53: Issue 6 ; https://journals.ametsoc.org/view/journals/mwre/53/6/1520-0493_1925_53_252_cisvow_2_0_co_2.xml
  2. Bjerknes J., 1969 ; Atmospheric teleconnections from the equatorial Pacific ; Monthly Weather Review, Volume 97: Issue 3 ; https://journals.ametsoc.org/view/journals/mwre/97/3/1520-0493_1969_097_0163_atftep_2_3_co_2.xml
  3. Santoso A. et al., 2017 ; The Defining Characteristics of ENSO Extremes and the Strong 2015/2016 El Niño ; Reviews of Geophysics ; https://agupubs.onlinelibrary.wiley.com/doi/10.1002/2017RG000560
  4. Cai W. et al., 2014 ; Increasing frequency of extreme El Niño events due to greenhouse Warming ; Nature Climate Change ; https://www.nature.com/articles/nclimate2100
  5. McSweeney R., 2017 ; „‘Extreme’ El Niños to double in frequency under 1.5C of warming, study says” ; Carbon Brief ; https://www.carbonbrief.org/extreme-el-ninos-double-frequency-under-one-point-five-celsius-warming-study
  6. Wang G. et al., 2017 ; Continued increase of extreme El Niño frequency long after 1.5 °C warming stabilization ; Nature Climate Change ; https://www.researchgate.net/publication/318667786_Continued_increase_of_extreme_El_Nino_frequency_long_after_15_C_warming_stabilization
  7. Sanabria J. et al., 2019 ; Unprecedented Rainfall and Moisture Patterns during El Niño 2016 in the Eastern Pacific and Tropical Andes: Northern Perú and Ecuador ; Atmosphere ; https://www.researchgate.net/publication/337736082_Unprecedented_Rainfall_and_Moisture_Patterns_during_El_Nino_2016_in_the_Eastern_Pacific_and_Tropical_Andes_Northern_Peru_and_Ecuador
  8. Fredriksen H. B. et al., 2020 ; How Does El Niño–Southern Oscillation Change Under Global Warming—A First Look at CMIP6 ; Geophysical Research Letters ; https://agupubs.onlinelibrary.wiley.com/doi/full/10.1029/2020GL090640
  9. Cai W. et al., 2015 ; Increased frequency of extreme La Niña events under greenhouse Warming ; Nature Climate Change ; https://www.researchgate.net/publication/273287307_Increased_frequency_of_extreme_La_Nina_events_under_greenhouse_warming