Tropikalny cyklon – huragan Sandy, który dotarł do Nowego Jorku

To największe wydarzenie katastrofalne, gdzie niszczycielski tropikalny cyklon Sandy w 2012 r. dotarł do umiarkowanych szerokości geograficznych. Ogółem w ośmiu krajach, od Karaibów po Kanadę, zabił on 233 osoby.

Obszar Nowej Anglii wraz z metropolią Nowym Jorkiem leży nad strefą wód atlantyckich, gdzie nie tylko są częste pływy i fale sztormowe, ale i również najszybciej na świecie wzrasta poziom morza, głównie dzięki rozszerzalności termicznej, ale i też dzięki gwałtownemu topnieniu pokrywy lodowej Grenlandii i spływom lodu do północnego Atlantyku. To obszar wyjątkowy pod tym względem, że spowalniany Prąd Zatokowy, którego wody schładzane na południe od Grenlandii, coraz słabiej zatapiają się w obiegu globalnej cyrkulacji termohalinowej, a w mniejszej skali w tak zwanej atlantyckiej południkowej cyrkulacji wymiennej (AMOC). Właśnie to zjawisko powoduje szybko rosnące ocieplanie się wód przybrzeżnych Nowej Anglii, w tym miasta portowego Nowy Jork.


Andra J. Reed i Michael E. Mann z Zakładu Meteorologii z Uniwersytetu Stanowego Pensylwanii, wraz ze swoim zespołem naukowym, położyli nacisk na zbadanie powodzi w Nowym Jorku pod wpływem wezbrań sztormowych nawiedzanych przez huragany wielkości Sandy, zarówno w okresie przedantropogenicznym (850-1800), jak i antropogenicznym (1970-2005) 1.

W pierwszym przypadku naukowcy wykonali pomiary pośrednie z zakresu paleoklimatologii, takie jak np. rekonstrukcje względnego poziomu morza przy użyciu objętościowych izotopów węgla δ 13C w rdzeniach datowanych osadów słonych bagien i otwornicach (organizmach jednokomórkowych z królestwa Protista, modelowych do datowania czasu), zbadanych na dwóch stanowiskach w regionach Nowego Jorku i New Jersey.

W drugim przypadku naukowcy wykorzystali miesięczne średnie zmienne stanu termodynamicznego, w tym temperaturę powierzchni morza oraz pionowe profile temperatury i wilgotności, a także średnie dobowe wartości interpolowanych wiatrów, porównując oba okresy, antropogeniczny i przedantropogeniczny, za pomocą zestawu porównywania połączonych modeli klimatycznych w fazie 5 (CMIP5 – Coupled Model Intercomparison Project Phase 5) oraz nieco mniej znanych modeli: modelu systemu ziemskiego Instytutu Maxa Plancka (MPI – Max Planck Institute), sprzężonego modelu systemu klimatycznego w wersji 4 (CCSM4 – Coupled Climatic System Model) i modelu systemu ziemskiego Instytutu Pierre’a Simona Laplace’a (IPSL – Institute Pierre Simon Laplace), służących do obliczania miesięcznych wartości pól wiatru. Ponadto zastosowali pod względem analizy hydrodynamicznej modelu zaawansowanej cyrkulacji (ADCIRC – Advanced Circulation) wyspecjalizowany do symulacji fal sztormowych i tworzenia prognoz dla różnych regionów przybrzeżnych.

Naukowcy odkryli, że od 850 do 2005 roku wzrost częstości powodzi występował i dalej występuje w regionie miasta Nowy Jork oraz New Jersey, głównie z powodu wzrostu względnego poziomu morza (RSLR – Relative Sea Level Rise). Średnia wysokość powodzi wzrosła w ciągu 1155 lat o około       1,24 metra. Pomimo tego, że w samym okresie antropogenicznym (1970-2005) częstość powodzi zaczęła występować także z powodu wezbrań fal sztormowych i zwiększenia się intensywności i wielkości huraganów.

Wskaźnik RSLR w regionie nowojorskim jest wyższy niż średnia globalna morza (SLR – Sea Level Rise) ze względu na wkład procesów o skali regionalnej, takich między innymi jak zmiana glacjalno-izostatyczna (GIA – Glacial Isostatic Adjustment).


Rys.1. Rekonstrukcja względnego wzrostu poziomu morza w południowym New Jersey. Niebieskie punkty danych i linia przerywana pokazują erę przedantropogeniczną, podczas gdy czerwone punkty danych i różowa linia przerywana pokazują erę antropogeniczną. Źródło: (Andra Reed i inni, 2015).


Niezależnie od niepewności co do częstotliwości, wielkości lub ścieżek przyszłych cyklonów tropikalnych (TC), ryzyko zalania wybrzeża dla tego regionu będzie wzrastać wraz ze wzrostem prędkości RSLR.

Główna autorka, Andra J. Reed z Uniwersytetu Stanowego Pensylwanii, wyjaśniła dla Carbon Brief 2:

Zdarzenie Sandy zwróciło uwagę, że podatność Nowego Jorku na powodzie spowodowane falami sztormowymi i podnoszeniem się poziomu morza przybiera coraz bardziej na sile w miarę dalszego ocieplania się klimatu.

Badania pokazały, że duża część szkód spowodowanych przez huragan Sandy była wynikiem 3-4-metrowej fali sztormowej, którą on spowodował.

Redaktor naukowy Robert McSweeney w Carbon Brief napisał na temat tego czym jest i jak powstaje fala sztormowa:

Kiedy nad morzem znajduje się system pogody sztormowej, jego niskociśnieniowy ośrodek podciąga powierzchnię wody. Następnie, gdy sztorm wieje na ląd, wiatr pcha morze w kierunku wybrzeża, tworząc jeszcze wyższy poziom morza i uderzając w linię brzegową dużymi falami. Tak wygląda fala sztormowa. Wysokość, jaką może osiągnąć fala sztormowa, zależy od poziomu morza, pływów i skali cyklonu tropikalnego. Tak więc wraz ze wzrostem poziomu mórz fala sztormowa ma większe szanse na przełamanie przybrzeżnych zabezpieczeń przeciwpowodziowych. Podobnie, jeśli cyklony tropikalne staną się częstsze, bardziej intensywne lub trwalsze, przypływy sztormowe mogą również osiągnąć nowy poziom.

Naukowcy zaobserwowali w prawie wszystkich swoich modelach występowanie najsilniejszych typów cyklonów tropikalnych (kategorie 3, 4 i 5) w erze antropogenicznej, a to oznaczało, że duże fale sztormowe pojawiają się najczęściej co najmniej od 1970 roku. Obliczyli, że przed antropogenicznymi zmianami klimatu, powódź o wysokości 2,25 m występowała raz na 500 lat, a obecnie oczekuje się, że będzie nasilać się co 24 lata. Reed ujmuje to w inny sposób na łamach serwisu Carbon Brief:

Powódź o takiej sile, jakiej człowiek mógł nigdy nie widzieć w erze przedantropogenicznej, staje się wydarzeniem, które człowiek może teraz widzieć kilka razy w ciągu swojego życia w obecnym klimacie.

Jeszcze jedną bardzo interesującą rzeczą jest to, że naukowcy zidentyfikowali dwa rodzaje cyklonów tropikalnych, które zazwyczaj uderzają w Nowy Jork. I przy okazji odkryli, że oba stają się coraz silniejsze.

Pierwszy typ cyklonu ma stosunkowo małą prędkość wiatru, ale za to bardzo duży promień. Reed powiedziała, że huragan Sandy był właśnie przykładem tego typu cyklonu. Jak wynika z badań, burze te stają się jeszcze większe w erze antropogenicznej.

Natomiast drugi typ cyklonu jest w postaci mniejszej burzy, ale już ze znacznie większymi prędkościami wiatru. A te prędkości robią się coraz większe, ponieważ ludzie mają wpływ na ocieplanie się klimatu.

Reed powiedziała na koniec w tym samym serwisie:

Wierzymy, że to, co widzimy w naszych wynikach, to najprawdopodobniej wzrost ekstremów dwóch różnych rodzajów burz w epoce antropogenicznej – wzrost wielkości większych burz, które niekoniecznie są intensywne, a także wzrost siły intensywnych burz, które niekoniecznie muszą być bardzo duże. 

Reed ostrzegła, że oba rodzaje burz są w stanie wywołać jeszcze znacznie większe fale sztormowe.

—-

W całym Nowym Jorku huragan Sandy spowodował śmierć 43 osób, uszkodził lub zniszczył setki tysięcy domów, zakładów pracy oraz pozostawił miliony ludzi bez prądu. Znaczna część zniszczeń była wynikiem fali sztormowej spowodowanej przez huragan. W mieście połączony wpływ fali sztormowej i przypływu podczas wystąpienia huraganu Sandy przyczynił się do tego, że poziom morza osiągnął rekordową wysokość 3,44 metra. Fala zalała rzekę East River, która z kolei wylała się przynosząc powódź w Dolnym Manhatanie. Zalane wtedy zostało siedem głównych tuneli metra.

Profesor Ning Lin, z Wydziału Inżynierii Lądowej i Środowiska na Uniwersytecie w Princeton, powiedział o tym, że do końca XXI wieku prawdopodobieństwo powtórzenia podobnych powodzi jak podczas huraganu Sandy, może być 17-krotne 3.

W swoich badaniach naukowcy zastosowali cztery modele ogólnej cyrkulacji (GCM – General Circulation Model)

  1. CNRM-CM3 (Centre National de Recherches Météorologiques, Météo-France)
  2. ECHAM5 (Instytut Maxa Plancka)
  3. GFDL-CM2 .0 (Laboratorium Geofizycznej Dynamiki Płynów NOAA)
  4. 2 (Centrum Badań nad Systemem Klimatycznym/National Institute for Environmental Studies/Frontier Research Center for Global Change, Japonia)

Ponadto zespół Lina do analizy fal sztormowych zastosował statystyczny deterministyczny model huraganu i model hydrodynamiczny o wysokiej rozdzielczości. Również ustalił klimatologię pływów i fal morskich dla globalnego modelu klimatu (GCM) z lat 1981-2000 i prognozowanego klimatu z 2081-2100 (w ramach scenariusza emisji A1B Międzyrządowego Raportu Specjalnego Zespołu ds. Zmian Klimatu w sprawie scenariuszy emisji), na podstawie reanalizy Krajowego Centrum Prognozowania Środowiska (NCEP – National Centers for Environmental Prediction).

W sumie naukowcy oszacowali w przeszłym, obecnym i przyszłym klimacie symulacje prawdopodobieństwa wystąpienia powodzi w Nowym Jorku podczas pojawienia się podobnego huraganu jak Sandy. Model GCM połączył dane historyczne i prognozy dotyczące wzrostu poziomu morza z szacunkami dotyczącymi zmiany częstotliwości i wielkości burz tropikalnych, takich jak huragan Sandy.

Praca zespołowa profesora Lina mówi jeszcze o tym, że wysokość jaką może osiągnąć fala sztormowa, zależy od trzech głównych czynników:

  1. a) względnego wzrostu poziomu morza
  2. b) wielkości i intensywności sztormu
  3. c) naturalnych wahań pływów.

Dodatkowo, badanie podkreśla, że częstość i intensywność fal sztormowych częściowo wynika z powodu globalnego wzrostu poziomu morza wynoszącego około 13-18 cm, ale przede wszystkim z przyczyny zmiany glacjalno-izostatycznej (GIA – Glacial Isostatic Adjustment), czyli roztapiania się lodowców i lądolodów, co przyczyniło się do podniesienia poziomu morza o około 26-30 cm.

Naukowcy przewidują, że w przyszłości częstotliwość powodzi podobnych do Sandy prawdopodobnie wzrośnie „jeszcze bardziej gwałtownie” niż w przeszłości. W swoim artykule napisali:

W scenariuszu umiarkowanych emisji podnoszący się poziom mórz i zmieniające się burze tropikalne oznaczają, że powodzie podobne do zdarzeń podczas huraganów wielkości Sandy, mogą do końca stulecia występować od trzech do 17 razy częściej niż obecnie.

Oznaczać będzie to, że mieszkańcy Nowego Jorku mogą spodziewać się tego typu powodzi z wysokimi falami sztormowymi nawet co 23 lata. Oczywiście przy najnowszych wyższych scenariuszach emisji (patrz: VI Raport Oceny IPCC) pomiędzy SSP3-7.0 a SSP5-8.5, tego typu zdarzenia będą znacznie częściej pojawiać się.


Fot.1. Widok satelitarny huraganu Sandy w dniu 29 października 2012 r. Źródło : Projekt NOAA/NASA GOES.


Patrząc w przyszłość, główny autor, profesor Lin stwierdził, że w modelach klimatycznych nadal nie ma pewności, jak zmienią się burze tropikalne. Ale to nie znaczy, że ryzyko nie powinno być brane pod uwagę. Dla Carbon Brief tak powiedział 4:

Niektóre modele pokazują, że aktywność burzowa wzrośnie i – w oparciu o te modele – nie należy lekceważyć zmiany aktywności burzowej, ponieważ znacząco przyczyniłaby się ona do wzrostu poziomu morza.

Prognozy wzrostu poziomu mórz są znacznie bardziej pewne, i to właśnie odgrywa największą rolę w rosnącym ryzyku powodziowym. Nawet jeśli burze tropikalne nie staną się bardziej intensywne ani częstsze, oczekuje się, że częstotliwość występowania powodzi podobnych do Sandy wzrośnie z jednego razu na 400 lat w roku 2000 do jednego razu na 90 lat w roku 2100.


Rys.2. Szacowany przeszły i przewidywany w przyszłości względny wzrost poziomu morza w Battery w stanie Nowy Jork. Wykres przedstawia rekonstrukcje dawnego poziomu morza (czerwone prostokąty), obserwowane zmiany (zielona linia), średnią prognoz modelu klimatu dla przyszłego poziomu morza (czarna linia) zgodnie z RCP4.5 oraz zakres wyników modelu (obszar zacieniony). Względna zmiana poziomu morza uwzględnia wahania poziomu powierzchni lądu. Źródło: (Ning Lin i inni, 2016).


Referencje:

  1. Reed A. J. et al., 2015 ; Increased threat of tropical cyclones and coastal flooding to New York City during the anthropogenic era ; Proceedings of the National Academy of Sciences ; https://www.pnas.org/content/112/41/12610
  2. McSweeney R., 2015 ; Climate change is raising the risk of coastal floods in New York City, study finds ; Carbon Brief ; https://www.carbonbrief.org/climate-change-is-raising-the-risk-of-coastal-floods-in-new-york-city-study-finds
  3. Lin N. et al., 2016 ; Hurricane Sandy’s flood frequency increasing from year 1800 to 2100 ; Proceedings of the National Academy Sciences ; https://www.pnas.org/content/113/43/12071
  4. McSweeney R., 2016 ; Hurricane Sandy-sized floods up to 17 times more likely by 2100 ; Carbon Brief ; https://www.carbonbrief.org/hurricane-sandy-size-floods-up-to-17-times-more-likely-by-2100

Sprzężenia zwrotne

Gdy działają wymuszenia radiacyjne musi być na nie odpowiedź w postaci sprzężeń zwrotnych. Pierwsze działają w pewnym sensie niezależnie od systemu planetarnego, np. podnosząc lub obniżając temperaturę planety jaką jest Ziemia, a drugie już tylko wzmacniają lub osłabiają oddziaływanie tych pierwszych, np. w postaci zwiększenia lub zmniejszenia zawartości pary wodnej w atmosferze czy też wzmocnienia lub osłabienia efektu albedo lodu i śniegu czy też wzmocnienia albedo promieniowania słonecznego przez chmury niskie lub zwiększenia efektu cieplarnianego przez pochłanianie gazów cieplarnianych przez chmury wysokie.


Rys.1. Sprzężenia zwrotne


Pierre Friedlingstein, ze Szkoły Inżynierii, Matematyki i Nauk Fizycznych na Uniwersytecie w Exeter (Wielka Brytania) i z Laboratorium Meteorologii Dynamicznej w Instytucie Pierre’a Simona Laplace’a w Paryżu, zauważa, że obserwacje zawsze wskazują na dodatnie sprzężenie zwrotne, czyli ocieplenie prowadzące do uwolnienia węgla do atmosfery. Jednak procesy, które mają miejsce, różnią się w zależności od ram czasowych. Najnowocześniejsze modele systemu ziemskiego reprezentują teraz te sprzężenia zwrotne cyklu klimatyczno-węglowego, zawsze symulując pozytywne sprzężenie zwrotne w dwudziestym i dwudziestym pierwszym wieku, choć z dużą niepewnością 1.

Zdaniem naukowca cykl klimatyczny i węglowy są ze sobą ściśle powiązane w wielu skalach czasowych, od rocznych po wielotysiącletnie.

Dalej Friedlinstein wskazuje na ważne badanie z 1989 roku na temat sprzężeń zwrotnych cyklu klimatyczno-węglowego, zaprezentowane przez Dana A. Lashofa z World Resources Institute, w którym naukowiec ten zidentyfikował kilka biogeochemicznych sprzężeń zwrotnych, obejmujących reakcję biosfery i geosfery w ekosystemach lądowych i oceanicznych, przed 2015 r. nieuwzględnionych w modelach klimatycznych, w tym zapewne w V Raporcie Oceny IPCC 2.

Globalny budżet węglowy w okresie historycznym (1750–2011) według 5 Raportu Oceny IPCC (w gigatonach węgla – GtC) (Rys.10.):

Czynniki antropogeniczne

Żródła węgla:

  1. Emisje z paliw kopalnych – 375±30 GtC
  2. Zmiana użtkowania gruntów netto – 180±80 GtC

Czynniki naturalne

Pochłaniacze węgla:

  1. Oceaniczne pochłanianie – −155±30 GtC
  2. Lądowe pochłanianie – −160±90 GtC

Uwalnianie węgla:

  1. Oceaniczne uwalnianie – +5±5 GtC
  2. Lądowe uwalnianie – +25±10 GtC

Rys.2. Globalny budżet węglowy w okresie historycznym (1750–2011) zaadaptowany z IPCC AR5. Emisje z paliw kopalnych (czarna strzałka) i zmiany użytkowania gruntów (brązowa strzałka), jak w IPCC oraz przypisanie lądowych i oceanicznych pochłaniaczy dwutlenku węgla do atmosferycznego wzrostu CO2 (niebieskie strzałki) i zmian klimatycznych (pomarańczowe strzałki), jak to zrobiono w tym badaniu. Wszystkie strumienie węgla są przedstawione w GtC. Górne panele pokazują wzrost atmosferycznego CO2 od 1750 r. oraz globalną średnią temperaturę powierzchni od 1880 r.

(Pierre Friedlingstein, 2015)


Na temat atmosferycznego CO2 Friedlingstein stwierdził, że szacunkowa czułość z zapisów rdzeni lodowych, tj. zmiana atmosferycznego CO2 spowodowana zmianą globalnej temperatury, nie jest bezpośrednio porównywalna z czułością cyklu klimatyczno-węglowego oznaczoną symbolami γ i β oraz oszacowaną przez symulacje Modelu Systemu Ziemi (ESM – Earth System Model).

—-

Joshua F. Dean z Wydziału Nauk o Ziemi na Uniwersytecie Vrije w Amsterdamie wraz ze swoim zespołem naukowym opisał emisje metanu jako dodatnie sprzężenia zwrotne 3.

Złożona materia organiczna jest rozkładana przez mikroorganizmy w środowiskach beztlenowych w wieloetapowym procesie obejmującym hydrolizę, fermentację, homoacetogenezę i utlenianie octanu syntroficznego, co prowadzi do powstania CO2 i CH4 jako produktów końcowych. CH4 dyfunduje w górę przez warstwę gleby/osadu, gdzie może być utleniany przez (bez)tlenowe metanotrofy. Tutaj pokazano teoretyczny rozkład dostępnych akceptorów elektronów na podstawie ich potencjału elektronowego; zasięg stref akceptora elektronów będzie różny w różnych środowiskach. Część tego CH4 może ostatecznie dotrzeć do atmosfery. Część CH4 może zostać uwolniona przez rośliny lub ebulicję (wzburzenie); należy zauważyć, że te szlaki uwalniania CH4 mogą również zachodzić w środowiskach wodnych (na rysunku nie pokazane). Roślinność reprezentuje rośliny naczyniowe, które zapewniają bezpośrednią drogę pionowego uwalniania CH4 przez aerenchymę.

Emisje metanu od początku rewolucji przemysłowej do dziś wzrosły od około 700 ppb (parts per bilion – cząsteczki metanu na miliard cząsteczek powietrza atmosferycznego) do 1800 ppb.

Na wstępie swojej pracy naukowcy piszą następujące fakty:

Zmiana klimatu może potencjalnie zwiększyć emisje CH4 z krytycznych systemów, takich jak tereny podmokłe, systemy morskie i słodkowodne, wieczna zmarzlina i hydraty metanu, poprzez zmiany temperatury, hydrologii, roślinności, zaburzenia krajobrazu i podnoszenie się poziomu morza. Zwiększone emisje CH4 z tych systemów wywołałyby z kolei dalszą zmianę klimatu, powodując dodatnie sprzężenie zwrotne klimatu.


Rys.3. Koncepcyjna ilustracja produkcji i konsumpcji CH4 przed uwolnieniem do atmosfery; wszystkie procesy konwersji mikrobiologicznej zaznaczono kursywą. Złożona materia organiczna jest rozkładana przez mikroorganizmy w środowiskach beztlenowych w wieloetapowym procesie obejmującym hydrolizę, fermentację, homoacetogenezę i utlenianie octanu syntroficznego, co prowadzi do powstania CO2 i CH4 jako produktów końcowych. CH4 dyfunduje w górę przez warstwę gleby/osadu, gdzie może być utleniany przez (bez)tlenowe bakterie metanotroficzne.

Tutaj pokazano teoretyczny rozkład dostępnych akceptorów elektronów na podstawie ich potencjału elektronowego; zasięg stref akceptora elektronów będzie różny w różnych środowiskach. Część tego CH4 może ostatecznie dotrzeć do atmosfery. Czyli, część CH4 może zostać uwolniona przez rośliny naczyniowe – które zapewniają bezpośrednią drogę pionowego uwalniania CH4 przez aerenchymę (miękisz – tkankę powietrzną) – lub poprzez proces zwany ebulicją (wzburzenie), czyli bezpośrednio z gleby/osadu.

Należy zauważyć, że te szlaki uwalniania CH4 mogą również zachodzić w środowiskach wodnych (na rysunku nie pokazane).

(Joshua F. Dean i inni, 2018)


Naukowcy ci w swojej pracy położyli szczególny nacisk na tereny podmokłe, które ich zdaniem do końca wieku odegrają kluczową rolę w zmianie klimatu, gdyż będą stanowić większość dodatniego sprzężenia zwrotnego metanu.

—-

Z kolei Eric W. Wolff z Wydział Nauk o Ziemi na Uniwersytecie w Cambridge i jego współpracownicy w swojej pracy stwierdzili następujący fakt 4:

Jest dość proste obliczenie zmiany równowagi temperatury w skali globalnej, która wynikałaby z określonej zmiany wymuszeń, gdyby Ziemia zachowywała się jak proste ciało czarne i nie występowałyby żadne dodatkowe efekty. Na przykład, można obliczyć, że podwojenie stężenia CO2  skutkuje wymuszeniem długofalowym około 3,7 W/m2 , co samo spowodowałoby równowagowe ocieplenie o około 1,2°C.                   

A więc, gdy już wiemy czym jest efekt cieplarniany, czym są wymuszenia (astronomiczne i radiacyjne) i czym są sprzężenia zwrotne, to na tej podstawie możemy ocenić bilans radiacyjny Ziemi czy jest w równowadze czy nie. Niestety od co najmniej 1850 roku już nie jest. Obecnie do całego układu klimatycznego naszej planety wchodzi więcej niż wychodzi z niego energii cieplnej.

Czułość klimatu na odpowiedzi wspomnianych wyżej sprzężeń zwrotnych jest bardzo wysoka. Niepewność w obliczeniach reakcji systemu klimatycznego w odpowiedzi na dalszy wzrost koncentracji gazów cieplarnianych oraz średniej temperatury globalnej powierzchni Ziemi, jest także wysoka.


Referencje:

  1. Friedlingstein P. et al., 2015 ; Carbon cycle feedbacks and future climate change ; Mathematical, Physical and Engineering Sciences ; https://royalsocietypublishing.org/doi/10.1098/rsta.2014.0421
  2. Lashof D. A., 1989 ; The dynamic greenhouse: feedback processes that may influence future concentrations of atmospheric trace gases and climatic change ; Climatic Change ; https://link.springer.com/article/10.1007/BF00134964
  3. Dean J. F. et al., 2018 ; Methane Feedbacks to the Global Climate System in a Warmer World ; Reviews of Geophysics ; https://agupubs.onlinelibrary.wiley.com/doi/10.1002/2017RG000559
  4. Eric W. W. et al., 2015 ; Feedbacks on climate in the Earth system: introduction ; Mathematical, Physical and Enigineering Sciences ; https://royalsocietypublishing.org/doi/10.1098/rsta.2014.0428

 

Wymuszenia radiacyjne i astronomiczne

Kiedy zrozumiemy mechanizm efektu cieplarnianego, zrozumiemy też czym są wymuszenia radiacyjne (emisje gazów cieplarnianych i aerozoli powodujące przyrost lub spadek energii cieplnej w podczerwieni, wzmocnienie lub osłabienie aktywności słonecznej) i wymuszenia astronomiczne (zmiany orbity Ziemi w przeciągu tysięcy lat powodujące wzmocnienie ocieplenia prowadzące do wycofywania się lądolodu ze średnich szerokości geograficznych do Arktyki lub osłabienie ocieplenia prowadzące do narastania lądolodu z Arktyki na średnich szerokościach).

Obecnie trwa wymuszenie radiacyjne z powodu antropogenicznych emisji gazów cieplarnianych teraz od co najmniej 170 lat ma wpływ zaburzający na bilans energetyczny naszej planety. I jest ono wzmacniane, zarówno dodatnimi, jak i ujemnymi sprzężeniami zwrotnymi.


Rys.1. Wymuszanie radiacyjne spowodowane przez długożyjące gazy cieplarniane w latach 1979-2019.

Ten rysunek przedstawia wielkość wymuszeń radiacyjnych powodowanych przez różne gazy cieplarniane, w oparciu o zmianę stężenia tych gazów w atmosferze ziemskiej od 1750 roku. Wymuszanie radiacyjne jest obliczane w watach na metr kwadratowy, co reprezentuje wielkość nierównowagi energetycznej w atmosfera. Po prawej stronie wykresu wymuszanie radiacyjne zostało przekonwertowane na roczny wskaźnik gazów cieplarnianych, który dla 1990 r. jest ustawiony na wartość 1,0. Źródło danych: NOAA, 2020


Rys.2. Wymuszanie radiacyjne spowodowane działalnością człowieka od 1750 roku.

Ta liczba pokazuje całkowitą wielkość wymuszeń radiacyjnych spowodowanych działalnością człowieka — w tym skutki pośrednie — w latach 1750–2011. Wymuszanie radiacyjne jest obliczane w watach na metr kwadratowy, co reprezentuje wielkość nierównowagi energetycznej w atmosferze. Każdy kolorowy słupek reprezentuje najlepsze oszacowanie naukowców, podczas gdy cienkie czarne słupki wskazują prawdopodobny zakres możliwości. Jako odniesienie podano naturalną zmianę energii otrzymanej ze słońca w tym okresie. Źródło danych: NOAA, 2020

 

Od co najmniej 170 lat mamy wymuszenia radiacyjne pochodzenia antropogenicznego z naszej cywilizacji przemysłowej, do których przede wszystkim zaliczamy emisje gazów cieplarnianych powodujące dodatnie wymuszenia oraz emisje aerozoli powodujące ujemne wymuszenia.

W pewnym sensie ujemne wymuszenie powodują zmiany użytkowania terenu w postaci np. wylesień, alez kolei zanik szaty roślinnej sprawia, że w atmosferze kumuluje się znacznie więcej dwutlenku węgla (30% od 1750 roku), a więc, wówczas mamy do czynienia z dodatnim wymuszeniem. Jak widać na rys.14., obecnie pod względem wymuszenia radiacyjnego, gaz ten stanowi ponad połowę tego co pozostałe gazy jak metan, podtlenek azotu czy nawet ozon troposferyczny.

Natalie M. Mahowald z Uniwersytetu im. Cornella (Cornell University) w Nowym Jorku zwróciła szczególną uwagę o niedoszacowanie wpływu zmian użytkowania gruntów oraz zmian ich pokrycia (LULCC – Land Use / Land Cover Change) w V Raporcie IPCC 2.

Naukowczyni stwierdziła następujące fakty:

Ponadto, prognozy stosowane w Międzyrządowym Zespole ds. Zmian Klimatu (IPCC) w zakresie tempa konwersji terenów tropikalnych w przyszłości są stosunkowo niskie w porównaniu ze współczesnymi obserwacjami, co sugeruje, że przyszłe prognozy dotyczące konwersji gruntów wykorzystywane w IPCC mogą nie doceniać potencjalnych skutków LULCC. Uwzględniając przyszły scenariusz LULCC „biznes jak zwykle” dotyczący wylesiania tropikalnego, stwierdzamy, że nawet jeśli wszystkie emisje inne niż LULCC zostaną wyłączone w 2015 r., prawdopodobne jest, że do 2100 r. nastąpi ocieplenie o 1,5°C w stosunku do ery przedindustrialnej. W związku z tym polityka ograniczania emisji LULCC musi pozostać priorytetem, jeśli mamy osiągnąć cele w zakresie niskich i średnich zmian temperatury zaproponowane w ramach Porozumienia Paryskiego.

W tejże pracy naukowcy do obliczeń szeregów czasowych wymuszenia radiacyjnego (RF), dla LULCC i dla nie-LULCC, dla różnych scenariuszy emisji, zastosowali głównie następujące modele: środowiskowy model lądowy (CLM – Community Land Model) w ramach środowiskowego modelu systemu Ziemi (CESM – Community Earth System Model) (Hurrell i in. 2013 , Lawrence i in. 2012a ).


Rys.3. (a) Antropogeniczne wymuszanie radiacyjne (W/m2) dla roku 2010 względem 1850 podzielone na źródła LULCC i nie-LULCC dla różnych czynników wymuszających, z niepewnością części całkowitego wymuszania radiacyjnego z powodu LULCC podaną przez słupki błędów (Ward i inni, 2014). (b) Szeregi czasowe antropogenicznego wymuszania radiacyjnego (W/m2) dla źródeł LULCC i nie-LULCC z niepewnością reprezentowaną przez zacienienie (Natalie M. Mahowald i inni, 2017).

 

Oto liczbowo podane dane najważniejszych wymuszeń radiacyjnych zamieszczonych w książce „Nauka o klimacie” (rozdział 4.4. Zmiana bilansu radiacyjnego Ziemi, str. 58):

Dwutlenek węgla – 2,00 W/m2 [roczne wymuszenie – 0,04 W/m2

Pozostałe gazy cieplarniane bez ozonu – 1,00 W/m2

Chłodzące aerozole bez sadzy –  -0,80 W/m2

Cieplarniany aerozol sadza – 0,65 W/m2

Zmiany albedo w związku ze zmianami użytkowania terenu –  -0,15 W/m2

Ozon troposferyczny – 0,40 W/m2

Ozon stratosferyczny – 0,10 W/m2

Nasłonecznienie – 0,10 W/m2

Zmiany w chmurach dzięki aerozolom – 0,55 W/m2

 

Ryan Kramer, z Narodowej Agencji Aeronautyki i Przestrzeni Kosmicznej im. Goddarda z Centrum Lotów Kosmicznych (NASA GSFC – National Aeronautics and Space Agency Goddard Space Flight Center) na Wydziale Nauk o Ziemi w Greenbelt, oraz współautor badania, Brian Soden, z Uniwersytetu w Miami, są autorami nowatorskiej metody badawczej w obliczaniu nierównowagi energetycznej Ziemi 4.

W 2021 roku naukowcy zastosowali po raz pierwszy metodę satelitarną (satelita CERES), a nie jak dotychczas metodę za pomocą symulacji komputerowych modeli. Badania zostały zarejestrowane w okresie 2003-2018, a więc, w okresie gdy zaczęto zmniejszać emisje aerozoli w atmosferze, a jak wiadomo, ich usunięcie podwyższa temperaturę globalną Ziemi. Chociaż z drugiej strony został zaobserwowany dalszy wzrost emisji gazów cieplarnianych. Dlatego też obliczanie wymuszeń radiacyjnych ochładzających atmosferę aerozoli, jak i gazów cieplarnianych ją ogrzewających, za pomocą modeli komputerowych nie było do końca doskonałe. Obecne instrumentalne pomiary techniką tzw. jąder radiacyjnych pokazują dokładniejsze wyniki.


Rys.4. Satelitarne pomiary (w watach na metr kwadratowy w ciągu roku) chwilowych wymuszeń radiacyjnych (IRF – Instantaneocous Radiative Forcing) krótkofalowego promieniowania (SW – Shortwave) oraz przyrostu w ciągu roku (Δ) aerozolu oraz głębokości optycznej aerozolu (AOD – Aerosol Optic Depth) w latach 2003-2018 (satelity: CERES/AIRS, MERRA-2 i MODIS.

  1. a) SW IRF CERES/AIRS b) SW IRF MERRA-2 c) SW IRF MERRA-2 Aerosol d) MODIS AOD e) MERRA-2 AOD

(Ryan Kramer i inni, 2021)


Autorzy pracy napisali:

Zmiany w składzie atmosfery, takie jak wzrost ilości gazów cieplarnianych, powodują początkową nierównowagę radiacyjną systemu klimatycznego, określaną ilościowo jako chwilowe wymuszenie radiacyjne. Ta fundamentalna metryka nie była bezpośrednio obserwowana globalnie, a wcześniejsze szacunki pochodziły z modeli. Częściowo dzieje się tak dlatego, że obecne instrumenty kosmiczne nie są w stanie odróżnić chwilowego wymuszania radiacyjnego od reakcji radiacyjnej klimatu. Stosujemy jądra radiacyjne do obserwacji satelitarnych, aby rozwiązać te składniki i stwierdzić, że chwilowe wymuszenie radiacyjne na całym niebie wzrosło o 0,53 ± 0,11 W/m2 od 2003 do 2018 roku, biorąc pod uwagę pozytywne trendy w całkowitej planetarnej nierównowadze radiacyjnej.

—-

Mamy jeszcze wymuszenie słoneczne, które działa w okresie od kilku dekad do dwóch, trzech stuleci, np. jak to było podczas średniowiecznego optimum klimatycznego czy w pierwszej połowie XX wieku oraz orbitalne, które działa w skali długofalowej powyżej kilku tysięcy lat, np. tak jak to było podczas nadejścia cykli glacjalnych lub interglacjalnych.

Wymuszenie astronomiczne słoneczne w porównaniu z obecnie zachodzącym antropogenicznym wymuszeniem radiacyjnym jest nieznaczne. W całym holocenie nie odgrywało ono poważnej roli by mieć wpływ na zaburzenie klimatu. Generalnie wywoływało ono regionalne ocieplenia jak np. we wspomnianym średniowieczu w rejonie wokół Grenlandii w latach 950-1250. Wtedy były tam obszary lokalne nawet cieplejsze niż wynosiła średnia globalna temperatura Ziemi na przełomie XX i XXI wieku.

Marcin Popkiewicz, współredaktor serwisu „Nauka o klimacie”, w swoim artykule „Aktywność słoneczna w ostatnich 9000 latach” pisze:

Ziemia pochłania około 70% padającego promieniowania słonecznego. Ponieważ interesuje nas średni strumień promieniowania przypadający na jednostkę powierzchni globu, musimy wziąć pod uwagę, że powierzchnia ta jest czterokrotnie większa od powierzchni przekroju planety (4πR2 powierzchni Ziemi vs πR 2 przekroju). Zmiana mocy promieniowania słonecznego o 1 W/m2 powoduje więc zmiany energii absorbowanej przez powierzchnię Ziemi równe ¼ · 0,7 = 0,17 W/m2. W przypadku różnicy strumienia promieniowania słonecznego pomiędzy Minimum Maundera a maksimum w XX wieku równej 1,2 W/m2 oznaczałoby to zmiany wymuszenia radiacyjnego na poziomie około 0,2 W/m2; dla porównania obecny wpływ gazów cieplarnianych przekracza już 3 W/m2.


Referencje:

  1. Mahowald N. M. et al., 2017 ; Are the impacts of land use on warming underestimated in climate policy? ; Environmental Research Letters ; https://iopscience.iop.org/article/10.1088/1748-9326/aa836d/meta
  2. Kramer R. J. et al., 2021 ; Observational Evidence of Increasing Global Radiative Forcing ; Geophysical Research Letters ; https://agupubs.onlinelibrary.wiley.com/doi/10.1029/2020GL091585
  3. Popkiewicz M., 2020 ; Aktywność słoneczna w ostatnich 9000 latach ; Nauka o klimacie ; https://naukaoklimacie.pl/aktualnosci/aktywnosc-sloneczna-w-ostatnich-9000-lat-399/

Ekstremalne opady deszczu a sztormy, burze, powodzie i pływy morskie

Nawalne opady deszczu oraz często towarzyszące im powodzie są coraz mocniej wpisywane w rzeczywistość coraz bardziej ocieplającego się świata. Wzrost temperatury powietrza oznacza wzrost pary wodnej, czyli wilgoci w atmosferze. Zaburzenia wielu cyrkulacji atmosferyczno-oceanicznych oraz oscylacji atmosferyczno-oceanicznych, a także wielu innych zjawisk atmosferycznych, oceanicznych i atmosferyczno-oceanicznych, w tym cyklonów, jeszcze bardziej nasilają powstawanie tychże bardzo niebezpiecznych ekstremów pogodowych, których intensywność i częstość niestety będzie wzrastać wraz z dalszym ocieplaniem się klimatu.

—–

W dniach 12-15 lipca 2021 roku na obszarze północnych Niemiec w Nadrenii Północnej-Westfalii i w Nadrenii-Palatynacie wzdłuż rzek Ahr i Erft oraz wzdłuż rzeki Mozy na terenie Belgii i Luksemburgu doszło do tragicznych zdarzeń pogodowych. Przez ten okresu czasu region ten nawiedziły ekstremalne opady deszczu doprowadzając do błyskawicznych powodzi, które spowodowały zalanie przez uregulowane rzeki wielu terenów odlesionych i silnie zurbanizowanych. Podczas tej tragedii zginęło 184 mieszkańców Niemiec i 38 mieszkańców Belgii.


Fot.1. Strona główna > Ekstremalne opady deszczu > Obfite opady deszczu, które doprowadziły do poważnych powodzi w Europie Zachodniej, bardziej prawdopodobnych z powodu zmian klimatycznych (zdjęcie z serwisu World Weather Attribution).

 

Ponadto została uszkodzona infrastruktura, min. drogi, w tym autostrady, linie kolejowe, mosty, a także pola uprawne.

Przyczyną tego pechowego zdarzenia dla mieszkańców tego regionu Europy Zachodniej było odcięcie systemu niskiego ciśnienia „Bernd” od wiatrów zachodnich. Dlatego też, gdy tenże niż usadowił się na dłużej w tymże regionie, to przez kilka dni trwające bardzo intensywne opady deszczu doprowadziły do równie intensywnych powodzi.


Rys.1. Po lewej stronie – opady skumulowane w ciągu dwóch dni (48h akumulacja 13 lipca 00:00 UTC – 15 lipca 2021, 00:00 UTC). Po prawej stronie – Opady skumulowane w ciągu 24 godzin dla każdego dnia, w którym wystąpiły ekstremalne opady (zdjęcie z World Weather Attribution).


Naukowcy z Niemiec, Belgii, Holandii, Szwajcarii, Francji, Luksemburga, USA i Wielkiej Brytanii, współtworzący World Weather Attribution (WWA), którzy zbadali to zdarzenie pogodowe, nie mają już żadnych wątpliwości, że te ekstremalne zjawiska pogodowe mają i będą mieć miejsce w coraz cieplejszym świecie.

Na podstawie lipcowej tragedii mieszkańców Europy Zachodniej, Frank Kreienkamp, z Niemieckiej Służby Pogodowej (DWD – Deutscher Wetterdienst) oraz Regionalnego Biura Klimatycznego w Poczdamie w Niemczech, i jego współpracownicy, jak min. dr Friederike Otto z Instytutu Zmian Środowiska na Uniwersytecie w  Oksfordzie oraz prof. Geert Jan van Oldenborgh z Królewskiego Holenderskiego Instytutu Meteorologicznego w de Bilt, na łamach WWA 1 i później w swojej pracy naukowej 2, wyciągnęli następujące wnioski:

  1. Poważne powodzie były spowodowane bardzo intensywnymi opadami deszczu przez okres 1-2 dni, wilgotnymi warunkami jeszcze przed zdarzeniem oraz lokalnymi czynnikami hydrologicznymi. Chociaż odpływy rzeczne i poziomy wody są elementami fizycznymi najbardziej bezpośrednio powiązanymi ze skutkami zdarzenia, nasza ocena koncentruje się na głównym czynniku meteorologicznym, jakim są obfite opady deszczu. Wynika to z faktu, że niektóre systemy monitoringu hydrologicznego uległy zniszczeniu podczas powodzi, a dane o wystarczająco wysokiej jakości i ilości nie są obecnie dostępne.
  1. Obserwowane wielkości opadów w rzekach Ahr i Erft oraz w belgijskiej części zlewni Mozy znacznie pobiły historycznie obserwowane rekordy opadów. W regionach tej wielkości solidne oszacowanie wartości zwrotów oraz wykrywanie i przypisywanie trendów jest trudne, a zatem przesuwa granice tego, do czego zaprojektowano obecne metody atrybucji zdarzeń ekstremalnych. 
  1. Dlatego rozszerzyliśmy analizę o ocenę wpływu zmian klimatu na podobne rodzaje zdarzeń, które mogą wystąpić w dowolnym miejscu Europy Zachodniej w dużym regionie między północnymi Alpami a Holandią. Odkryliśmy, że w obecnym klimacie dla danej lokalizacji w tym większym regionie możemy spodziewać się średnio jednego takiego zdarzenia co 400 lat. Oznacza to również, że spodziewamy się, że takie zdarzenia będą miały miejsce częściej niż raz na 400 lat w większym regionie Europy Zachodniej.
  1. Zmiana klimatu zwiększyła intensywność maksymalnych jednodniowych opadów deszczu w sezonie letnim w tym dużym regionie o około 3-19% w porównaniu z globalnym klimatem chłodniejszym o 1,2°C niż obecnie. Wzrost jest podobny w przypadku wydarzenia dwudniowego.
  1. Prawdopodobieństwo wystąpienia takiego zdarzenia dzisiaj w porównaniu z klimatem chłodniejszym o 1,2°C wzrosło o współczynnik od 1,2 do 9 w przypadku jednodniowego zdarzenia w dużym regionie. Wzrost jest ponownie podobny w przypadku wydarzenia dwudniowego.
  1. Liczby te opierają się na ocenie obejmującej obserwacje, regionalne modele klimatyczne i modele klimatyczne o bardzo wysokiej rozdzielczości, które bezpośrednio symulują konwekcję. Zmiany intensywności i prawdopodobieństwa są większe w ocenie opartej na obserwacji w porównaniu ze wszystkimi modelami.
  1. W klimacie cieplejszym o 2°C niż w czasach przedindustrialnych modele sugerują, że intensywność jednodniowego zdarzenia wzrośnie o dalsze 0,8-6%, a prawdopodobieństwo o współczynnik 1,2-1,4. Wzrost jest ponownie podobny w przypadku wydarzenia dwudniowego.
  1. Powodzie z lipca 2021 r. spowodowały ekstremalne skutki, w tym ponad dwieście zgonów. Biorąc pod uwagę rzadkość tego zdarzenia, jest oczywiste, że jest to bardzo ekstremalne zdarzenie, które prawdopodobnie spowoduje negatywne skutki. Jednak szczególnie biorąc pod uwagę, że takie wydarzenia będą występować częściej w przyszłości, zbadanie, w jaki sposób można zmniejszyć podatność i narażenie, staje się kluczowe dla ograniczenia przyszłych skutków.

———-

Gunnar Myhre z Centrum Międzynarodowych Badań Klimatu CICERO w Oslo, wraz ze swoim zespołem badawczym, zauważył, że obecnie w ocieplonym świecie za mało bierze się pod uwagę badanie częstości opadów atmosferycznych, a więcej uwagi skupia się na ich intensywności, co zostało już dokładnie przeanalizowane w V Raporcie Oceny IPCC. Podobnie słabo został przebadany łączny wpływ, zarówno intensywności, jak i częstotliwości opadów atmosferycznych 3.

Jak naukowcy zauważają w symulacjach komputerowych za pomocą modeli klimatycznych, całkowite opady pod względem zmian intensywności prawie podwajają się na stopień ocieplenia, ale przeważnie mają na to wpływ zmiany częstotliwości.

Ostatnie analizy, wynikające z obserwacji opadów nad Europą i Ameryką Północną, pokazują znaczny wzrost częstotliwości opadów atmosferycznych. Np. na Wyspach Brytyjskich, na południu Europy czy też w delcie Missisippi, w Nowej Anglii.

Aby oszacować wielkość intensywności i częstotliwości opadów, naukowcy użyli do obliczeń parametru funkcji gęstości prawdopodobieństwa (PDF – probability density function) opadów odpowiadających referencyjnej temperaturze powietrza na powierzchni (linia fioletowa), w porównaniu z funkcją o wyższej temperaturze powietrza na powierzchni (linia pomarańczowa), przedstawioną na poniższym rysunku.


Rys.2. Schematyczna ilustracja funkcji gęstości prawdopodobieństwa (PDF) dobowej ilości opadów

( a ). Fioletowa linia pokazuje referencyjną PDF, a pomarańczowa linia pokazuje, jak zmienia się ona w wyższych temperaturach. Dla pewnej ilości opadów (pionowa linia przerywana) przesunięcie PDF można rozłożyć na wzrost intensywności (zilustrowany poziomą niebieską strzałką) i wzrost częstotliwości (pionowa zielona strzałka). Wzrost całkowitej sumy ekstremalnych opadów powyżej pewnego progu ilustruje zacieniowany żółty obszar, który łączy wzrost intensywności i częstotliwości. Rzeczywiste PDF dla dwóch okresów 1906-1935 i 1986-2015 dla średniej 15 stacji wodomierzy w Holandii

( b). Całkowite ekstremalne zmiany opadów z danych E-OBS między dwoma okresami 1951-1980 i 1984-2013

( c ) udział częstotliwości i intensywności w całkowitej ekstremalnej zmianie opadów

( d ) dla dobowych percentyli opadów i skalowanych według globalnej i rocznej średniej zmiany temperatury aby uzyskać jednostki %/K. 95-ty percentyl występuje średnio w ciągu 20 dni, 99-ty percentyl raz w ciągu 100 dni, 99,7-ty percentyl raz w ciągu 333 dni, 99,9-ty percentyl raz w ciągu 1000 dni, 99,95-ty percentyl raz w ciągu 2000 dni i 99,97-ty percentyl raz w ciągu 3333 dni.

(Gunnar Myhre i inni, 2019)


Naukowcy zasugerowali, że typowym sposobem analizy zmian w ekstremalnych opadach jest dokładne śledzenie ewolucji percentyli dziennych opadów pod względem obliczenia PDF. Rysunek  1c pokazuje wzrost opadów (pomiędzy dwoma 30-letnimi okresami) w Europie dla zdarzeń ekstremalnych od 95% (występujących średnio raz na 20 dni) przez 99,9 % (występujących raz na 1000 dni) do 99,97 % (występujących średnio raz na 10 lat).

——

Małe kraje wyspiarskie na południowym Pacyfiku bardzo często doświadczają ekstremalnych zjawisk klimatycznych, w tym intensywnych opadów deszczu. Skutki zdarzeń ekstremalnych zależą również od wpływu na ludzi, zwierzęta oraz ekosystemy. Te małe kraje wyspiarskie są bardzo podatne na ekstremalne zdarzenia w porównaniu z innymi częściami świata, ponieważ są mniejsze, otoczone rozległymi obszarami oceanu i ograniczoną infrastrukturą.

Sunil Kumar Pariyar z Instytutu Geofizyki i Centrum Badań Klimatu w Bjerknes na Uniwersytecie w Bergen w Norwegii i jego współpracownicy, analizując ekstremalne opady deszczu, wzięli pod uwagę cztery czynniki klimatyczne, dzięki którym są one bardziej nasilone w ocieplonym świecie i powodujące często wiele zniszczeń wśród mieszkańców małych wysp, zarówno ludzi, jak i zwierząt i roślin 4.

Naukowcy zaliczyli do tych czynników:

  1. tropikalne cyklony (TC – tropical cyclone), w tym depresje tropikalne (TD – tropical depression), wśród których są monsuny
  2. oscylację oceaniczną Juliana-Maddena (MJO – Madden-Julian Oscillation)
  3. Oscylację Południowopacyficzną El Nino (ENSO – El Nino Southern Oscillation)
  4. fale planetarne Rossby’ego, które mogą mieć wpływ dalekosiężny na zmienności klimatyczne

Swoje wyniki badań przeprowadzili analizując charakterystykę pomiarów ekstremalnych opadów deszczu w latach 1979-2018 ze 20 stacji na południowym Pacyfiku (początkowo rozważali 33) umieszczonych wzdłuż Strefy Konwergencji Południowego Pacyfiku (SPCZ – South Pacific Convergence Zone), usytuowanych w trzech skupiskach (klastrach).


Rys.3. Lokalizacja stacji deszczomierzy wykorzystanych w niniejszym opracowaniu. Trzy skupiska stacji są oznaczone kolorami czerwonym, zielonym i niebieskim. Cieniowane kontury to klimatologia opadów (1979–2018)               w mm / dzień 1 , obliczona na podstawie miesięcznego zbioru danych w siatce Globalnego Projektu Klimatologii Opadowej (GPCP – Global Precipitation Climatology Project). (W celu interpretacji odniesień do koloru w tej legendzie rysunku czytelnik jest kierowany do internetowej wersji tego artykułu.)

(Sunil Kumar Pariyar i inni, 2020)


Do badań naukowcy użyli dwóch indeksów klimatycznych: wielowymiarowych dziennych indeksów MJO (RMM) w czasie rzeczywistym oraz miesięcznego indeksu Niño3.4 ENSO.

Dzienne indeksy Misji Pomiarów Opadów (RMM – Rainfall Measurements Mission) pochodzą ze strony internetowej Australian Bureau of Meteorology     (http://www.bom.gov.au/climate/mjo/).

Miesięczny indeks Niño3.4 jest obliczany na podstawie miesięcznej temperatury powierzchni morza (SST – Sea Surface Temperature) ze strony internetowej NOAA, ESRL, Physical Science Division (http://www.esrl.noaa.gov/psd/gcos_wgsp/Timeseries/Niño34/index.html).

Dane do badań tropikalnych cyklonów (TC), naukowcy zebrali z Najlepszego archiwum danych dla zarządzania klimatem (IBTraCS – International Best Track Archive for Climate Stewardship) – zestawu danych opartego na 6-godzinnych historycznych zapisach TC z różnych źródeł i dostarczającego informacji o naturze burzy, lokalizacji centrum burzy, maksymalnych utrzymujących się wiatrach, minimalnym ciśnieniu centralnym i prędkości burzy.

Ogólnie naukowcy dają do zrozumienia, że pozatropikalne fale Rossby’ego nie mają znaczącego wpływu na ekstremalne opady deszczu na południowym Pacyfiku, jednak mogą generować niezbędne zakłócenia, które mogą przekształcić się w ekstremalne opady deszczu.

——-

Ashish Sharma z Wydziału Inżynierii Lądowej i Środowiskowej na Uniwersytecie w Nowej Południowej Walii w Sydney, Conrad Wasko z Wydziału Inżynierii Infrastruktury na Uniwersytecie w Melbourne w Victorii oraz Dennis P. Lettenmaier z Wydziału Geografii na Uniwersytecie Kalifornijskim w Los Angeles, w swoich badaniach doszli do wniosku, że pomimo rosnących dowodów na rosnące ekstremalne opady, odpowiednie dowody na wzrost liczby powodzi pozostaje dalej niewyjaśniony 5.

Dotychczas środowisko naukowe klimatologów stawiało tezę, że w ocieplającym się świecie, jeśli mamy do czynienia ze wzrostem opadów atmosferycznych, to musi mieć to przełożenie na wzrost powodzi. Naukowcy z Australii i Stanów Zjednoczonych jednak stwierdzili po wnikliwej analizie, że wcale tak być nie musi, a nawet w pewnych przypadkach występuje spadek powodzi pomimo wzrostu opadów. Dzieje się tak głównie, gdy nad danym regionem gleba jest bardziej sucha niż powinna. Z reguły ładunkiem do intensyfikacji powodzi podczas ekstremalnych opadów deszczu jest silnie nawilgocona gleba.

Ogólnie naukowcy, pokazując dowody na zmniejszenie się powodzi w coraz cieplejszym świecie, zaobserwowali zmniejszenie się następujących czynników:

  1. wilgotność gleby
  2. zasięg burzy
  3. topnienie śniegu

Rys.4. Prawdopodobieństwo natężenia przepływu wody w górnym 99 percentylu (Q 99% ) jest powiązane ze zdarzeniem opadowym w górnym 99 percentylu (P 99% ) w sąsiednich Stanach Zjednoczonych (CONUS). Deszczowa pogoda (pierwszeństwo) jest definiowana jako wilgotność gleby powyżej mediany, a sucha pogoda (pierwszeństwo) jest definiowana jako poniżej mediany. (Timothy J. Ivancic i Stephen B. Shaw, 2015).


W swojej pracy naukowej naukowcy tak piszą:

Gdy opady uzależnione są od tego, że zlewnia jest wilgotna przed rozpoczęciem wydarzenia, liczba ta wzrasta do 62% (niebieski słupek), w przeciwieństwie do zaledwie 13%, gdy warunki przed burzą są suche (różowe słupki). Oczywiście, co nie powinno dziwić hydrologów, wilgotność gleby moduluje reakcję na powódź.

Wzrost opadów jednak nie musi przekładać się na wzrost powodzi, a wysuszenie warunków wilgotnościowych gleby jeszcze bardziej zmniejsza rozmiary powodzi.


W pracy zespołu naukowego pod kierownictwem Mohita Prakasha Mohanty’ego, z Indyjskiego Instytutu Technologii na Uniwersytecie w Roorkee, adiunkta na Katedrze Rozwoju i Zarządzania Zasobami Wodnymi, została podjęta analiza wpływu opadów atmosferycznych oraz pływów morskich (fal sztormowych) na powstawanie w coraz cieplejszym świecie bardziej intensywnych i częstszych powodzi przybrzeżnych 12.

Do swoich badań naukowcy zastosowali specjalny parametr – iloraz powodzi pływowo-opadowych (TRFQ – Tide-Rainfall Flood Quotient). Określa on potencjał powodziowy w regionie przybrzeżnym wynikający z przypływów sztormowych lub opadów deszczu.

Informacje o zagrożeniu powodziowym uzyskali naukowcy, zarówno na podstawie prędkości zalewu, jak i fali, uzyskanych z kompleksowego modelu 1D-2D MIKE FLOOD z uwzględnieniem wysokiej rozdzielczości LiDAR DEM.

Następnie zestawili oni mapy zalewów i zagrożeń uzyskanych za pomocą symulacji komputerowych hydrodynamiki w modelach powodziowych, w których zaprojektowane zostały opady deszczu i przypływy sztormowe. Dalej,  zaproponowali zestaw konkretnych kombinacji symulacji pływów burzowych i pluwialnych, aby określić ilościowo ich indywidualne wpływy.

Zdaniem zespołu Mohanty’ego, wyniki tych badań dostarczą rekomendacji dla długoterminowego planowania terenów zalewowych poprzez racjonalizację strategii zarządzania powodzią przybrzeżną. Ma to przynieść korzyści głównie w krajach o niskich i średnich dochodach, w których inżynieryjna inwestycja w środki ochrony przeciwpowodziowej może zapewnić jeszcze większe bezpieczeństwo pod względem redukcji szkód w infrastrukturze wybrzeży.

Naukowcy wybrali trzy geograficznie zróżnicowane podatne na powodzie regiony przybrzeżne na subkontynencie indyjskim, aby zademonstrować proponowaną koncepcję TRFQ. Kryteria wyboru tych rejonów ustalone zostały na podstawie podatności na powodzie oraz dostępności batymetrii wysokiej rozdzielczości.

– Mithi Catchment (obszar geograficzny ∼76 km 2; lokalizacja: 19° 02′ N do     19° 12′ N (szerokości geograficznej północnej) i 72° 48′ E do 72° 56′ E (długości geograficznej wschodniej) w Bombaju, Maharasztra;

– Dystrykt Jagatsinghpur (obszar geograficzny ∼1760 km 2; lokalizacja: 19° 58′ N do 20° 23′ N (szerokości geograficznej północnej) i 86° 3′ E do 86° 45′ E (długości geograficznej wschodniej) w Odisha i Greater Chennai

Corporation (GCC) ( obszar geograficzny ∼ 574 km 2; lokalizacja: od 9° 02′ N do 19° 12′ N (szerokości geograficznej północnej) i od 72° 48′ E do 72° 56′ E (długości geograficznej wschodniej) w Chennai, Tamil Nadu

(rys.5.)


Rys.5. Opis studiów przypadku: a) zlewnia rzeki Mithi w Bombaju b) Greater Chennai Corporation (GCC) w Chennai oraz c) dystrykt Jagatsinghpur w Odisha.

Mapy powyżej na każdym rysunku przedstawiają (i) powiększony widok kształtu batymetrii przybrzeżnej, która działa jako wlot dla wtargnięcia fal pływowych, oraz (ii) część długości rzeki w obszarze oznaczonym gęstym obszarem zabudowanym i ogromnymi osadami miejskimi wzdłuż biegu rzeki. Lokalizację stacji wodowskazowych zaznaczono odpowiednio różowymi kółkami, różowymi kwadratami i zielonymi kółkami.

(Mohit Prakash Mohanty i inni, 2020)


Ze względu na coraz częstsze występowanie synergiczne ekstremalnych opadów deszczu i przypływów sztormowych, iloraz powodzi pływowo-opadowych, czyli TRFQ, ułatwi planowanie i racjonalizację długoterminowych opcji zarządzania powodzią w zlewniach przybrzeżnych poprzez scharakteryzowanie dominacji powodzi opadowych/pływowych.

W przypadku długoterminowego planowania krajobrazowego i urbanistycznego naukowcy wprowadzili powyższy wskaźnik TRFQ w celu kontrolowania wysokich kosztów związanych z zarządzaniem powodzią poprzez optymalny dobór środków strukturalnych i niestrukturalnych.


Referencje:
1. Kreienkamp F. et al., 2021 ; Heavy rainfall which led to severe flooding in Western Europe made more likely by climate change ; World Weather Attribution ; https://www.worldweatherattribution.org/heavy-rainfall…/
2. Kreienkamp F. et al., 2021 ; Heavy rainfall which led to severe flooding in Western Europe made more likely by climate change ; World Weather Attribution ; https://www.worldweatherattribution.org/…/Scientific…
3. Myhre G. et al., 2019 ; Frequency of extreme precipitation increases extensively with event rareness under global Warming ; Scientific Reports ; https://www.nature.com/articles/s41598-019-52277-4
4. Pariyar S. K. et al., 2020 ; Factors affecting extreme rainfall events in the South Pacific ; Weather and Climate Extremes ; https://www.sciencedirect.com/…/pii/S2212094719301434
5. Sharma A. et al., 2018 ; If Precipitation Extremes Are Increasing, Why Aren’t Floods? ; Water Resources Research ; https://agupubs.onlinelibrary.wiley.com/…/2018WR023749
6. Mohanty M. P. et al., 2020 ; Tide-rainfall flood quotient: an incisive measure of comprehending a region’s response to storm-tide and pluvial flooding ; Environmental Research Letters ; https://iopscience.iop.org/article/10.1088/1748-9326/ab8092

Cyklony tropikalne coraz silniejsze w coraz cieplejszym świecie

Jeszcze dwie, trzy dekady temu, gdy był mniejszy przyrost temperatury globalnej, w pasie szybciej płynącego polarnego prądu strumieniowego na średnich szerokościach geograficznych częściej kształtowały się duże niże przynoszące z sobą nie tylko obfite opady deszczu, ale i burze. Z kolei na tropikalnym Atlantyku, Pacyfiku i Oceanie indyjskim, dzięki nagrzewaniu się oceanów i wzrostowi głębokiej konwekcji równikowej w coraz cieplejszym świecie przybiorą na sile i na wielkości huragany, tajfuny i cyklony, tyle że będzie ich prawie tyle samo, a możliwe, że nawet mniej.

Hiroyouki Murakami z Uniwersyteckiej Korporacji Badań Atmosferycznych oraz z Laboratorium Geofizycznej Dynamiki Płynów (GFDL – Geophysical Fluid Dynamic Laboratory), Narodowej Administracji Oceanicznej i Atmosferycznej (NOAA – National Oceanic and Atmospheric Administration) w Princeton w New Jersey wraz ze swoim zespołem naukowym, przeanalizował rozkład przestrzenny cyklonów tropikalnych na Ziemi w latach 1980-2018 1.

Wcześniejsze badania cyklonów tropikalnych (TC – tropical cyclone) w większości mówiły o tym, że ich liczba albo będzie taka sama albo będzie się nawet zmniejszać wraz z dalszym wzrostem temperatury globalnej w atmosferze i w oceanach. Murakami i jego współpracownicy jednak dokonując symulacji komputerowych na modelach GFDL FLOR (w tym skorygowanej wersji FLOR-FA) i SPEAR, dowiedli, że istnieje wyraźny przestrzenny wzorzec w trendach, a mianowicie tendencje spadkowe TC w południowym Oceanie Indyjskim, zachodnim Północnym Pacyfiku, Morzu Koralowym u północno-wschodniego wybrzeża Australii i dalekowschodnim tropikalnym Północnym Pacyfiku.

W serwisie Carbon Brief Murakami stwierdził następujący fakt 2:

Gazy cieplarniane ogrzewają górną warstwę atmosfery i ocean w tych regionach. To łączy się, aby stworzyć bardziej stabilną atmosferę, z mniejszą szansą, że konwekcja prądów powietrznych pomoże w tworzeniu i rozprzestrzenianiu się cyklonów tropikalnych.

Jednak również są zaznaczone tendencje wzrostowe TC, między innymi na Morzu Arabskim, środkowym Pacyfiku, w tym na Hawajach, oraz na Północnym Atlantyku. A więc, regionalne wzorce przestrzenne cyklonów tropikalnych zasadniczo są odmienne od globalnego.

Naukowcy także stwierdzili, że w skali globalnej liczba roczna cyklonów tropikalnych od 1980 roku, czyli od początku badań satelitarnych, oscyluje wokół liczby 86.


Rys.1. Obserwowany trend liczby cyklonów tropikalnych rocznie w latach 1980-2018. Czerwony do żółtego wskazuje na wzrost liczby cyklonów rocznie, a fioletowy na zielony oznacza spadek. Źródło: (Hiroyouki Murakami i inni, 2020)

 

Również zespół naukowy Murakamiego zaobserwował, że naturalne zmienności miały niewielki wkład w rozkład przestrzenny TC. W tym przypadku raczej główną rolę odegrały, zarówno antropogeniczne wymuszenia w postaci gazów cieplarnianych i aerozoli, jak i naturalne wymuszenia w postaci erupcji wulkanicznych.

W każdym razie, obecni naukowcy zgadzają się z wcześniejszymi wynikami badań, że wewnętrzne zmienności klimatyczne, takie jak wewnątrzdekadowa oscylacja pacyficzna (IPO – Interdecadal Pacific Oscillation) oraz atlantycka zmienność wielodekadowa (AMV – Atlantic Multidecadal Variability) określana również atlantycką oscylacją wielodekadową (AMO – Atlantic Multidecadal Oscillation), mogą mieć znaczący wpływ na aktywność cyklonów tropikalnych w skali globalnej.

W tym drugim przypadku jednak są duże wątpliwości. Michael E. Mann, twórca AMO, uważa, że jako naturalna zmienność klimatyczna ona nie istnieje, a zjawisko jakie występuje na Atlantyku ma ścisły związek z naszym wymuszeniem antropogenicznym. Swoje uwagi opublikował w pracy w 2021 roku. Na ten temat powiemy więcej później w rozdziale o oscylacjach oceanicznych.

Naukowy zespół Murakamiego zaobserwował w swojej pracy, że w latach 1980-1997 była pozytywna faza IPO i negatywna faza AMV, które zmieniają znaki od 1997 roku do dziś. Ich zdaniem, zmiany te w fazie dekadowej w IPO i AMV około 1997 r. mogły być kolejnym potencjalnym czynnikiem odpowiedzialnym za obserwowany przestrzenny wzorzec trendów częstości występowania cyklonów tropikalnych (TCF – tropical cyclone frequency of occurence) w latach 1980-2018.

Omawiając rozkład przestrzenny cyklonów tropikalnych, Murakami w Carbon Brief powiedział:

Zidentyfikowaliśmy większość cyklonów tropikalnych na Północnym Atlantyku w ciągu ostatnich 40 lat, która jest spowodowana spadkiem antropogenicznych aerozoli w Północnym Atlantyku. Spadek zanieczyszczeń pyłowych spowodowany środkami kontrolnymi zwiększył ocieplenie oceanu, pozwalając na wchłonięcie większej ilości światła słonecznego przez ocean. To lokalne ocieplenie doprowadziło do wzrostu aktywności cyklonów tropikalnych.

—-

James P. Kossin i Kenneth R. Knapp z Krajowego Centrum Informacji o Środowisku w Madison, w Narodowej Administracji Oceanicznej i Atmosferycznej (NOAA), Timothy L. Olander i Christopher S. Velden z Kooperacyjnego Instytutu Meteorologicznych Badań Satelitarnych na Uniwersytecie Wisconsin-Madison, mając na względzie pomiary intensywności cyklonów tropikalnych (TC – tropical cyclone), wcześniejszy ujednolicony         28-letni zapis danych satelitarnych za okres 1982–2009 zastąpili dłuższym 39-letnim zapisem za okres 1979-2017 3.

Powodem powyższej korekty było to, że starszy zapis satelitarny, pomimo, że wykazywał rosnące globalne trendy intensywności TC, to jednak nie były one statystycznie istotne przy 95% poziomie ufności (Cl – confidence level). Natomiast, gdy naukowcy zastosowali nowy ujednolicony globalny zapis intensywności TC, trendy wzrostowe intensywności TC zaczęły być już statystycznie istotne przy 95% poziomu ufności (Cl).

W sumie dla badanego 39-letniego okresu zapisu satelitarnego, prawdopodobieństwo przekroczenia wzrostów intensywności TC wyniosło około 5% na dekadę, przy 95% poziomu ufności (CI), czyli w przedziale statystycznym od około 0,4 do 11% na dekadę.

Życie cyklonów tropikalnych (TC) w dużej mierze zależy od stopnia intensywności dzięki nagrzewaniu się wód powierzchniowych oceanu oraz atmosfery w oku cyklonu, a także od intensywności wiatrów powierzchniowych zależnych od stopnia nasilenia się barycznego układu niżowego.

W pierwszym przypadku termodynamiczny stan otoczenia jest paliwem napędowym do tworzenia się tzw. potencjalnej intensywności. Natomiast, w drugim przypadku pionowy uskok wiatru w otoczeniu może hamować rozwój tejże potencjalnej intensywności.

W sumie potencjalna intensywność wzrasta wraz z dalszym wzrostem temperatury globalnej i regionalnych, zarówno w oceanach, jak i w atmosferze. Naukowcy przewidują, że dalsze ocieplanie się klimatu spotęguje jeszcze większe zwiększanie się intensywności tropikalnych cyklonów, takich jak huragany, tajfuny i po prostu cyklony.

Oryginalna wersja  zaawansowanej techniki Dvoraka opartej na algorytmie, statystycznym narzędziu opartym na regresji i analogach w celu oszacowania intensywności huraganów oraz prezentacji ich zapisu satelitarnego ADT-HURSAT (ADT – Advanced Dvorak Technique / HURSAT – Hurricane Satellite)   obejmowała 28-letni okres 1982-2009. Jak już wcześniej zostało wspomniane, zespół Jamesa Kossina rozszerzył zakres tych badań w wydłużonym 39-letnim okresie 1979-2017.


Rys.2. Porównanie komplementarnych skumulowanych funkcji dystrybucji globalnych szacunków intensywności huraganu ADT-HURSAT między wczesną i drugą połową 39-letniego okresu 1979-2017 (James Kossin i inni, 2020).

 

Naukowcy przeprowadzili analizy trendów globalnych przy użyciu regresji kwantylowej na tych danych, które dostarczyły dwa kluczowe wyniki:

1) W większości kwantylów w rozkładzie intensywności stwierdzono pozytywne trendy

ale

2) trendy te nie wzrosły do poziomu ufności 95%

Technika Dvoraka posłużyła jako podstawowe narzędzie operacyjne do szacowania intensywności cyklonów tropikalnych w ciągu ponad 40 lat we wszystkich regionach świata narażonych na wystąpienie tych ekstremalnych zjawisk pogodowych.

W rozważanym badanym okresie 1979-2017 istnieje około 225 000 szacunków intensywności ADT-HURSAT w około 4000 pojedynczych TC na całym świecie.

Powyższy wykres przedstawia szanse wystąpienia cyklonów tropikalnych przekraczających 100 węzłów (kt) podczas „wczesnej” (niebieskiej) i „późnej” (czerwonej) części 39-letniego okresu badań. (Wczesny okres to lata 1979-1997, natomiast późny to lata 1998-2017.).

James Kossin w serwisie Carbon Brief wyjaśnił 4:

Nasza analiza wskazuje, że globalny trend wzrostu intensywności cyklonów tropikalnych osiągnął teraz punkt, w którym jest bardzo mało prawdopodobne, aby był losowy, nawet po rozwiązaniu znanych problemów z danymi historycznymi.

Autorzy powyższej pracy zbadali również, jak zmieniał się udział głównych cyklonów tropikalnych w różnych regionach, w tym na Północnym Atlantyku, wschodnim i zachodnim Północnym Pacyfiku, południowym Pacyfiku oraz północnym i południowym Oceanie Indyjskim.

Naukowcy obliczyli, że w regionie północnoatlantyckim prawdopodobieństwo wystąpienia poważnego huraganu wzrosło o 49% na dekadę, licząc od okresu opublikowania tejże pracy.

Innymi słowy, we wczesnym okresie 1979-1997 na Północnym Atlantyku znajdowało się 777 cyklonów tropikalnych. Spośród nich 136 zostało zakwalifikowanych jako główne (porównując niebieską linię na wykresie dla wszystkich cyklonów tropikalnych).

W późniejszym okresie 1998-2017 na Północnym Atlantyku występowały 1572 cyklony tropikalne. Spośród nich 529 zostało zakwalifikowanych jako główne. Odpowiada to wzrostowi liczby głównych cyklonów o 49% na dekadę (porównując czerwoną linię na wykresie dla wszystkich cyklonów tropikalnych).

—-

W dokonanej analizie oceny przeszłych zmian częstotliwości głównych huraganów atlantyckich w latach 1851-2019, główny autor pracy Gabriel A. Vecchi z Wydziału Nauk o Ziemi na Uniwersytecie w Princeton, wraz ze swoimi współpracownikami, doszedł do wniosku, że za zmniejszeniem częstotliwości tych naturalnych żywiołów na północnym Atlantyku w okresie 1950-80, odpowiadały, zakwestionowana w 2021 roku przez profesora Manna wielodekadowa oscylacja atlantycka (AMO – Atlantic Multidecadal Oscillation) oraz aerozole antropogenicznego pochodzenia pochodzące z uprzemysłowienia krajów europejskich, amerykańskich oraz Rosji i Japonii, które skutecznie zamaskowały wkład gazów cieplarnianych w ocieplenie klimatu 5.

Autorzy w swojej pracy napisali:

Homogeniczne satelitarne obserwacje intensywności cyklonów tropikalnych (TC – tropical cyclone) od wczesnych lat 80-tych pokazują wzrost udziału głównych huraganów (MH – major hurricane) w całości TC zarówno na północnym Atlantyku (NA – North Atlantic), jak i na całym świecie.

Na podstawie 2 wersji bazy danych dotyczących huraganów północnoatlantyckich (HURDAT2) zawierających zapisy aktywności huraganów na północnym Atlantyku w prawie 170-letnim zapisie aktywności huraganów, od 1851 do 2019 roku, naukowcy zastosowali zapis uderzeń huraganów w USA obejmujących burze, w przypadku których siła huraganu, czyli jego prędkość, wynosiła od 33 do 50 m/s .

Wiatry, które uderzyły w kontynentalne USA z Atlantyku lub Zatoki Meksykańskiej. A więc ten zapis obejmuje burze, dla których centrum nie przeszło na ląd.


Fot.32. Widok z lotu ptaka na Gulfport w stanie Mississippi, ukazujący powódź w następstwie huraganu Camille 1969. Źródło: Archiwum zdjęć historycznych Granger / Zdjęcie Alamy .

 

W sumie autorzy pracy zwrócili uwagę, że, w ciągu 40 lat, ilość huraganów głównych, w kategoriach Saffira-Simpsona: 3, 4, i 5, na północnym Atlantyku wzrosła wraz z dalszym ocieplaniem się klimatu w odpowiedzi na dalszy wzrost koncentracji dwutlenku węgla.

W erze antropogenicznej szczególny wpływ na wahania częstotliwości cyklonów tropikalnych (TC) ma obecność wielodekadowych zmian wynikających z występowania kombinacji wewnętrznej zmienności w systemie pogodowym i klimatycznym oraz reakcji na wymuszanie klimatu naturalnego i antropogenicznego.

W metodologii badań, naukowcy użyli zapisu dłuższych okresów czasu w zestawie danych HURDAT2.

  1. wcześniejszy okres przedsatelitarny 1851-1971 zamiast okresu         1878-1971
  2. późniejszy okres satelitarny 1972-2019 zamiast okresu 1972-2008

Do badań obserwacyjnych głównych huraganów (MH) w symulacjach komputerowych, zespół Gabriela Vecchiego zastosował tzw. model promienia wiatru HWIND 1998-2013 o promieniu 50 m/s , w podanym badanym okresie czasu (1998-2013), na podstawie wielu obserwacji dla jednego głównego huraganu (MH).

Profesor Gabriel A. Vecchi w serwisie Carbon Breef powiedział 6:

Jednym z czynników ograniczających ocenę zmian cyklonów tropikalnych jest to, że zapisy satelitarne są stosunkowo krótkie, co utrudnia identyfikację długoterminowych trendów wśród naturalnych wahań z roku lub dekady na następny.

Przed erą satelitów występowanie i intensywność huraganów były w dużej mierze rejestrowane w oparciu o bezpośrednie obserwacje huraganów przychodzących na ląd lub przechodzących w pobliżu lądu, czy też poprzez obserwacje ze statków na morzu napotykających huragany.

W sumie autorzy oszacowali liczbę burz, które mogłyby wystąpić i nie zostały wykryte w każdym roku wcześniejszej ery przedsatelitarnej. Następnie autorzy dostosowali istniejący zapis, aby odzwierciedlić te nieodkryte huragany.


Referencje:
1. Murakami H. et al., 2020 ; Detected climatic change in global distribution of tropical cyclones ; Proceedings of the National of Sciences ; https://www.pnas.org/content/117/20/10706
2. Dunne D., 2020 ; Global warming has ‘changed’ spread of tropical cyclones around the world ; Carbon Brief ; https://www.carbonbrief.org/global-warming-has-changed-spread-of-tropical-cyclones-around-the-world/
3. Kossin J. P. et al., 2020 ; Global increase in major tropical cyclone exceedance probability over the past four decades ; Proceedings of the National Academy of Sciences ; https://www.pnas.org/doi/full/10.1073/pnas.1920849117
4. Dunne D., 2020 ; Major tropical cyclones have become ‘15% more likely’ over past 40 years ; Carbon Brief ; https://www.carbonbrief.org/major-tropical-cyclones-have-become-15-more-likely-over-past-40-years/
5. Vecchi G. A. et al., 2021 ; Changes in Atlantic major hurricane frequency since the late-19th century ; Nature Communications ; https://www.nature.com/articles/s41467-021-24268-5
6. McSweeney R., 2021 ; Recent increase in major Atlantic hurricanes may be ‘rebound’ after 1960-1980s lull ; Carbon Brief ; https://www.carbonbrief.org/recent-increase-in-major-atlantic-hurricanes-may-be-rebound-after-1960-1980s-lull/

Świat przyrodniczy wśród nas i wokół nas

Mamy trzy światy przyrodnicze:
a) naturalny (już coraz mniej gatunków dzikich z dala od siedzib ludzkich)
b) uczłowieczony niezależny (też coraz mniej gatunków półdzikich z łąk czy muraw oraz z siedlisk synantropijnych, towarzyszącym ludziom w wioskach i miastach, ale o wiele więcej gatunków niż posiada świat naturalny)
c) uczłowieczony zależny (znikoma ilość gatunków udomowionych – głównie ssaków i ptaków, ale za to ogromna ilość osobników tychże gatunków, stanowiąca ponad 15-krotnie większą ilość masy zwierzęcej niż posiada świat naturalny fauny; tu nie ma podanej liczby gatunków roślin udomowionych, ale też jest znikoma ilość i zapewne, wielokrotnie większa niż posiada naturalny świat flory)
Jak więc zrobić tak by świat naturalny zwiększał się bardziej, świat półdziki zwiększał się mniej, a świat hodowlany żeby jednak nie zwiększał się zbyt mocno, ale na tyle by zapewnić żywność każdemu mieszkańcowi Ziemi.
To karkołomne zadanie przed ludzkością. Dać swobodnie rozwijać się w tradycyjny sposób rdzennym ludom plemiennym i sami jako przedstawiciele cywilizacji żebyśmy powrócili do zrównoważonego, aczkolwiek też tradycyjnego rolnictwa, leśnictwa, myślistwa i rybołówstwa.
Jak ukształtować naszą cywilizację w zgodzie z rytmami przyrody? Jak od teraz budować infrastrukturę cywilizacji by nie zakłócała tychże rytmów przyrody?
Jak budować miasta, wioski, drogi, koleje, mosty, osiedla, obiekty gospodarcze, turystyczne, usługowe, handlowe i wiele innych tak by nie zakłócić wspomnianych rytmów przyrody?
Jak kształtować węzły i korytarze ekologiczne pomiędzy formami ochrony przyrody nie tylko poza miastami i wioskami, ale i również w samych ich sercach. Nie tylko na obrzeżach, ale i w ich środkach. Są gatunki, które lubią żyć koło nas. I żyją. Nawet o wielu z nich nie zdajemy sobie sprawy. I powinniśmy o tym pomyśleć, jak im zapewnić bezpieczeństwo w obrębie i na obrzeżach naszej cywilizacji składającej się z miast i wiosek.
Planistami i architektami przestrzeni urbanistycznych oraz krajobrazowych powinni zostawać ludzie wrażliwi na dobro przyrody, które w końcu powinno być priorytetem nie tylko ze względu na funkcje usługowe, w tym zdrowotne dla nas ludzi, ale i również ze względu na funkcje etyczne i moralne. Tak etyka i moralność powinna być poszerzona poza ludzkie aspekty by też dotykać spraw świata zwierzęcego i roślinnego.
Jak dotychczas świat roślin i zwierząt ma dla nas głównie znaczenie instrumentalne, dotyczące upraw tych pierwszych i hodowli tych drugich. Ewentualnie ze świata zwierząt preferujemy pewne gatunki jak głównie psy i koty, by były naszymi towarzyszami dla zaspokojenia naszego ego.
Świat półdziki jest najmniej poznany. To są generalnie w ekosystemach otwartych łąki, murawy czy pastwiska, a w ekosystemach zamkniętych pasy zadrzewień i zakrzewień, głównie w parkach miejskich i wiejskich. Do tej kategorii można też zaliczyć siedliska porębowe w lasach gospodarczych.
Zmieniamy diametralnie świat przyrody. Tworzymy go według własnych wyobrażeń i wygody. Niejednokrotnie oddziałuje tu czynnik atawistyczny. Lęk przed groźnymi zwierzętami, uzasadniony lub też wyolbrzymiony. Nie chcemy w swoim świecie komarów, much, pcheł, pająków, węży, szczurów itp. stworzeń, bo albo napawają nas obrzydzeniem albo lękiem. Dlatego też nasz dwunożny gatunek mocno odizolowuje się od wielu obszarów przyrodniczych. I najczęściej odizolowuje się niszcząc je i sam się osiedla w swoim kokonie technokratyczno-konsumpcyjnej cywilizacji. Aby jak najdalej od przyrody. Ewentualnie spora część ludzi toleruje przyrodę wygładzoną i ukształtowaną przez nich. Im mniej dzikości, np. w ogrodzie, tym większa izolacja od rytmów natury.
I tak się dzieje teraz w dużym zakresie prawie w każdym zakątku globu ziemskiego. Ludzie cały czas non stop niszczą naturalne siedliska po to by je przekształcać w półnaturalne czy też synantropijne, takie w pełni udomowione.
Co zrobić żeby ludzi zawrócić z tej błędnej drogi? Przecież im mniej naturalnych, zwłaszcza leśnych, ekosystemów, w tym wodnych śródlądowych, tym mniej pochłaniania dwutlenku węgla oraz mniej bioróżnorodności. Czy nie ma już żadnych szans na to by ludzi zbliżyć do dzikiej natury? Czy nie można sprawić jakoś by poczuli na nowo jej dźwięki, zapachy i ujrzeli jej immanentne i transcendentne piękno ukryte w dzikości?
Czegóż więcej trzeba by ludzie jak najmniej manipulowali przyrodą, a jak najwięcej kontemplowali jej piękno i niesamowity urok?
Co zrobić by zadziałała zasada 4: więcej odbudować ekosystemów naturalnych (w których jest wiele roślin leczniczych), mniej odbudować ekosystemów półnaturalnych (w których jest też wiele roślin leczniczych), nie odbudowywać ekosystemów synantropijnych (poza utrzymywaniem ekosystemów z roślinami leczniczymi) oraz likwidować przemysłowe sektory gospodarcze upraw roślin i hodowli zwierząt (agrobiznes oparty na chemizacji i intensyfikacji) a odbudowywać małe proekologiczne tradycyjne gospodarstwa rolne tychże uprawianych roślin i hodowanych zwierząt.
Jak to wszystko pogodzić? Jak to połączyć by nie było kolizji cywilizacji z przyrodą? Tym powinni się zająć wszechstronni eksperci znający się na planowaniu przestrzennym nie tylko urbanizacji naszych miast i wiosek czy też ewentualnie krajobrazów polnych i leśnych (zagospodarowanych), ale i również form ochrony przyrody jak parki narodowe, krajobrazowe, rezerwaty przyrody, obszary Natura 2000 i inne. Ale nie tylko. Przyroda jest też poza formami ochrony przyrody i o niej też należy zawsze pamiętać. W szczególności dotyczy to gatunków roślin i zwierząt oraz siedlisk jakie otworzą w obrębie miast i wiosek. Tam też powinno się zadbać by nie było kolizji przyrody z cywilizacją. W szczególności chodzi o zabezpieczenie dróg szybkiego ruchu nie tylko dla wygód ludzi, ale i też dla bezpieczeństwa wielu zwierząt. Jednak powinno się im zapewnić alternatywne szlaki przemieszczania się. Wspomniane korytarze ekologiczne powinny być priorytetem w ochronie zurbanizowanej przyrody w każdym mieście, w każdej wiosce, w każdym zakątku kuli ziemskiej. Jednak powinny być preferowane nasłonecznione przejścia nadziemne a nie zacienione podziemne.
Ludzie nie powinni wszystkiego przeliczać na pieniądze, tylko podejść etycznie do problemu. Nie każde zwierzę zechce pod ziemią przemieszczać się poza ryjącymi w ziemi, dlatego nad ziemią powinny być takie korytarze robione w postaci mostów. W strefach gdzie nie ma dróg i zabudowy powinny być zaplanowane odpowiednie zadrzewienia i zakrzewienia, zwłaszcza wśród rzek i jezior, tak by populacje wielu gatunków zwierząt, a nawet roślin grzybów czy zarodników grzybów, mogły się przemieszczać.
Takich przejść w korytarzach ekologicznych pomiędzy węzłami ekologicznymi powinno być wykonywanych jak najwięcej również w obszarach poza miastami i wioskami, tam gdzie są drogi i koleje czy inne przeszkody infastruktury ludzkiej.
To nie jest proste. Aby wykonać takie plany architektoniczno-krajobrazowe trzeba wielu poważnie wykonanych projektów by połączyć potrzeby cywilizacyjne z potrzebami środowiskowymi. Jednak takie plany powinny być już analizowane i w końcu wdrażane w życie. W każdym obszarze planety Ziemi.
Źódła:

Susza – coraz częstsze zjawisko atmosferyczne w coraz cieplejszym świecie

Susza w obecnych czasach jest poważnym problemem cywilizacyjnym, uderzającym bezpośrednio w naszą działalność gospodarczą, głównie w sektorach: energetycznym, rolniczym i przemysłowym. Również jej ujemny wpływ coraz bardziej zaznacza się w ekosystemach lądowych.
Suszom najczęściej towarzyszą fale upałów, a także, gdy ich okres się wydłuża, dają o sobie znać wielkoskalowe pożary, o których powiemy sobie w dalszej części książki.
—-
Bramha Dutt Vishwakarma z Uczelni Nauk Geograficznych na Uniwersytecie w Bristolu, w Wielkiej Brytanii, w swojej autorskiej pracy pisze, że w 2019 roku jedna czwarta światowej populacji była dotknięta poważnym niedoborem wody przez instytut zasobów wodnych 1. A jak wynika z wcześniejszych prac na ten temat, do 2050 roku przewiduje się, że dostępu do wody nie będzie mieć połowa ludzkości, przy kontynuacji obecnych wysokich emisji gazów cieplarnianych. Te wszystkie prognozy na przyszłość oparte są na coraz dokładniejszych modelach, dzięki czemu potrafimy zrozumieć coraz lepiej współczesną czasoprzestrzenną charakterystykę susz. Dlatego liczne grupy badawcze badają systematycznie trwające i przeszłe zjawiska suszy, aby uzyskać coraz świeższe, nowe informacje na ich temat.
Ciekawą sprawą jest to jak przebiegają badania satelitarne pomiarów wód gruntowych, czyli zmiany magazynowania wody w gruncie. Badania takie przeprowadziła misja produktów satelitarnych GRACE, które też mierzą zmiany w pokrywach lodowych Antarktydy i Grenlandii, w poziomie globalnych wód oceanicznych. Ponadto, przeprowadzane są badania mniej związane z klimatem, bo z pomiarami skał i gruntów pod względem trzęsień ziemi.
Mamy różne rodzaje susz, które charakteryzują się różnymi zmiennymi hydrologicznymi. I na przykład:
– suszę meteorologiczną ocenia się na podstawie opadów,
– suszę hydrologiczną ocenia się na podstawie spływu lub poziomu zbiornika,
– suszę rolniczą ocenia się na podstawie wilgotności gleby
Do badania suszy potrzebne są długie nieprzerwane obserwacje hydrologiczne.
—-
Rys.1. Dane NASA GRACE pokazują, że ziemia w dużej części Doliny Środkowej Kalifornii tonie w wyniku wydobycia wód gruntowych (The New Republic, 2015).
—-
——–
Nie ulega wątpliwości, że kiedy mamy do czynienia z falami upałów, często też im towarzyszą właśnie susze. I to coraz częściej o wymiarze ekstremalnym, tak samo pod względem wzrostu częstotliwości, intensywności oraz długości, a także zasięgu, zarówno pod względem godzin w ciągu dnia, jak i liczby dni, przeważnie w sezonie letnim, ale i coraz częściej mają i one miejsce w sezonie wiosennym, jak np. w 2018 roku.
Jedną z prac przedstawiających układ synergiczny, omawianych wcześniej w książce fal upałów i teraz zaprezentowanych susz, jest praca zaprezentowana przez zespół naukowy, na którego czele stał Mohammad Reza Alizadeh, doktorant pod kierunkiem prof. Jana Adamowskiego na Wydziale Inżynierii Biozasobów na Uniwersytecie McGill w Kanadzie 2.
Naukowcy zidentyfikowali na obszarze Stanów Zjednoczonych dwa mechanizmy podczas samointensyfikacji i samorozprzestrzeniania się zdarzeń gorąco-suchych, a więc jednocześnie fal upałów i susz, gdzie ich częstotliwość, intensyfikacja i poszerzanie zasięgów potęguje tworzenie się sprzężeń zwrotnych lądowej atmosfery. Podczas występowania tych zdarzeń, wzmocniony efekt jednoczesnych fal upałów i susz ma wpływ na większe parowanie gleb, co powoduje, że malejący ich poziom wilgotności wzmacnia intensywnie wzrost temperatury powietrza, co z kolei prowadzi do znacznego ogrzewania atmosfery i do poważnego wysychania, zarówno wód powierzchniowych i gruntowych, jak i roślin.
Współautor badania prof. Mojtaba Sadegh, badacz ekstremów klimatycznych z Uniwersytetu Stanowego Boise (Boise State University) dla Carbon Brief tak powiedział 3:
Samointensyfikacja oznacza, że ​​susze i fale upałów nasilają się nawzajem; suchość prowadzi do większej ilości ciepła – a więcej ciepła powoduje więcej suchości. Samorozprzestrzenianie się odnosi się do przemieszczania się suchości i ciepła z jednego regionu do drugiego.
Zdarzenia sucho-gorące oddziałują bardzo ujemnie, zarówno na lasy naturalne i gospodarcze, jak i na rolnictwo oraz energetykę w danym regionie, w którym mają one miejsce. Ich długotrwała obecność bardzo często stymuluje inicjację pożarów wielkoskalowych, których tematyka będzie szerzej omawiana w następnej kolejności w książce.
Mojtaba Sadegh wyjaśnił w tym samym serwisie:
Jednoczesne susze i fale upałów są najbardziej szkodliwymi stresorami dla systemu rolniczego. Jeśli jest gorąco, potrzeba więcej wody do nawadniania, a jeśli jest sucho, wody do tego nie ma. Trzy takie zdarzenia w latach 2011–2013 w USA spowodowały straty w rolnictwie o wartości ponad 60 miliardów dolarów.
Złożone sucho-gorące wydarzenia są również bardzo szkodliwe dla lasów i mogą powodować śmiertelność drzew na dużą skalę, taką jak zaobserwowano w górach Sierra Nevada w Kalifornii w latach 2014-2017.
Naukowcy skupili się na dokładnej analizie przestrzennej obszarów Stanów Zjednoczonych. I zwrócili uwagę, że te zdarzenia są najczęstsze w zachodniej części kraju oraz w północno-wschodnich i południowo-wschodnich rejonach. W tym celu przestudiowali ponad stuletnie pomiary temperatury, dokładniej okres 1896-2017, co mało naukowców przeprowadzało, i co było powodem niedokładnemu przyjrzeniu się wielkiej suszy Dust Bowl w latach 30 XX wieku, którą ci naukowcy również zaliczyli do zdarzenia gorąco-suchego.
—-
Fot.1. Niepowodzenie upraw z powodu suszy, Nebraska, USA. Źródło: Inga Spence / Alamy Stock Photo.
—-
Nieparametryczna analiza Manna-Kendalla, na grafice poniżej, pokazuje statystycznie istotny trend wzrostowy średniej rocznej temperatury w latach 1896-2017 w większości przyległych obszarów Stanów Zjednoczonych, nie licząc Alaski i Hawajów (CONUS – Contiguous United States), z wyjątkiem części południowo-wschodniej, na wschód od południowych Wielkich Równin i południowej część Środkowego Zachodu.
—-
Rys.2. Nieparametryczna analiza trendu Manna-Kendalla.
Zacienione na czerwono obszary pokazują statystycznie istotny wzrost (na poziomie 5%) okresu powrotu ( A ) ekstremów suchych, ( B ) ekstremów gorących i ( C ) równoczesnych ekstremów suchych i gorących w całym CONUS w ciągu ostatnich 122 lat ( 1896–2017) w skali rocznej. Na rysunku pokazano również ułamek powierzchni w każdym regionie i cały CONUS z istotnymi trendami (Mohammad Reza Alizadeh i inni, 2020).
—-
Częstotliwość złożonych ekstremalnych zdarzeń sucho-gorących zaczyna wzrastać w całym CONUS, trend, który jest znaczący na poziomie 5% w zachodnich Stanach Zjednoczonych,a także w części północno-wschodnich i południowo-wschodnich Stanów Zjednoczonych.
Montaba Sadegh w serwisie Carbon Brief podsumował temat:
Pokazujemy, że jednoczesne susze i fale upałów rozszerzają się przestrzennie w alarmującym tempie, zwiększając prawdopodobieństwo wystąpienia ekstremów w skali kontynentalnej.
——-
Michael Goulden z Wydziału Nauki Systemu Ziemi w Irvine i Roger Bales z Instytutu Badawczego Sierra Nevada – obaj z Uniwersytetu Kalifornijskiego, powiedzieli, że w latach 2012-2015 w stanie USA w Kalifornii mieliśmy do czynienia z jednoczesnym okresem skrajnie rzadkich opadów deszczu ze wzmocnieniem temperatury powietrza oraz z wymieraniem wielu drzew. Najmocniej ucierpiały drzewa w lasach iglastych, które są mniej odporne na takie ekstrema pogodowe niż liściaste 4.
Naukowcy za pomocą obserwacji terenowych i teledetekcyjnych omówili przestrzenne i czasowe wzorce wymierania drzew oraz deficytu wilgoci podczas suszy w Kalifornii.
Susze to przewaga ewapotranspiracji nad opadami. I z tego też wynika, że tak samo się oblicza ten parametr jak opady deszczu czy śniegu z atmosfery na glebę, tylko w kontekście ubytku wody z tejże gleby do atmosfery. Skumulowana ewapotranspiracja podczas wielkiej 4-letniej suszy 2012-2015 w Kalifornii wyniosła 1500 mm. A poziom wilgotności w glebie obniżył się w tym samym czasie do głębokości 5-15 metrów. Umarło wówczas wiele drzew. Zwłaszcza ucierpiały iglaste, które są bardziej podatne na destrukcyjny wpływ susz, zwłaszcza połączonych z falami upałów, w szczególności ekstremalnych.
W badanym okresie czasu wymarło około 55% drzew.
——–
Naukowcy z Niemiec i Czech pod kierownictwem Vittala Hari z Centrum Badań Środowiskowych UFZ-Helmholtz w Lipsku, wykorzystali dane sięgające roku 1766, aby stwierdzić, że dwuletnia susza 2018-2019 była największą i najcięższą zarejestrowaną w historii suszą, od co najmniej 250 lat 5.
Oszacowali oni, że w drugiej połowie XXI wieku liczba ekstremalnych dwuletnich susz wzrośnie aż siedmiokrotnie, gdy będzie kontynuowany scenariusz najgorszych emisji „biznes jak zwykle”. Miałoby to drastycznie ujemny wpływ na 40 milionów hektarów upraw rolnych, czyli w porównaniu z dniem dzisiejszym, byłby to ubytek aż 60% wszystkich ziem rolnych na świecie.
Symulacje komputerowe pod względem umiarkowanych emisji miałyby wpływ na straty rolne o połowę mniej.
Naukowcy napisali w swojej pracy, że dwuletni okres suszy stanowi znacznie poważniejsze zagrożenie dla roślinności aniżeli jednoletnie z poprzednich lat, ponieważ ziemia nie może tak szybko zregenerować się po jednym roku suszy.
Ponadto badacze stwierdzili, że około jedna piąta regionu Europy Środkowej odnotowała słaby stan roślinności w ciągu ostatnich dwóch lat 2018-2019.
W badaniu tym zdefiniowano Europę Środkową jako obejmującą część Niemiec, Francji, Polski, Szwajcarii, Włoch, Austrii, a także Czechy, Belgię, Słowenię, Węgry, Słowację. Stwierdzono, że w tym regionie Europy ponad 34 procent całkowitej powierzchni gruntów jest intensywnie wykorzystywane do celów rolniczych.
—-
Rys.3. Anomalie wskaźnika zdrowia roślinności (VHI – vegetation health index) w latach 2003, 2018 i 2019. ( a , b , c ) Anomalie średniej temperatury (°C ≤ 30) w okresie letnim (czerwiec–sierpień) dla roku 2003, 2018 i 2019 na podstawie klimatologii z lat 1980–2010 oraz ( d , e , f ) odpowiadające im anomalie opadów (%). ( g , h , i ) Stan roślinności pod względem VHI odpowiednio w latach 2003, 2018 i 2019.
( j ) Roczny rozwój okresu letniego, procent powierzchni o słabej kondycji roślinności (tj. VHI °C ≤ 30), oszacowany w regionie środkowoeuropejskim (oznaczonym czarnym prostokątem na panelu g) w latach 2000–2019. Gruba czarna kreskowana linia przedstawia roczną średnią tygodniową VHI w miesiącach letnich, a różowe oznaczenia reprezentują odpowiednio 95% poziom ufności w oparciu o rozkład próby średniej. W latach 2003, 2015, 2018 i 2019 nastąpiło zaburzenie kondycji roślinności, które objęło ponad 20% regionu środkowoeuropejskiego. Obszar zacieniony na szaro podkreśla lata 2018 i 2019, podczas których słaba kondycja roślinności utrzymuje się na ponad 20% obszaru środkowoeuropejskiego, kolejno przez 2 lata.
k) Roczne anomalie opadów i temperatury w okresie letnim oszacowane w regionie Europy Środkowej w ciągu 254 lat. Czerwone kropki oznaczają trzy wyjątkowe lata 2003, 2018 i 2019, w których anomalie średniej temperatury latem nad Europą Środkową osiągnęły rekordowo ekstremalne warunki przekraczające 2°C ; a anomalie opadów wykazują deficyt przekraczający 20%. Mapy na rysunku są generowane przy użyciu Pythona w wersji 3.7.3 (https://www.python.org/search/?q=Python+3.7.3) (Vittal Hari i inni, 2020).
Naukowcy dalej opisują, że gdy w lecie 2003 roku wzrost temperatury był bardziej skoncentrowany w Europie środkowej i południowej, lato 2018 roku charakteryzowało się nieprawidłowym wzrostem w Europie środkowej i północno-wschodniej. Mimo wszystko w obu danych okresach, wzrost temperatury i zmniejszenie opadów deszczu było najsilniejsze w regionie środkowoeuropejskim (rys.3. d–f), co w końcu doprowadziło do przedłużających się ekstremalnych warunków suszy gdzie ucierpiało mocno rolnictwo.
——-
Podobne badanie przeprowadzone przez zespół naukowy dr Any Bastos z Wydziału Geografii, Uniwersytetu Ludwika Maksymiliana w Monachium – przez ówczesną kierowniczkę grupy w Instytucie Biogeochemii im. Maxa Plancka w Jenie, w Niemczech, polegało na porównaniu ekstremalnych fal upałów 2018 roku z minionymi podobnymi zdarzeniami w 2010 i 2003 roku 6.
Naukowcy odkryli, że złożone zjawisko ekstremalnych fal upałów i susz w 2018 roku różniło się wyraźnie od tych z 2010 i 2003 roku, tym, że zarówno fala ciepła, jak i susza w Europie Środkowej miały już miejsce w okresie wiosennym.
Dr Ana Bastos powiedziała w serwisie Carbon Brief 7:
Warunki wiosenne doprowadziły do ​​wzmocnienia fotosyntezy na początku sezonu wegetacyjnego, ale kosztem silnego wyczerpania gleby i wody. Na zdominowanych przez uprawy obszarach w Europie Środkowej zwiększony wzrost wiosną sprawił, że ekosystemy były bardziej podatne na suszę latem i spowodował on załamanie fotosyntezy.
Warto zaznaczyć, że dodatnie anomalie temperatury były znacznie większe w latach 2003 i 2010 niż w 2018 roku, gdyż ogólnie średnia temperatura powierzchni Ziemi czy w mniejszej skali kontynentu Europy, w pierwszej dekadzie XXI wieku była niższa niż pod koniec drugiej dekady.
Z tego co się jeszcze dowiadujemy z powyższej pracy, to jest to, że rekordowo wysokie temperatury i promieniowanie oraz rekordowo niskie opady w sezonie letnim ograniczały się głównie do Europy Środkowej, jak widać na poniższym rysunku. Jednak w porównaniu z innymi latami w 40-letnim zapisie, rok 2018 zarejestrował najsilniejsze przejście między mokrą zimą/wiosną a suchym latem/jesienią w skali kontynentalnej.
Mapy powyżej pokazują, jak była ciepła i słoneczna wiosna 2018 roku na dużej części kontynentu w porównaniu z innymi latami, w których występowały przede wszystkim fale upałów w okresie letnim. Z kolei w 2018 roku, w niektórych częściach Europy w porze wiosennej wystąpiły również niezwykle ogromne deficyty opadów, jednak nie były one jednolite na całym kontynencie.
Za pomocą 11 modeli naukowcy przeprowadzili symulacje wegetacji roślin i porównali trzy okresy wiosenno-letnie 2003, 2010 i 2018. Zaobserwowali wówczas duży przyrost roślinności w porze wiosennej ze względu na większe pochłanianie dwutlenku węgla przez rośliny. Jednak utrzymujący się dłuższy wzrost obniżonych opadów deszczu oraz wysokiej temperatury spowodował powstanie ekstremalnego zdarzenia gorąco-suchego w 2018 roku, o którym już była mowa wcześniej w książce. Z kolei zdarzenia wiosenne 2003 i 2010 nie były pod wpływem fal upałów, ale letnie już tak i to z dużą intensywnością.
—-
Rys.4. Średnia temperatura (na górze), opady (w środku) i promieniowanie słoneczne (na dole) w Europie w miesiącach wiosennych: 2003 (po lewej), 2010 (pośrodku) i 2018 (po prawej). Kolor czerwony oznacza ponadprzeciętne temperatury lub deficyty opadów, natomiast żółty oznacza ponadprzeciętne promieniowanie słoneczne. (Ana Bastos i inni, 2020)
—-
Dr Ana Bastos wyjaśnia w tym samym artykule dla Carbon Brief:
Na zdominowanych przez uprawy obszarach w Europie Środkowej zwiększony wzrost wiosną sprawił, że ekosystemy były bardziej podatne na suszę latem i spowodował załamanie fotosyntezy latem.
A więc, wniosek z tego wypływa następujący, że wraz z rozpoczęciem lata w 2018 roku i cały czas trwającym od wiosny okresem suszy, wysychające gleby oraz rośliny uwalniały duże ilości dwutlenku węgla do atmosfery doprowadzając do jeszcze większego wzrostu temperatury w regionie środkowej Europy oraz potencjalnie bardziej zwiększonej suszy.
Naukowcy też zauważyli, że regiony Europy takie jak Skandynawia, są silnie zalesione i znacznie mniej odczuły wtedy wpływ wzrostu temperatury globalnej i suszy niż bardziej wylesione i o charakterze rolniczym regiony środkowej Europy.
——-
Kolejne badanie koncentruje się już na wcześniejszym wykryciu wśród szumu zmienności naturalnych, sygnału zmian klimatu, dokładniej wymuszenia gazów cieplarnianych, których skutkiem jest właśnie nasilenie się suszy w XX wieku.
Kate Marvel, z Instytutu Badań Kosmosu im. Goddarda przy NASA (NASA GISS – NASA Goddard Institute for Space Studies) oraz z Wydziału Fizyki Stosowanej i Matematyki Stosowanej, na Uniwersytecie Columbia w Nowym Jorku, jako główna autorka pracy, wraz ze swoimi współpracownikami, przedstawiła dane występowania susz za pomocą modeli klimatycznych, obserwacji i rekonstrukcji klimatycznych (badań pośrednich – tzw. proxies) 8.
Za pomocą wskaźnika nasilenia suszy Palmera (PDSI – Palmer Drought Severity Index), który również uwzględnia wpływ ocieplenia pod kątem pomiarów opadów deszczu i ewapotranspiracji, naukowcy zbadali wilgotność gleby posługując się metodą rekonstrukcji klimatu za pomocą zapisu słojów drzew w czasie 600-900 lat.
Kate Marvel dla serwisu Carbon Brief powiedziała następująco 9:
Słoje drzew dają nam obraz warunków w letnim okresie wegetacyjnym. Jeśli jest mokry rok z dużą wilgotnością gleby, drzewa rosną bardziej. Jeśli jest suchy rok, rosną mniej. Tak więc grubość poszczególnych słojów mierzy wilgotność gleby w danym roku.
—-
Rys.5. Siła związku między szacunkami PDSI na podstawie danych obserwacyjnych – rekonstrukcji słojów drzew (zielony) i zbiorów danych meteorologicznych (CRU, ciemnoniebieski; DAI, jasnoniebieski) – a „odciskiem palca” zmian klimatu. Na osi y liczba powyżej zera wskazuje na trend pozytywny, a liczba poniżej zera na trend negatywny. Wyniki są pokazane dla trzech okresów: 1900-49 (na górze), 1950-75 (w środku) i 1980-2017 (na dole). Na dolnym wykresie rekonstrukcje słojów drzew zastąpiono nowoczesnymi zestawami danych dotyczących wilgotności gleby na powierzchni (pomarańczowy) i korzeni roślin (czerwony). Źródło: Kate Marvel i in. (2019)
—-
Zastosowując tzw. technikę „odcisków palców”, polegającą na wykryciu sygnału zmian klimatu, naukowcy porównali zapisy słojów drzew i meteorologiczne z modelowymi symulacjami klimatu w okresie 1900-2100. Symulacje te przedstawiły szereg czynników, które mogą wpływać na ryzyko powstawania i nasilenia suszy w danym okresie czasu. Takimi czynnikami stymulującymi mogą być też emisje aeorozoli z erupcji wulkanów, jak i przemysłowe. Aby uwzględnić wpływ spowodowanych przez człowieka zmian klimatycznych, naukowcy wykorzystali scenariusz wysokiej emisji gazów cieplarnianych znany jako RCP8.5.
Jak widać z danych zestawów meteorologicznych, Jednostki Badań Klimatycznych (CRU – Climatic Research Unit) i interfejsu dostępu do danych (DAI – Date Access Interface), okres 1950-1975 zamaskował sygnał wymuszenia gazów cieplarnianych (dodatnich emisji GHG), ale ujawnił sygnał wymuszenia aerozoli (ujemnych emisji GHG).
Na powyższym wykresie badacze przedstawili analizę porównawczą okresów 1900-1949 (na górze), 1950-1975 (w środku) i 1980-2017 (na dole) za pomocą rekonstrukcji klimatycznych, obserwacji meteorologicznych i symulacji modelowych.
Od początku XX wieku do początku lat 80, sygnał antropogenicznych zmian klimatu wymuszających nasilenie częstotliwości, długości, intensywności i zasięgu geograficznego susz, był jeszcze słabo wykrywalny. We wcześniejszych okresach szum w systemie klimatycznym powodowały naturalne zmienności klimatyczne. Świat w tym okresie czasu nie był tak mocno ocieplony, ale mimo to susze już miały miejsce, choć nie były tak silne jak od początku lat 80 do dziś.
Spadkowy zapis słojów drzew w latach 1950-1975, jak widać na wykresie (rys.5.), był spowodowany nasileniem emisji chłodzących klimat aerozoli antropogenicznego pochodzenia oraz większym zachmurzeniem na półkuli północnej, które zmniejszało fotosyntezę drzew, co przyczyniało się do bardziej zaburzonych przyrostów w słojach drzew w latach chłodniejszych od średniej. Jednak w tym okresie czasu na Wielkich Równinach USA w latach 1950-56 i 1962-66 miały miejsce długotrwałe, ale nie ekstremalne susze, dla których jednak sygnał antropogenicznych wymuszeń radiacyjnych nie był jeszcze tak silny jak od lat 80 do dziś. W tym okresie sygnał wymuszeń gazów cieplarnianych został zamaskowany sygnałem wymuszeń aerozoli chłodzących klimat, co też mogło dawać mylące wrażenie, że antropogeniczne zmiany klimatu, w tym ich wpływ na susze, nie ma miejsca.
Z kolei zapisy słojów drzew w latach 1900-1949 i 1980-2017 wyrażnie pokazały ich trend zwyżkowy oraz wyraźniejszy sygnał wymuszeń radiacyjnych na inicjację i nasilenie susz w XX wieku, gdyż sygnał wymuszeń aerozoli nie był tak silny. W pierwszym przypadku, gdyż nie był tak mocno jeszcze uprzemysłowiony świat, a w drugim przypadku, ponieważ ludzkość postanowiła zredukować znacząco emisje chłodzących aerozoli siarczanowych w okresie 1950-1975, co w latach 90 odczuliśmy jako wzmocnienie globalnego ocieplenia.
W pierwszej połowie XX wieku były dwie ekstremalne susze, gdzie oczywiście wpływ na nie miały także naturalne zmienności klimatyczne. Była to słynna przede wszystkim susza Dust Bowl, której zasięg sięgał od stanu Oklahoma w USA do prowincji Saskatchewan w Kanadzie. Ta gigantyczna i największa w historii Ameryki Północnej susza przyszła w trzech falach, w latach: 1934, 1936 i 1939-1940. Właściwie zaczęła się ona nawet już od 1931 roku. Zabiła ona wtedy ponad 5000 Amerykanów i 1100 Kanadyjczyków.
Również podczas drugiej wojny światowej w Chinach w latach 1941-1942, w prowincji Henan zmarło z głodu około 3 milionów ludzi, którym wojsko zabierało żywność dziesiątkowaną przez wiatry, gradobicia i szarańczę. Była to jedna z największych klęsk cywilizacyjnych.
Natomiast w okresie 1980-2017 wraz z wyraźnym sygnałem wymuszeń antropogenicznych gazów cieplarnianych, pojawiło się coraz więcej ekstremalnych susz, zwłaszcza od początku XXI wieku.
W latach 1987-89 na Wielkich Równinach blisko Parku Narodowego Yellowstone susza wraz z falą upałów po raz pierwszy doprowadziły do inicjacji pożarów lasów.
Natomiast w latach 2006-2010 w Syrii potężna susza doprowadziła 1,5 miliona mieszkańców do uchodźstwa z powodu zmian klimatu, które doprowadziły w tym kraju gospodarkę rolną do ruiny.
—-
Referencje:
1. Vishwakarma B D., 2020 ; Monitoring Droughts From GRACE ; Interdisciplinary Climate Studies ; https://www.frontiersin.org/…/fenvs.2020.584690/full
2. Alizadeh M. R. et al., 2020 ; A century of observations reveals increasing likelihood of continental-scale compound dry-hot extremes ; Science Advances ; https://www.science.org/doi/10.1126/sciadv.aaz4571
3. Dunne D., 2020 ; US sees ‘alarming’ increase in combined heatwaves and droughts ; Carbon Brief ; https://www.carbonbrief.org/us-sees-alarming-increase-in…
4. Goulden M. L. et al., 2019 ; California forest die-off linked to multi-year deep soil drying in 2012–2015 drought ; Nature Geoscience ; https://www.nature.com/articles/s41561-019-0388-5
5. Hari V. et al., 2020 ; Increased future occurrences of the exceptional 2018–2019 Central European drought under global Warming ; Scientific Reports ; https://www.nature.com/articles/s41598-020-68872-9
6. Bastos A. et al., 2020 ; Direct and seasonal legacy effects of the 2018 heat wave and drought on European ecosystem productivity ; Science Advances ; https://www.science.org/doi/10.1126/sciadv.aba2724
7. Dunne D., 2020 ; Warm spring worsened Europe’s extreme 2018 summer drought, study says ; Carbon Brief ; https://www.carbonbrief.org/warm-spring-worsened-europes-extreme-2018-summer-drought-study-says/
8. Marvel K. et al., 2019 ; Twentieth-century hydroclimate changes consistent with human influence ; Nature ; https://www.nature.com/articles/s41586-019-1149-8
9. Dunne D., 2019 ; Climate change has influenced global drought risk for ‘more than a century’ ; Carbon Brief ; https://www.carbonbrief.org/climate-change-has-influenced-global-drought-risk-for-more-than-a-century/

Wzrost stężenia dwutlenku węgla w atmosferze

Już w drugiej połowie XIX wieku tacy naukowcy jak Eunice Foote ze Stanów Zjednoczonych czy John Tyndall z Irlandii rozpoznali eksperymentalnie własności fizyczne podstawowych gazów cieplarnianych, jak dwutlenek węgla i para wodna. Tyndall dodatkowo zbadał też cząsteczkę metanu.
Amerykańska uczona Eunice Newton Foote po raz pierwszy ujawniła światu naukowemu, że dwutlenek węgla jest gazem odpowiedzialnym za wzrost temperatury w atmosferze. Niestety mylnie zinterpretowała absorpcję CO2przez promieniowanie. Prawidłowe światło podczerwone pomyliła ze światłem widzialnym. Co jednak współczesny świat nauki wybaczył i docenił uczoną za to, że zwróciła po raz pierwszy uwagę na dwutlenek węgla i parę wodną, że mają własności cieplarniane 1.
Wyniki uczonej zostały przedstawione w 1856 roku na zebraniu American Association for the Advancement of Science przez profesora Johna Henry’ego.
—-
Z kolei John Tyndall, niezależnie od odkrycia Foote, w 1860 roku w swoich wynikach pracy eksperymentalnej, zwrócił po raz pierwszy uwagę na wspomniane gazy cieplarniane – dwutlenek węgla, parę wodną, a także metan 2.
Uczony ten zbudował specjalny zestaw do badania własności absorpcyjnych gazów w zakresie promieniowania termicznego („radiant heat”) z wykorzystaniem termostosu i w ten sposób został pionierem spektroskopii absorpcyjnej.
—-
Pierwsze obliczenie podwojenia zawartości dwutlenku węgla pod wpływem wzrostu temperatury globalnej, poczynając od 1900 roku, czyli wyznaczenie po raz pierwszy czułości klimatu, w swoich obliczeniach analitycznych pokazał światu naukowemu szwedzki chemik Svante Arrhenius 3.
Czułość klimatu u Arrheniusa wyniosła 5-6 stopni Celsjusza, a więc prawie dwukrotnie więcej niż to co zostało ustalone w 5 Raporcie Oceny IPCC w latach 2013-14 oraz teraz w 6 Raporcie Oceny IPCC w latach 2021-2022.
—-
Na temat globalnego ocieplenia wywołanego przez człowieka jest szereg dowodów ustalonych już w latach 50 XX wieku. Są to tak zwane klimatyczne odciski palców.
W 1957 roku amerykański oceanolog Roger Revelle wraz z austriackim fizykiem jądrowym Hansem Suessem zbadali po raz pierwszy izotopy dwutlenku węgla w atmosferze i w oceanach. Zaobserwowali, że nastąpił znacznie większy stosunek izotopu węgla 12C do izotopu węgla 13C. Wyciągnęli prosty wniosek, że skoro rośliny bardziej preferują 12C niż 13C, to skoro odkryto rosnący stosunek tego pierwszego do drugiego, to oznaczało, że pochodzą one z roślin kopalnych, czyli ze spalanego węgla kamiennego i brunatnego 4.
—-
Po wielu latach Florian Böhm i jego współpracownicy z Centrum Badawczego Nauk o Ziemi Morskiej – GEOMAR w Kilonii zauważyli podczas swoich badań, że od początku rewolucji przemysłowej, czyli od początku drugiej połowy XIX wieku, gdy zaczęto coraz intensywniej spalać paliwa kopalne i emitować dwutlenek węgla do atmosfery, stosunek izotopowy węgla 12C zaczął się powiększać względem 13C. I to był wyraźny sygnał, że do obecnego globalnego ocieplenia przyczynia się człowiek już od ponad 200 lat 5.
Autorzy pracy piszą:
Szkielety z gąbki koralowej są doskonałym narzędziem do rekonstrukcji historii izotopów rozpuszczonego węgla nieorganicznego (DIC – Dissolved Inorganic Carbon) w tropikalnych wodach powierzchniowych. Zapisy izotopów węgla z gąbek koralowych wyraźnie odzwierciedlają przemysłowy wzrost izotopów węgla δ12C atmosferycznego dwutlenku węgla z precyzją, która pozwala na ilościowe interpretacje.
Na podstawie zapisu zestawu izotopów δ13C pochodzących z czterech okazów gąbek karaibskich, stwierdzamy, że odpowiedź izotopowa nierozpuszczonego węgla nieorganicznego (DIC) w wodzie powierzchniowej na zmieniający się skład izotopowy atmosferycznego CO2 zmieniała się dynamicznie w ciągu ostatniego stulecia, w zależności od tempa zmian atmosferycznych. Trzy z naszych gąbek zapewniają 600-letnie zapisy izotopów 13C.
Na przestrzeni lat 1350-1850, naukowcy zaobserwowali niewielkie wahania izotopów 12C w stosunku do 13C. Wszystko się zmieniło z początkiem rewolucji przemysłowej około 1850 roku, gdy ludzkość zaczęła spalać paliwa kopalne. Wówczas stosunek izotopów 12C do 13C zaczął do dziś się zwiększać.
—-
Rys.1. Względna koncentracja węgla 13C w stosunku do 12C. Na podstawie artykułu Floriana Böhma z 2002 r., Monthly Atmospheric 13C Concentrations, Scripps Institution of Oceanography.
—-
W ciągu 200 lat, które upłynęły od początku epoki przemysłowej, względna zawartość 13C spadła o 2 promile.
Dwutlenek węgla łącząc się w prostej reakcji chemicznej z cząsteczką tlenu, utlenia się do cząsteczki dwutlenku węgla:
C + O2 = CO2
Gdy przybywa dwutlenku węgla w atmosferze, czyli im więcej rośnie jego stężenie, tym więcej pochłania on energii cieplnej w zakresie podczerwieni o długości fal wynoszącej 15 mikrometrów (15 μm). Następnie cząsteczki CO2 wyemitowują tę energię na wszystkie strony, zarówno w kosmos, jak i ku powierzchni chmur i ku powierzchni Ziemi, dzięki czemu omówiony wcześniej efekt cieplarniany jest wzmacniany przez rosnącą koncentrację dwutlenku węgla i innych gazów cieplarnianych.
—-
Nawiązując jeszcze do ważnego wydarzenia w związku z badaniem antropogenicznej zmiany klimatu, a zwłaszcza własności fizyko-chemicznych dwutlenku węgla, Charles David Keeling, pracujący w tamtych czasach w Instytucie Oceanografii Scrippsa (Scripps Institution of Oceanography) na Uniwersytecie Kalifornijskim w La Jolla, dokonał analizy, że na półkuli północnej zostało zaobserwowane i eksperymentalnie zbadane, systematyczne zróżnicowanie stężenia i obfitości izotopowej dwutlenku węgla w atmosferze, i to w zależności od pory roku i szerokości geograficznej. Ale na Antarktydzie zmierzono nieco mniejszy, ale trwały, także rosnący wzrost jego koncentracji 6.
Keeling, który zapoczątkował pomiary koncentracji dwutlenku węgla w atmosferze za pomocą metody badawczej spektrometrii masowej w obserwatorium na Hawajach, na wyspie Mauna Loa, zauważył, że stężenie tego gazu wzrasta systematycznie w górę w takim samym tempie, z małą różnicą pomiędzy okresami jesieni i zimy, gdy wegetacja roślinna ustaje i więcej CO2 trafia do atmosfery oraz pomiędzy okresami wiosny i lata, gdy wegetacja roślin intensyfikuje się i więcej tego gazu jest przez nie pochłaniane. Jednak te fluktuacje wielkości stężenia widoczne w ciągu dwunastu miesięcy, są prawie niezauważalne na tak zwanej krzywej Keelinga, czyli wykresie wzrastającej systematycznie koncentracji dwutlenku węgla.
—-
Na podstawie badań spektrometrycznych Jack C. Pales i Charles D. Keeling, od 1958 do 1963 roku, zaobserwowali już wyraźnie znaczący wzrost koncentracji dwutlenku węgla w atmosferze i opisali to w swojej pracy w 1965 r. 7.
Autorzy na wstępie swojej pracy naukowej napisali:
Stężenie atmosferycznego dwutlenku węgla w Obserwatorium Mauna Loa na Hawajach i w jego pobliżu jest raportowane w ciągu pierwszych sześciu lat (1958-1963) długoterminowego programu dokumentowania wpływu spalania węgla i ropy naftowej na dystrybucję gazu CO2 w atmosferze i oceanach na świecie. Większość przedstawionych tu pomiarów uzyskano w Obserwatorium Mauna Loa za pomocą analizatora gazów w podczerwieni, który w sposób ciągły rejestrował dane. Zgłaszane są również pomiary 261 oddzielnych próbek powietrza zebranych w szklanych kolbach na Mauna Loa, na nawietrznym wybrzeżu Hawajów oraz z samolotów w pobliżu Wysp Hawajskich. Otrzymano następujące wyniki:
(1) stężenie CO2 w Obserwatorium Mauna Loa zmienia się w zależności od pory roku ze średnią amplitudą 6 ppm i wzrasta w średnim tempie 0,7 ppm rocznie.
(2) Te zmiany odzwierciedlają regionalne zmiany w powietrzu, które leży nad warstwą pasatów w pobliżu Hawajów.
(3) Stężenie CO2 w warstwie pasatów jest zasadniczo takie samo jak w powietrzu, z wyjątkiem miesięcy letnich, kiedy jest nieco niższe.
(4) Emisje wulkaniczne CO2 w pobliżu szczytu Mauna Loa i pochłanianie tego gazu na zalesionych niższych zboczach góry wpływają na jego stężenie w Obserwatorium Mauna Loa, ale nie przeszkadzają poważnie w określaniu zmian regionalnych.
Obecnie krzywa Keelinga przedstawia się następująco.
—-
Rys.2. Krzywa Keelinga (Program Scripps CO2). Wykres pomiaru stężenia dwutlenku węgla mierzonego metodą spektroskopii masowej od 1958 roku do dziś. Badania rozpoczęto w obserwatorium na Hawajach, na wyspie Mauna Loa (Fot. Scripps Institution of Oceanography).
—-
Przez ten czas wyszedł szereg prac monitorujących wzrost stężenia dwutlenku węgla w atmosferze Ziemi. Dziś mierzymy je w wielu rejonach planety, zarówno na półkuli północnej (np. jeszcze w Barrow na Alasce w USA, na wyspie Lampeduza we Włoszech czy na Szetlandach w Wielkiej Brytanii), jak i na południowej (na wyspie Samoa, w Cape Grim na Tasmanii w Australii, w Baring Head w Nowej Zelandii czy na biegunie południowym).
—-
Bardzo ważna zespołowa praca na temat koncentracji dwutlenku węgla ukazała się w 2013 roku. Jej główni autorzy, pracujący na co dzień w Instytucie Oceanografii im. Scrippsa na Uniwersytecie Kalifornijskim w San Diego w La Jolla, Heather D. Graven oraz Ralph Keeling (kontynuator pracy ojca Charlesa Keelinga), przedstawili ważny aspekt zmienności sezonowej stężenia dwutlenku węgla na półkuli północnej 8.
Mianowicie, wraz z nastaniem fotosyntezy roślin, drzew, krzewów i roślin zielnych, oraz ich rozkwitem w porze wiosennej i jej intensyfikacją w porze letniej, koncentracja dwutlenku węgla w atmosferze się zmniejsza, a gdy w porze jesienno-zimowej fotosynteza ustaje i wiele roślin zielnych obumiera, a drzewa i krzewy tracą liście, koncentracja dwutlenku węgla zwiększa się.
W czasach przedprzemysłowych stężenie dwutlenku węgla w atmosferze wahało się od 170 do 280 części na milion w ciągu ostatnich 800 000 lat.
W 1958 roku, gdy Charles Keeling zaczął gromadzić dane pomiarów stężenia dwutlenku węgla na wulkanie Mauna Loa (wyspa Hawaii), stężenie wzrosło do około 315 części na milion.
Przed opublikowaniem tejże pracy w maju 2013 r., dzienne pomiary dwutlenku węgla na Mauna Loa przekroczyły 400 części na milion – po raz pierwszy w historii ludzkości.
W latach 2009-2011 roku, naukowcy przeprowadzili pomiary koncentracji CO2 z samolotów nad Północnym Pacyfikiem i Oceanem Arktycznym. I na podstawie wieloletniego, lotniczego przeglądu chemii atmosferycznej, zaobserwowali, że na wyższych szerokościach półkuli północnej, od 45° do 90° N, pomiędzy porami, wiosenno-letnią, a jesienno-zimową, na wysokości 3-6 kilometrów, amplituda wymiany węgla wzrosła o około 50%, pomiędzy atmosferą a roślinnością i glebami, w porównaniu z wcześniejszymi obserwacjami z samolotów, przeprowadzonych przez zespół naukowy pod kierownictwem Charlesa Keelinga w latach 1958-1961.
—-
Rys.3. Cykliczne wzniesienia i obniżenia koncentracji dwutlenku węgla w jednostkach ppm (parts per milion), a ściślej w danej ilości cząsteczek CO2, np. 415 ppm, na zawartość miliona cząsteczek powietrza atmosferycznego. (Grafika: NOAA)
—-
Podczas badania w 2013 roku, na niższych szerokościach, od 10° do 45°N, międzysezonowa amplituda wymiany węgla, w porównaniu z poprzednimi badaniami, wzrosła o 25%.
Graven i Keeling, wraz ze swoimi współpracownikami, oszacowali, że od początku lat 60 do 2013 roku, stężenie dwutlenku węgla, w stacjach pomiarowych na Mauna Loa (Hawaje) i na Barrow (Alaska), wzrosło o 23 procent, a średnia temperatura na północ od 30°N wzrosła o 1°C od 1960 roku. Ponadto naukowcy stwierdzili, że wzrost amplitudy pomiędzy porą wiosenno-letnią a jesienno-zimową ma duży wpływ na zmiany w ekosystemach. W pierwszym przypadku, podczas fotosyntezy, występuje wzmocnione nawożenie roślin dwutlenkiem węgla, a w drugim, podczas jej zaniku, zwiększenie temperatury Ziemi.
Naukowcy wyciągnęli wnioski, że wzrost międzysezonowej amplitudy wymiany węgla na średnich i wysokich szerokościach geograficznych ma także wpływ na przesuwanie się zasięgów geograficznych gatunków oraz biomów wraz ze strefami klimatycznymi. Również zmiana składu gatunkowego we florze i faunie jest coraz bardziej zauważana wraz z zaobserwowanym procesem zaburzającym dynamikę biosfery lądowej i morskiej. W ekosystemach leśnych i pozaleśnych następują zmiany węgla w liściach, korzeniach i pniach (łodygach) roślin drzewiastych i zielnych.
Na wysokich szerokościach geograficznych, obok zaniku fotosyntezy w porze jesienno-zimowej, na duży sezonowy wzrost koncentracji dwutlenku węgla w atmosferze ma też ogrzewanie mieszkań.
—-
Referencje:
1. Foote E. , 1856 ; Circumstances affecting the heat of the sun’s rays ; American Journal of Science and Arts 22: 382-383 ; https://static1.squarespace.com/…/foote_circumstances…
2. Tyndall J., 1872 ; Contributions to Molecular Physics in the Domain of Radiant Heat ; Longmand, green and co ; https://archive.org/…/contributionsto0…/page/n8/mode/2up
3. Arrhenius S., 1896 ; On the Influence of Carbonic Acid in the Air upon the Temperature of the Ground ; Philosophical Magazine and Journal of Science 41: 237-276 ; https://www.rsc.org/images/Arrhenius1896_tcm18-173546.pdf
4. Revelle R. et al., 1957 ; Carbon Dioxide Exchange Between Atmosphere and Ocean and the Question of an Increase of Atmospheric CO2During the Past Decades ; Tellus ; https://www.tandfonline.com/…/10.3402/tellusa.v9i1.9075
5. Böhm F. et al., 2002 ; Evidence for Preindustrial Variations in the Marine Surface Water Carbonate System from Coralline Sponges ; Geochemistry, Geophysics and Geosystems ; https://agupubs.onlinelibrary.wiley.com/…/2001GC000264
6. Keeling C. D. , 1960 ; The Concentration and Isotopic Abundances of Carbon Dioxide in the Atmosphere ; Tellus ; http://www.rescuethatfrog.com/…/2017/01/Keeling-1960.pdf
7. Pales J. C. et al., 1965 ; The concentration of atmospheric carbon dioxide in Hawaii ; Journal of Geophysical Research ; https://agupubs.onlinelibrary.wiley.com/…/JZ070i024p06053
8. Graven H. D. et al., 2013 ; Enhanced Seasonal Exchange of CO2 by Northern Ecosystems Since 1960 ; Enhanced Seasonal Exchange of CO2 by Northern Ecosystems Since 1960 ; Science

Przyczyny wzrostu poziomu morza

Wzrost poziomu morza występuje z wielu przyczyn. Najważniejszą z nich jest termosteryczny wzrost poziomu morza, czyli dzięki rozszerzalności cieplnej ośrodka wodnego jakim są oceany, morza, a także w znacznie mniejszym stopniu rzeki i jeziora. W następnej kolejności we wkład wzrostu poziomu morza przyczyniają się utrata masy pokrywy lodowej Antarktydy o raz topnienie i utrata masy pokrywy lodowej Grenlandii, a także topnienie lodowców górskich. Również coraz bardziej poważny wpływ ma spływ powierzchniowy i gruntowy wód śródlądowych do mórz i oceanów.

Wzrost poziomu morza analizowany dzięki samej rozszerzalności termicznej.

Zespół naukowy Svetłany Jevrejevej z Instytutu Modelowania Systemów Morskich w Narodowym Centrum Oceanografii (NOC – National Oceanography Center) w Liverpoolu, stwierdził, że według obecnego zestawu modeli CMIP6, średni termosteryczny wzrost poziomu morza będzie tak samo znacznie wyższy, jak ten, który pochodzi z topnienia lodowców górskich i pokryw lodowych 1.


Fot.1. Większość wzrostu poziomu morza na Ziemi to termosteryczny wzrost poziomu morza.

W powyższej pracy czytamy, że wkład rozszerzalności cieplnej we wzrost poziomu morza, przy wykorzystaniu symulacji globalnego średniego termosterycznego poziomu morza (GMTSL – Global Mean Thermosteric Sea Level) na podstawie 15 dostępnych modeli w fazie 6 projektu CMIP6.

Naukowcy piszą:

Obliczamy wzrost GMTSL o 18,8 cm [12,8–23,6 cm, zakres 90%] i 26,8 cm [18,6–34,6 cm, zakres 90%] dla okresu 2081–2100, w stosunku do lat 1995-2014 odpowiednio dla scenariuszy SSP2-4.5 i SSP5-8.5. W porównaniu ze zbiorem 20 modeli z Coupled Model Intercomparison Project Phase 5 (CMIP5), średnia zbiorowa CMIP6 przyszłego GMTSL (2014–2100) jest wyższa dla obu scenariuszy i wykazuje większą wariancję. Dla porównania, dla okresu 1901-1990 GMTSL z modeli CMIP6 ma o połowę mniej wariancji niż z CMIP5. W latach 1940-2005 tempo wzrostu średniej zbiorowej CMIP6 GMTSL wynosiło 0,2 ± 0,1 mm/rok , co stanowi mniej niż połowę obserwowanego wskaźnika (0,5 ± 0,02 mm/rok).


Rys.1. Porównanie średniej wielomodelowej (MEM – Multi-Model Ensemble Mean) z zestawu modeli CMIP6 i CMIP5 ze średnią obserwacyjną globalnego termosterycznego poziomu morza (GMTSL – Global Mean Thermosteric Sea Level) w latach 1957–2005. Szeregi czasowe zostały wymienione w latach 1986-2005. Wkład w głębokie oceany wynoszący 0,1 ± 0,1 mm/rok (dostępny tylko w okresie 1990-2000), oszacowany przez Purkeya i Johnsona ( 2010 ), nie jest uwzględniony w obserwacyjnym GMTSL.

(Jevrejeva S. i in., 2020)

 

W metodach badawczych zastosowano globalne średnie symulacje termosteryczne w zestawie modeli CMIP6, symulacje GMTSL w CMIP5 oraz GMTSL z obserwacji in situ.

Naukowcy dochodzą do wniosku, że dla zestawu średniej wielomodelowej (MEM) wskaźnik CMIP6 MEM pokazuje wyższe tempo wzrostu GMTSL niż dla tego samego zestawu średniej wielomodelowej (MEM), wskaźnik CMIP5 MEM.

W przyszłych prognozach scenariusze SSP2-4.5 i SSP5-8.5 dla zestawu modeli CMIP6 mają wyższe wartości niż scenariusze RCP4.5 i RCP8.5 dla zestawu modeli CMIP5 (tabela 4).

Natomiast w przypadku symulacji historycznych (okres 1901–1990) wskaźnik MEM dla modeli CMIP6 jest niższy niż w przypadku MEM dla modeli CMIP5.

 

Czas Wskażnik CMIP6 Wskaźnik CMIP5
Eksperyment Okres (mm / rok ) (mm / rok )
Historyczny 1901-1990 0.2 ± 0.1 0.3 ± 0.1
SSP2-4.5/RCP4.5 2015-2100 2.4 ± 0.3 2.1 ± 0.8
SSP5-8.5/RCP8.5 2015-2100 3.6 ± 1.2 3.3 ± 1.1

Tabela 1. Wskaźniki GMTSL dla lat 1901–1990 i 2015–2100 w scenariuszach emisji w przyszłości SSP2-4.5/RCP4.5 i SSP5-8.5/RCP8.5. Niepewność wskaźnika odchylenia standardowego (2 sigma) jest obliczana przy użyciu metody Monte Carlo opisanej w rozdziale artykułu.

Wzrost poziomu morza analizowany dzięki topnieniu pokryw lądolodów

Międzynarodowe badanie prowadzone przez zespół naukowy Benjamina P. Hortona z Nanyang Technological University w Singapurze (NTU Singapore) wykazało, że globalny średni wzrost poziomu morza może przekroczyć 1 metr w 2100 i 5 metrów w 2300 roku, jeśli globalne cele ustalone na Porozumieniu Paryskim w grudniu 2015 roku w zakresie emisji nie zostaną osiągnięte 2.

Autorzy zwrócili uwagę, że w V Raporcie nie został precyzyjnie przedstawiony wkład we wzrost poziomu morza z powodu niestabilności morskiej pokrywy lodowej (MISI – Marine Ice Sheet Instability), to znaczy nie położono nacisku na prawdopodobieństwo gwałtownej dynamiki pokrywy lodowej Antarktydy podczas dalszego wzrostu temperatury globalnej, a wkład we wzrost poziomu morza z powodu niestabilności morskich klifów lodowych (MICI – Marine Ice Cliffs Instability) w ogóle nie został wzięty pod uwagę.


Rys.2. Przedstawienie niestabilności morskiego lądolodu (a) i niestabilności morskiego klifu lodowego (b).

W (a) przerzedzenie przyporowego szelfu lodowego prowadzi do przyspieszenia przepływu lądolodu i przerzedzenia obrzeża lodowego zakończonego morskim podłożem. Podłoże skalne pod pokrywą lodową opada w kierunku jej wnętrza, co oznacza, że przerzedzenie lodu powoduje cofanie się linii gruntowania i zwiększenie przepływu lodu w kierunku morza, dalsze rozcieńczenie obrzeża lodu i dalsze cofanie się linii gruntowania.

W (b) rozpad lodowca szelfowego z powodu topnienia dna i/lub szczelinowania wodnego wytwarza klif lodowy. Jeśli klif jest wystarczająco wysoki, naprężenia przy ścianie klifu przekraczają wytrzymałość lodu, a klif zawodzi strukturalnie w powtarzających się przypadkach cielenia się lodowca. Źródło: IPCC:  Rysunek CB8.1  (pdf) w Carbon Brief 3.

 

Według „Specjalnego raportu IPCC na temat oceanów i kriosfery w zmieniającym się klimacie” [SROCC – „Special Report on the Ocean and Cryosphere in a Changing Climate”], opracowanego we wreśniu 2019 roku przez Międzyrządowy Zespół ds. Zmian Klimatu (IPCC), topnienie lodu na lądzie spowodowało połowę wzrostu poziomu morza od 1993 r.

Rys.3. Szeregi czasowe globalnych anomalii średniej rocznej temperatury powietrza na powierzchni (w odniesieniu do lat 1986-2005) z eksperymentów CMIP5 opartych na koncentracji, zmodyfikowanych na podstawie IPCC AR5.

Prognozy temperatury odpowiadają dolnemu (RCP 2.6; niebieski kolor) i górnemu (RCP 8.5; czerwony kolor) scenariuszowi gazów cieplarnianych zawartemu w Reprezentatywnych Ścieżkach Stężenia (RCP) i ich rozszerzeniu do 2300. Projekcje dla każdego RCP pokazują średnią z wielu modeli ( linie ciągłe) oraz zakres 5–95 % w rozkładzie poszczególnych modeli (cieniowanie). Nieciągłości w 2100 są spowodowane różną liczbą modeli, które wykonują rozszerzenia poza XXI wiek (i nie mają fizycznego znaczenia).

(Horton B. P. i in., 2020)


Badanie na temat wzrostu poziomu morza do końca XXI i do końca XXIII wieku było przeprowadzone przez naukowców w 2015 roku. Zespół Hortona zauważył, że prognozy do 2100 roku mniej więcej są podobne w niniejszej pracy do tej sprzed 5 lat, ale już prognozy do 2300 roku mają wydłużone ogony na wykresach. Naukowcy w swojej pracy napisali:

W ramach Reprezentatywnej Ścieżki Koncentracji (RCP – Representative Concentration Pathways) RCP2.6, 106 ekspertów przewidywało (średnie prawdopodobieństwo 66%) wzrost GMSL (Global Mean Sea Level – Globalny Średni Poziom Morza) o 0,30–0,65 metrów do 2100 r. i o 0,54–2,15 metrów do 2300 r. w stosunku do lat 1986–2005. W ramach RCP8.5 ci sami eksperci przewidywali prawdopodobny wzrost GMSL o 0,63–1,32 m do 2100 i 1,67–5,61 m do 2300 roku.

Ogólnie topnienie pokryw lodowych Grenlandii i Antarktydy ma coraz wyraźniejszy wpływ w podnoszenie się poziomu wód oceanów i mórz na całym świecie. Ostatnie wyniki badań już będą szeroko nawiązywać do VI Raportu IPCC i najnowszych modeli klimatycznych CMIP6 (Coupled Model Intercomparison Project – Projekt Porównywania Modeli Sprzężonych).

—-

W ramach CMIP6 badając wkład pokryw lodowych wspomnianych lądolodów w coraz szybszy wzrost poziomu morza, jednocześnie powstały w 2020 roku dwie ważne prace: pod kierownictwem Heiko Goelzera z NORCE Norweskiego Centrum Badawczego, Centrum Badań Klimatu w Bjerknes oraz pod kierownictwem Hélène Seroussi z Laboratorium napędów odrzutowych, Kalifornijskiego Instytutu Technologii w Pasadenie w USA 4,5.

W obu podobnych pracach, na podstawie najnowszej generacji wielu modeli z projektu porównywania modeli pokryw lodowych (ISMIP6 – Ice Sheet Model Intercomparison Project) oszacowano łącznie prawdopodobny wynik uśredniony wkładu we wzrost poziomu morza o około 38-40 cm pod koniec 2100 roku. Symulacje komputerowe zostały przeprowadzone mając na względzie prognozy w okresie lat 2015- 2100.


Fot.2. Szelfy lodowe na Antarktydzie, takie jak Getz, są wrażliwe na ocieplenie się temperatury oceanu. Warunki oceaniczne i atmosferyczne to niektóre z czynników powodujących utratę pokrywy lodowej, które naukowcy rozważyli w nowym badaniu szacującym dodatkowy globalny wzrost poziomu morza do 2100 roku.

Zdjęcie: Jeremy Harbeck/NASA


Badania przeprowadzono na podstawie 14 modeli ISMIP6 dla najłagodniejszego scenariusza emisji RCP 2.6 i dla najgorszego RCP 8.5. Wykazały one, że utrata masy pokryw lodowych na Ziemi do 2100 roku będzie miała wkład we wzrost poziomu morza następujący:

Dla Grenlandii:

  1. Dla scenariusza RCP 2.6 – 1,5-5 cm
  2. Dla scenariusza RCP 8.5 – 4-14 cm

Dla Antarktydy:

  1. Dla scenariusza RCP 2.6 – 0-3 cm
  2. Dla scenariusza RCP 8.5 – 30 cm

Oszacowanie dokładnych prognoz na 2100 rok dla Antarktydy, zwłaszcza jego wschodniej części, jest bardzo trudne ze względu na prawdopodobieństwo w wielu regionach występowania większej liczby opadów śniegu (akumulacja) niż jego topnienia i utraty masy lodowej (ablacja). Z kolei oszacowanie zachodniej części jest niepewne ze względu na wspomniane MISI (niestabilność morskiej pokrywy lodowej) i MICI (niestabilność morskich klifów lodowych). Im będzie wyższy  wzrost temperatury globalnej, tym bardziej prawdopodobne są te procesy destabilizacji pokryw lodowych Antarktydy.

—-

Wzrost poziomu morza analizowany dzięki topnieniu lodowców górskich

Ważną kwestią w omawianiu wzrostu poziomu morza jest też dość znaczny wkład topnienia lodowców górskich.

Zespół Naukowy Romaina Hugonetta z Laboratorium Hydrauliki, Hydrologii i Glacjologii (VAW) w ETH w Zürichu, w Szwajcarii, przedstawia obraz utraty masy lodowców górskich już od co najmniej połowy XX wieku 6.

Jest to pierwsze badanie, które obejmuje wszystkie lodowce na świecie – łącznie około 220 000 – z wyłączeniem pokryw lodowych Grenlandii i Antarktyki. Przestrzenna i czasowa rozdzielczość badania jest bezprecedensowa i pokazuje, jak szybko lodowce traciły grubość i masę w ciągu ostatnich dwóch dekad.

W latach 2000-2019 lodowce górskie w ciągu roku średnio traciły 267 gigaton lodu. Roczny wkład we wzrost poziomu morza wynosi 0,76 mm – 21%. Jedynie rozszerzalność termiczna wynosi nadal około 50%.

Autorzy pracy na podstawie obserwacji satelitarnych zwracają uwagę, że zmniejszanie się grubości lodu, pod wpływem jego topnienia w górach na Ziemi, powiększyło się prawie dwukrotnie. Z 36 cm w 2000 roku do 69 cm w 2019 roku.

Badanie również wykazało, że we wspomnianym okresie czasu utrata masy lodowców była o 47% wyższa niż w przypadku pokrywy lodowej Grenlandii (GIS – Greenland Ice Sheet) i ponad dwukrotnie większa niż w przypadku pokrywy lodowej Antarktyki (AIS – Antarctica Ice Sheet).


Rys.4. Mapa pokazująca lokalizacje lodowców analizowanych w tym badaniu w kolorze fioletowym. Źródło: (Hugonnet i in. 2021).

  1. Góry Alaski
  2. Góry Skaliste, Góry McKenzie i Góry Kaskadowe
  3. Wyspa Ellesmere’a
  4. Ziemia Baffina
  5. Pasma górskie wschodniej i zachodniej Grenlandii
  6. Góry Islandii
  7. Góry Svalbardu
  8. Góry Skandynawskie
  9. Wyspa Franciszka Józefa. Nowa Ziemia, Ziemia Siewiernaja
  10. Ałtaj, Sajany, Góry Wierchojańskie, Góry Czerskiego, Góry Kołymskie, Kamczatka
  11. Alpy
  12. Kaukaz
  13. Tybet, Kunlun
  14. Himalaje
  15. Hindukusz, Karakorum, Pamir, Tien Szan
  16. Andy Północne blisko Amazonii
  17. Andy Południowe, w tym Ziemia Ognista
  18. Alpy Południowe w Nowej Zelandii
  19. Półwysep Antarktyczny                                                                                                                                                                                                                                                               (Carbon Brief7

—-

Wzrost poziomu morza analizowany dzięki spływowi wód powierzchniowych i gruntowych

Wzrost poziomu morza występuje również pod wpływem jeszcze jednego interesującego czynnika klimatycznego, mianowicie pod wpływem zmiany bilansu wód gruntowych i powierzchniowych na kontynentach i wyspach.

Sitar Karabil z Instytutu Badań Morskich i Atmosferycznych oraz Katedry Geografii Fizycznej na Wydziale Nauk o Ziemi, na Uniwersytecie w Utrechcie wraz ze swoim zespołem badawczym dokonał ciekawej analizy zmian w magazynowaniu wody na lądzie (LWS – Land Water Storage) 8.

Naukowcy analizując regionalną zmianę poziomu morza przeprowadzili swoje badania jeszcze na podstawie modeli bazowych dla V Raportu IPCC – dla zestawu modeli CMIP5.

Jak wiadomo, zmiany w magazynowaniu wody wynikają zarówno z bezpośredniej działalności człowieka, jak i z powodu zachodzących zmian klimatu. Badając zmiany LWS posłużyli się modelem hydrologicznym i zasobów wodnych PCR-GLOBWB w celu zaprojektowania regionalnych wzorców poziomu morza.

Obliczenia szacunkowe pokazały ogólnie naukowcom, że wkład zmiany magazynowania wody na lądzie w dalszy wzrost poziomu morza wyniesie 10%. A więc, nie jest to mało. Warto też wziąć pod uwagę, że rezygnacja z wielu inwestycji spiętrzania wód w sztucznych zbiornikach wodnych i tamach, również pod naciskiem ochrony bioróżnorodności rzek, wpłynęła również na spływ podziemny i powierzchniowy wód do oceanów i mórz na całym świecie, dlatego został też zaznaczony większy wzrost poziomu morza także z magazynowania wody na lądach (LWS).

Autorzy pracy piszą:

Przewiduje się, że udział LWS w podnoszeniu poziomu morza w regionie będzie znacznie większy niż wynosi średnia globalna w kilku regionach. Również może być on o 60% wyższy niż wynosi ogółem globalna średnia wzrostu poziomu morza wywołanego przez LWS, w tym na wyspach Pacyfiku i południowym wybrzeżu Afryki i zachodnim wybrzeżu Australii.


Rys.5. (A) Przegląd komórki siatki PCR-GLOBWB 2 z Sutanudjaja et al. (2018) . S1, S2 (magazynowanie wilgoci w glebie), S3 (magazynowanie wód gruntowych), Qdr (odpływ powierzchniowy), Qsf (przepływ burzowy), Qbf (przepływ bazowy) i Inf (przenikanie rzekami do wód gruntowych).

(B) Uproszczony szkic przepływów LWS. (Precip) Opady, (Evap) parowanie; (Dsal) odsalanie wody, (SRun) odpływ (Runoff) (na podstawie Sutanudjaja i in., 2018). Strumienie (km3/rok) przedstawione na (B) wskazują średnie wartości w skali światowej w ciągu okresu 2000-2015.

(Karabil S. i in., 2021)


Referencje:
1. Jevrejeva S. et al., 2020 ; Global mean thermosteric sea level projections by 2100 in CMIP6 climate models ; Environmental Research Letters ; https://iopscience.iop.org/article/10.1088/1748-9326/abceea
2. Horton B. P. et al., 2020 ; Estimating global mean sea-level rise and its uncertainties by 2100 and 2300 from an expert survey ; Climate and Atmospheric Science ;
3. Evans S. et al., 2019 ; In-Depth Q & A: The IPCC’s Special Report on the Ocean and Cryosphere ; Carbon Brief ; https://www.carbonbrief.org/in-depth-qa-the-ipccs-special…
4. Goelzer H. et al., 2020 ; The future sea-level contribution of the Greenland ice sheet: a multi-model ensemble study of ISMIP6 ; Cryosphere ; https://tc.copernicus.org/articles/14/3071/2020/
5. Seroussi H. et al., 2020 ; ISMIP6 Antarctica: a multi-model ensemble of the Antarctic ice sheet evolution over the 21st century ; Cryosphere ; https://tc.copernicus.org/articles/14/3033/2020/
6. Hugonnet R. et al., 2021 ; Accelerated global glacier mass loss in the early twenty-first century ; Nature ; https://www.nature.com/articles/s41586-021-03436-z
7. Tandon A., 2021 ; Melting Glaciers Drove ‘21% of Sea Level Rise’ over Past Two Decades ; Carbon Brief ; https://www.carbonbrief.org/melting-glaciers-drove-21-of…
8. Karabil S. et al., 2021 ; Contribution of Land Water Storage Change to Regional Sea-Level Rise Over the Twenty-First Century ; Interdisciplinary Climate Studies ; https://www.frontiersin.org/articles/10.3389/feart.2021.627648/ful2

Groźba przyspieszonego kolapsu ekosystemów oraz dalszej redukcji gatunków

Wymieranie gatunków to poważny problem, o którym naukowcy już mówią bardzo poważnie od co najmniej trzech dekad. Tyle, że wiadomo, że wcześniej był to przede wszystkim problem środowiskowy i ekologiczny. Jeszcze ocieplenie klimatu i inne zmiany klimatu nie wywierały niekorzystnego wpływu na gatunki. I nadal jeszcze czynniki klimatyczne nie stanowią potencjalnego zagrożenia dla zagrożonych (ale nie tylko) gatunków, zwłaszcza endemitów, głównie na małych wyspach tropikalnych.

—-

Fot.1. Goryl górski (Fot. Animals around the Glob)

Ekolożka Monica G. Turner wraz ze swym zespołem badawczym, zauważyła, że zmienność klimatu już teraz ma bardzo silny związek i będzie mieć jeszcze większy w najbliższej przyszłości z nagłymi i nieodwracalnymi zmianami w ekosystemach 1.

Nagłe zmiany w systemach ekologicznych (ACES – Abrupt changes in ecological systems) są trudne do zaobserwowania empirycznie, ponieważ zdarzenia ekstremalne są ze swej natury stochastyczne i rzadko przewidywalne. Niemniej autorzy wzywają wszystkich naukowców, aby priorytetem było wykrywanie, wyjaśnianie i przewidywanie ACES w odpowiedzi na zachodzące zmiany klimatu. W szczególności dotyczy to hotspotów.

Badaczka zauważyła, że nie ma już powrotu do „nowej normalnej równowagi”, raczej zaczynamy obserwować przyspieszenie tempa zmian intensywności i częstotliwości określonych czynników prowadzących do ubożenia różnorodności biologicznej. Badanie identyfikuje ważne zasady ogólne, które prowadzą do pytań i hipotez dotyczących przyszłych badań. Są to:

a) Niektóre systemy ekologiczne są bardziej podatne na nagłe zmiany niż inne

b) Ekstremalne zmiany klimatu w tych systemach ekologicznych mogą być bardziej prawdopodobne niż średnie tendencje do wywołania stopniowych zmian.

Np. bielenie koralowców napędzane jest raczej przez ekstremalne fale upałów niż stopniowe ocieplenie oceanów.

c) Wiele czynników często współdziała w celu wytworzenia ACES

Np. ekstremalna susza spowodowana zmianami klimatu czy też ekstremalny pożar mogą prowadzić jednocześnie do nagłych zmian ekosystemów lądowych. Np. zamiany ekosystemów leśnych na nieleśne.

Z kolei wprowadzone patogeny w połączeniu z ociepleniem klimatu mogą powodować szkodliwy wpływ na wiele populacji wrażliwych gatunków drzew.

—-

Christopher Trisos z Afrykańskiej Inicjatywy na rzecz Klimatu i Rozwoju na Uniwersytecie w Kapsztadzie (RPA), Cory Merow z Wydziału Ekologii i Biologii Ewolucyjnej na Uniwersytecie Connecticut w Storrs oraz Alex Pigot z Centrum Badań Bioróżnorodności i Środowiska na wydziale Genetyki, Ewolucji i Środowiska na Uniwersytecie (College) w Londynie, przedstawiając obraz załamywania się ekosystemów pod wpływem dalszego wzrostu temperatury globalnej, podjęli się próby opisania projekcji klimatycznych dla przyszłości bioróżnorodności w ekosystemach 2.

Na wykresach i mapach, badacze oszacowali roczne prognozy od 1850 do 2100 roku wpływ przyszłego wzrostu temperatury i opadów oddziałujących na ponad 30 000 gatunków morskich i lądowych przy zastosowaniu różnych scenariuszy emisji gazów cieplarnianych.

Trisos, Merow i Pigot zaprezentowali skumulowany odsetek gatunków wcześniej opuszczających swoje historyczne nisze klimatyczne (zasięgi geograficzne) oraz odsetek tych gatunków dla danego ekosystemu, które tuż przed albo w czasie progu krytycznego dopiero opuszczą je. Również został przedstawiony odsetek gatunków pozostających w swych historycznych niszach klimatycznych, dla których nie ma już żadnego ratunku.

Naukowcy przewidywali, że zmiany w ekosystemach będą nagłe i wpływające ujemnie na przeżywalność wielu gatunków.

Dla poszczególnych zespołów wyznaczyli następujące parametry:

– termin możliwego załamania – rok, w którym odsetek gatunków wyjdzie ze swojej historycznej niszy i przekroczy 50%

– zasięg zmiany, czyli całkowity odsetek gatunków, które wyjdą ze swojej historycznej niszy

– nagłość zmiany, opisywana jako odsetek gatunków, które wyjdą ze swojej historycznej niszy w dekadzie maksymalnego narażenia (w ciągu pięciu lat przed i po terminie możliwego załamania), liczony względem całkowitej liczby gatunków, które wyjdą ze swojej niszy.


Rys.1. Przykład projekcji zmian w zespole gatunków – region Kajmanów. Przedstawiono odsetek gatunków narażonych na wyjście ze swojej historycznej niszy klimatycznej (lewa oś, czarna linia ciągła na wykresie) i średnią temperaturę roczną w tym regionie (prawa oś, szara i czerwona linia na wykresie). Temperaturę w przyszłości obliczono na podstawie scenariusza wysokich emisji gazów cieplarnianych (RCP8.5).

Na wykresie zaznaczono zasięg zmiany w ekosystemie (67%), termin jej wystąpienia (rok 2074), „dekadę maksymalnego narażenia” (2074 ± 5), oraz nagłość zdarzenia (ok. 57% gatunków, które wyjdą poza swoją historyczną niszę właśnie w dekadzie (2074 ± 5). Źródło: (Trisos C. i in., 2020 w: Kardaś A., 2020) 3.


Rys.2. Niepewność w metrykach lokalnego narażenia gatunków w 22 modelach klimatycznych CMIP5 w ramach RCP8.5. Niepewność, czyli odchylenie standardowe (SD – Standard Deviation) co ​​do wielkości narażenia jest największa wokół granic tropików, z niewielką geograficzną zmiennością niepewności co do czasu lub gwałtowności.

a) Zasięg zmiany bioróżnorodności (całkowity odsetek gatunków narażonych na lokalne            wyginięcie z powodu wystąpienia warunków, w których te gatunki dotąd nie żyły) w                  poszczególnych częściach świata w roku 2100, w scenariuszu RCP8.5 (wysokich emisji        gazów cieplarnianych).

b) Nagłość zmiany (odsetek gatunków, które doświadczą warunków, w których dotąd nie            funkcjonowały w przedziale ± 5 lat od terminu możliwego załamania, liczony względem          całkowitej liczby gatunków, które go przekroczą) w poszczególnych częściach świata w          roku 2100, w scenariuszu RCP8.5 (wysokich emisji gazów cieplarnianych).

c) Termin możliwego załamania (rok, w którym odsetek gatunków, które doświadczać będą        nowych warunków, przekracza 50%) w poszczególnych częściach świata w roku 2100, w      scenariuszu RCP8.5 (wysokich emisji gazów cieplarnianych).

Rozpatrywano zespoły gatunków zamieszkujących w obszarach o wymiarach 100 x 100 km.

(Trisos C. i in., 2020 – wykres w: Trisos C. i in., 2020)


W sumie możliwość załamania ekosystemów, inaczej zespołów gatunków, naukowcy oszacowali na 2074 rok, z poprawką 5 lat wcześniej czy później, czyli w prawdopodobnym okresie 2069-2079, oczywiście jeśli będzie dalej kontynuowany kurs emisji gazów cieplarnianych RCP8.5.

Sam zasięg 67% zmiany (1850-2100) oznacza ilość gatunków, które jeszcze przed progiem krytycznym opuszczą swoje historyczne nisze ekologiczne, co łatwiej pomoże im w adaptacji do coraz większych zmian klimatycznych.

Z kolei nagłość zmiany (1850-2100) oznacza ilość gatunków, które dopiero w ostatniej chwili, gdy już się pojawił próg krytyczny w 2074 r. (podany przez Trisosa i in.), opuszczą swoje historyczne nisze ekologiczne, co jest trudniejsze w adaptacji do coraz większych zmian klimatycznych.

Im dłuższe jednak zwlekanie w czasie z migracją, tym gorzej dla gatunków, gdyż w coraz cieplejszym świecie mechanizmy ewolucyjnej adaptacji będą coraz słabsze, co doprowadzi wiele z nich po prostu do szybszego wymierania.

Autorzy piszą:

W scenariuszu wysokich emisji (reprezentatywna ścieżka stężenia (RCP 8.5), takie nagłe przypadki narażenia rozpoczynają się przed 2030 r. w oceanach tropikalnych i rozprzestrzeniają się na lasy tropikalne i wyższe szerokości geograficzne do 2050 r.

Podsumowując temat tej pracy, jeśli miałby być osiągnięty cel polityczny Porozumienia Paryskiego z 2015 r. aby nie dopuścić do przekroczenia krytycznego progu temperatury globalnej 2 stopnie Celsjusza powyżej okresu 1850-1900, to tylko 2% zespołów gatunków będzie narażonych na utratę bioróżnorodności, czyli 20% gatunków przekroczy swoje historyczne nisze klimatyczne i znajdzie się na progu ekstynkcji. Natomiast jeśli według scenariusza RCP8.5 będziemy dalej spalać paliwa kopalne i wylesiać Ziemię, doprowadzając w 2100 r. do przekroczenia progu 4 stopni Celsjusza, to niestety aż 15% zespołów gatunków przekroczy swoje historyczne nisze klimatyczne z czego ponad 50% gatunków znajdzie się na progu ekstynkcji.

—-

Rachel Warren z Centrum Badań Zmian Klimatu im. Tyndalla na Uniwersytecie Wschodniej Anglii, wraz ze swoim zespołem badawczym, wyciągnęła takie następujące wnioski na temat wpływu ocieplenia klimatu na taksony roślin i zwierząt, że jeśli emisje gazów cieplarnianych nie zostaną znacząco szybko zredukowane, to klimat znacznie bardziej ociepli się 4.

Naukowcy na podstawie prognoz zawartych w swojej pracy, oszacowali, że nawet ponad 50% gatunków utraci większość swoich odpowiednich warunków klimatycznych do 2100 r., z powodu nasilenia się scenariusza największej emisji gazów cieplarnianych.

I tak:

a) wzrost temperatury globalnej o 3,2 stopnia Celsjusza doprowadzi do wymarcia 44%                owadów, 44% roślin, 26 % kręgowców

b) wzrost temperatur globalnej o 2 stopnie Celsjusza doprowadzi do wymarcia 18% owadów,      16% roślin, 8% kręgowców

c) wzrost temperatury globalnej o 1,5 stopnia Celsjusza doprowadzi do wymarcia 6%                  owadów, 8% roślin, 4% kręgowców


Rys.3. Odsetek modelowanych gatunków, które stracą ponad połowę swojego klimatycznie określonego zasięgu do 2100 r. Na określonych poziomach globalnego ocieplenia. [n – liczba gatunków]

( A ) Bezkręgowce (n = 34 104), ( B ) Strunowce (n = 12 640), ( C ) Rośliny           (n = 73 224), ( D ) Owady (n = 31 536), ( E ) Ssaki (n = 1769), ( F ) Ptaki (n = 7966), ( G ) Gady (n = 1850) i ( H ) Płazy (n = 1055).

Kolory: niebieski – z realnym rozproszeniem) i pomarańczowy – bez rozproszenia.

Dane przedstawiono jako średnie prognozy dla 21 alternatywnych wzorców modeli klimatycznych ze słupkami błędów wskazującymi zakres od 10 do 90%.

(Warren R. i in., 2018)


Fot.1. Zieleńczyk ostrężyniec (Callophrys rubi) siedzący na paproci. Wybrzeże Devon, Wielka Brytania. Źródło: Steve Bloom Images/Alamy Stock Photo.

Naukowcy analizując swoją pracę badawczą wykorzystali cztery scenariusze, w których temperatury globalne w stosunku do okresu przedprzemysłowego sięgają kolejno do 1,5°C, 2°C, 3,2°C, gdy kraje dotrzymują pewnych swoich krajowych zobowiązań do ograniczenia emisji oraz do 4,5°C, kiedy kraje nic nie robią i kontynuują scenariusz „biznes jak zwykle” (RCP8.5).

Generalnie uczeni stwierdzili, że bardziej zagrożone są i będą bezkręgowce niż kręgowce. Stałocieplne kręgowce jak gromady ptaków i ssaków, będą odporniejsze na wzrost temperatury czy brak opadów, gdyż ich organizmy są w dużej mierze niezależne od czynników zewnętrznych. Ale oczywiście też do pewnego czasu.

Naukowcy zauważyli, że zagrożonymi kluczowymi grupami zwierząt wśród bezkręgowców – owadów – są zapylacze. A więc, pszczoły, trzmiele, motyle.

W szczególności dotkniętych będzie wiele hotspotów dzikiej fauny  na świecie, zwłaszcza w południowej Afryce i Amazonii, gdzie zamieszkuje 30% światowych gatunków.

Rachel Warren w serwisie Carbon Brief powiedziała 5:

Prawdopodobnie dlatego, że owady to są gatunki ektotermiczne, więc to oznacza, że ich temperatura ciała jest kontrolowana zewnętrznie, a nie wewnętrznie, jak u ludzi i innych ssaków oraz ptaków. Owady mają też etapy życia – jaja, larwy, poczwarki, a także osobniki dorosłe. Każdy z tych etapów może być podatny na różne czynniki, takie jak wysychanie jaj w przypadku zbyt małych opadów.

W tropikach i subtropikach są mniejsze wahania temperatury niż w klimacie umiarkowanym, dlatego też tam osiadłe gatunki mogą być bardziej narażone na postępujący wzrost temperatur lokalnych i regionalnych oraz globalnej. Naukowczyni dodaje w Carbon Brief:

Tu w Wielkiej Brytanii możemy mieć straszne lata i bardzo ładne – podczas gdy w tropikach jest to dużo bardziej przewidywalne. Oznacza to, że w krajach o umiarkowanym klimacie gatunki prawdopodobnie będą buforowane przed dość dużą zmiennością klimatu naturalnego. Natomiast w tropikach, gdy przeciętny klimat się zmienia, może szybko wyjść poza zakres naturalnej zmienności, do której gatunki są przystosowane.

—-

Naukowcy – Gerald Ceballos z Instytutu Ekologii, Narodowego Autonomicznego Uniwersytetu Meksyku , Paul R. Ehrlich z Centrum Biologii Konserwatorskiej na Wydziale Biologii na Uniwersytecie Stanforda oraz Peter H. Raven z Wydziału Nauk o Roślinach w Ogrodzie Botanicznym Missouri w St. Louis, na temat szóstego wymierania w swojej pracy napisali 6:

Badamy 29 400 gatunków kręgowców lądowych i określamy, które są na skraju wyginięcia, ponieważ mają mniej niż 1000 osobników. Na krawędzi występuje 515 gatunków (1,7% ocenianych kręgowców). Około 94% populacji – 77 gatunków ssaków i ptaków żyjących na krawędzi zaginęło w ostatnim stuleciu. Zakładając, że wszystkie gatunki na krawędzi mają podobne tendencje, ponad 237 000 populacji tych gatunków zniknęło od 1900 roku.

Naukowcy zauważyli, że obecne tempo wymierania gatunków jest setki, a może nawet tysiące razy szybsze aniżeli na przestrzeni czasowej kilkudziesięciu milionów lat. I będzie ono jeszcze szybsze, o ile jeżeli nie podejmiemy działań, zarówno dekarbonizacyjnych, jak i renaturalzacji ekosystemów.

Naukowcy podkreślili, że za każdym razem, gdy gatunek lub populacja znika z życia, zdolność Ziemi do utrzymywania usług ekosystemowych ulega poważnemu zaburzeniu do pewnego stopnia, w zależności od gatunku lub populacji, której ono dotyczy. Każda populacja jest prawdopodobnie na swój sposób wyjątkowa, a zatem może różnić się zdolnością dopasowania się do określonego ekosystemu i odgrywania w nim określonej roli, włącznie z interakcjami z innymi gatunkami oraz warunkami fizykochemicznymi.


Fot.2. Kręgowce lądowe na krawędzi wymierania (tj. z 1000 lub mniej osobnikami) obejmują gatunki takie jak ( A ) nosorożec sumatrzański (Dicerorhinus sumatrensis) ; źródło : Rhett A. Butler [fotograf], ( B ) strzyżyk wyspowy (Troglodytes tanneri) ; zdjęcie źródło : Claudio Contreras Koob [fotograf]), ( C ) żółw olbrzymi (Chelonoidis hoodensis) ; źródło : (GC) oraz ( D ) kikutnik pstry (Atelopus varius) ; wielkość populacji gatunku jest nieznana, ale szacuje się ją na mniej niż 1000; źródło obrazu: (GC).


Dalej naukowcy napisali, że przy dalszej kontynuacji scenariusza emisji GHG „biznes jak zwykle”, skutki wymierania tychże gatunków jeszcze bardziej pogorszą się w nadchodzących dziesięcioleciach, ponieważ nastąpi utrata jednostek funkcjonalnych oraz możliwe, że zbyt gwałtowna i nadmierna zmienność genetyczna i kulturowa zmienią całe ekosystemy. A ludzkość, mimo wszystko, także potrzebuje podtrzymywania funkcji własnej egzystencji w postaci względnie stabilnego klimatu, przepływów słodkiej wody, zwalczania szkodników i chorób w rolnictwie, zapylania upraw itp., a wszystko to tylko mogą zapewnić w miarę względnie funkcjonalne ekosystemy, czego wielu ludzi dalej nie rozumie.


Referencje:

  1. Turner M. G. et al., 2020 ; Climate change, ecosystems and abrupt change: science priorities ; Biological Sciences ; https://royalsocietypublishing.org/doi/10.1098/rstb.2019.0105
  2. Trisos C. H. et al., 2020 ; The projected timing of abrupt ecological disruption from climate change ; Nature ; https://www.nature.com/articles/s41586-020-2189-9
  3. Kardaś A., 2020 ; Nagłe załamywanie się ekosystemów – kiedy nastąpi? ; Nauka o klimacie ; https://naukaoklimacie.pl/aktualnosci/nagle-zalamywanie-sie-ekosystemow-kiedy-nastapi-427/
  4. Warren R. et al., 2018 ; The projected effect on insects, vertebrates, and plants of limiting global warming to 1.5°C rather than 2°C ; Science ; https://www.science.org/doi/10.1126/science.aar3646
  5. Dunne D., 2018 ; Restricting global warming to 1.5C could ‘halve’ risk of biodiversity loss ; Carbon Brief ; https://www.carbonbrief.org/restricting-global-warming-to-1-5c-could-halve-risk-of-biodiversity-loss
  6. Ceballos G. et al., 2020 ; Vertebrates on the brink as indicators of biological annihilation and the sixth mass extinction ; Proceedings of the National Academy of Sciences ; https://www.pnas.org/content/117/24/13596