Zwiększona częstość opadów deszczu nad Europą i nad innymi regionami Ziemi

Ostatnie analizy, wynikające z obserwacji opadów nad Europą i Ameryką Północną, pokazują znaczny wzrost częstotliwości opadów atmosferycznych. Np. na Wyspach Brytyjskich, na południu Europy czy też w delcie Missisippi, w Nowej Anglii.

Gunnar Myhre z Centrum Międzynarodowych Badań Klimatu CICERO w Oslo, wraz ze swoim zespołem badawczym, zauważył, że obecnie w ocieplonym świecie za mało bierze się pod uwagę badanie częstości opadów atmosferycznych, a więcej uwagi skupia się na ich intensywności, co zostało już dokładnie przeanalizowane w V Raporcie Oceny IPCC. Podobnie słabo został przebadany łączny wpływ, zarówno intensywności, jak i częstotliwości opadów atmosferycznych 1.

Naukowcy zauważyli w symulacjach komputerowych za pomocą modeli klimatycznych, całkowite opady pod względem zmian intensywności prawie podwajają się na stopień ocieplenia, ale przeważnie mają na to wpływ zmiany częstotliwości.

Aby oszacować wielkość intensywności i częstotliwości opadów, naukowcy użyli do obliczeń parametru funkcji gęstości prawdopodobieństwa (PDF – probability density function) opadów odpowiadających referencyjnej temperaturze powietrza na powierzchni, w porównaniu z funkcją o wyższej temperaturze powietrza na powierzchni.

Rys. Opady deszczu w mm, w Europie, w zakresie 99 percentyli (R99p – Rainfall 99 percentile), podane ze zbioru danych zaobserwowanych zdarzeń (E-OBS – events-observation). Zielona linia ukazuje średnią z lat 1951–1980 jako okres odniesienia w każdym punkcie siatki dla progu 99. Żółta linia ukazuje prawie cały okres 60 lat (1951–1980 plus 1984–2013) do obliczenia 99 percentyla dziennych opadów na poziomie punktu siatki, a następnie, jak średnia zmieniała się w tym okresie 60 lat. Linie przerywane pokazują średnią R99p dla dwóch okresów (1951–1980 i 1984–2013).

Rysunek powyższy przedstawia zmianę R99p w Europie między dwoma wybranymi okresami.

Naukowcy zasugerowali, że typowym sposobem analizy zmian w ekstremalnych opadach jest dokładne śledzenie ewolucji percentyli dziennych opadów pod względem obliczenia PDF. Wzrost opadów wyniósł (pomiędzy dwoma 30-letnimi okresami) w Europie dla zdarzeń ekstremalnych od 95% (występujących średnio raz na 20 dni) przez 99,9 % (występujących raz na 1000 dni) do 99,97 % (występujących średnio raz na 10 lat).

Ponadto naukowcy zbadali częstość opadów atmosferycznych w obszarach poza kontynentem europejskim. W swojej pracy stwierdzili jakie metody badawcze zastosowali dla badanych regionów:

Wykorzystujemy pomiary z poszczególnych stacji meteorologicznych nad wybranymi regionami, a także siatkowe produkty opadów atmosferycznych nad Europą, USA, Japonią i Australią. Regiony te wybrano na podstawie dostępności wysokiej jakości danych długoterminowych. Obserwacje są analizowane dla jednego niedawnego i jednego okresu referencyjnego trwającego około 30 lat, przy użyciu szeregów czasowych cofających się w czasie, o ile pozwalają na to zapisy obserwacyjne. Oprócz danych obserwacyjnych wykorzystujemy wyniki kilku globalnych modeli ogólnej cyrkulacji atmosfery i oceanów (GCM) z fazy 5 projektu porównywania modeli sprzężonych (CMIP5). Wyniki modelu są analizowane w okresie historycznym oraz dla przyszłego scenariusza z wysokimi emisjami gazów cieplarnianych (RCP8.5). Zmiany w opadach są konsekwentnie przedstawiane jako zmiana względna podzielona przez globalną średnią zmianę temperatury powierzchni w wybranych okresach.

Referencje:

  1. Myhre G. et al., 2019 ; Frequency of extreme precipitation increases extensively with event rareness under global Warming ; Scientific Reports ; https://www.nature.com/articles/s41598-019-52277-4

Ekstremalne opady deszczu i powodzie na terenie Niemiec, Luksemburga i Belgii

Nawalne opady deszczu oraz często towarzyszące im powodzie są coraz mocniej wpisywane w rzeczywistość coraz bardziej ocieplającego się świata. Wzrost temperatury powietrza oznacza wzrost pary wodnej, czyli wilgoci w atmosferze. Zaburzenia wielu cyrkulacji atmosferycznych i oceanicznych oraz oscylacji atmosferyczno-oceanicznych, a także wielu innych zjawisk atmosferycznych, oceanicznych i atmosferyczno-oceanicznych, w tym cyklonów, jeszcze bardziej nasilają powstawanie tychże bardzo niebezpiecznych ekstremów pogodowych, których intensywność i częstość niestety będzie wzrastać wraz z dalszym ocieplaniem się klimatu.

—–

W dniach 12-15 lipca 2021 roku na obszarze północnych Niemiec w Nadrenii Północnej-Westfalii i w Nadrenii-Palatynacie, wzdłuż rzek Ahr i Erft oraz wzdłuż rzeki Mozy na terenie Belgii i Luksemburgu, doszło do tragicznych zdarzeń pogodowych. Przez ten okresu czasu region ten nawiedziły ekstremalne opady deszczu, doprowadzając do błyskawicznych powodzi, które spowodowały zalanie przez uregulowane rzeki wielu terenów odlesionych i silnie zurbanizowanych. Podczas tej tragedii zginęło 184 mieszkańców Niemiec i 38 mieszkańców Belgii.

Fot.1. Strona główna > Ekstremalne opady deszczu > Obfite opady deszczu, które doprowadziły do poważnych powodzi w Europie Zachodniej, bardziej prawdopodobnych z powodu zmian klimatycznych (zdjęcie z serwisu World Weather Attribution).

Podczas tego ekstremalnych wydarzeń została uszkodzona infrastruktura, min. drogi, w tym autostrady, linie kolejowe, mosty, a także pola uprawne.

Przyczyną tego pechowego zdarzenia dla mieszkańców tego regionu Europy Zachodniej było odcięcie systemu niskiego ciśnienia „Bernd” od wiatrów zachodnich. Dlatego też, gdy tenże niż usadowił się na dłużej w tymże regionie, to przez kilka dni trwające bardzo intensywne opady deszczu doprowadziły do równie intensywnych powodzi.

Rys.1. Po lewej stronie – opady skumulowane w ciągu dwóch dni (48h akumulacja 13 lipca 00:00 UTC – 15 lipca 2021, 00:00 UTC). Po prawej stronie – Opady skumulowane w ciągu 24 godzin dla każdego dnia, w którym wystąpiły ekstremalne opady (zdjęcie z World Weather Attribution).

Naukowcy z Niemiec, Belgii, Holandii, Szwajcarii, Francji, Luksemburga, USA i Wielkiej Brytanii, współtworzący World Weather Attribution (WWA), którzy zbadali to zdarzenie pogodowe, nie mają już żadnych wątpliwości, że te ekstremalne zjawiska pogodowe już mają i będą mieć miejsce w coraz cieplejszym świecie, przy kontynuacji obecnego scenariusza emisji gazów cieplarnianych.

Na podstawie lipcowej tragedii mieszkańców Europy Zachodniej, Frank Kreienkamp, z Niemieckiej Służby Pogodowej (DWD – Deutscher Wetterdienst) oraz Regionalnego Biura Klimatycznego w Poczdamie w Niemczech, i jego współpracownicy, jak min. dr Friederike Otto z Instytutu Zmian Środowiska na Uniwersytecie w  Oksfordzie oraz prof. Geert Jan van Oldenborgh z Królewskiego Holenderskiego Instytutu Meteorologicznego w de Bilt, na łamach WWA 1, i później w swojej pracy naukowej 2, wyciągnęli następujące wnioski:

Poważne powodzie były spowodowane bardzo intensywnymi opadami deszczu przez okres 1-2 dni, wilgotnymi warunkami jeszcze przed zdarzeniem oraz lokalnymi czynnikami hydrologicznymi. Chociaż odpływy rzeczne i poziomy wody są elementami fizycznymi najbardziej bezpośrednio powiązanymi ze skutkami zdarzenia, nasza ocena koncentruje się na głównym czynniku meteorologicznym, jakim są obfite opady deszczu. Wynika to z faktu, że niektóre systemy monitoringu hydrologicznego uległy zniszczeniu podczas powodzi, a dane o wystarczająco wysokiej jakości i ilości nie są obecnie dostępne.

Naukowcy obserwowali wielkość opadów w niemieckich rzekach Ahr i Erft oraz w belgijskiej części zlewni Mozy. Opady lipcowe były rekordowe. Naukowcy, dokonując oceny wpływu zmian klimatu, starali się określić w jakim zakresie mogły one nałożyć się na naturalne. Odkryli niebawem, że w regionie między północną częścią Alp a Holandią, średnio prawdopodobieństwo wystąpienia podobnego zdarzenia raz na 400 lat, a może nawet częściej.

Intensywność jednodniowych opadów deszczu w badanym regionie, w stosunku do okresu przedprzemysłowego, wzrosła o około 13-19%. Ten obecny wzrost intensywności opadów jednodniowych jest mniej więcej podobny do wielkości intensywnych opadów dwudniowych przed 1850 r., gdy klimat był chłodniejszy o 1,2 °C. Współczynnik ten od tamtego czasu wzrósł od 1,2 do 9.w tym regionie. Liczby te są zawarte na podstawie obserwacji pomiarów, symulacji modeli regionalnych i globalnych opadów deszczu o bardzo wysokiej rozdzielczości, w których jest wykorzystana przy symulacji konwekcja.

Jednakże naukowcy dostrzegli, że zmiany intensywności regionalnych opadów deszczu i ich prawdopodobieństwa wystąpienia są bardziej miarodajne w obserwacjach aniżeli w symulacjach wszystkich modeli. Gdyż w cieplejszym klimacie, w którym temperatura wynosi 2°C w stosunku do okresu przedprzemysłowego, intensywność takiego prawdopodobnego ekstremalnego regionalnego jednodniowego opadu deszczu ma wzrosnąć o dalsze 0,8-6%, a współczynnik prawdopodobieństwa ma wzrosnąć od teraz o dalsze 1,2-1,4. Wzrost jednodniowego zdarzenia ekstremalnego regionalnego opadu deszczu, przy globalnej temperaturze 2°C, ma być tak samo podobny jak dzisiejszy taki opad dwudniowy.

Naukowcy podsumowując temat ekstremalnie intensywnych opadów deszczu w Niemczech i Belgii zaznaczyli, że pilną potrzebą jest zwiększenie prac nad tymi dynamicznie zachodzącymi zjawiskami pogodowymi i klimatycznymi oraz zmoblizowanie władz i społeczeństwa w ramach przygotowań adpatacyjnych do możliwych wystąpień takich w niedalekiej przyszłości:

Powodzie z lipca 2021 r. spowodowały ekstremalne skutki, w tym ponad dwieście zgonów. Biorąc pod uwagę rzadkość tego zdarzenia, jest oczywiste, że jest to bardzo ekstremalne zdarzenie, które prawdopodobnie spowoduje negatywne skutki. Jednak szczególnie biorąc pod uwagę, że takie wydarzenia będą występować częściej w przyszłości, zbadanie, w jaki sposób można zmniejszyć podatność i narażenie, staje się kluczowe dla ograniczenia przyszłych skutków.

Referencje:

  1. Kreienkamp F. et al., 2021 ; Heavy rainfall which led to severe flooding in Western Europe made more likely by climate change ; World Weather Attribution ; https://www.worldweatherattribution.org/heavy-rainfall-which-led-to-severe-flooding-in-western-europe-made-more-likely-by-climate-change/
  2. Kreienkamp F. et al., 2021 ; Heavy rainfall which led to severe flooding in Western Europe made more likely by climate change ; World Weather Attribution ; https://www.worldweatherattribution.org/wp-content/uploads/Scientific-report-Western-Europe-floods-2021-attribution.pdf

Badania zmian klimatu

Naukowcy wykonują szereg badań w podsystemach Ziemi (atmosferze, hydrosferze, litosferze, kriosferze, biosferze). Obserwują, mierzą, obliczają, zapisują i monitorują zbadane zjawiska i procesy w dynamice zmian klimatu.
Od co najmniej 70 lat są przeprowadzane pomiary temperatury przy powierzchni Ziemi dzięki globalnej sieci stacji meteorologicznych. Pomiary radiosondowe, radarowe, satelitarne i balonowe temperatury i koncentracji gazów cieplarnianych w górnej i dolnej atmosferze. Pomiary grawimetryczne i altymetryczne masy lądolodów Grenlandii i Antarktydy, poziomu morza, poziomu pokrywy śniegowej również nie tylko za pomocą satelitów, ale i też za pomocą samolotów i balonów. Pomiary energii cieplnej, temperatury powierzchni oceanu i na jego różnych głębokościach za pomocą satelitów, boi, pływaków, dronów oceanograficznych.
Klimatolodzy wiedzą coraz więcej na temat dynamiki systemu klimatycznego. Dobrze prezentują się symulacje klasycznych modeli bilansu energetycznego. Zwłaszcza modeli radiacyjno-konwekcyjnych (Earth Balance Model – EBM) oraz nieco nowszych modeli ogólnej cyrkulacji (Global Circulation Model – GCM), a także ulepszonych atmosferyczno-oceanicznych modeli ogólnej cyrkulacji (Atmospheric and Oceanic Global Circulation Model – AOGCM).
Rys.1. Modele klimatyczne to układy równań różniczkowych oparte na podstawowych prawach fizyki , ruchu płynów i chemii . Aby „uruchomić” model, naukowcy dzielą planetę na trójwymiarową siatkę, stosują podstawowe równania i oceniają wyniki. Modele atmosferyczne obliczają wiatry , przenoszenie ciepła , promieniowanie , wilgotność względną i hydrologię powierzchni w obrębie każdej sieci i oceniają interakcje z sąsiednimi punktami. [1]
Za pomocą modeli, np. CMIP5 (Coupled Model Intercomparison Project phase 5) (były V Raport Oceny IPCC 2013-14) i CMIP6 (trwający obecnie VI Raport Oceny IPCC 2021-22) oraz PMIP (Paleoclimate Modelling Intercomparison Project), naukowcy prowadzą coraz precyzyjniejsze symulacje komputerowe klimatu przyszłego i przeszłego, czyli jak przebiegać będą zmiany klimatu w najbliższej przyszłości, także rozumiejąc przebieg tychże zmian w niedawnej czy dawniejszej przeszłości geologicznej.
Od około 1977 roku naukowcy zwrócili uwagę na potencjalnie szybko rosnącą ilość energii cieplnej w oceanach, a od 1979 roku zaczęto po raz pierwszy dokonywać pomiarów satelitarnych, zwłaszcza lodu w Arktyce, na Grenlandii i na Antarktydzie. Pomiarów tych dziś dokonują satelity GRACE (Gravity Recovery and Climate Experiment) i GRACE Follow-On.
Od końca XX wieku naukowcy również zwrócili dużą uwagę, że oceany nie tylko ocieplają się, ale i ulegają coraz silniejszemu zakwaszaniu i odtlenianiu. W szczególności zaczęło się to w 1998 roku podczas bardzo silnego El Niño (oscylacji południowopacyficznej ENSO (El Niño Southern Oscillation)), gdy naukowcy zaobserwowali spektakularne blaknięcia koralowców na całym świecie, a zwłaszcza na Wielkiej Rafie Koralowej u wybrzeży północno-wschodniej Australii, co też miało przełożenie na przeżywalność gatunków żyjących w tych wrażliwych ekosystemach. Następny taki kataklizm miał miejsce podczas równie bardzo silnego i zarazem bardzo długiego El Niño w latach 2015-16. To wtedy też w 2016 roku padł rekord średniej temperatury powierzchni Ziemi, który w większości stacji meteorologicznych jest nadal rekordowy.
Rys.2. Podobnie jak GRACE, bliźniacze satelity GRACE-FO będą podążać za sobą na orbicie wokół Ziemi, oddalonej o około 137 mil (220 km). Widziany w renderowaniu artysty. Grafika: NASA
Dzięki pomiarom altymetrycznym, prowadzonym od 1992 roku przez następujące satelity NASA: TOPEX / Poseidon (1992-2006), Jason-1 (2001-2013), Ocean Surface Topography Mission (OSTM) / Jason-2 (2008-2019 ) i Jason-3 (2016 do chwili obecnej), na wzrost poziomu morza, obecnie największy wpływ ma rozszerzalność termiczna. W dalszej kolejności są odpowiedzialne lodowce górskie oraz spływy lądowe, np. z rzek i dopiero potem wkład swój mają pokrywy lodowe Grenlandii i Antarktydy. Te ostatnie nie zostały dokładnie uwzględnione w V Raporcie Oceny IPCC (2013-14). Np. nie zostały wzięte pod uwagę takie procesy dynamiki utraty masy lodowej jak, niestabilność morskiej pokrywy lodowej (MISI – Marine Ice Sheet Instability) oraz niestabilność morskich klifów lodowych (MICI – Marine Ice Cliffs Instability), które prawdopodobnie będą miały poważny wkład w podnoszenie się poziomu morza podczas dalszego ocieplania się klimatu. Oczywiście w VI Raporcie Oceny IPCC (2021-22) będzie położony na to szczególny nacisk.
Rys.3. Jason-1 kontynuował pomiary powierzchni morza rozpoczęte przez TOPEX/Poseidon. Po nim nastąpiła misja Ocean Surface Topography na Jason-2 i Jason-3 (Wikipedia.pl).
Od 1999 roku ruszył w oceanach projekt badawczy Argo, w którym automatyczne boje były początkowo zanurzane na głębokość do 700 metrów. Teraz są zanurzane do 2000 metrów. A wkrótce mają być przystosowane do zanurzeń do 6000 metrów. Sondy te przeprowadzają regularnie pomiary temperatury, zasolenia i przepływu prądów w oceanach, na ich powierzchni oraz na ich różnych głębokościach. Dzięki temu dowiadujemy się coraz więcej o najgłębszych i najbardziej pojemnych zbiornikach cieplnych w systemie klimatycznym Ziemi.
Fot.1. Argo to globalny zestaw 3800 swobodnie dryfujących pływaków profilujących, który mierzy temperaturę i zasolenie górnych 2000 metrów (około 6562 stóp) oceanu.
Rys.4. Typowy cykl pomiarowy boi Argo (Nauka o klimacie.pl).
Od początku XXI wieku są też coraz lepiej usprawniane badania paleoklimatyczne. W szczególności badanie rdzeni lodowych, rdzeni oceanicznych, koralowców, słojów drzew, stalaktytów.
Fot.2. Ciemna pasma w tym rdzeniu lodowym z Zachodniej Antarktydy Podziału Pokrywy Lodowej (WAIS Divide) to warstwa pyłu wulkanicznego, która osiadła na pokrywie lodowej około 21 000 lat temu. – Źródło: Heidi Roop.
Coraz lepiej poznajemy takie aspekty w fizyce klimatu jak czułość klimatu, wymuszenia radiacyjne, sprzężenia zwrotne (dodatnie i ujemne), cykl węglowy i hydrologiczny, gazy cieplarniane i aerozole jako główne czynniki wymuszeń radiacyjnych, aspekty atrybucji klimatu, czyli umiejętne rozróżnianie wpływu czynników naturalnych od antropogenicznych, a także poznajemy w końcu coraz lepiej wprowadzone w życie w V Raporcie Oceny IPCC scenariusze emisji antropogenicznych.
Poznajemy też coraz lepiej emisje ze źródeł naturalnych jak choćby klasyczna wieloletnia zmarzlina, ale i też torfowiska i lasy tropikalne. Dzięki rozpoczętym wynikom badań już na przełomie XIX i XX w., dowiadujemy się więcej na temat czułości klimatu, a z I połowy XIX w. na temat efektu cieplarnianego, który jest oczywiście czymś naturalnym, a nie spowodowanym przez człowieka. Natomiast globalne ocieplenie to jest właśnie nadwyżka ciepła, umownie obliczana od około 1850 roku, z powodu bardzo znaczącego spalania paliw kopalnych (choć jeszcze dominowały emisje ze zmian użytkowania terenu, przede wszystkim z deforestacji), które wpłynęły po raz pierwszy na zauważalny skład atmosfery, w której zaczęło przede wszystkim wzrastać stężenie dwutlenku węgla z poziomu 278 ppm (parts per milion – cząsteczek CO2 na milion cząsteczek powietrza atmosferycznego) aż do dziś do poziomu 412,5 ppm. Co również wpłynęło na fluktuacyjny wzrost średniej temperatury powierzchni Ziemi o ok. 1,02 stopnia Celsjusza do 2016 roku oraz do 2019 roku względem okresu referencyjnego 1951-1980, według danych NASA GISS. Przy czym minimalnie 2016 był cieplejszy niż 2020 rok. Z kolei dane z Berkeley Earth według okresu referencyjnego 1851-1900 wyniosły dla 2016 roku 1,29 stopnia Celsjusza, a dla 2020 roku – 1,27 stopnia Celsjusza.
Fot.3. Obserwatorium Mauna Loa (NOAA).
Pomiary koncentracji CO2 w atmosferze są, zarówno pośrednie (proxies), tu głównie za pomocą rdzeni lodowych, obliczanych na razie od około 800 tysięcy lat do dziś czy też w setkach milionów lat dzięki np. wydobywaniu rdzeni z osadów oceanicznych, jak i od 1958 roku również do dziś wykonywane są pomiary instrumentalne za pomocą spektroskopii masowej.
Z kolei instrumentalne pomiary średniej temperatury powierzchni Ziemi (2 m n.p.m.) są wykonywane, od 1880 r. do dziś i są przeprowadzane na wielu stacjach meteorologicznych w różnych regionach naszej planety. Z kolei co najmniej od lat 70 za pomocą pomiarów pośrednich, czyli proxies, poznajemy dokładniej temperatury dzięki wspomnianym rdzeniom lodowym z późnego plejstocenu od 800 tysięcy lat do dziś, jak i też dzięki rdzeniom z osadów oceanicznych, których wiek możemy obliczyć nawet w setkach milionów lat.
Podsumowując temat, trzeba też podkreślić jeszcze jedno. Aby zrozumieć dogłębnie zachodzące zmiany w systemie klimatycznym Ziemi, powinniśmy poznać nie tylko podstawy fizyki klimatu o efekcie cieplarnianym, bilansie energetycznym Ziemi, globalnych cyrkulacjach atmosferyczno-oceanicznych, obiegu węgla i wody, wymuszeniach radiacyjnych, sprzężeniach zwrotnych, czułości klimatu itp., ale i również powinniśmy głębiej zrozumieć wyniki prac atrybucji zmiany klimatu w kontekście oddziaływania ekstremalnych zjawisk pogodowych jak susze, upały, pożary, nawalne opady deszczu i śniegu, powodzie czy huragany.
Źródła:

Nasilony efekt cieplarniany

Pierwszym uczonym, który użył terminu efekt cieplarniany, był Francuz Joseph Fourier, który w swoich pracach z 1824 i 1827 roku, wyjaśnił jego działanie na naszej planecie. Odkrył, że obok konwekcji powietrza atmosferycznego i przewodnictwa cieplnego pary wodnej, ważne znaczenie ma też trzeci czynnik napędzający efekt cieplarniany, którym okazało się wypromieniowywane ciepło w zakresie fal w podczerwieni zwane też ciepłem termicznym Ziemi 1,2.
Ciepło jest dostarczane, od naszej gwiazdy, Słońca, ku powierzchni chmur oraz powierzchni wodnej i lądowej naszej planety, w postaci promieniowania elektromagnetycznego. A ściślej, krótkofalowego (dla ludzkich oczu niewidzialnego nadfioletowego oraz widzialnego słonecznego) oraz długofalowego (dla ludzkich oczu niewidzialnego podczerwonego).
Zdecydowana większość światła słonecznego docierającego do naszego globu, to światło widzialne i bliska podczerwień. Część tego promieniowania jest odbijana od powierzchni chmur, a część jest przez nie pochłaniana. Podobnie, mniejsza część promieniowania ulega odbiciu od jaśniejszej lądowej powierzchni planety (w największym stopniu przez śnieg i lód oraz piasek pustynny), a większa jest pochłaniana głównie przez oceany i morza, ale i też przez lasy. Odbite światło słoneczne, czy to od powierzchni chmur czy od powierzchni planety, wraca w przestrzeń kosmiczną. Pochłonięte promieniowanie powoduje nagrzewanie się chmur i atmosfery oraz powierzchni planety, co z kolei prowadzi do emisji promieniowania podczerwonego we wszystkich kierunkach. Wypromieniowane z powierzchni Ziemi promieniowanie podczerwone, pochłonięte przez chmury i obecne w atmosferze gazy cieplarniane, jest w znacznej części emitowane z powrotem ku powierzchni naszej planety, powodując efekt cieplarniany.
Rys.1. Po lewej – Naturalne stężenia dwutlenku węgla (CO2), metanu (CH4) i podtlenku azotu (N2O), wynikające z normalnych procesów w środowisku oraz zatrzymujące część ciepła słonecznego i zapobiegające zamarzaniu planety.

Po prawej – wyższe stężenia CO2, CH4, N2O, wynikające ze spalania paliw kopalnych i innych form działalności gospodarczej człowieka, powodujące zatrzymywanie dodatkowego ciepła i wzrost średniej temperatury powierzchni naszej planety. Rozwiązaniem jest ograniczenie działalności człowieka, powodującej emisje gazów cieplarnianych pochłaniających promieniowanie w dalekiej podczerwieni (Will Elder, National Park Service).

W drugiej połowie XIX wieku pionierem badań transferu radiacyjnego, czyli transferu promieniowania elektromagnetycznego o różnych długościach fal w atmosferze, był amerykański fizyk i inżynier, pionier lotnictwa oraz założyciel Smithsonian Astrophysical Observatory (obserwatorium astrofizycznego), Samuel Pierpoint Langley. Za pomocą zbudowanego przez siebie bolometru mierzył on natężenie promieniowania padającego na wybraną powierzchnię oraz dokonywał obserwacji promieniowań: widzialnego i podczerwonego (opisanych powyżej). Swoje doświadczenia wykonywał, zarówno nad poziomem morza, jak i wysoko w górach. Wykonując pomiary w poszczególnych warstwach atmosfery, oszacowywał, kiedy i jak ono jest absorbowane i rozpraszane przez gazy, chmury i cząstki unoszące się w powietrzu, a kiedy ono jest odbijane od powierzchni chmur czy planety 3.
Dziś już wiemy, że planetarne albedo najczęściej zachodzi w chmurach niskich, posiadających mniejsze kropelki wody i łatwiej odbijających promieniowanie słoneczne z powrotem w przestrzeń kosmiczną. Z kolei najrzadziej ma ono miejsce w chmurach wysokich, w których kryształki lodowe skutecznie absorbują energię cieplną w zakresie dalekiej podczerwieni.
Jeśli chodzi o długofalowe promieniowanie niewidzialne, czyli podczerwone, to duża jego część jest zatrzymywana w systemie klimatycznym Ziemi, a tylko mniejsza jego część opuszcza naszą planetę bezpośrednio z jej powierzchni przez tak zwane okna atmosferyczne (zakres widma światła podczerwonego, dla którego atmosfera jest przezroczysta). Większa część tego promieniowania opuszcza nasz system klimatyczny z wierzchołków chłodniejszych warstw chmur (TOA – top of atmosphere).
Czyli w sumie, jak już zostało to wcześniej wspomniane, energia cieplna, w zakresie promieniowania podczerwonego, pochłonięta w warstwach chmur i w molekułach gazów cieplarnianych reemituje we wszystkich kierunkach, w tym ku powierzchni Ziemi. Od co najmniej połowy XIX wieku jej zawartość rośnie dzięki zwiększaniu się koncentracji dwutlenku węgla i innych gazów cieplarnianych. Została w ten sposób zaburzona równowaga radiacyjna. W szerokim zakresie naukowcy zaczęli o niej pisać od lat 50 XX wieku. To wówczas zaczęli oni podejrzewać, że działalność człowieka jest główną przyczyną współczesnego ocieplenia klimatu.
W 1957 roku, w Związku Radzieckim, Michaił I. Budyko opracował pierwszy atlas bilansu radiacyjnego, który jednak nie odbił się szerokim echem w świecie naukowej klimatologii 4.
Pierwszymi naukowcami, którzy w swoich wynikach badań zwrócili uwagę na zaburzenie równowagi radiacyjnej Ziemi, byli fizycy atmosfery: Syukuro Manabe i Richard Wetherald. Obaj pracowali w latach 60 w Laboratorium Dynamiki Płynów Geofizycznych (GDFL – Geophysical Dynamics Fluid Laboratory), w Waszyngtonie, które było jednym z siedmiu laboratoriów w Narodowej Administracji Oceanicznej i Atmosferycznej (NOAA – National Oceanic and Atmospheric Administration).
Obaj uczeni w 1966 r. opisali w globalnym modelu numerycznym strukturę termiczną atmosfery wyjaśniającą rolę procesów radiacyjnych i konwekcyjnych w ogólnym bilansie energetycznym naszej planety. Zaprezentowali między innymi rozkład temperatury w atmosferze z wysokością w różnych warunkach i na różnych szerokościach geograficznych 5.
Warto też wiedzieć, że w troposferze, dolnej warstwie atmosfery, ciepło jest przenoszone w górę także przez ciepło utajone, czyli parowanie z gleb (ewaporacja) czy z roślinności (transpiracja), oraz przez ciepło jawne (konwekcję powietrza ciepłego), dzięki czemu temperatura na Ziemi wraz z wysokością spada powoli, aż do tropopauzy, tuż pod stratosferą, warstwą atmosfery, w której dzięki warstwie ozonowej temperatura wraz z wysokością wzrasta. Najdynamiczniej, procesy te zachodzą w obszarach równikowych podczas tak zwanej głębokiej konwekcji.
W ogólnym bilansie cieplnym Ziemi, ciepło, unoszone do góry, jest również przenoszone poziomo, czyli adwekcyjnie, przez wiatry z niższych cieplejszych do wyższych chłodniejszych szerokości geograficznych. Tak samo pod wpływem nagrzewania się oceanów, ciepło w nich jest przenoszone z cieplejszych wód na niższych szerokościach geograficznych do chłodniejszych na wyższych szerokościach.
Pomiary satelitarne atmosfery Ziemi są prowadzone od 1970 roku. Z biegiem lat naukowcy pod kierownictwem Johna Harriesa z Zespołu Fizyki Kosmicznej i Atmosferycznej, w Laboratorium Blackett w Królewskiej Uczelni w Londynie, zauważyli, że w badanym okresie czasu 1970-1996 więcej energii termicznej kumuluje się w troposferze, a mniej w stratosferze 6.
Rys.2. Zmiana w spektrum od 1970 do 1996 roku spowodowana gazami śladowymi. Na osi pionowej temperatura emisyjna (John Harries i inni, 2001).
Pomiary zostały ponownie powtórzone po kilku latach przez Johna Harriesa wraz z Jennifer Griggs z Bristolskiego Centrum Glacjologii na Uniwersytecie w Bristolu 7.
Autorzy w swoich wynikach badań posłużyli się pomiarami satelitarnymi na tle nieba bezchmurnego. Porównali widmo promieniowania podczerwonego zmierzone w 1971 roku przez amerykańskiego satelitę Nimbus-4 z widmem promieniowania podczerwonego, zmierzonego w 1996 roku przez japońskiego satelitę ADEOS-1.
Fot.1. Satelita amerykański Nimbus 4 (Wikipedia)
Fot.2. Japoński satelita ADEOS 1 (Space SkyRocket)
Oto co Harries i Griggs na wstępie swojej pracy napisali:
Dane są kalibrowane w celu usunięcia skutków różnych rozdzielczości i pól widzenia, aby można było dokonać bezpośredniego porównania. Dokonuje się porównań średniego widma promieniowania długofalowego bezchmurnego nieba wychodzącego nad oceanami w kwietniu, maju i czerwcu. Widma różnicowe są porównywane z symulacjami tworzonymi przy użyciu znanych zmian w gazach cieplarnianych, takich jak CH4 (metan), CO2 (dwutlenek węgla) i O3 (ozon) w tym okresie czasu. Stanowi to bezpośredni dowód na znaczące zmiany w gazach cieplarnianych w ciągu ostatnich 34 lat, co jest zgodne z obawami dotyczącymi zmian radiacyjnego wymuszania klimatu.
Rolf Philipona z Fizyczno-Meteorologicznego Obserwatorium i Światowego Centrum Radiacji w Davos Dorf w Szwajcarii, wraz ze swoimi współpracownikami, przy wykonywaniu pomiarów w Alpach na ośmiu stacjach sieci Alpine Surface Radiation Budget (ASRB), zauważył, w badanym okresie czasu 1995-2002, zmiany trendów strumieni promieniowania na powierzchni oraz ich związek ze wzrostem gazów cieplarnianych, a także zmiany temperatury i wilgotności. Ponadto zaobserwował, że skoro satelity mierzą coraz mniej energii cieplnej uciekającej z troposfery do stratosfery, to obserwowany jest jej większy przyrost tuż przy powierzchni Ziemi 8.
Stacja ASRB Wysokość [m n.p.m.] t [°C] Wilgotność bezwzględna Aktywna zdolność emisyjna
u [gm −3 ] ε Akt
Locarno-Monti 370 12,5 7,6 0,743
Payerne 490 9,6 7,5 0,762
Davos 1610 3,8 5,0 0,709
Cimetta 1670 5,2 5,1 0,704
Versuchsfeld 2540 -0,8 3,5 0,677
Weissfluhjoch 2690 -1,8 3,4 0,648
Gornergrat 3110 -2,7 2,7 0,613
Jungfraujoch 3580 -7,0 2,3 0,600

Tabela. Parametry stacji radiacyjnych ASRB (tabela 1 w artykule)

Fale w podczerwieni emitowane z powierzchni Ziemi są absorbowane przez rosnące stężenie gazów cieplarnianych, głównie dwutlenku węgla, a następnie wyemitowywane we wszystkich kierunkach. W tym ku powierzchni naszej planety. Jest to tak zwane promieniowanie zwrotne atmosfery.

W 2013 roku Benjamin Santer, z Programu dla Diagnostyki i Wzajemnego Porównania w Narodowym Laboratorium Lawrence Livermore, oraz jego współpracownicy, na podstawie modelu pochodzącego z projektu porównawczego sprzężonych modeli w fazie 5 (CMIP5 – Coupled Model Intercomparison Project Phase 5), wskazali, że ciągłe emisje gazów cieplarnianych i rosnące ich koncentracje przyczyniają się do tego, że coraz więcej ciepła gromadzi się przy powierzchni Ziemi. W szczególności tam gdzie jest wysoka koncentracja pary wodnej 9.

Naukowcy porównali zmiany temperatury atmosferycznej wzięte z symulacji komputerowych z szacowanymi historycznymi zmianami. W badaniu zostały wykorzystane następujące parametry wymuszeń:

  1. Połączone wymuszenia antropogeniczne i naturalne (ALL)
  2. Wyłącznie wymuszenie antropogeniczne (ANT)
  3. Wyłącznie wymuszenia słoneczne i wulkaniczne (NAT)
  4. Tylko wymuszenie słoneczne (SOL)
  5. Tylko wymuszenie wulkaniczne (VOL)

Rys.5. Szeregi czasowe symulowanych miesięcznych średnich prawie globalnych anomalii temperatury dolnej stratosfery (TLS), środkowej i górnej troposfery (TMT) oraz dolnej troposfery (TLT) ( A – C ). Wyniki modelu pochodzą z połączonych symulacji historycznych i scenariusza emisji RCP8.5 (V Raport Oceny IPCC) z połączonymi symulacjami antropogenicznego i naturalnego wymuszenia zewnętrznego (ALL+8.5) oraz z symulacjami tylko z naturalnym wymuszeniem zewnętrznym (NAT). Pogrubione linie oznaczają średnie dla wielu modeli ALL + 8,5 i NAT, obliczone na podstawie projektu porównywania modeli sprzężonych: 20 i 16 (CMIP-5 – Coupled Model Intercomparison Project). Anomalie są definiowane w odniesieniu do miesięcznych średnich klimatologicznych w latach 1861–1870 (Benjamin Santer i inni, 2013).

Naukowcy w swoim artykule porównali wyniki symulacji komputerowych z obserwowanymi zmianami temperatury atmosferycznej na podstawie badań za pomocą satelitarnych jednostek sondowania mikrofalowego (MSU – Microwave Sounding Units) do pomiaru globalnych profili temperatury atmosferycznej. Głównym ich zadaniem było skupienie uwagi na analizie uśrednionych strefowo zmian temperatury w trzech szerokich warstwach atmosfery:

  1. a) dolnej stratosferze (TLS – the lower stratosphere)
  2. b) środkowej i górnej troposferze (TMT – the mid- to upper troposphere)
  3. c) dolnej troposferze (TLT – the lower troposphere).

Informacje obserwacyjne za pomocą MSU zostały przeprowadzone z dwóch różnych grup teledetekcji:

  1. a) systemów teledetekcyjnych (RSS – Remote Sensing Systems)
  2. b) Uniwersytetu Alabama w Huntsville (UAH – University of Alabama at Huntsville).

W szczególności dla dokładniejszego zbadania klimatycznego odcisku palców, zostały wykorzystane do głębszej analizy dodatkowe szacunki niepewności obserwacji dostarczone przez grupę RSS.

Referencje
1. Fourier J. B. J. , 1824 ; Remarques Générales Sur Les Températures Du Globe Terrestre Et Des Espaces Planétaires ; Annales de Chimie et de Physique 27: 136-67. ; https://books.google.fr/books
2. Fourier J. B. J. , 1827 ; Mémoire Sur Les Températures Du Globe Terrestre Et Des Espaces Planétaires ; Mémoires de l’Académie Royale des Sciences 7: 569-604. ; https://www.academie-sciences.fr/…/Mem1827_p569_604.pdf
3. Langley S. P., 1881 ; The Bolometer and Radiant Energy ; Vol. 16 (May, 1880 – Jun., 1881), pp. 342-358 (17 pages) ; Proceedings of the American Academy of Arts and Sciences ; https://www.jstor.org/stable/25138616?origin=crossref&seq=1
4. Budyko M. I., 1957 ; Тепловой баланс земной поверхности ; Booksite ; https://www.booksite.ru/fulltext/1/001/008/109/891.htm
5. Manabe S. et al., 1967 ; Thermal Equilibrium of the Atmosphere with a Given Distribution of Relative Humidity ; Journal of the Atmospheric Sciences ; https://journals.ametsoc.org/…/1520-0469_1967_024_0241…
6. Harries J. E. et al., 2001 ; Increases in greenhouse forcing inferred from the outgoing longwave radiation spectra of the Earth in 1970 and 1997 ; Nature ; https://www.nature.com/articles/35066553
7. Griggs J. A. et al., 2007 ; Comparison of spectrally resolved outgoing longwave data between 1970 and present ; Journal of Climate ; https://journals.ametsoc.org/…/clim/20/15/jcli4204.1.xml
8. Philipona R. et al., 2004 ; Radiative forcing ‐ measured at Earth’s surface ‐ corroborate the increasing greenhouse effect ; Geophysical Research Letters ; https://agupubs.onlinelibrary.wiley.com/…/2003GL018765
9. Santer B. D. et al., 2013 ; Human nad Natural Influences on the Changing Thermal Structure of the Atmosphere ; Proceedings National Academy of the Sciences

Polarny prąd strumieniowy a wir polarny

Czy polarny prąd strumieniowy może mieć taki wpływ, że już na początku września czy pod koniec maja mogą pojawić się nie tylko przymrozki, ale i nawet krótkotrwałe opady śniegu na nizinach średnich szerokości?

Wszystko zależy od tego, jak daleko na niskie szerokości będą trafiać coraz częstsze masy polarno-arktycznego powietrza. I na odwrót. Jak daleko na wysokie szerokości będą trafiać coraz częstsze masy tropikalno-zwrotnikowego powietrza.

Szczególne zainteresowanie wśród naukowców wzbudzają wiry polarne na obu biegunach. Zwłaszcza ten nad Arktyką, którego rozbicie wywołało w drugiej połowie zimy w 2018 i 2021 roku powstanie dość dużych fal zimna.

Rys. Grafiki nagłego ocieplenia stratosferycznego (SSW – Sudden Stratospheric Warming) dla średnich i ekstremalnych wskaźników dziennej temperatury powierzchni (Temperature Surface lub Tsfc). Anomalie dziennych temperatur powierzchni w okresie 30-dniowym, od grudnia do kwietnia::a) średniej b) najzimniejszej c) najcieplejszej. Dane dotyczące temperatury powierzchni i daty SSW były obliczane na podstawie reanalizy ERA-interim (1979–2016) (Daniele Domeisen i Amy Butler, 2020)

Daniela Domeisen, z Instytutu Nauk o Atmosferze i Klimatu w ETH w Zürichu (Szwajcaria), i Amy Butler z Narodowej Administracji Oceanicznej i Atmosferycznej (NOAA) z Laboratorium Nauk Chemicznych w Boulder (Kolorado w USA), powiedziały na podstawie swoich obserwacji symulacji modeli numerycznych, że pionowe fale planetarne rozchodzące się na granicy troposfery i stratosfery mogą doprowadzić do tzw. nagłego ocieplenia stratosferycznego (SSW – Sudden Stratospheric Warming), co z kolei może wywołać propagację fal lodowatego powietrza ze stratosfery w dół do troposfery i ku powierzchni Ziemi. Często ma ono związek z ujemną fazą oscylacji północnoatlantyckiej (NAO – North Atlantic Oscillation) 1.

Naukowczynie piszą, że ekstrema stratosferycznych wirów polarnych na półkuli północnej (NH – North Hemisphere), takie jak SSW w środku zimy lub silne wirowe zdarzenia, zwykle poprzedzają zmianę w kierunku anomalnie trwałych warunków pogodowych, trwającą nawet do 2 miesięcy. Gdy następuje zakończenie SSW , wówczas pojawiają zazwyczaj wybuchy zimnego powietrza w średnich szerokościach geograficznych, powiązane z ekstremalnie niskimi dziennymi minimalnymi i maksymalnymi temperaturami. W szczególności jest to bardzo dotkliwe w Europie Północnej i Azji, które mają wpływ na zdrowie ludzi i zwierząt.

Wybuchy zimnego powietrza występują również nad Północnym Atlantykiem i Oceanem  Arktycznym. Są to tzw. morskie ogniska zimnego powietrza (MCAO – Marine Cold Air Outbreaks). Te zjawiska atmosferyczne są skorelowane z ekstremalnymi prędkościami przyziemnego wiatru, czasami związanymi ze zwiększonym ryzykiem tworzenia się specyficznych niżów polarnych (znanych również jako arktyczne huragany), które często zwiększają ryzyko narażenia infrastruktury morskiej i przybrzeżnej oraz żeglugi arktycznej.

Rekordowo silny wir polarny na półkuli północnej (NH), który miał miejsce na początku 2020 roku był związany z serią kolejnych burz, które uderzyły w Wielką Brytanię i Europę Północną. Te ekstremalne zdarzenia pogodowe przyniosły z sobą rozległe zniszczenia oraz bezprecedensowe pojawienie się długotrwałego ciepła w Eurazji. Zdarzenia odbicia fal propagacyjnych wpłynęły na powstanie wybuchów zimnego powietrza nad środkową Kanadą.

Śnieżyce (sztormy śnieżne lub inaczej cyklony śnieżne) są przez ostatnie lata dość częste w północno-wschodniej części USA i na wschodnich wybrzeżach Labradoru we wschodniej Kanadzie, które stają się silniejsze, im wolniej zaczyna meandrować polarny prąd strumieniowy. Nieco rzadziej, występują one także w Europie. Np. Tak było zimą na przełomie lutego i marca 2018 roku. To właśnie wtedy zaobserwowano, że któregoś dnia temperatura w Warszawie była chłodniejsza niż na samym biegunie północnym. Do tego zdarzenia doszło po rozbiciu wiru polarnego na trzy części, gdy stratosferyczne zimno rozlało się z polarnych wysokich szerokości daleko na średnie niskie szerokości geograficzne w Ameryce Północnej, Europie i Azji. Na ten temat w serwisie Nauka o klimacie napisali Hubert Bułgajewski i Marcin Popkiewicz 2.

 

Rys.2. Zimą 2020 r. wystąpił rekordowo silny wir polarny. (Paul Duginski / Los Angeles Times) Grafika: NOAA 3.

Naukowczynie, wyżej wymienionej pracy, stwierdziły, że po zakończeniu SSW wraz z ujemną fazą NAO przeważnie występują miesiące wiosenne i letnie, bardzo chłodne na średnich szerokościach oraz mocno wilgotne w obszarach podzwrotnikowych o klimacie śródziemnomorskim. Często ma to związek z wychyleniem toru burz daleko na południe z północnego Atlantyku w kierunku równika, co niejednokrotnie zwiększa prawdopodobieństwo występowania również uciążliwych powodzi w Europie południowej. Zmiana frontu polarnego w kierunku południowym prowadzi do powstawania okresów susz w północno-zachodniej części Skandynawii i na Wyspach Brytyjskich. Wówczas po drugiej stronie północnego Atlantyku we wschodniej części Kanady panuje anomalne ciepło. Również jest bardzo gorąco w subtropikach Afryki i Azji.

Bez zdarzenia SSW normalnie i szybko płynący wir polarny, podczas dodatniej fazy NAO, przyczynia się często do występowania susz w południowej Europie, ponieważ tor burz wzdłuż frontu polarnego płynie prawidłowo na wysokości północnego Atlantyku przynosząc z sobą wilgotne i mokre miesiące w północnej Europie, w szczególności w Wielkiej Brytanii. Panuje wówczas rekordowe ciepło w Eurazji, a ekstremalne zimno pojawia się nad środkową Kanadą i środkowymi stanami USA.

Wszystkie te zawirowania pogodowe mają związek z długofalową naturalną zmiennością, na którą nakładają się antropogeniczne zmiany klimatu. Coraz częstsza obecność wolno meandrującego polarnego prądu strumieniowego jest związana z nierównowagą konwekcyjno-radiacyjną, to znaczy z tym, że do układu ziemskiego wchodzi więcej energii niż z niego wychodzi w kosmos. Kiedy nastąpi kolejna równowaga konwekcyjno-radiacyjna, może to oznaczać, że polarny prąd strumieniowy może znowu przyspieszyć, ale już przy wyższej temperaturze globalnej. Wówczas dalsze emisje gazów cieplarnianych, ponownie, sprawią, że nastąpi wzmocnienie arktyczne i gradient temperatur pomiędzy biegunem północnym a równikiem znowu mocno zwiększy się, co może oznaczać ponownie wzmocnienie ekstremalnych zjawisk pogodowych.

Referencje:

  1. Domeisen D. I. V. et al., 2020 ; Stratospheric drivers of extreme events at the Earth’s surface ; Communications Earth & Environment ; https://www.nature.com/articles/s43247-020-00060-z
  2. Bułgajewski H., Popkiewicz M., 2018 ; W Warszawie zimniej niż na biegunie północnym ; Nauka o klimacie ; https://naukaoklimacie.pl/aktualnosci/w-warszawie-zimniej-niz-na-biegunie-polnocnym-277/
  3. Duginski P., 2020 ; If a warm U.S. winter was ‘a preview of global warming’, what part did a polar vortex play? ; Los Angeles Times ; https://www.latimes.com/california/story/2020-03-28/if-a-warm-u-s-winter-was-a-preview-of-global-warming-what-part-did-a-polar-vortex-play

 

Szybowiec wodny Slocum, mierzący pH w północnym Atlantyku u wybrzeży stanu New Jersey

Pod względem ekonomicznym, duży ekosystem morski północno-wschodniego szelfu (NES – Northeast Shelf) Stanów Zjednoczonych obsługuje niektóre z najbardziej wartościowych łowisk przybrzeżnych w kraju. Jednak większość tych dochodów pochodzi z połowu skorupiaków, które są wrażliwe na zakwaszenie oceanów (OA – Ocean Acidification), którego prognozy wskazują w najbliższych latach na dalszy wzrost.

Grace Saba i Liza Wright-Fairbanks z Rutgers w Stanowym Uniwersytecie New Jersey oraz Baoshan Chen z Uniwersytetu Stony Brook i Wei-Jun Cai z Uniwersytetu Delaware w 2018 roku przetestowali szybowiec autonomiczny Slocum w kształcie żółtej torpedy, który przez trzy tygodnie mierzył pH, zasolenie i temperaturę wód oceanicznych w całym słupie wody przybrzeżnego Atlantyku, od portowego miasta Atlantic City do skraju podwodnego szelfu kontynentalnego na odcinku 130 mil, tam i z powrotem 1.

Fot. Szybowiec Slocum obsługiwany przez Rutgers University jest rozmieszczony u wybrzeży New Jersey. Podwodne szybowce wyposażone w czujniki dostarczają danych na żywo, które pomagają naukowcom zrozumieć w czasie rzeczywistym, jak zmienia się kwasowość w oceanach Ziemi. Źródło: Liza Wright-Fairbanks, Rutgers University

Dane porównawcze pH mierzonego na północno-wschodnim szelfie kontynentalnym na różnych jego głębokościach, od powierzchni oceanu do dna, tradycyjną metodą spektrofotometryczną za pomocą pobierania próbek wody, a metodą za pomocą przemieszczania się automatycznego szybowca, wyraźnie się różniły. Okazało się, że pomiary czujnika pH z szybowca miały znacznie wyższą rozdzielczość z dokładnością 0,011 jednostek lub nawet lepszą, mierzoną non stop w ciągu kilku tygodni w całym słupie wody oceanicznej.

Ogólnie naukowcy ci zaobserwowali, że wcześniejsze wysiłki w zakresie monitorowania zakwaszenia miały albo zbyt niską rozdzielczość przestrzenną (cumowanie), albo z kolei zbyt wysokie koszty i zbyt niską rozdzielczość czasową oraz przestrzenną (rejsy badawcze).

Rys. Mapa pokazująca lokalizację pierwszych wodowań szybowca pH. W przypadku pierwszego wodowania (tor w kolorze magenta) szybowiec został zwodowany u wybrzeży Atlantic City w stanie New Jersey w dniu 2 maja 2018 r. i wykonał pomiary pH i innych zmiennych od przybrzeżnego do skraju szelfu kontynentalnego i z powrotem, gdzie został zacumowany 22 maja 2018 r. W przypadku drugiego zwodowania (trasa w kolorze błękitnym), szybowiec został zwodowany na wschód od Georges Bank 5 lipca 2018 roku i wykonał pomiary pH i innych zmiennych podczas przepływu, dopóki nie został zacumowany u wybrzeży Atlantic City 28 sierpnia 2018 r. Podczas tego zwodowania szybowiec był wciągnięty w ciepły wir na prawie 5 dni (żółte równoległoboki i koło). Zaniepokojeni biodegradacją z powodu długiego okresu przebywania w ciepłej wodzie, 31 lipca szybowiec ten został przechwycony na południe od Montauk w stanie New Jersey w Stanach Zjednoczonych (Grace Saba i Liza Wrighr-Fairbanks, 2018).

W serwisie naukowym NOAA OAP (NOAA Ocean Acidification Program) prof. Grace Saba napisała 2:

Ten projekt optymalizuje sieć obserwacyjną NES OA obejmującą regiony środkowego Atlantyku i Zatoki Maine poprzez dodanie sezonowych rozmieszczeń podwodnych szybowców wyposażonych w transformujące, nowo opracowane i przetestowane głębokie czujniki pH oparte na ISFET oraz dodatkowe czujniki (pomiar temperatury, zasolenia dla całkowitej zasadowości i oszacowanie nasycenia aragonitem [ΩArag], tlenu i chlorofilu), optymalizacja istniejących regionalnych próbek w celu usprawnienia pomiarów chemii węglanów w kilku kluczowych lokalizacjach oraz kompilacja i integracja istniejących zasobów OA. Naukowcy zastosują te dane do istniejącego modelu ekosystemu/biogeochemii oceanicznej NES (BGC), który rozwiązuje chemię węglanów i jej zmienność.

Referencje:

  1. Saba G. K. et al., 2018 ; The Development and Validation of a Profiling Glider Deep ISFET-Based pH Sensor for High Resolution Observations of Coastal and Ocean Acidification ; Observation Ocean ; https://www.frontiersin.org/articles/10.3389/fmars.2019.00664/full
  2. Saba G. K., 2020 ; OAP Projects in the Southeast U.S. Optimizing Ocean Acidification Observations for Model Parameterization in the Coupled Slope Water System of the U.S. Northeast Large Marine Ecosystem ; NOAA OAP ; https://oceanacidification.noaa.gov/CurrentProjects/Southeast/TabId/2910/ArtMID/14230/ArticleID/15729/Optimizing-Ocean-Acidification-Observations-for-Model-Parameterization-in-the-Coupled-Slope-Water-System-of-the-US-Northeast-Large-Marine-Ecosystem.aspx

 

Robot wodny Saildrone 1020, mierzący w Oceanie Południowym strumienie dwutlenku węgla

Ocean Południowy do tej pory był dość skutecznym buforem mocno spowalniającym wzrost koncentracji dwutlenku węgla oraz temperatury w atmosferze. To wszystko jednak ulega zmianie.

Dr Adrienne J. Sutton – oceanograf z Narodowej Administracji Oceaniczno-Atmosferycznej Morskiego Laboratorium Środowiskowego Pacyfiku (NOAA PMEL – Pacific Marine Environmental Laboratory), Nancy Williams – adiunkt na Uniwersytecie Morskich Nauk Południowej Florydy (University of South Florida College of Marine Science) oraz dr Bronte Tilbrook – biogeochemik pracujący w australijskim Hobarcie w jednostce biznesowej Oceany i Atmosfera Wspólnoty Organizacji Badań Naukowych i Przemysłowych (CSIRO OAF – Commonwealth Scientific and Industrial Research Organization Oceans and Atmosphere Flagship), zaobserwowali, że Ocean Południowy, od strony Oceanu Indyjskiego, zaczął więcej odgazowywać węgla niż go pochłaniać. 1

Rys.1. Strumień CO2 obliczony na podstawie ciśnienia parcjalnego p CO2 mierzonego przez powierzchniowy pojazd bezzałogowy (USV – Unmanned Surface Vehicle) , temperatury powierzchni morza (SST – Sea Surface Temperature) i zasolenia powierzchni morza (SSS – Sea Surface Salinity) oraz prędkości wiatru za pomocą wieloplatformowej krzyżowej kalibracji w wersji 2 (CCMP V2 – Cross-Calibrated Multi-Platform, version 2). Dane pokazują lokalizację USV wraz z czasem. Czarne linie wskazują lokalizacje klimatologiczne głównych frontów (Alejandro H. Orsi i inni, 1995) (Adrienne J. Sutton et al., 2021).

Fot.1. Robot wodny Saildrone 1020 zbliża się do Point Bluff w Nowej Zelandii w sztormowych warunkach po pierwszym bezzałogowym opłynięciu Antarktydy na początku sierpnia 2019 r. Przepłynął ponad 13 000 mil wokół Oceanu Południowego w 196 dni. (Źródło zdjęcia: Saildrone Inc.)

Bezzałogowy powierzchniowy pojazd (USV – Unmanned Surface Vehicle), Saildrone 1020, użyty w celu badań Oceanu Południowego, w 2019 r. opłynął dookoła całą Antarktydę – 13 000 mil w ciągu 196 dni i zarejestrował wyniki takich pomiarów, na których podstawie, wyżej wymienieni, naukowcy wyciągnęli powyższe wnioski:

Postęp technologiczny bezzałogowych pojazdów naziemnych (USV) pozwala sprostać tym wyzwaniom obserwacyjnym poprzez zdalne pomiary w trudnych warunkach atmosferycznych w korelacji z bezpośrednimi pomiarami ciśnienia parcjalnego dwutlenku węgla (p CO2) powietrze-morze oraz prędkości wiatru.

Ponadto, na podstawie pomiarów zebranych ze statków przez kilkadziesiąt lat naukowcy doszli do wniosku, że Ocean Południowy jest głównym buforem chroniącym przed zmianami klimatu, pochłaniając aż 75 procent nadmiaru ciepła oraz przyczyniając się do 40 procent emisji dwutlenku węgla przez ludzkość od początku rewolucji industrialnej.

Zdaniem dziennikarza naukowego Theo Steina, piszącego dla serwisu NOAA Climate.gov, wstępne pionierskie wyniki badawcze zasugerowały, że obszary Oceanu Południowego, zidentyfikowane przez pływaki jako potencjalne źródła CO2, rzeczywiście emitowały gaz cieplarniany w miesiącach zimowych. Saildrone 1020 zbliżył się również na tyle blisko jednego z pływaków, aby umożliwić naukowcom porównanie pomiarów CO2, co stanowi cenną kontrolę krzyżową różnych robotów i technik obserwacyjnych. 2

Generalnie, Ocean Południowy, którego powierzchnia na Ziemi wynosi około 30%, odgrywa dużą, kluczową rolę w globalnym klimacie. Jest on ogromnym obszarem, w którym spotykają się prądy oceaniczne i jest bardzo ważnym łącznikiem między atmosferą a głębinami oceanicznymi w zakresie przenoszenia ciepła i węgla.

Referencje:

  1. Sutton A. J. et al., 2021 ; Constraining Southern Ocean CO2 Flux Uncertainty Using Uncrewed Surface Vehicle Observations ; Geophysical Research Letters ; https://agupubs.onlinelibrary.wiley.com/doi/10.1029/2020GL091748
  2. Stein T., 2019 ; Saildrone is first to circumnavigate Antarctica, in search for carbon dioxide ; NOAA ; https://www.noaa.gov/news/saildrone-is-first-to-circumnavigate-antarctica-in-search-for-carbon-dioxide

 

Pożary lasów w Kalifornii

Pożary, z powodu postępującego ocieplania się troposfery ziemskiej, są już, na całym świecie, prawie na wszystkich kontynentach. Jednak najbardziej spektakularne, od minionej dekady, występują właśnie w Kalifornii, o czym na początku rozdziału wspomnieliśmy.

Praca zespołowa, której autorem jest A. Park Williams, bioklimatolog z Obserwatorium Ziemi Lamont-Doherty na Uniwersytecie Columbia, przedstawiła dokładną analizę wpływu antropogenicznych zmian klimatu na pożary w Kalifornii 1.

Pożary w Kalifornii najczęściej występują w ciepłych okresach letnich i jesiennych i w dużej mierzą zależą od typu roślinności i jej stopnia wilgotności, topografii, zależnej od układu ciśnień atmosferycznych, oraz wzorców osadnictwa ludzkiego, w tym rozbudowywanego na obrzeżach lasów.

W serwisie Science Daily autorzy powyższej pracy napisali 2:

Na tle długotrwałych wzrostów temperatury w ostatnich dziesięcioleciach, Kalifornia odnotowuje coraz większe skoki sezonowych pożarów, a w ciągu ostatnich dwóch lat ciąg katastrofalnych, rekordowych pożarów. To skłoniło naukowców, polityków i media do zastanowienia się: jaką rolę może tu odegrać ocieplenie klimatu? Nowe badanie ukazuje wiele czynników, które mogą sprzyjać pożarom, i stwierdza, że ​​w wielu, choć nie we wszystkich przypadkach, ocieplenie klimatu jest decydującym czynnikiem. Badanie wykazało w szczególności, że ogromne letnie pożary lasów, które nawiedziły Północne Wybrzeże i regiony Sierra Nevada, mają ostatnio silny związek z suchymi warunkami gruntowymi wywołanymi przez rosnące ciepło. Sugeruje to, że pożary lasów mogą wzrosnąć wykładniczo w ciągu najbliższych 40 lat, w miarę dalszego wzrostu temperatury.

Rys.1. Sezonowe i roczne spalone obszary w Kalifornii w latach 1972–2018. a) Całkowity obszar spalony w czterech regionach zainteresowania: b) Wybrzeże Północne, c) Sierra Nevada, d) Wybrzeże Środkowe, oraz e) Wybrzeże Południowe. Roczny spalony obszar rozkłada się na ten, który wystąpił w okresie styczeń-kwiecień (zielony kolor), maj-wrzesień (czerwony kolor) i październik-grudzień (pomarańczowy kolor). Znaczące prawdopodobieństwo (p < 0,05) trendów przedstawiono jako pogrubione czarne krzywe Park Williams i inni, 2019).

Badanie dokonuje analizy coraz większego wpływu ocieplenia klimatu na inicjację pożarów w zachodniej części Ameryki Północnej, szczególnie w stanie Kalifornia. Jednak występują one sezonowo, głównie latem oraz jesienią.

W latach 1972-2018, Kalifornia doświadczyła pięciokrotnego wzrostu rocznej spalonej powierzchni, głównie ze względu na ponad ośmiokrotny wzrost zasięgu letnich pożarów lasów. Wpłynęło na to wszystko wiele czynników.

Naukowcy zwrócili, tutaj, szczególną uwagę na suchość atmosfery nad Kalifornią, zwłaszcza nad jej południową częścią, która jest często także powodowana napływem gorącego pustynnego powietrza, niejednokrotnie przynoszącego specyficzne bardzo suche i gorące wiatry fenowe, tzw. Santa Ana. Wzmocniony efekt ekstremów pogodowych – fal upałów i suszy inicjuje zapłony niekontrolowanych pożarów.

Już od wczesnych lat siedemdziesiątych XX wieku, średnio bardzo gorące i suche dni w całej Kalifornii ociepliły się do dziś o około 1,4°C,  w stosunku do okresu 1900-2000.

Ponadto, w atmosferze nad wybrzeżami, i z dala od nich, w części górzystej Kalifornii, nastąpił znaczny spadek opadów deszczu, zwłaszcza w okresie od wiosny do jesieni, z powodu blokady wyżowej na Pacyfiku, przez to znacznie zwiększył się deficyt ciśnienia pary wodnej (VPD – Vapour Pressure Deficit), opisany wcześniej w rozdziale z suszami. Najprościej mówiąc, jest to pobór wilgoci przez gorące powietrze atmosferyczne.

Naukowcy na wstępie swojej pracy napisali:

Trendy te są zgodne z trendami antropogenicznymi symulowanymi przez modele klimatyczne. Reakcja obszarów letnich pożarów lasów na VPD jest wykładnicza, co oznacza, że ​​ocieplenie ma coraz większy wpływ. Solidne międzyroczne relacje, między VPD a obszarem letniego pożaru lasu, silnie sugerują, że prawie cały wzrost tegoż obszaru, w latach 1972–2018, był spowodowany wzrostem VPD. Wpływ zmiany klimatu na letnie pożary lasów był mniej widoczny na terenach nieleśnych. Jesienią dominującymi stymulatorami pożarów są wiatry i opóźniony początek opadów zimowych. Chociaż te zmienne nie zmieniły się znacząco w ciągu ostatniego stulecia, ocieplenie gruntów i wynikające z tego wysychanie w nich paliwa w coraz większym stopniu zwiększa prawdopodobieństwo dużych jesiennych pożarów. Wśród wielu procesów ważnych dla różnych reżimów pożarowych w Kalifornii, suszenie paliwa wywołane ociepleniem jest jak dotąd najwyraźniejszym powiązaniem między antropogeniczną zmianą klimatu a zwiększoną aktywnością pożarów w Kalifornii.

Na dodatek, na południu Kalifornii naukowcy zaobserwowali, z roku na rok, coraz bardziej zmniejszającą się grubość pokrywy śniegowej. Bywają lata, że prawie śniegu nie ma wcale. Coraz mniej jest wilgoci w glebie, co z kolei wpływa na to, że roślinność, zwłaszcza drzewostany iglaste, ma coraz bardziej obniżony poziom wód gruntowych. Dłuższy niedostatek deszczu oraz coraz gorętsza atmosfera w upalne letnie, a także, coraz częściej, ciepłe jesienne dni (tu z powodu wspomnianych wiatrów fenowych Santa Ana), sprawia, że roślinność ta cierpi na stres wodny i zarazem cieplny. A to z kolei skutkuje jej masowym wysychaniem. Dlatego też niejednokrotnie w takich zapalnych regionach świata jak Kalifornia, wysychająca roślinność staje się paliwem zapalnym do powstawania wielkoskalowych pożarów.

Kierownik badania i autor wspomnianej pracy – Park Williams w serwisie Science Daily powiedział:

Nie jest zaskoczeniem, że klimat ma taki wpływ na lasy, ale Kalifornia jest tak duża i tak zmienna, że ​​nie ma jednego uniwersalnego wyjaśnienia, w jaki sposób klimat może wpływać na pożary na całym świecie.

Staraliśmy się zapewnić kompleksowe wyniki badań, aby pokazać ludziom, jak klimat wpłynął lub, w niektórych przypadkach, nie wpłynął na aktywność pożarową.

Podwyższone temperatury i wynikająca z tego suchość na ziemi podwoiły obszar wypalony w pożarach lasów na większych obszarach zachodnich Stanów Zjednoczonych w ostatnich dziesięcioleciach.

W kalifornijskich lasach infrastruktura ludzka rozrasta się, co stwarza potencjalne zagrożenie nie tylko dla tych wrażliwych ekosystemów, ale i też dla ludzi mieszkających w pobliżu nich.

Chociaż, jak zauważyli słusznie naukowcy, fragmentacja krajobrazów leśnych, w wyniku ingerencji człowieka, może w niektórych przypadkach ograniczać rozprzestrzenianie się pożarów. Jednak z powodu skurczenia się szaty roślinnej, opady deszczu i śniegu, z roku na rok, stają się coraz rzadsze i czasami te obszary lokalne mogą być narażone na zwiększenie ryzyka powstania pożaru, a czasami na jego zmniejszenie także. Wszystko zależy od wielu złożonych czynników naturalnych wpływających na kształt i dynamikę pogody i klimatu Kalifornii. Ale obszary zbiorowisk roślinnych zdominowane przez krzewy lub trawy z niewielkimi zadrzewieniami w danym regionie, wcale nie muszą podobnie reagować.

Naukowcy łącząc wiele danych naukowych z wielu źródeł,, doszli do wniosku, że rosnący deficyt ciśnienia pary wodnej (VPD), wywołany temperaturą, odpowiadał za prawie cały wzrost pożarów lasów w latach 1972-2018.

W grudniu 2017 r. ustanowiono nowoczesny rekord państwowy w zakresie największego indywidualnego pożaru (ponad 285 000 akrów) i najbardziej niszczycielskiego (spalone 5636 budowli, 22 osoby zabite).

Fot. Helikopter zrzuca wodę podczas walki z pożarem rancza, częścią pożaru kompleksu Mendocino, w pobliżu Clearlake Oaks w Kalifornii. (Źródło: Noah Berger/AFP/Getty Images)

W lipcu 2018 r. ustanowiono nowy rekord pod względem całkowitej rocznej spalonej powierzchni (prawie 1,7 miliona akrów), a rekordy z grudnia 2017 r. zostały pobite w odniesieniu do największego indywidualnego pożaru (pożar kompleks Mendocino, który zniszczył 464 500 akrów) i najbardziej destrukcyjnego: pożaru, który spalił 18 804 budowle i zabił 85 osób. Ogień zrównał z ziemią prawie całą leśną bioróżnorodność Paradise.

Naukowcy w swojej pracy napisali:

Zdolność suchych paliw do wywoływania dużych pożarów jest nieliniowa, co pozwoliło na zwiększenie wpływu ocieplenia.

Ocieplenie spowodowane przez człowieka już znacznie zwiększyło aktywność pożarów w Kalifornii, szczególnie w lasach Sierra Nevada i na północnym wybrzeżu, i prawdopodobnie będzie tak dalej w nadchodzących dziesięcioleciach.

W 2022 r. zostało przeprowadzone interesujące badanie pożarów lasów w Kalifornii przez zespół amerykański, który współtworzyli: profesor emerytowany Mark E. Harmon z Wydziału Ekosystemów Leśnych i Społeczeństwa, na Uniwersytecie Stanu Oregon w Corvallis, Chad T. Hanson z Projektu Johna Muira, Earth Island Institute w Big Bear City, Dominick A. DellaSala z Wilde Heritage, projektu Earth Island Institute, stwierdzili, że badania satelitarne i naziemne za pomocą LIDAR, które wykazały, że spalona biomasa leśnych drzew kalifornijskich w płomieniach wielu pożarów średnio wyniosła 85%, to te wyniki ich zdaniem nie są wiarygodne. Naukowcy, spędzając czas w Górach Sierra Nevada, w strefie pożaru Creek, trwającego od września 2020 roku i rozciągającego się na powierzchni 400 000 akrów oraz w strefie pożaru Rim, który miał swój początek w 2013 roku i rozprzestrzenił się na ponad 250 000 akrów, obliczyli, że spalona biomasa tych drzew jest mniejsza niż 2%.

Rys.2. Położenie obszaru badawczego w (a) zachodnich Stanach Zjednoczonych, (b) Kalifornii i (c) na obrzeżach pożaru Creek w 2020 roku i pożaru Rim w 2013 roku w górach Sierra Nevada w Kalifornii (Mark E. Harmon et al., 2022).

Naukowcy w ciągu czterech lat dokładnie badali pożary na kilku poziomach złożonego wielkoskalowego pożaru. Mianowicie w strefie pożarowej dokładnie zbadali i obliczyli tempo spalania, poczynając od gałęzi, drzew, drzewostanów, a kończąc na krajobrazach. Przy czym ustalili precyzyjnie ilość węgla pozostałego w biomasie drzew i uwolnionego do atmosfery.

Badanie wykazało istotne różnice wskaźników spalania na różnych poziomach. Czyli, na poziomie gałęzi dużych drzew wprawdzie było to 100%, ale już na poziomie małych drzew wyniosło 57%. A analizując wskaźniki spalania na wyższych poziomach: na poziomie drzewostanu, wynik był bardzo niski, wskazał zakres od 0,1% do 3,2%). A na poziomie krajobrazu jeszcze niższy, który pokazał zakres od 0,6% do 1,8%.

Autorzy tego interesującego badania w Science Daily napisali podkreślając dwa istotne fakty, że poziom drzewostanu dotyczy wszystkich gatunków drzew, zarówno iglastych, jak i liściastych, mających różne rozmiary o określonej klasie ciężkości pożaru; a poziom krajobrazu oznacza cały spalony obszar, który jest uśredniony w poszczególnych klasach ciężkości pożaru.

Harmon dla tego samego serwisu powiedział kluczowe bardzo ważne rzeczy dotyczące pożarów lasów:

 „Chociaż wielu naukowców terenowych prawdopodobnie nie uznałoby naszych wyników za zaskakujące, niedawno opublikowano recenzowane szacunki dotyczące spalania do 85% żywych drzew z pożaru krawędzi”

 „Inne badania oparte na przeglądzie literatury sugerują, że do 65% żywych drzew mogło zostać spalonych w miejscach o dużej intensywności. Nikt w procesie recenzowania nie kwestionował wyników”.

Z kolei Hanson powiedział wprost, że powyższe badania w sposób udowadniający, że razem z Harmonem i DellaSallą nie mylą się ani trochę:

“Nawet w przypadku megapożarów sklasyfikowanych jako duże, znaczna część obszaru w obrębie obwodu pożaru płonęła z niską i umiarkowaną intensywnością, przy spalaniu żywych drzew poniżej 0,5% na poziomie drzewostanu”

„To badanie pokazuje wartość badań naziemnych w podejmowaniu decyzji politycznych i zarządzaniu. Usuwanie roślinności na rozległych obszarach prawdopodobnie doprowadzi do większej skumulowanej emisji dwutlenku węgla niż same duże pożary”.

DelaSalla podsumował powyższe badania:

“Naukowcy coraz częściej podkreślają znaczenie magazynowania większej ilości węgla w dojrzałych, starszych drzewach, niezależnie od tego, czy lasy spłonęły, czy nie, jako sposób na ograniczenie całkowitej emisji gazów cieplarnianych.”

„Sugerujemy, aby badacze i decydenci unikali stosowania wskaźników spalania, które nie są oparte na badaniach terenowych, ponieważ wydają się zawyżać emisje pożarów wykorzystywane w raportowaniu emisji dwutlenku węgla; może to potencjalnie źle ukierunkować politykę łagodzenia zmiany klimatu”.

Bez żadnych wątpliwości. Powyższe badanie służy też ochronie przyrody. Przeciwko złym decyzjom wyrębów drzew w rzekomej obawie przed wyolbrzymionymi emisjami dwutlenku węgla podczas trwania pożarów leśnych.

Referencje:

  1. Williams A. P., 2019 ; Observed Impacts of Anthropogenic Climate Change on Wildfire in California ; Earth’s Future ; https://agupubs.onlinelibrary.wiley.com/doi/full/10.1029/2019EF001210
  2. Earth Institute at Columbia University, 2019 ; Study bolsters case that climate change is driving many California wildfires ; Science Daily ; https://www.sciencedaily.com/releases/2019/07/190715103311.htm
  3. Harmon M. E., 2022 ; Combustion of Aboveground Wood from Live Trees in Megafires, CA, USA ; Forests ; https://www.mdpi.com/1999-4907/13/3/391
  4. Oregon State University, 2022 ; Huge Forest Fires Don’t Cause Living Trees to Release Much Carbon, Research Shows ; Science Daily ; https://www.sciencedaily.com/releases/2022/03/220314120657.htm

Zimowo w Kalifornii

Od tygodnia czasu na wybrzeżach zachodnich stanów, w tym przede wszystkim w Kalifornii mają miejsce silnie obniżone temperatury oraz śnieżyce i mrozy, a także burze, ulewy i powodzie.
Wydział meteorologiczny National Weather Service, w Los Angeles, wydał wiele rozporządzeń alarmowych. W obszarach krytycznie zagrożonych zamknięto drogi szybkiego ruchu, między innymi łączące ze stanem Oregon. Ponadto odwołano wiele lotów samolotów oraz powstały przerwy w dostawie prądu.
Daniel Swain, klimatolog z UCLA zasugerował, że zimowe warunki w Kalifornii utrzymają się prawdopodobnie nawet przez kilka tygodni. I wszystko na to wskazuje, że ten rok zimowy zakończy się bardzo dużą pokrywą śnieżną w Sierra Nevada.
27 lutego 2023 r. Grace Toohey i Natan Solis podali na łamach magazynu Los Angeles Times, że National Weather Service prognozuje do 6 stóp dodatkowego śniegu do środy w Sierra Nevada i do 2 stóp w górach południowej Kalifornii.
W zeszłym tygodniu odnotowano tam bezprecedensowo duże opady śniegu, które były na tyle duże, że zamknięto nie tylko wiele dróg dojazdowych, ale także dostęp do Parku Narodowego Yosemite. Na wyższych położeniach parku spadło aż 15 stóp śniegu. Ogromne opady śniegu sprawiły trudności z komunikacją.
W środę 1 marca 2023 r. w górach Sierra Nevada wydano National Weather Service wydał ostrzeżenia przed zamieciami śnieżnymi. Prognoza nadal jest aktualna, że pokrywa śniegu w wielu rejonach górskich może sięgać 6 stóp.
Jeanine Jones, kierownik ds. Zasobów międzystanowych w Departamencie Zasobów Wodnych Kalifornii, powiedziała w oświadczeniu dla serwisu NPR, że ostatnie obfite opady śniegu w Kalifornii, łącznie z napływami dziewięciu rzek atmosferycznych na początku stycznia, wpłyną na złagodzenie wieloletniej suszy.
Można też dodać, że te ekstremalne ochłodzenie Kalifornii i przylegających rejonów, wpłynie też na większe zaspokojenie potrzeb ludzkich w zasoby wody użytkowej i do celów rolniczych oraz przemysłowych. Ponadto wysoka pokrywa śnieżna zasili wody gruntowe w ekosystemach, głównie leśnych, zarówno górskich, jak i wyżynnych i nizinnych.
Tymczasem zimowe warunki pogodowe wróciły również tradycyjnie na obszary północno-wschodniej części USA, gdyż jeszcze dwa tygodnie temu było tam wczesnowiosennie.
Źródła:

Pożary w basenie Morza Śródziemnego

Pożary w obszarze śródziemnomorskim zawsze występowały w klimacie holoceńskim, ale dawniej nie były one tak intensywne, tak częste i tak długotrwałe, jak to się dzieje w ostatnich dwóch dekadach podczas dalszego wzrostu temperatury globalnej i powstawania coraz większej liczby zaburzeń cyrkulacji atmosferycznych i morskich. Na ten temat wiele mówi książka z 2012 roku, zatytułowana „Fire in Mediterranean Ecosystems, Ecology. Evolution and Management” („Pożar w ekosystemach śródziemnomorskich. Ekologia, ewolucja i zarządzanie”), zaprezentowana przez Johna E. Keeleya ze Służby Geologicznej Stanów Zjednoczonych (Kalifornia), Williama J. Bonda z Uniwersytetu w Kapsztadzie, Rossa A. Bradstocka z Uniwersytetu w Wollongong, Juli G. Pausasa z Wyższej Rady ds. Badań Naukowych w Madrycie oraz Philipa W. Rundela z Uniwersytetu Kalifornijskiego w Los Angeles 6.

Autorzy przedstawili w swojej książce argumenty korzystne w stosunku do powstawania umiarkowanych pożarów, które przynosiły takie korzyści ekologiczne, jak otwieranie krajobrazów i zwiększanie różnorodności biologicznej. Jednak według wskaźnika pogody pożarowej (FWI – Fire Weather Index), współczesne pożary w Europie stają się coraz bardziej dotkliwe, głównie na południu kontynentu. Modele klimatyczne wyraźnie symulują, że wraz z dalszym ocieplaniem planety, ich częstość, intensywność i długość w basenie Morza Śródziemnego, a także w wielu rejonach Ziemi, będą coraz wyraźniej zwiększać się. Powstawanie dużej liczby i wielkości pożarów będzie tylko wpływać na to, że do atmosfery będzie trafiać dodatkowo spora liczba gazów cieplarnianych, głównie dwutlenku węgla i metanu, które będą wzmacniać dalszy wzrost lokalnych i regionalnych średnich temperatur, a także średniej temperatury globalnej (Jean Luc Dupuy i inni, 2020).

Praca zespołowa Juliena Ruffault z INRAE, Ecologie des Forêts Méditerranéennes w Awinionie, we Francji, opisuje dokładnie pogodę pożarową w basenie Morza Śródziemnego, analizując i opisując ją między innymi za pomocą wskaźnika FWI 7.

Zdaniem naukowców, typy pogody pożarowej (FWT – Fire Weather Types) wywołane upałami charakteryzują się złożonymi warunkami suchymi i ciepłymi, występującymi podczas letnich upałów, zarówno w warunkach umiarkowanych (typ fali upałów), jak i intensywnych (typ gorącej suszy).

Naukowcy napisali, że ogólnie przewiduje się, że do końca stulecia (2071–2100), przy scenariuszu emisji RCP4.5, częstotliwość występowania pożarów, wywołanych ciepłem, wzrośnie o 14%, a przy scenariuszu emisji RCP8.5, wzrośnie aż o 30% , co sugeruje, że będzie występować duża częstotliwość i zasięg dużych pożarów w całym basenie Morza Śródziemnego.

Rys. Bieżące i wielomodelowe mediany zmian częstości występowania w okresie letnim typów pogody pożarowej (FWT) w basenie Morza Śródziemnego. Dla dwóch scenariuszy emisji (RCP4.5 i RCP8.5) pokazano zmiany częstotliwości na koniec stulecia (2071–2100) w stosunku do obecnego okresu (1985–2015). Kropki wskazują komórki siatki, w których zmiana była statystycznie istotna ( p  < 0,05) w większości modeli. Mapy zostały stworzone w wersji 3.6.3 ( www.r-project.org ) (Julien Ruffault i inni, 2020).

Klimat i pogoda są także czynnikami napędzającymi pożary. Niedobór wilgotności gleby w ciągu dni lub miesięcy zwiększa suchość paliwa i palność.

Naukowcy stwierdzili, że większość największych pożarów ma miejsce wtedy, gdy spełnione są te dwa warunki. Na przykład, gdy mamy do czynienia z połączeniem ekstremalnej suszy z ekstremalnie gorącymi wiatrami lub falami upałów (falami gorącego powietrza), to wówczas bardzo często dochodzi do pożarów koron drzew w śródziemnomorskich lasach, a także pożarów zarośli, np. makii.

Następnie, ci sami naukowcy dokonali kombinacji analitycznej, rozkładając pogodę pożarową na wyraźne kombinacje, krótkoterminowej pogody, w skali lokalnej (tj. średniej dziennej temperatury, wilgotności względnej i prędkości wiatru), i długoterminowego klimatu (tj. suszy miesięcznej do sezonowej). Następnie poddali analizie, wcześniej wspomniane, typy pogody pożarowej (FWT – Fire Weather Types).

Dokonując obliczeń progów wielkości pożarów, naukowcy sklasyfikowali warunki pogodowe i klimatyczne w skali lokalnej – zapis ponad 17 000 rekordów pożarów (pożary o powierzchni większej niż 30 ha), przy użyciu obiektywnego grupowania. Następnie ocenili, czy największe pożary (od 80 do 2150 ha –  progi wielkości pożaru) występują preferencyjnie w ramach określonych FWT.

W dalszej kolejności, ekstrapolując klasyfikację pożarów całego basenu Morza Śródziemnego, zespół Ruffault ocenił potencjalne, obecne i przyszłe, zmiany częstotliwości FWT w XXI wieku. Potem naukowcy omówili potencjalne konsekwencje pod względem przyszłej aktywności pożarów w basenie Morza Śródziemnego.

Na koniec opisu swojej pracy, naukowcy poddali ocenie potencjalny wpływ przesunięć FWT na częstotliwość pożarów lasów oraz określili przyszłą częstotliwość pożarów w czterech badanych krajach, dla których dostępne były zbiory danych o pożarach, przy założeniu silnej hipotezy, że stosunek między częstotliwością pożarów a częstotliwością FWT pozostanie stały w przyszłości (stacjonarność relacji pożar-FWT).

Fot. Pożar lasu w wiosce Gouves na wyspie Evia (Eubea), 10 sierpnia 2021 r. Prawie 900 strażaków, wzmocnionych przez noc świeżymi przybyszami z zagranicy, zostało rozmieszczonych na drugiej co do wielkości wyspie kraju, ponieważ główne miasta i kurorty pozostawały zagrożone przez ogień, który płonie od ośmiu dni. (Źródło: Angelos Tzortzinis/AFP za pośrednictwem Getty Images)

Wyniki badań zostały przeprowadzone na podstawie symulacji z ośmiu modeli klimatycznych na podstawie skoordynowanego regionalnego eksperymentu zmniejszania skali Europy (EURO-CORDEX – EURO-Coordinated Regional Downscaling Experiment)

Ogólnie, wyniki badaczy pokazały, że prawdopodobnie zmiany w częstotliwości FWT zwiększą liczbę pożarów o 91% we Francji, 29% w Grecji, 21% w Portugalii i 30% w Tunezji do końca wieku w ramach scenariusza RCP8.5.

Referencje:

  1. Keeley J. E. et al., 2012 ; Fire in Mediterranean Ecosystems, Ecology, Evolution and Management ; Cambridge University Press ; https://www.cambridge.org/core/books/fire-in-mediterranean-ecosystems/9A9EFE91B8240330BA457BB05EF8AA6C
  2. Ruffault J. et al., 2020 ; Increased likelihood of heat-induced large wildfires in the Mediterranean Basin ; Scientific Reports ; https://www.nature.com/articles/s41598-020-70069-z