Dotkliwe susze w Europie w ciągu minionych dwóch dekad XXI wieku

Susza w obecnych czasach jest poważnym problemem cywilizacyjnym, uderzającym bezpośrednio w naszą działalność gospodarczą, głównie w sektorach: energetycznym, rolniczym i przemysłowym. Również jej wpływ ujemny coraz bardziej zaznacza się w ekosystemach lądowych.
Suszy najczęściej towarzyszą fale upałów, a także, gdy ich okres się wydłuża, dają o sobie znać wielkoskalowe pożary.
—-
W pracy „Increased future occurrences of the exceptional 2018–2019 Central European drought under global Warming” [„Zwiększona liczba przyszłych wystąpień wyjątkowej suszy w Europie Środkowej w latach 2018–2019 w warunkach globalnego ocieplenia”], która miała swoją premierę 6 sierpnia 2020 roku w czasopiśmie Scientific Reports, naukowcy z Niemiec i Czech pod kierownictwem Vittala Hari z Centrum Badań Środowiskowych UFZ-Helmholtz w Lipsku, wykorzystali dane sięgające roku 1766, aby stwierdzić, że dwuletnia susza 2018-2019 była największą i najcięższą zarejestrowaną w historii suszą, od co najmniej 250 lat.
Naukowcy oszacowali, że w drugiej połowie XXI wieku liczba ekstremalnych dwuletnich susz wzrośnie aż siedmiokrotnie, gdy będzie kontynuowany scenariusz najgorszych emisji „biznes jak zwykle”. Miałoby to drastycznie ujemny wpływ na 40 milionów hektarów upraw rolnych, czyli w porównaniu z dniem dzisiejszym, byłby to ubytek aż 60 % wszystkich ziem rolnych na świecie.
Symulacje komputerowe pod względem umiarkowanych emisji miałyby wpływ na straty rolne o połowę mniej.
Naukowcy napisali w swojej pracy, że dwuletni okres suszy stanowi znacznie poważniejsze zagrożenie dla roślinności aniżeli jednoletnie z poprzednich lat, ponieważ ziemia nie może się tak szybko zregenerować się po jednym roku suszy.
—-
Rys.1. Anomalie wskaźnika zdrowia klimatu i roślinności (VHI – Vegetation Health Index) w latach 2003, 2018 i 2019. ( a , b , c ) Anomalie średniej temperatury (°C ≤ 30) w okresie letnim (czerwiec–sierpień) dla roku 2003, 2018 i 2019 na podstawie klimatologii z lat 1980–2010 oraz ( d , e , f ) odpowiadające im anomalie opadów (%). ( g , h , i ) Stan roślinności pod względem VHI odpowiednio w latach 2003, 2018 i 2019.
( j ) Roczny rozwój okresu letniego, procent powierzchni o słabej kondycji roślinności (tj. VHI °C ≤ 30), oszacowany w regionie środkowoeuropejskim (oznaczonym czarnym prostokątem na panelu g) w latach 2000–2019. Gruba czarna kreskowana linia przedstawia roczną średnią tygodniową VHI w miesiącach letnich, a różowe oznaczenia reprezentują odpowiednio 95 % poziom ufności w oparciu o rozkład próby średniej. W latach 2003, 2015, 2018 i 2019 nastąpiło zaburzenie kondycji roślinności, które objęło ponad 20% regionu środkowoeuropejskiego. Obszar zacieniony na szaro podkreśla lata 2018 i 2019, podczas których słaba kondycja roślinności utrzymuje się na ponad 20 % obszaru środkowoeuropejskiego, kolejno przez 2 lata.
k) Roczne anomalie opadów i temperatury w okresie letnim oszacowane w regionie Europy Środkowej w ciągu 254 lat. Czerwone kropki oznaczają trzy wyjątkowe lata 2003, 2018 i 2019, w których anomalie średniej temperatury latem nad Europą Środkową osiągnęły rekordowo ekstremalne warunki przekraczające 2 °C ; a anomalie opadów wykazują deficyt przekraczający 20 %. Mapy na rysunku są generowane przy użyciu Pythona w wersji 3.7.3 (https://www.python.org/search/?q=Python+3.7.3 ) (Vittal Hari i inni, 2020).
—-
Ponadto, naukowcy stwierdzili, że około jedna piąta regionu Europy Środkowej odnotowała słaby stan roślinności w ciągu ostatnich dwóch lat 2018-2019.
W badaniu tym zdefiniowano Europę Środkową jako obejmującą część Niemiec, Francji, Polski, Szwajcarii, Włoch, Austrii, a także Czechy, Belgię, Słowenię, Węgry, Słowację. Stwierdzono, że w tym regionie Europy ponad 34 procent całkowitej powierzchni gruntów jest intensywnie wykorzystywane do celów rolniczych.
Naukowcy dalej opisują, że gdy w lecie 2003 roku wzrost temperatury był bardziej skoncentrowany w Europie środkowej i południowej, lato 2018 roku charakteryzowało się nieprawidłowym wzrostem w Europie środkowej i północno-wschodniej. Mimo wszystko w obu danych okresach, wzrost temperatury i zmniejszenie opadów deszczu było najsilniejsze w regionie środkowoeuropejskim (rys. 1 d–f), co w końcu doprowadziło do przedłużających się ekstremalnych warunków suszy gdzie ucierpiało mocno rolnictwo.
——-
Podobne badanie przeprowadzone przez zespół naukowy dr Any Bastos z Wydziału Geografii, Uniwersytetu Ludwika Maksymiliana w Monachium – ówczesną kierowniczkę grupy w Instytucie Biogeochemii im. Maxa Plancka w Jenie, w Niemczech, polegało na porównaniu ekstremalnych fal upałów 2018 roku z minionymi podobnymi zdarzeniami w 2010 i 2003 roku.
W artykule „Direct and seasonal legacy effects of the 2018 heat wave and drought on European ecosystem productivity” [„Bezpośredni i sezonowy wpływ spuścizny fali upałów i suszy z 2018 r. na produktywność europejskich ekosystemów”], zaprezentowanym 10 czerwca 2020 roku na łamach czasopisma Science Advances, naukowcy odkryli, że złożone zjawisko ekstremalnych fal upałów i susz w 2018 roku różniło się wyraźnie od tych z 2010 i 2003 roku, tym, że zarówno fala ciepła, jak i susza w Europie Środkowej miały już miejsce w okresie wiosennym.
Dr Ana Bastos mówi w serwisie Carbon Brief, przedstawionym 10 czerwca 2020 roku w artykule Daisy Dunne „Warm spring worsened Europe’s extreme 2018 summer drought, study says” [„Wynika z badań, że ciepła wiosna pogorszyła ekstremalną letnią suszę w Europie w 2018 r.”]:
Warunki wiosenne doprowadziły do wzmocnienia fotosyntezy na początku sezonu wegetacyjnego, ale kosztem silnego wyczerpania gleby i wody. Na zdominowanych przez uprawy obszarach w Europie Środkowej zwiększony wzrost wiosną sprawił, że ekosystemy były bardziej podatne na suszę latem i spowodował on załamanie fotosyntezy.
Warto zaznaczyć, że dodatnie anomalie temperatury były znacznie większe w latach 2003 i 2010 niż w 2018 roku, gdyż ogólnie średnia temperatura powierzchni Ziemi czy w mniejszej skali kontynentu Europy, w pierwszej dekadzie XXI wieku była niższa niż pod koniec drugiej dekady.
Z tego co się jeszcze dowiadujemy z powyższej pracy, to jest to, że rekordowo wysokie temperatury i promieniowanie oraz rekordowo niskie opady w sezonie letnim ograniczały się głównie do Europy Środkowej, jak widać na poniższym rysunku. Jednak w porównaniu z innymi latami w 40-letnim zapisie, rok 2018 zarejestrował najsilniejsze przejście między mokrą zimą/wiosną a suchym latem/jesienią w skali kontynentalnej.
Mapy powyżej pokazują, jak była ciepła i słoneczna wiosna 2018 roku na dużej części kontynentu w porównaniu z innymi latami, w których występowały przede wszystkim fale upałów w okresie letnim. Z kolei w 2018 roku, w niektórych częściach Europy w porze wiosennej wystąpiły również niezwykle ogromne deficyty opadów, jednak nie były one jednolite na całym kontynencie.
—-
Rys.2. Średnia temperatura (na górze), opady (w środku) i promieniowanie słoneczne (na dole) w Europie w miesiącach wiosennych: 2003 (po lewej), 2010 (pośrodku) i 2018 (po prawej). Kolor czerwony oznacza ponadprzeciętne temperatury lub deficyty opadów, natomiast żółty oznacza ponadprzeciętne promieniowanie słoneczne. (Ana Bastos i inni, 2020)
—-
Za pomocą 11 modeli naukowcy przeprowadzili symulacje wegetacji roślin i porównali trzy okresy wiosenno-letnie 2003, 2010 i 2018. Zaobserwowali wówczas duży przyrost roślinności w porze wiosennej ze względu na większe pochłanianie dwutlenku węgla przez rośliny. Jednak utrzymujący się dłuższy wzrost obniżonych opadów deszczu oraz wysokiej temperatury spowodował powstanie ekstremalnego zdarzenia gorąco-suchego w 2018 roku, o którym już była mowa wcześniej w książce. Z kolei zdarzenia wiosenne 2003 i 2010 nie były pod wpływem fal upałów, ale letnie już tak i to z dużą intensywnością.
Dr Ana Bastos w tym samym artykule wyjaśnia dla Carbon Brief:
Na zdominowanych przez uprawy obszarach w Europie Środkowej zwiększony wzrost wiosną sprawił, że ekosystemy były bardziej podatne na suszę latem i spowodował załamanie fotosyntezy latem.
A więc, wniosek z tego wypływa następujący, że wraz z rozpoczęciem lata w 2018 roku i cały czas trwającym od wiosny okresem suszy, wysychające gleby oraz rośliny uwalniały duże ilości dwutlenku węgla do atmosfery doprowadzając do jeszcze większego wzrostu temperatury w regionie środkowej Europy oraz potencjalnie bardziej zwiększonej suszy.
Naukowcy też zauważają, że regiony Europy takie jak Skandynawia, są silnie zalesione i znacznie mniej odczuły wtedy wpływ wzrostu temperatury globalnej i suszy niż bardziej wylesione i o charakterze rolniczym regiony środkowej Europy.
—-

Lód morski sezonowy, stawy roztopowe i kurczący się zasięg lodu w Arktyce

Haruhiko Kashiwase z Tomakomai National College of Technology Department of Engineering of Innovation w Hokkaido wraz ze swoim zespołem naukowym zaobserwowali i opisali w swojej pracy z 15 sierpnia 2017 roku „Evidence for ice-ocean albedo feedback in the Arctic Ocean shifting to a seasonal ice zone” [„Dowody na sprzężenie zwrotne albedo lodowo-oceanicznego na Oceanie Arktycznym przechodzącego w sezonową strefę lodową”], zamieszczonej w czasopiśmie Scientific Reports, że dodatnie sprzężenie zwrotne albedo lodu i śniegu ma duży związek ze zwiększeniem się nagrzewania odkrytych ciemniejszych powierzchni oceanicznych. Stwierdzili, że z dekady na dekadę jest coraz mniejszy zasięg, przerzedzenie lodu oraz pojawianie się coraz większej ilości lodu sezonowego kosztem stałego. A wszystkie te zmiany zostały uwidocznione po 2000 roku, które tylko zwiększyły wzmocnienie arktyczne.
W Oceanie Arktycznym niedawne obserwacje satelitarne wykazały:
a) znaczne zmniejszenie zasięgu lodu letniego
b) przerzedzenie lodu morskiego
c) przejście od lodu wieloletniego do sezonowego
Naukowcy coraz bardziej upewniają się, że z roku na rok ubywa lodu wieloletniego, a przybywa rocznego. Zaobserwowali to w porze letniej oraz w pierwszej połowie września. Zwiększanie się ciemnych otwartych wód oceanicznych napędza coraz mocniej dodatnie sprzężenie zwrotne, w którym lód zanika coraz szybciej gdy świat się coraz bardziej ociepla, zarówno w atmosferze, jak i w oceanach oraz na lądach.
—-
Rys.1. Mapa Oceanu Arktycznego ze średnim stężeniem lodu morskiego we wrześniu w latach 1979–2014. Przeprowadzono analizę budżetu cieplnego i obliczenie dywergencji lodu dla obszaru wachlarzowego. Dla obszaru prostokątnego zastosowano model uproszczony. Mapa została narysowana przez GrADS 2.0.2 (dostępne z http://cola.gmu.edu/grads/grads.php ).
—-
Zespół Haruhiko Kashiwase wybrał do swych celów badawczy Arktyki, sektor pacyficzny, który doświadczył w okresie 2000-2014 największego zmniejszenia się zasięgu i objętości w całym Oceanie Arktycznym
Międzyroczna zmienność cofania się lodu w tym rejonie wyjaśnia około 86% wariancji na całym Oceanie Arktycznym.
Szacunki z analizy budżetu ciepła i obserwacji satelitarnych pokazują, że frakcja wody otwartej dobrze odpowiada ilościowo objętości topnienia lodu morskiego, zarówno dla zmienności sezonowej, jak i międzyrocznej.
Ponadto uczeni dokonali pomiaru albedo w sezonie letnim na podstawie uproszczonego modelu sprzężonego z lodem i górną częścią oceanu. Również zaobserwowali, że pojawiająca się coraz większa liczba stawów stopionych zamiast lodu, zmniejsza albedo lodu, ale za to zwiększa powierzchnię pochłaniania energii słonecznej przez ciemniejszą wodę.
W metodach badań satelitarnych do pomiarów lodu morskiego zostały wykorzystane produkty satelity Nimbus 7, dokonujące pomiarów Arktyki od 1979 do 2014 roku:
a) wielokanałowy mikrofalowy radiometr (SMRR – Scanning Multichannel Microwave Radiometer)
b) obronny meteorologiczny program satelitarny (DMSP – Defence Meteorological Satellite Program)
c) specjalistyczny obrazowy czujnik mikrofalowy (SSM/I i SSMIS – Special Sensor Microwave Imager)
Do pomiaru prędkości dryfu lodu morskiego wykorzystano zestaw czujników dostarczonych przez NSIDC:
AMSR-E , SSM/I , AVHRR , boje IABP
Temperatura powietrza i temperatura punktu rosy na wysokości 2 metrów, prędkość wiatrow 10 m/s i całkowite zachmurzenie, zostały pozyskane z globalnej ponownej analizy ERA-Interim, opracowanej przez Europejskie Centrum Średnioterminowych Prognoz Pogody (ECMWF – European Centre for MediumRange Weatheer Forecasts).
—-
Według, zamieszczonej w Nature Climate Change, pracy Dusty’ego Schröedera i jego współpracowników z 20 kwietnia 2014 roku, zatytułowanej „September Arctic sea-ice minimum predicted by spring melt-pond fraction” [„Wrześniowe arktyczne minimum lodu morskiego przewidywane przez frakcję roztopionych stawów”], powierzchnia lodu morskiego w Arktyce we wrześniu zmniejszyła się z około 7 mln km 2 w latach 90. do mniej niż 5 mln km 2 w ciągu pięciu z ostatnich siedmiu lat, z rekordowym minimum 3,4 mln km 2 w 2012 r.
—-
Fot.1. Staw roztopowy w Arktyce. Credit: dpa picture alliance / Alamy Stock Photo.
—-
Naukowcy wywnioskowali, że istnieje silna korelacja między frakcją stawu roztopowego a wrześniowym minimum zasięgu lodu morskiego, głównie z cienkim lodem poniżej 1,4 metra. Wyjaśnia to mechanizm dodatniego sprzężenia zwrotnego: więcej stawów zmniejsza albedo; niższe albedo powoduje większe topnienie; więcej topnienia zwiększa frakcję stawów. Badanie to daje wkład do tego by jeszcze bardziej ulepszyć modele klimatyczne przewidywania dynamiki lodu morskiego w Arktyce w najbliższych latach.
—-
Rys.2. Zmienność czasowa obszaru arktycznego stawu roztopowego.
a. Roczny cykl arktycznej średniej części obszaru lodu morskiego pokrytego przez odsłonięte stawy roztopowe w naszej symulacji CICE. Obszar zacieniony na szaro przedstawia zakres frakcji stawowej symulowanej w okresie 35 lat.
b. Szeregi czasowe znormalizowanej frakcji stawowej (średnia z okresu od 25 czerwca do 25 lipca).
(Dusty Schröeder i inni, 2014)
—-
Naukowcy piszą w swojej pracy:
Wiadomo, że zasięg lodu we wrześniu zależy zarówno od stanu lodu na wiosnę (na przykład ilość cienkiego lodu), jak i od warunków atmosferycznych w Arktyce latem (na przykład kierunek wiatru). Aby umieścić nasze wyniki dla stawów roztopowych w kontekście, obliczyliśmy korelację między ułamkiem cienkiego lodu (najniższe kategorie dwulodowe w modelu; tj. lód cieńszy niż 1,4 m) z zasięgiem lodu we wrześniu przy użyciu tych samych okresów integracji . Korelacja jest silnie istotna, ale współczynniki są niższe dla frakcji cienkiego lodu niż dla frakcji powierzchniowej stawu przy okresach integracji do końca czerwca (rys. 3a [w książce rys.186a]). Należy zauważyć, że nie ma istotnej korelacji między obszarem zlodzenia maja i czerwca a zasięgiem zlodzenia września (rysunek uzupełniający 1).
Ogólnie, w Arktyce, zasięg lodu morskiego we wrześniu, w dużej mierze zależy od stanu lodu na wiosnę (cieńszy lub grubszy lód / z większą lub mniejszą pokrywą śnieżną) oraz od warunków atmosferycznych latem (pogoda pochmurna i/lub spokojna cz też pogoda słoneczna i/lub burzowa i wietrzna; jak np. w 2012 roku).
Naukowcy pomiarów grubości i objętości lodu dokonali przy pomocy modelu lodu morskiego Los Alamos CICE – dynamiczno-termodynamicznego modelu lodu morskiego przeznaczonego do włączenia do globalnego modelu klimatu. Ponadto w modelu CICE, naukowcy wdrożyli dwa dodatkowe podrzędne modele:
a) model prognostyczny dla stawów roztopowych
b) rozdzielny (klastyczny) model anizotropowo-plastyczny (EAP), który wyraźnie uwzględnia obserwowaną anizotropię (zależność właściwości fizycznych ciała od kierunku) subkontinuum pokrywy lodu morskiego.
W sumie, wszyscy naukowcy są zgodni. W Arktyce gromadzi się coraz więcej promieniowania cieplnego. Zmniejszająca się jej pokrywa lodowa na oceanie powoduje zmniejszanie się albedo lodu dlatego, że coraz więcej jego topnieje odkrywając ciemniejsze powierzchnie wody oceanicznej, które intensywnie pochłaniają promieniowanie słoneczne nagrzewając jeszcze silniej ocean i wzmacniając dalsze topnienie lodu dzięki zwiększonemu parowaniu, czyli zwiększonej obecności pary wodnej. Arktyka staje się przez to bardziej wilgotna niż np. kilka dekad temu. I coraz częściej mamy tam do czynienia z opadami deszczu.
—-
Zespół naukowy pod kierownictwem Alexandry Jahn, adiunkt na Wydziale Nauk Atmosferycznych i Oceanicznych oraz członkini w Instytucie Badań Arktycznych i Alpejskich (IAAR – Institute of Arctic and Alpine Research) na Uniwersytecie w Colorado, używając Środowiskowych Modeli Systemu Ziemi (CESM – Community Earth System Model), w pracy „How predictable is the timing of a summer ice‐free Arctic?” [„Jak przewidywany jest czas Arktyki wolnej od lodu w porze letniej?”], zamieszczonej 16 sierpnia 2016 roku w czasopiśmie Geophysical Research Letters, stwierdził, że cały system klimatyczny jest w pewnym sensie chaotyczny i zarówno naturalna zmienność klimatyczna dynamiki arktycznego lodu morskiego, jak i wpływ antropogenicznego wymuszenia radiacyjnego pomiędzy scenariuszami emisji gazów cieplarnianych RCP 4.5 a RCP 8.5, dają duży zakres niepewności w prognozach klimatycznych.
Za pomocą symulacji modeli CESM (LE), CESM (ME) i CESM 1-CAM5, naukowcy w niniejszym artykule poszukali odpowiedzi na temat wpływu wewnętrznej zmienności i niepewności scenariusza na prognozy klimatyczne, badając wrześniowe topnienie lodu.
jeśli ludzkość nie podejmie stanowczych działań znaczniejszych redukcji emisji gazów cieplarnianych, to Arktyka po raz pierwszy późnym latem może być wolna od lodu już w 2032 roku.
W badaniu tym też obliczono, że naturalna zmienność w systemie arktycznym wyniosła około dwóch dekad niepewności. Oznacza to, że każda prognoza letnia bez lodu może wymagać 20-letniego okna, aby uwzględnić wpływ zjawisk i procesów naturalnych.
—-
Rys.3. (a) Wrześniowy zasięg lodu morskiego na podstawie symulacji modeli CMIP5, które mają wielkość zespołu 5 lub większą dla scenariusza wysokich emisji RCP8.5 i symulacji historycznych oraz zasięg lodu morskiego, według danych NSIDC (gruba brązowa linia), a także (b) histogram roczny, w którym po raz pierwszy przekroczono próg 1 miliona km2 bez lodu dla średniej wrześniowej w modelach CMIP5, w porównaniu z symulacją modelu CESM LE.
—-
Naukowcy twierdzą, że wyniki modelu CESM LE i CESM ME pokazują, że z powodu samych wewnętrznych naturalnych zmienności nie można jeszcze przewidzieć czasu letniej Arktyki bez lodu, z niepewnością mniejszą niż 21 lat.
—-

Zawartość pary wodnej w powietrzu atmosferycznym

Obok dwutlenku węgla, metanu i podtlenku azotu, jest jeszcze jeden gaz cieplarniany bardzo ważny w systemie klimatycznym Ziemi. Jest nim para wodna. Gaz jednak inny od wspomnianych wyżej, gdyż jest zmienny pod wpływem temperatury.
Woda występuje najczęściej w postaci cieczy, jednak może być ona również ciałem stałym (lód lub śnieg), a także gazem (para wodna). Prawie wszystkie substancje mogą przechodzić z jednego stanu skupienia w inny.
Rozróżnia się następujące przejścia fazowe wody :
– ze stanu stałego w ciekły – topnienie
– ze stanu ciekłego w stały – krzepnięcie
– ze stanu ciekłego w gazowy – parowanie
– ze stanu gazowego w ciekły – skraplanie
– ze stanu stałego w gazowy – sublimacja
– ze stanu gazowego w stały – resublimacja
Wszystkie trzy stany skupienia ciał: stały, ciekły i gazowy, odgrywają zasadniczą rolę w systemie klimatycznym Ziemi. Zaburzenie każdego z nich jest obecnie widoczne, gdy bilans energetyczny Ziemi został również zaburzony, na tyle poważnie, że oddziałuje to coraz bardziej ujemnie na ekosystemy i naszą cywilizację.
Para wodna powoduje najsilniejsze dodatnie sprzężenie zwrotne w systemie klimatycznym Ziemi. Jednak nie powoduje wymuszenia, czyli zmiany klimatu powodującej zmianę średniej temperatury powierzchni naszej planety, tak jak to powodują długożyjące gazy cieplarniane jak dwutlenek węgla, metan czy podtlenek azotu, a także przemysłowe freony.
—-
Praca zespołowa Kate M. Willett, zatytułowana: „Development of the HadISDH.marine humidity climate monitoring dataset” [„Opracowanie zestawu danych monitoringu klimatu wilgotności HadISDH.marine”], która ukazała się 17 listopada 2020 roku w czasopiśmie Earth, System, Science, Data, omawia szeroko zagadnienie znaczenia pary wodnej w systemie klimatycznym Ziemi.
—-
Rys.1. Globalne szeregi czasowe średniej rocznej wilgotności właściwej dla lądu (linia zielona), oceanu (kolor niebieski) i średniej globalnej (kolor ciemnoniebieski), w odniesieniu do lat 1981-2010. Przedstawiono dwa zakresy odchylenia standardowego dla niepewności łączące niepewność obserwacji, próbkowania i pokrycia. Fot. Met Office Climate Dashboard (Kate M. Willett i inni, 2020).
—-
Rys.2. Globalne szeregi czasowe średniej rocznej wilgotności względnej dla lądu (linia zielona), oceanu (kolor niebieski) i średniej globalnej (kolor ciemnoniebieski), w odniesieniu do lat 1981-2010. Przedstawiono dwa zakresy odchylenia standardowego dla niepewności łączące niepewność obserwacji, próbkowania i pokrycia. Fot. Met Office Climate Dashboard (Kate M. Willett i inni, 2020).
—-
Na rysunku 1 została zaznaczona w gramach na kilogramy (g / kg) różnica wilgotności właściwej w latach 1981-2010. Natomiast na rysunku 2 została zaznaczona w procentach różnica wilgotności względnej w tym samym badanym okresie czasu.
Do swoich badań na statkach naukowcy wykorzystali między innymi wielozmienny produkt wilgotności morskiej HadISDH (globalny, siatkowy, miesięczny zestaw danych), a także wiele innych wilgotnościowych produktów.
Badacze piszą o tym produkcie wilgotnościowym następująco:
Tutaj przedstawiamy opracowanie wielozmiennej analizy wilgotności morskiej HadISDH.marine.1.0.0.2018f (Willett i in., 2020). HadISDH.marine to zintegrowany zestaw danych powierzchniowych o wilgotności, prowadzony przez Met Office Hadley Centre, stanowiący produkt towarzyszący produktowi monitorującemu HadISDH.land i umożliwiający produkcję mieszanego globalnego produktu lądowego i oceanicznego. Tam, gdzie to możliwe, używamy istniejących metod z systemów używanych do budowania długotrwałego zbioru danych HadSST.
[temperatura powierzchni morza Had (SST – Sea Surface Temperature Had)]
Zgodnie z równaniem Clausiusa-Clapeyrona, każde ocieplenie klimatu w skali globalnej o jeden stopień Celsjusza, powoduje wzrost ilości pary wodnej o 7 %. I generalnie naukowcy obserwują taki wzrost, jeśli mamy na myśli jej zawartość, czyli wilgotność właściwą. Natomiast gdy mamy do czynienia już z nasyceniem pary wodnej w powietrzu atmosferycznym, czyli wilgotnością względną, to zauważają oni już jej powolny spadek, zarówno nad lądami, jak i nad oceanami. Implikacje spadku nasycenia pary wodnej nazywa się deficytem pary wodnej (VPD – Vapour Pressure Deficit). Gdy jest zbyt duży, rośliny by uniknąć straty wilgoci, zamykają swoje aparaty szparkowe (Charlotte Grossiord i inni, 2020).
Brak pary wodnej w coraz bardziej gorącym i suchym świecie, coraz częściej prowadzi do wielkoskalowych pożarów. Natomiast obfitość jej wzmacnia fale upałów, powodując stres cieplny u wielu roślin, zwierząt, w tym ludzi. Najbardziej niebezpiecznym zjawiskiem jest coraz częstsze pojawianie się wilgotnych fal upałów. Na szczęście jeszcze nie dotykających w znaczący sposób społeczności ludzkich, choć niektóre gatunki zwierząt i roślin już zapewne mocno ucierpiały takie epizody letnich fal upałów w ciągu minionych dwóch dekad XXI wieku.
—-
Bardzo interesująca pod tym względem jest praca hinduskich naukowców, którzy w swojej ojczyźnie, w Indiach, zauważyli, że intensywne rolnictwo pod względem nawadniania sprzyja powstawaniu warunków meteorologicznych, które są bardzo złe dla wielu mieszkańców nie tylko Indii, ale i sąsiedniego Pakistanu, a także wschodniej części Afganistanu. Jest to region, w którym mamy do czynienia z coraz częstszymi wilgotnymi falami upałów.
Vimal Mishra z Wydziału Inżynierii Lądowej i Nauk o Ziemi na Indyjskim Instytucie Technologii w Gandhinagar wraz ze swoimi współpracownikami, opisał swoje spostrzeżenia, 26 października 2020 roku, w czasopiśmie Nature, w pracy „Moist heat stress extremes in India enhanced by irrigation” [„Ekstremalny stres cieplny w Indiach wzmocniony przez nawadnianie”].
Intensywne nagrzewanie gruntów powoduje odparowanie. W ten sposób zmniejszony strumień ciepła jawnego z powodu nawadniania przyczynia się do obniżania się ku powierzchni Ziemi planetarnej warstwy granicznej w troposferze, co z kolei zwiększa wzrost wilgoci na niskim poziomie. I nie tylko dzięki intensywnemu nawadnianiu zwiększa się wilgotność właściwa, czyli ilość pary wodnej w atmosferze tuż nad powierzchnią Ziemi, ale i też zwiększa się wilgotność względna, czyli nasycenie, nawet do 100 % pary wodnej w powietrzu, co skutkuje tym, że wzrasta stres cieplny, grożący dziś 37-46 milionom mieszkańców Azji Południowej, przy dalszym wzroście temperatury globalnej, i to nawet przy ochłodzeniu powierzchni lądu. Naukowcy apelują by tak intensywnie nie nawadniać pól uprawnych.
—-
Na temat kwantyfikacji, czyli ilościowego określenia pary wodnej, ciekawa jest też praca „A 10 per cent increase in global land evapotranspiration from 2003 to 2019” [„10-procentowy wzrost globalnej ewapotranspiracji ziemi w latach 2003-2019”], która została wydana niedawno, w czasopiśmie Nature, 26 maja 2021 roku, przez zespół naukowy Madeleine Pascolini-Campbell z NASA, z Laboratorium Napędów Odrzutowych w Instytucie Technologii w Pasadenie.
—-
Rys.3. Szeregi czasowe dla ewapotranspiracji (u góry), opadów (drugi od góry), spływu rzecznego (drugi od dołu) i zmian w magazynowaniu wód gruntowych (na dole) w latach 2003-2019. Czarna linia pokazuje średni trend, a cieniowanie pokazuje zakres ufności, gdzie czerwone obszary oznaczają wysoki poziom ufności. Źródło: Pascolini-Campbell i in. ( 2021).
—-
Na podstawie globalnych produktów ewapotranspiracji pochodzących z różnych źródeł, w tym modeli, teledetekcji oraz obserwacji in situ, naukowcy przedstawili w tej pracy obraz globalnej ewapotranspiracji. Zaobserwowali, że w badanym okresie czasu 2003-2019 wzrosła ona o 10 ± 2 procent, czyli o 2,3 mm rocznie.
Dla porównania opady atmosferyczne wzrosły o 3 %, a spływ rzeczny spadł o 6 % w tym samym okresie badanym.
Pascolini-Campbell wyjaśnia, że ten spadek spływu może mieć wpływ na dostępność wody:
Wzrost ewapotranspiracji wpływa na ilość wody powierzchniowej dostępnej dla rolnictwa i zaopatrzenia w wodę. W przyszłości rosnąca ewapotranspiracja może również oznaczać zwiększoną utratę wody z lądu w niektórych regionach – prowadząc do suszy – podczas gdy inne obszary mogą doświadczyć bardziej intensywnych opadów, ponieważ ma to wpływ na cyrkulację atmosferyczną.
Ponadto, główna autorka pracy wyjaśnia, że to badanie wprowadza nową linię dowodów na to, że cykl wodny staje się coraz bardziej intensywny wraz z ocieplaniem się temperatur.
W sumie szeregi czasowe bilansu wodnego globalnej ewapotranspiracji lądu naukowcy przeanalizowali na podstawie badań grawimetrycznych satelitów GRACE i GRACE-Follow On. Zaobserwowali również, że zmienność globalnej ewapotranspiracji gruntów jest dodatnio skorelowana z oscylacją południowopacyficzną El Niño (ENSO – El Niño Southern Oscillation) (wpływ 17 % naturalnych zmienności klimatycznych). Jednak głównym motorem tego trendu jest rosnąca temperatura gruntu. Autorzy wysnuli hipotezę taką, że globalna ewapotranspiracja lądowa powinna wzrosnąć w ocieplającym się klimacie.
—-

Albedo planety

Nagrzewanie się powierzchni Ziemi dużo zależy także od albedo. Ten parametr ma szerokie zastosowanie w fizyce, w tym w astronomii. W naszym przypadku interesuje nas ten współczynnik załamania światła słonecznego (krótkofalowego) na naszej planecie.
Im jaśniejsza jest powierzchnia, jak w przypadku pokryw lodowych, tym większy jest stosunek odbicia promieni słonecznych względem jego padania na powierzchnię planety. To znaczy, że pochłania ona mniej energii słonecznej. A więc, wówczas ma to wpływ chłodzący naszą Ziemię.
Z kolei, im ciemniejsza jest powierzchnia, jak w przypadku oceanów, tym mniejszy jest stosunek odbicia tychże promieni słonecznych względem jego padania na powierzchnię planety. A więc, tu oznacza to, że pochłania ona więcej energii słonecznej. I ma to znowuż wpływ ogrzewający naszą Ziemię.
Również albedo dotyczy powierzchni chmur, a także aerozoli, naturalnego i antropogenicznego pochodzenia, w analogiczny sposób.
Na kontynentach (poza pokrywami lodowymi) albedo jest większe na obszarach nieleśnych, jak naturalne pustynie czy stepy i antropogeniczne pola uprawne, a także na obszarach wylesionych, a najmniejsze jest na obszarach leśnych. W szczególności lasy iglaste są z reguły ciemniejsze od lasów liściastych i w skali planetarnej dają efekt mniejszego albedo.
W pracy zespołowej „The Albedo of Earth” [Albedo Ziemi’] przedstawionej 26 stycznia 2015 roku, w czasopiśmie Reviews of Geophysics, przez zespół badawczy Graeme Stephensa z Laboratorium Napędów Odrzutowych w Kalifornijskim Instytucie Technologii w Pasadenie, dowiadujemy się, że promienie słoneczne gdy padają w kierunku Ziemi są mniej więcej zrównoważone gdy docierają do powierzchni chmur, dzięki czemu zanika wyraźna różnica albedo na powierzchni planety pomiędzy półkulą północną (NH – Northern Hemisphere) a południową (SH – Southern Hemisphere). Jak wiemy, na pierwszej jest więcej lądów z wyższym albedo niż oceanów, a na drugiej, na odwrót.
—-
Rys.1. Schemat układu odbijającego składającego się z pojedynczej rozpraszającej i absorbującej warstwy atmosfery na powierzchni odbijającej albedo α i oświetlonej strumieniem S . Właściwości wewnętrznego rozpraszania atmosfery zależą od współczynników: odbicia r i przepuszczalności t . Współczynnik całkowitego odbicia systemu (albedo systemu – R) jest podany przez równanie r = R – t αT i obejmuje energię odbitą od warstwy rS plus wielokrotne rozpraszanie między powierzchnią a atmosferą (Graeme Stephens i inni, 2015).
—-
—-
Rys.2. Globalne rozkłady (a) średniego rocznego strumienia odbitego z całkowitego nieba, (b) wkładu rozpraszania atmosferycznego oraz (c) wkładu odbicia od powierzchni, gdzie (a) = (b) + (c). (d) Różnica między wkładem powierzchni bezchmurnego nieba a wkładem powierzchni całkowitego nieba. Ta różnica reprezentuje ilość chmur maskujących rzeczywiste odbicie od powierzchni, zmniejszając w ten sposób ilość światła słonecznego odbitego od powierzchni o tę ilość (Graeme Stephens i inni, 2015).
—-
Autorzy niniejszej pracy piszą jeszcze:
Wspólne analizy danych dotyczących powierzchniowego strumienia słonecznego, które stanowią skomplikowaną mieszankę pomiarów i obliczeń modelowych z pomiarami strumienia z wierzchołka atmosfery (TOA – Top of Atmosphere) z obecnych satelitów na orbicie, dają szereg zaskakujących wyników, włącznie (i) na półkuli północnej i południowej (NH – Northern Hemisphere, SH – Southern Hemisphere), które odbijają tę samą ilość światła słonecznego w granicach ~ 0,2 W m-2. Symetrię tę uzyskuje się dzięki zwiększonemu odbiciu od chmur na półkuli południowej (SH), dokładnie równoważąc większe odbicie od lądów na półkuli północnej (NH).
Zgodnie z danymi satelitarnymi NASA oraz systemu promieniującej energii Ziemi i chmur – budżetu energii dostosowanych strumieni (CERES EBAF – Clouds and Earth’s Radiant Energy System – Energy Budget Adjusted Fluxes), globalny, roczny średni strumień odbity z całkowitego nieba (od bezchmurnego do zachmurzonego) wynosi 99,7 W m -2 (jest to równowartość globalnego albedo – α 0,293 W m -2), a strumień odbity tylko z bezchmurnego nieba wynosi 52,4 W m -2 (albedo – α 0,149). Różnica między tymi strumieniami wynosi 47,3 W m -2 (albedo – α 0,144) i jest zwykle przyjmowana jako miara wpływu chmury na strumień promieniowania.
Wkład atmosferyczny energii słonecznej S do jej strumienia odbitego z całkowitego nieba rS (na rys.1) wynosi 86,9 W m -2 i jak widać to też na rys.2b ; [np. Stubenrauch i inni, 2013], jest on zdominowany przez chmury. Udział całej atmosfery w odbitym strumieniu bezchmurnego nieba wynosi 32,2 W m -2.
Różnica między wkładem atmosferycznym S (na rys.2) całkowitego nieba i wkładem bezchmurnego nieba wynosi 54,7 W m -2 i jest miarą rzeczywistego wkładu rozpraszania przez chmury do strumienia odbitego.
Średnio rocznie każda półkula odbija taką samą ilość energii słonecznej. Jak widać na rysunku 3, pomimo oczywistych różnic w albedo powierzchni między półkulami, różnica wynosi mniej niż 0,2 W m -2 (Voight i inni, 2013),. Analiza poniższych składników pokazuje, że ta symetria między półkulami wynika z zaskakującego stopnia zniesienia różnic między obu półkulami, zarówno w całkowitym wkładzie atmosferycznym, jak i tylko powierzchniowym wkładzie całkowitego nieba. Zgodnie z oczekiwaniami udział powierzchniowy jest większy na półkuli północnej (NH), podczas gdy udział atmosferyczny już jest odpowiednio większy na bardziej zachmurzonej półkuli południowej (SH). Prawdopodobnie ma to związek z tym, że nad oceanami, których powierzchnia jest znacznie większa niż lądów na półkuli południowej, jest więcej opadów atmosferycznych, a więc jest też dlatego większy stopień zachmurzenia, zwłaszcza pokrycia chmurami stratocumulus.
—-
—-
Rys.3. (u góry) Globalna średnia roczna odbitych strumieni całkowitego nieba i bezchmurnego nieba podzielona na dwie główne składowe. (na dole) Różnica między półkulowymi średnimi rocznymi odbitych strumieni całkowitego nieba i bezchmurnego nieba a poszczególnymi składnikami, które składają się na te strumienie. Te różnice w półkuli są zdefiniowane jako NH minus SH, a różnica całkowitego nieba wynosi 0,05 W m -2 . Dla porównania przedstawiono również półkulową różnicę w ilości zachmurzenia (wyrażoną w jednostkach bezwzględnych) uzyskaną z danych radaru satelitarnego i danych laserowych (Graeme Stpehens i inni, 2015).
—-
Różnicę składową atmosfery można wyjaśnić głównie różnicami hemisferycznymi gęstości optycznej aerozolu (AOD – Aerosol Optical Density). Średnia dziesięcioletnia AOD stosowana do wytworzenia danych strumienia powierzchniowego, za pomocą satelity CERES, wynosi odpowiednio 0,14 i 0,07 dla NH i SH. Jeśli założymy globalną wydajność radiacyjną aerozolu oceanicznego na poziomie 30–40 W m -2 (wymuszanie radiacyjne na jednostkę AOD) [ Loeb i Manalo-Smith, 2005 ], to udział w strumieniu bezchmurnego nieba na półkuli północnej (NH) przez aerozol wynosi ~4–6 W m -2 w porównaniu z 2–3 W m -2 dla półkuli południowej (SH).
Z kolei, mapy średnich rocznych strumienia odbitego oraz wkłady atmosferyczne i powierzchniowe do tego strumienia przedstawiono odpowiednio na rysunkach 2 a-c. Rozpraszanie atmosferyczne, które ma tak duży wpływ na obserwowane odbite strumienie w niższych szerokościach geograficznych, odzwierciedla wysokie zachmurzenie tych szerokości geograficznych. Ma to związek z wysoką zawartością pary wodnej.
Rysunek 2d jest różnicą strumienia między składnikiem powierzchni bezchmurnego nieba a składnikiem powierzchni całkowitego nieba, a zatem przedstawia mapę efektu maskowania chmur na odbicie powierzchni opisane powyżej. To maskowanie występuje głównie na obszarach lądowych NH, a także na obszarach polarnych obu półkul. Efekt maskowania może być lokalnie duży na najjaśniejszych powierzchniach, zwłaszcza na wyższych szerokościach geograficznych, gdzie chmury skutecznie zmniejszają udział powierzchni o około 50%.
—-
P.R. Goode ze Słonecznego Obserwatorium Big Bear w Institucie Technologii w New Jersey, w Kalifornii, wraz ze swoim zespołem naukowym, odkryli, że w ciągu 20 lat albedo na powierzchni Ziemi zmniejszyło się, i przez to pochłania o 0,5 W m -2 mniej energii słonecznej.
Swoje wyniki badań opublikowali 29 sierpnia 2021 roku, na łamach Geophysical Research Letters, w pracy „Earth’s Albedo 1998–2017 as Measured From Earthshine” [„Albedo Ziemi 1998–2017 mierzone od Blasku Ziemi”].
W latach 1998-2017 naukowcy przeprowadzili pomiary blasku Ziemi w solarnym obserwatorium Big Bear (BBSO – Big Bear Solar Observatory) z użyciem nowoczesnych technik fotometrycznych, w celu precyzyjnego określenia dziennych, miesięcznych, sezonowych, rocznych i dziesięcioletnich zmian albedo ziemskiego od blasku Ziemi.
W swoich wynikach badań, nie znaleźli korelacji pomiędzy pomiarami aktywności słonecznej a zmianami albedo w badanym okresie czasu. Blask planety jest też zgodny z pomiarami z satelity CERES, rozpoczętymi od 2001 roku. Obserwacje albedo przez satelity CERES i Earthshine (Blask Ziemi) są porównywalne.
Ogólnie mówiąc, ta metoda badawcza – blask Ziemi, prowadzona za pomocą teleskopu refraktancyjnego, polega na tym, że światło odbite od powierzchni naszej planety w dzień trafia w tarczę ciemnej powierzchni naszego satelity Księżyca, którego odbicie trafia do oczu obserwatora.
Historycznie, blask Ziemi został po raz pierwszy wyjaśniony przez Leonardo Da Vinci (ok. 1510). Sam projekt BBSO rozpoczął działalność w połowie lat 90-tych, aby zmierzyć albedo Ziemi za pomocą obserwacji Księżyca, którego pionierem był Danjon (1928) prawie sto lat temu.
Podczas tego eksperymentu naukowcy zauważyli, że niedawny spadek albedo Ziemi ma możliwy związek ze zmianą fazy ujemnej na dodatnią w pacyficznej oscylacji dekadowej (PDO – Pacific Decadal Oscillation). To zjawisko fizyczne ma miejsce, gdy na półkuli północnej Pacyfik we wschodniej części, czyli u zachodnich wybrzeży Ameryki Północnej (Południowej) zaczyna się nagrzewać. Uczeni nie wykluczają też w tym przypadku związku z globalnym ociepleniem.
Wcześniej, globalnie zintegrowane albedo Ziemi w zakresie widzialnym zostało zmierzone za pomocą Earthshine (Blasku Ziemi) przez zespół naukowy Goode’go w 2001 roku (Goode i inni, 2001 ).
—-
Rys.4. Anomalie średniego rocznego albedo Earthshine 1998–2017 wyrażone jako odbity strumień w W / m -2. Słupki błędów są pokazane jako zacieniony szary obszar, a przerywana czarna linia pokazuje liniowe dopasowanie do anomalii rocznego strumienia energii odbitej w Earthshine. Roczne anomalie albedo badane za pomocą satelitów CERES w latach 2001-2019, również wyrażone w W / m 2, są pokazane na niebiesko. Liniowe dopasowanie do danych CERES (2001–2019) pokazano niebieską linią przerywaną. Średnie słupki błędów dla pomiarów CERES są rzędu 0,2 W / m -2 (P.R. Goode i inni, 2021).
—-

Ocieplenie w Arktyce

Lód morski w Arktyce topnieje w ciągu dekad coraz bardziej. Zmniejsza się jego zasięg, kurczy objętość. Ubywa lodu wieloletniego, a przybywa rocznego. Istnieje prawdopodobieństwo, że już w obecnej dekadzie może być późne lato bez zwartej pokrywy lodowej. Niemiecki statek badawczy, lodołamacz Polarstern bez większego trudu pojawił się pod koniec lata kalendarzowego we wrześniu 2020 roku na biegunie północnym nie musząc przebijać się przez pokrywą lodu morskiego. Ten był tak bardzo cienki, że łatwo kruszył się zostawiając wiele odkrytych obszarów toni wodnej.
—-
—-
Fot.1. RV Polarstern (czyli gwiazda polarna ) to niemiecki badawczy lodołamacz z Instytutu Alfreda Wegenera Badań Polarnych i Morskich (AWI) w Bremerhaven
—-
Międzynarodowy zespół naukowy złożony z ponad 300 osób z 20 krajów, od 20 września 2019 roku do 12 października 2020 roku w ramach projektu Multidyscyplinarnego Dryfującego Obserwatorium Badań Arktyki Klimatu (MOSAIC – Multidisciplinary drifting Observatory for the Study of Arctic Climate), badał, podczas dryfowania lodołamaczem Polarsternem, Arktykę i jej lód morski, atmosferę, ocean, ekosystemy i ich biogeochemię. Naukowcy twierdzą, że to nam pomoże zrozumieć procesy dynamicznie rozwijające się w najbardziej zapalnym punkcie klimatycznym Ziemi.
Autorzy World Meteorological Organization w swoim serwisie 12 października 2020 roku napisali:
—-
Lodołamacz badawczy Polarstern powrócił do swojego macierzystego portu w Bremerhaven w Niemczech 12 października z niezrównaną skarbnicą danych, na analizie których skupi się całe pokolenie klimatologów. Instytut Alfreda Wegenera i Centrum Badań Polarnych i Morskich im. Helmholtza (AWI), koordynowały tą wyprawą badawczą.
—-
Po zakończeniu ekspedycji badawczej MOSAIC w Arktyce, w drugiej połowie października 2020 roku, lód morski bardzo wolno zamarzał do tego stopnia, że padł nowy rekord zasięgu lodu z tego miesiąca.
—-
Rys.1. Miesięczny zasięg lodu we wrześniu w latach 1979-2020 pokazuje spadek o 13,1 procent na dekadę.
Źródło: Narodowe Centrum Danych Śniegu i Lodu (NSIDC – National Snow and Ice Data Center). Zdjęcie o wysokiej rozdzielczości.
—-
Ogólnie, ocieplenie klimatu wpływa na to, że lód w porze jesienno-zimowej, od około połowy września do około połowy marca, wolniej zamarza i to, że w tym sezonie jest szybszy wzrost temperatury globalnej niż podczas trwania wiosny i lata, wtedy gdy, lód morski zaczyna od około połowy marca do około połowy września szybciej topnieć. W tym samym czasie, w sezonie jesienno-zimowym na półkuli południowej lód morski w Antarktyce topnieje, od października do kwietnia, aczkolwiek wolniej niż wiosną i latem lód morski w Arktyce, a w porach wiosenno-letnich szybciej zamarza, od kwietnia do października niż lód morski arktyczny w sezonie, od września do marca. Modele klimatyczne wskazują, że ten trend się utrzyma przy dalszym ociepleniu klimatu.
W sumie, Arktyka to częściowo lodowaty ocean otoczony trzema kontynentami: Europą, Azją i Ameryką Północną oraz wrażliwy na wzorce pogodowe. Z kolei Antarktyda to lodowaty kontynent otoczony dookoła Oceanem Południowym, ale wolny od wpływu wzorców pogodowych z niższych szerokości ze względu na wpływ prądów atmosferycznych i oceanicznych skutecznie odcinających ich dopływ.
—-
Klimat Ziemi ma pewnego rodzaju swoją czułość. W skali regionalnej jest najbardziej wrażliwy w regionie polarnym na półkuli północnej, gdyż tam są najszybciej ocieplające się obszary na naszej planecie.
Od czasu rozpoczęcia zapisu satelitarnego w 1979 roku, we wrześniu pokrywa lodowa Arktyki na morzu spada średnio o około 13% na dekadę. Bieżący rekord zanotowano 16 września 2012 r., kiedy lód morski zmniejszył się do 3,41 milionów kilometrów kwadratowych.
Według wyliczeń brytyjskich naukowców z Centrum Obserwacji i Modelowania Polarnego, Szkoły Ziemi i Środowiska na Uniwersytecie w Leeds: Rachel Tilling, Andy’ego Ridouta i Andrew Shepherda na łamach czasopisma Advances in Space Research, zamieszczonych w pracy 16 września 2018 roku, której tytuł brzmi „Estimating Arctic sea ice thickness and volume using CryoSat-2 radar altimeter data” [„Szacowanie grubości i objętości lodu morskiego w Arktyce przy użyciu danych z wysokościomierza radarowego CryoSat-2”], od 1979 roku w Arktyce ubyło 40 % lodu morskiego.
Naukowcy, pracujący na co dzień w Centrum Obserwacji i Modelowania Polarnego (CPOM – Centre for Polar Observation and Modelling), na podstawie danych z wysokościomierza radarowego (altymetru) satelity CryoSat-2 oszacowali grubość i objętość lodu morskiego w Arktyce. Zaobserwowali korelację w odczytach pomiędzy powierzchniowymi pomiarami in situ, a satelitarnymi. Zwrócili uwagę, że dużymi niepewnościami w dokładnych pomiarach grubości o objętości lodu morskiego jest zalegająca na nim pokrywa śnieżna pochodząca z opadów atmosferycznych. Dlatego też uczeni postulują o doskonalenie szacowania obciążenia lodu morskiego warstwami śniegu.
Naukowcy zaproponowali aby dane z wysokościomierzy radarowych satelity CryoSat-2 posłużyły też badaniom pokryw lodu morskiego i na nim śniegu, także w Antarktyce.
Autorzy pracy piszą:
—-
Arktyczny lód morski jest głównym elementem systemu klimatycznego Ziemi. Działa w celu regulacji regionalnych budżetów ciepła i wody słodkiej oraz późniejszej cyrkulacji atmosferycznej i oceanicznej w Arktyce i na niższych szerokościach geograficznych. Od 1979 r., satelity zaobserwowały spadek zasięgu lodu morskiego w Arktyce we wszystkich miesiącach. Jednak aby w pełni zrozumieć, w jaki sposób zmiany pokrywy lodowej Arktyki wpływają na naszą globalną pogodę i klimat, wymagane są również długoterminowe i dokładne obserwacje rozkładu jego grubości. Takie obserwacje były możliwe dzięki wystrzeleniu satelity CryoSat-2 z Europejskiej Agencji Kosmicznej (ESA – European Space Agency) w kwietniu 2010 r., który zapewnia niezrównane pokrycie pomiarów Oceanu Arktycznego do szerokości północnej 88 ° N.
—-
—-
—-
Rys.2. Przykłady międzyrocznej zmienności typu lodu morskiego na półkuli północnej. Mapy pokazują typ lodu morskiego na dzień 31 stycznia (a) 2011, (b) 2012, (c) 2013 i (d) 2014. Żółte cieniowanie oznacza lód z pierwszego roku (FYI – first year ice), czerwone oznacza lód wieloletni (MYI – multi year ice), niebieskie oznacza obszary, na których nie występuje lód morski, tylko ocean (Rachel Tilling i inni, 2018).
—-
Na podstawie ostatniego raportu NOAA „Arctic Report Card: Update for 2020” na temat stanu kriosfery na półkuli północnej, Thomas Ballinger z University of Alaska Fairbanks wraz ze swoim zespołem badawczym, w pracy „Surface Air Temperature” [„Temperatura powietrza powierzchni”], definitywnie podsumował, że obecnie Arktyka ociepla się ponad dwa razy szybciej niż wynosi średnia światowa. Autorzy piszą:
—-
Arktyczna średnia roczna anomalia temperatury powietrza przy powierzchni (SAT – Surface Air Temperature) w okresie od października 2019 r. do września 2020 r. była o 1,9 °C cieplejsza niż wynosi średnia z lat 1981-2010 dla obszarów lądowych między 60 a 90 ° N.
—-
—-
Rys.3. Średnie roczne anomalie temperatury przy powierzchni (SAT) (w °C) dla naziemnych stacji meteorologicznych zlokalizowanych w Arktyce (60-90 ° N; czerwona linia) i globalnie (niebieska linia) w okresie 1900-2020, w stosunku do okresu 1981-2010. Źródło: Dane CRUTEM4 SAT (Jones i in. 2012) pochodzą z Climate Research Unit (University of East Anglia) i Met Office.
—-
W pewnych regionach Arktyki może być jednak jeszcze bardziej cieplej. Np. na Svalbardzie. Na podstawie raportu “Climate in Svalbard 2100” [„Klimat w Svalbardzie 2100”], sporządzonego przez Norweskie Centrum Usług Klimatycznych (NCCS – The Norwegian Centre for Climate Services) w 2019 roku, lokalnie może być tam nawet teraz cieplej o 4 stopnie Celsjusza niż wynosi średnia światowa. Ma to głównie związek z tym, że na tym najdalej wysuniętym na północ obszarze europejskim, pokrywa lodowa bardzo gwałtownie topnieje. Pory letnie są dość często bardzo ciepłe, nawet lokalnie powyżej 20 stopni Celsjusza. Duże znaczenie pod względem tak znacznego ocieplenia ma też napływ ciepłych wód północnego Atlantyku do Oceanu Arktycznego ze zmniejszającą się ilością lodu w Morzu Barentsa. A wyspy Svalbardu obecnie nie są już otoczone lodem. Zasięg jego tam zmniejszał się co dekadę aż o 12 %. Mamy również do czynienia z postępującym procesem atlantyfikacji wód subpolarnych.
We wspomnianym raporcie na temat Svalbardu, czytamy:
—-
Obserwowane już ocieplenie jest uderzające zwłaszcza w okresie zimowym. W latach 1971-2017 wyniki wskazują na roczny wzrost temperatury o 4,0 °C (0,87 °C na dekadę), a zimą o 7,3 °C (1,58 °C na dekadę) (tabela 4.1.3 w raporcie). W tym samym okresie, światowy wzrost temperatury 0,87 °C łącznie.
—-
Lars Henrik Smedsrud, profesor oceanografii polarnej na Uniwersytecie w Bergen, w Instytucie Geofizyki, z kolei mówi:
—-
Zima ociepla się cztery do pięciu razy szybciej niż lato. Straciliśmy mniej więcej dwa miesiące zimy na Svalbardzie od lat 70-tych XX wieku. Jeśli będziemy kontynuować działalność jak zwykle, stracimy jeszcze dwa miesiące przed 2100 rokiem.
—-
Głównym czynnikiem powodującym tak duże wzmocnienie arktyczne w Svalbardzie i w większości pozostałych regionów Arktyki jest napływ bardzo dużych mas gorącego powietrza znad równika podczas coraz silniejszej głębokiej konwekcji występującej tam pod wpływem ciągłego wzrostu globalnej temperatury.
Ogólnie mówiąc, dynamicznie zmieniająca się powierzchnia lodu morskiego w Arktyce jest silnie skorelowana ze skumulowanymi emisjami gazów cieplarnianych, choć tutaj główną rolę też odgrywa zmienność klimatyczna w postaci cyrkulacji atmosferycznych oraz oceanicznych, które mają coraz większy wpływ na zanikanie lodu morskiego w sposób fluktuacyjny.
—-
Z kolei, Dirk Notz z Instytutu Meteorologii im. Maxa Plancka w Hamburgu oraz Julienne Stroeve z Narodowego Centrum Danych Lodu i Śniegu (NSIDC – National Snow And Ice Data Center) na Uniwersytecie w Boulder w Kolorado, w pracy opublikowanej 2016 roku w czasopiśmie Science Advances, zatytułowanej „Observed Arctic sea-ice loss directly follows anthropogenic CO2 emission” [„Obserwowana utrata arktycznego lodu mająca związek z antropogenicznymi emisjami CO2”], opublikowanej na łamach Science, za pomocą przez siebie symulowanych modeli klimatycznych stwierdzili następująco:
—-
Obserwowana zależność liniowa oznacza trwałą utratę 3 ± 0,3 metrów kwadratowych powierzchni lodu morskiego we wrześniu na tonę metryczną emisji CO2.
—-
Działalność człowieka pod względem emisji gazów cieplarnianych i ocieplania regionu Arktyki wiąże się zarówno z utratą habitatów gatunków polarnych, jak i miejsca bytowania ludzi związanych z lodem, np. Inuitów. Ponadto wzmocnienie ocieplenia Arktyki skorelowane z obniżonym gradientem temperatury pomiędzy nią a równikiem, już doprowadza do wielu zmiennych wzorców pogodowych na średnich szerokościach geograficznych, co bardzo niekorzystnie wpływa na gatunki zamieszkujące je.
Naukowcy oszacowali wrażliwość arktycznego lodu morskiego na wpływ zmian antropogenicznych wymuszeń zewnętrznych. Sprawdzili zgodność symulacji modeli CMIP5 z zapisem obserwacyjnym.
I wywnioskowali, że czas, obliczony na podstawie 30-letniej kroczącej, w którym we wrześniu zaniknie sezonowo lód morski w Arktyce jest zgodnie liniowo skorelowany ze skumulowanymi (od 1850 r. do dziś) antropogenicznymi emisjami CO2 (Rys.4).
—-
—-
Rys.4. Zależność między wrześniowym obszarem lodu morskiego Arktyki a skumulowanymi antropogenicznymi emisjami CO2 .
( A ) Wartości rzeczywiste. Gruba niebieska linia przedstawia 30-letnią średnią kroczącą obserwowanego we wrześniu obszaru lodu morskiego, a cieńsza czerwona 30-letnią średnią kroczącą pochodzącą z symulacji modelu CMIP5. Dla porównania pokazane są również roczne wartości obserwowanego wrześniowego obszaru lodu morskiego.
Wartości podane na podstawie zbioru danych obserwacji Met Office Hadley Center HadISST, w latach 1953-1978 (jasnoniebieskie kółka) oraz w latach 1979-2015 na wskaźniku lodu morskiego NSIDC (jasnoniebieskie diamenty).
( B ) Symulacje znormalizowane. W przypadku tego wykresu symulowany obszar lodu morskiego CMIP5 jest normalizowany przez podzielenie przez symulowany obszar lodu morskiego na początku okresu przejściowego, jak określono w tekście. Dla każdej symulacji skumulowane emisje są ustawiane w punkcie 0 na początku okresu przejściowego, a następnie skalowane liniowo, aby osiągnąć 1 do końca okresu przejściowego (Dirk Notz i inni, 2016).
—-
W pracy także czytamy, że większość modeli klimatycznych nie doszacowuje utraty lodu morskiego Arktyki, ponieważ nie oszacowuje dokładnie wzrostu napływającego, w promieniowaniu zwrotnym atmosfery, strumienia promieniowania długofalowego przy obecnym wzroście antropogenicznych emisji CO2.
I dalej w artykule czytamy:
—-
Jeśli chodzi o przyszłą ewolucję lodu morskiego, nasza analiza sugeruje, że nie ma powodów, aby sądzić, że obserwowana czułość utraty lodu morskiego w Arktyce ulegnie znacznej zmianie w przewidywalnej przyszłości. W związku z tym możemy bezpośrednio oszacować, że pozostała część letniego lodu morskiego w Arktyce zostanie utracona gdy do atmosfery trafi dodatkowe około 1000 gigaton (Gt) emisji CO2 na podstawie obserwowanej czułości lodu morskiego, gdzie we wrześniu występuje 3,0 ± 0,3 m2 straty lodu morskiego na tonę emisji antropogenicznego CO2.
—-
—-
Fot. / Grafika

Topnienie Grenlandii

Tak jak w Arktyce lód morski coraz bardziej topnieje z dekady na dekadę, tak również lądolód zwany Grenlandią kurczy się coraz wyraźniej. Takie lodowce wylotowe jak Jakobshavn, Helheim, Petermann, Zachariae Isstrom, Kangerlussuaq czy ostatnio Niohhalvfjerdsfjorden i Spalte, systematycznie wycofują się w głąb wyspy. Na tej ogromnej wyspie otoczonej dwoma oceanami: Atlantyckim i Arktycznym, przebiegają również coraz coraz częściej i mocniej zintensyfikowane w sezonie letnim procesy powierzchniowego topnienia.
—-
Rys.1. Mapy pokazujące albedo, w stosunku do średniej z lat 2000-09, około połowy sierpnia 2020 r. (po lewej) i 2019 r. (po prawej). Cieniowanie wskazuje na wyższe (niebieskie) i niższe (czerwone) albedo od średniej. Źródło: Polar Portal DMI.
—-
Dr Ruth Mottram i dr Martin Stendel z Duńskiego Instytutu Meteorologicznego (DMI – Danish Meteorological Institute), prof. Jason Box i dr Kenneth D. Mankoff ze Służby Geologicznej Danii i Grenlandii (GEUS – Geological Survey of Denmark and Greenland) w Kopenhadze oraz dr Louise Sandberg Sørensen z Narodowego Instytutu Kosmicznego na Technicznym Uniwersytecie Danii i prof. Peter Langen z Wydziału Nauk o Środowisku – Modelowania Atmosfery na Uniwersytecie w Aarhus, w swoich obliczeniach zauważają w serwisie Carbon Brief na początku września 2020 roku, że pokrywa lodowa Grenlandii pod koniec sezonu topnienia straciła 152 miliardy ton. To jest i tak mniej niż w 2019, gdy wzrost temperatury na Grenlandii, podobnie jak w 2012 roku, był na tyle silny, że przy temperaturze plus 4 stopnie Celsjusza pojawiły się gwałtowne powierzchniowe roztopy tworzące rozległe stawy.
Jak czytamy w tymże serwisie na temat pokrywy lodowej Grenlandii, poczynając od 2015 do 2020 roku, badania wskazują, że w dłuższym terminie czasu, w stosunku do średniej 1981-2010, kurczy się ona coraz szybciej.
Kluczową sprawą w zrozumieniu tego co się dzieje z Grenlandią jest zrozumienie tak zwanego bilansu masy powierzchni (SMB – Surface Mass Balance) polegającego na obliczeniu, ile jej pokrywy lodowej topnieje na powierzchni, pod wodą oceanu od frontu lodowców wylotowych i szelfowych oraz podlega, też od frontu lodowców, procesom cielenia (odłamywania brył, czyli gór lodowych), a o ile jest ona uzupełniana opadami śniegu i przyrastaniu jego warstwami oraz pod nim warstwami lodu.
W Carbon Brief dowiadujemy się, że w skali roku, od 1 września do 31 sierpnia, na procentową ilość topnienia (ablacji) pokrywy lodowej Grenlandii oraz na procentową ilość opadów śniegu (akumulacji) jej, ma wpływ wiele czynników. Czytamy w serwisie Carbon Brief, że w dużej mierze podczas okresu 2016-17 wpływ na ochłodzenie obszaru Grenlandii w sezonie letnim miała wpływ anomalna rotacja tropikalnego huraganu Nicole, który zawędrował w październiku 2016 roku aż ku wybrzeżom południowej Grenlandii, tuż po zakończeniu bardzo intensywnie ciepłej Oscylacji Południowopacyficznej El Nino. Albo dwa lata później w artykule tegoż serwisu, że na wysokie topnienie Grenlandii w okresie letnim 2019 roku miała nie tylko sucha jesień i też sucha prawie bezśnieżna zima w 2018 roku i na początku 2019 roku, ale i też wczesne anomalne topnienie pod koniec kwietnia i potem trwające od czerwca do końca lata ciepłego i prawie bez opadów śniegu. Było to spowodowane z kolei wystąpieniem dodatniej fazy Oscylacji Północnoatlantyckiej, której obecność stymuluje napływ bardzo ciepłego powietrza ze średnich szerokości geograficznych.
—-
—-
Rys.2. Skumulowany budżet masy powierzchniowej pokrywy lodowej Grenlandii na lata 2019-20 (niebieska linia), rekordowo niski rok SMB 2011-12 (czerwona linia) i średnia 1981-2010 (szara linia). Źródło: Polar Portal DMI.
—-
We wstępie pracy z 1 stycznia 2021 roku, zaprezentowanej w czasopiśmie Science Advances, której tytuł brzmi „Ocean forcing drives glacier retreat in Greenland” [„Wymuszanie oceaniczne powoduje cofanie się lodowca na Grenlandii”] Michael Wood ze swoimi współpracownikami stwierdzają, że wycofywanie się i przyspieszenie lodowców Grenlandii od połowy lat 90. XX wieku jest przypisane zwiększonemu wtargnięciu ciepłych wód północnego Atlantyku (AW – Atlantic Waters) do fiordów Grenlandii, ale nie zostało to jeszcze w pełni potwierdzone w modelach klimatycznych, pod względem ilościowym na obszarze całej Grenlandii.
Naukowcy przebadali 226 lodowców wylotowych za pomocą pomiarów instrumentalnych in situ, satelitarnej teledetekcji oraz modeli klimatycznych, w tym oceanu.
Zespół Wooda wyróżnił w dłuższym badanym okresie 1992-2017, trzy mniejsze okresy, podczas których wymuszenie termiczne (FT – Thermal Forcing) pochodzenia antropogenicznego miało i ma dalej swój wpływ na wycofywanie się lodowców:
a) okres stabilny 1992-1997
W okresie stabilnym 1992-1997 lód gruntowy cofnął się o 180 km2 , czyli 30 km2 /rok
b) okres ocieplenia 1998-2007
W okresie ocieplenia 1998–2007 ubytek lodu gruntowego potroił się do 108 km2 /rok.
c) okres ochłodzenia 1999-2017
W okresie chłodzenia 2008-2017 lód gruntowy nadal spadał o 119 km2 /rok
Rola oceanu w przeliczeniu bilansu strumieni lodu w gruncie jest następująca:
W celu określenia ilościowego wpływu oceanu na lodowce, oblicza się bilans strumieni na frontach lodu gruntowego, który obejmuje następujące parametry:
a) usunięcie lodu gruntowego przez ocean ( q m )
b) cofanie się frontu lodu spowodowane przerzedzeniem lodowca ( q s )
c) adwekcja lodu ( q f )
d) cielenie się pozostałości uziemionych bloków lodu ( q c ) wymagane do dopasowania
e) obserwowane cofanie się frontu lodu ( q r )
—-
—-
Rys.3. Schematyczne diagramy dla czterech głównych kategorii lodowców kończących mórz, z zimną, słodką wodą polarną (PW) na szczycie ciepłej, słonej wody AW.
( A ) Lodowce w głębokich fiordach z ciepłymi wodami arktycznymi AW (DW), które podcinają czoło lodowca, aby wpłynąć na opór podstawowy.
( B ) Lodowce z tymczasowymi pływającymi przedłużeniami na płytkim grzbiecie (SC), dla których podcięcie nie wpływa na podstawowy opór.
( C ) Lodowce stojące w płytkich, zimnych wodach (SC).
( D ) Lodowce rozwijają długie (>10 km) poszerzenia pływającego lodu (FE). Prosimy zwrócić uwagę, że rzędne lodowca i dna, wyrażone w metrach nad poziomem morza (masl – meters above sea level), są przybliżone dla ilustracji.
(Michael Wood i inni, 2021)
—-
Autorzy piszą:
Modele oceaniczne pokazują, że maksymalna szybkość topnienia występuje tuż nad (<50 m) dnem morskim, tworząc podciętą wnękę, która zmniejsza podstawowy opór na przepływ lodowca……. — lód nad stopionym nacięciem nie jest podtrzymywany od dołu, podczas gdy lód pod nacięcie jest zbyt cienkie, aby powstrzymać przepływ lodu z góry ( rys. 3). Z tego punktu widzenia to maksymalna szybkość topnienia na głębokości (zwana dalej szybkością podcinania) ma największy wpływ na równowagę sił lodowca ( 26 ), a nie średnia szybkość topnienia zanurzonej powierzchni lodu, która zazwyczaj jest od dwóch do trzech razy niższa zgodnie z modelem oceanicznym i nie wpływa na tarcie podstawowe.
W efekcie wzmocnione podcinanie wymusza cofanie się linii uziemiającej. Oceniamy q m za pomocą pomiarów głębokości wody, przepływu wód subglacjalnych i rekonstrukcji TF. Ponieważ rozdzielczość oszacowań stanu ECCO nie jest wystarczająca do rozwiązania transportu ciepła z szelfu do fiordów, używamy danych CTD na szelfie i wewnątrz fiordów do ilościowego określenia modulacji TF między obszarami kalibracji modelu oceanu ( rys. 3) oraz fronty lodowca (Materiały i metody).
Wykonane zostały następujące badania:
a) wycofywanie się frontu lodowców wylotowych za pomocą teledetekcyjnych badań satelitów Lansat 4 i Landsat 5 na podstawie digitalizacji pozycji frontów lodowych
b) adwekcja lodu (q F) za pomocą radaru satelitarnego i danych optycznych
c) podcięcie frontu lodowców ( q m) za pomocą symulacji modelu oceanu MITgcm o wysokiej rozdzielczości, ze zmienną głębokością wody, produkcją spływu wody subglacjalnej i wymuszenia termicznego (TF) oceanu
d) głębokość wody (b) za pomocą modelu BedMachine Greenland v3 na podstawie wielowiązkowej batymetrii echosondowej w fiordach uzupełnionej batymetrią inferowaną dotyczącą grawitacji w powietrzu. Głębokość wody ma niepewność mniejszą niż 10 m.
e) subglacjalny zrzut (q sg) połączony ze spływem z niecki za pomocą kombinacji modeli: Regionalnego Modelu Klimatu Atmosferycznego na Uniwersytecie w Utrechcie – RACMO2.3p2 w rozdzielczości przestrzennej 5,5 km, statycznie sparametryzowanej do 1 km, w korelacji z obliczoną podstawową produkcją wód roztopowych pod gruntem lodowym za pomocą modelu systemu pokrywy lodowej ISSM). Niepewność w q sg wynosi 20%.
f) wymuszanie termiczne (TF) – uśredniona na głębokości różnica między temperaturą in situ a temperaturą zamarzania wody morskiej zależną od soli i ciśnienia. Parametry oceanu są obliczane za pomocą dwóch oszacowań ECCO:
– modelu wyprzedzającego o wysokiej rozdzielczości (4 km) w domenie arktycznej ze stanu początkowego dla okresu 1992–2011
– danych ograniczających globalne szacunki z rozdzielczością poziomą 13,5 km wokół Grenlandii w latach 2001–2017 (LLC270)
g) cofanie się lodowca wywołane rozrzedzaniem, qs, jest obliczane przy użyciu prostej, geometrycznie wyprowadzonej zależności dla szybkości migracji linii gruntowania w funkcji zmiany wysokości powierzchni
—-

Polarny prąd strumieniowy a Oscylacja Północnoatlantycka

Naukowcy zastanawiają się też jaką rolę może odgrywać oscylacja północnoatlantycka (NAO – North Atlantic Oscillation) na zmiany klimatu w korelacji z polarnym prądem strumieniowym.
Pod względem meteorologicznym, gdy podczas tzw. dodatniej fazy oscylacji północnoatlantyckiej (NAO – North Atlantic Oscillation) normalnie stabilnie płynie polarny prąd strumieniowy, mamy pół-stały Wyż Azorski nad Wyspami Kanaryjskimi, który jest dalej wysunięty na zachód od północno-zachodniej Afryki po stronie zwrotnikowych mas powietrza oraz mamy pół-stały Niż Islandzki, który kształtuje się wówczas po drugiej stronie frontu polarnego w strefie mas powietrza arktycznego bliżej na północ koło Grenlandii.
Wtedy jest ciepło we wschodniej części USA oraz w północnej Europie. Natomiast chłodno i sucho jest na południu Europy i w basenie Morza Śródziemnego, a w północno-wschodniej Kanadzie i na zachodniej Grenlandii jest nie tylko chłodno, ale i dodatkowo też więcej jest lodu morskiego.
Wartość ciśnienia w Wyżu Azorskim jest większa od średniej wartości wieloletniej. Natomiast wówczas wartość ciśnienia w Niżu Islandzkim jest mniejsza od średniej wieloletniej.
Różnica ciśnień pomiędzy Azorami i Islandią jest wtedy większa od przeciętnej (przede wszystkim w okresie DJF (grudzień-styczeń-luty).
Z kolei, gdy podczas ujemnej fazy NAO polarny prąd strumieniowy silnie meandruje, to wyż azorski jest wysunięty bliżej północno-zachodniej Afryki i jest już pod wpływem polarnych mas powietrza. Tak samo jak niż Islandzki, który jest wysunięty dalej na południe od Grenlandii.
Różnica ciśnień pomiędzy Azorami i Islandią jest wtedy mniejsza od przeciętnej.
Wówczas jest dość często bardzo chłodno i śnieżnie we wschodniej części USA. Wówczas mamy tam często do czynienia z polarnymi mroźnymi i burzowymi wiatrami tzw. Nor’easterami (północnowschodniakami), czyli cyklonami śnieżnymi.
Również jest chłodno i sucho w północnej Europie. Natomiast jest ciepło i mokro na południu Europy i w basenie Morza Śródziemnego oraz ciepło, ale z mniejszą ilością lodu, w północno-wschodniej Kanadzie i na zachodniej Grenlandii.
Wartość ciśnienia w Wyżu Azorskim jest mniejsza od średniej wartości wieloletniej. Natomiast wówczas wartość ciśnienia w Niżu Islandzkim jest większa od średniej wieloletniej.
—-
Rys.1.
Model dwóch trybów Oscylacji Północnoatlantyckiej (NAO), powiązanej aktywności sztormowej i dystrybucji wilgoci nad Północnym Atlantykiem: a) ujemnych i b) dodatnich faz indeksu NAO. H-Subtropical High Pressure Centre, L-Islandic Low Pressure Centre (zaadaptowane z http://www.ldeo.columbia.edu/res/pi/NAO/).
—-
Clara Deser, James W. Hurrell i Adam S. Phillips z Wydziału Klimatu i Dynamiki Globalnej, Narodowego Centrum Badań Atmosfery, w Boulder, w czasopiśmie Climate Dynamics, 30 grudnia 2016 roku w artykule „The role of the North Atlantic Oscillation in European climate projections” [„Rola Oscylacji Północnoatlantyckiej w europejskich prognozach klimatycznych”], podkreślili, że Oscylacja Północnoatlantycka (NAO) jako dominujący sposób zmienności cyrkulacji atmosferycznej w sektorze północnoatlantyckim/europejskim, jest wiodącym regulatorem wahań klimatu zimowego w Europie, basenie Morza Śródziemnego, części Bliskiego Wschodu i wschodniej części Ameryki Północnej w szerokim zakresie skal czasowych od wewnątrzsezonowych do wielodekadowych (np. Hurrell 1995 ; Hurrell et al. 2003 ).
Zdaniem naukowców, klimat europejski w nadchodzących dziesięcioleciach i stuleciach będzie nadal pod silnym wpływem NAO. Jednak, jak już wiemy, dalszy wzrost stężenia gazów cieplarnianych spowodowanym spalaniem paliw kopalnych i zmian użytkowania terenu, będą odgrywać coraz większą rolę. Względne wielkości wpływów klimatycznych wywołanych przez naturalnie występujące NAO i czynniki antropogeniczne będą zależeć od horyzontu czasowego (np. następne kilkadziesiąt lat vs. koniec XXI wieku) oraz skali czasu (międzyroczna vs. wieloletnia). Będzie miało to wpływ nie tylko na wzorce zmienne temperatury, ale i też opadów deszczu oraz śniegu w okresie zimowym.
—-
Rys.1. Przyszłe 30-letnie trendy (2016-2045) zimą
( a, b ) temperatura powietrza na powierzchni (SAT – Sea Air Temperature) (w ° C na 30 lat; cieniowanie )
( c, d ) opady (w mm / dzień -1 na 30 lat; cieniowanie )
z symulacji 13 i 25 ze środowiskowego modelu systemu Ziemi w wersji 1 szeroki zestaw (CESM1 Large Ensemble – Community Earth System Model version 1 Large Ensemble), wybranych ze względu na kontrastujące trendy ciśnienia na poziomem morza (SLP – Sea Level Pressure)
(kontury; odstęp = 1 hPa na 30 lat z wartościami ujemnymi przerywanymi )
(Clara Deser i inni, 2017)
—-
Naukowcy ci położyli nacisk w badaniu na analizę przebiegu wpływu NAO na prognozowane zmiany w sezonie zimowym (średnia grudzień-marzec). Skoncentrowali się na analizie temperatury powietrza na powierzchni (SAT – Surface Air Temperature) i opadów (P – Precipitation) w okresie najbliższych 30–50 lat. W zakresie metod badawczych wykorzystali złożony z 40 elementów zestaw symulacji zmian klimatu w ramach scenariuszy historycznych (przedindustrialnych) oraz industrialnych RCP8.5 w celu zbadania wymuszeń radiacyjnych na lata 1920–2100, przeprowadzonych z wykorzystaniem środowiskowego modelu systemu Ziemi w wersji 1 (CESM1 – Community Earth System Model Version 1 (CESM1; Hurrell i in. 2013 ).
Autorzy piszą:
Ponieważ NAO jest przede wszystkim kontrolowany przez wewnętrzną dynamikę atmosfery, stanowi główne źródło nieprzewidywalnej naturalnej zmienności, której wpływ nałoży się na antropogeniczne zmiany klimatyczne. Tak więc przyszłe trendy klimatyczne w regionach dotkniętych przez NAO są najlepiej wyrażane w postaci oczekiwanego zakresu, który obejmuje zarówno naturalną zmienność, jak i sygnał wymuszonej zmiany klimatu. Nasze wyniki pokazują, że ten oczekiwany zakres wynikający z wewnętrznej zmienności NAO jest istotny zarówno dla trendów SAT, jak i P w ciągu najbliższych 30 lat, a w przypadku P może nawet zmienić znak trendu. Chociaż wpływ NAO na trendy SAT i P w ciągu najbliższych 50 lat jest mniejszy, pozostają one ważne dla oceny wielkości przyszłego ocieplenia i zmian opadów.
—-
Jedno z ostatnich badań niedawno opublikowanych 12 marca 2021 roku w czasopiśmie Climate and Atmospheric Science mówi o tym, że wewnętrzne zmiany na północny Atlantyku znane jako NAO, w ciągu 50 lat zbadanych przez naukowców, w dużej mierze są wywołane przez antropogeniczne zmiany klimatu.
Jest to praca „NAO predictability from external forcing in the late 20th century” [„Przewidywalność NAO na podstawie wymuszeń zewnętrznych pod koniec XX wieku”] napisana przez Jeremy’ego M. Klavansa, Amy C. Clement i Lisę N. Murphy ze Szkoły Nauk Morskich i Atmosferycznych Rosenstiel na Uniwersytecie w Miami oraz przez Marka A. Cane’a z Obserwatorium Lamont-Doherty Earth, na Uniwersytecie Columbia w Palisades, w której autorzy udowadniają, że dalszy wzrost stężenia dwutlenku węgla w atmosferze ma wpływ na zaburzenia NAO w ciągu minionych 5 dekad, a te z kolei mają wpływ na zaburzenia pogody w formie zbyt intensywnych pór suchych i pór deszczowych w poszczególnych latach.
Główny autor artykułu mówi:
Naukowcy od dawna rozumieją, że ludzkie działania ocieplają planetę. Jednak ten wywołany przez człowieka sygnał dotyczący wzorców pogodowych jest znacznie trudniejszy do zidentyfikowania.
W tym badaniu pokazujemy, że ludzie wpływają na wzorce pogody i klimatu nad Atlantykiem i że być może będziemy w stanie wykorzystać te informacje do przewidywania zmian pogody i klimatu z wyprzedzeniem nawet dziesięciu lat
NAO jako naturalna zmienność klimatyczna ma wpływ na to jaka będzie zimowa pogoda w Europie, Grenlandii, północno-wschodnich stanach USA i Afryce Północnej oraz na jakość plonów i produktywność rybołówstwa na Północnym Atlantyku.
Naukowcy wykorzystali wiele dużych zestawów modeli klimatycznych, które zostały opracowane z kolei przez naukowców z Narodowego Centrum Badań Atmosferycznych (NCAR – National Center Atmospheric Research). Cała analiza badawcza składała się z 269 elementów zestawu, co daje aż ponad 14 000 symulacji.
—-
Rys.2. Mapy przewidywalności w regionie atlantyckim.
Mapy wartości współczynnika korelacji anomali (ACC – Anomaly Correlation Coefficient) dla
a – ciśnienia na poziomie morza (SLP – Sea Level Pressure)
b – temperatury powierzchni morza (SST – Sea Surface Temperature)
c – opadów (P – Precipitation).
Wyświetlona została tylko surowa średnia zespołowa. Pokolorwane są tylko piksele z wartościami ACC, które są statystycznie istotne na poziomie 95%.
Na panelu b zaznaczona została lokalizacja dziury ocieplającej, poprzez konturowanie trendu -1°C/54 lata w SST w obserwacjach SST (czarny kolor) i naszym zestawie (szary kolor).
Na panelu c zaznaczona została lokalizacja wykorzystaną do obliczenia opadów w Europie Północnej, które podano w tekście.
(Jeremy Clavans i inni, 2021)
—-
Na podstawie takich modeli jak CESM, badaczom udało się oszacować przewidywanie zmienności NAO stymulowanych przez wzrost gazów cieplarnianych w atmosferze. W skali dekady dzięki temu modelowi udało się im przewidzieć dwa oddziaływania NAO, a konkretniej opady letnie, zarówno we wschodniej części Ameryki Północnej, jak i w zachodniej części Europy.
Ogólnie, naukowcy do badań wykorzystali bardzo duży wielomodelowy zespół składający się z z wielomodelowego archiwum dużego zespołu (MMLEA – multi-model large ensemble archive).
Analizując współczynniki korelacji anomalii (ACC – Anomaly Correlation Coefficient), autorzy w artykule w następujący sposób opisują parametry ciśnienia poziomu morza (SLP – Sea Level Pressure), temperatury powierzchni morza (SST – Sea Surface Temperature) oraz opadów atmosferycznych (P – Precipitation) (rys.):
W przypadku SLP istnieje potencjalna rozbieżność w północnej Ameryce Północnej i Europie; jednak różnica nie jest statystycznie istotna w surowym zestawie do średniej. W przypadku SST istnieje godny uwagi obszar ujemnych wartości ACC w środkowym, podbiegunowym wirze północnoatlantyckim (ryc. 3b ).
Opady, niezwykle hałaśliwe pole, mają regiony o wartościach ACC większe niż 0,5 w północnej Europie (ryc. 3c ), części północnej Ameryki Północnej oraz na Sahelu i Saharze. Pozytywna umiejętność przewidywania w północnych Stanach Zjednoczonych i Europie jest zgodna z poziomem umiejętności przewidywania, jaki wykazaliśmy dla NAO.
Dodatnie wartości anomalii współczynnika korelacji ACC dla opadów w Afryce równikowej są potencjalnie związane z wymuszonymi z zewnątrz zmianami temperatury powierzchni morza SST północnoatlantyckiego i związanymi z nimi przesunięciami w międzytropikalnej konwergencji strefowej (ITCZ – Intertropical Convergence Zone), chociaż te sygnały mogą być bardziej widoczne podczas borealnego lata. Brak opadów DJFM [przypis autora: w kwartale: grudzień-styczeń-luty-marzec] w południowych Stanach Zjednoczonych jest potencjalnie związany z brakiem wewnętrznych zmian Oscylacji Południowej El Niño w średnim zestawie.
Ponadto, naukowcy twierdzą, że dokładne porównanie zainicjowanych systemów prognozowania i niezainicjowanych zestawów może zatem ujawnić wartość inicjalizacji (zmiennej wartości początkowej) oceanu.
—-

Odtlenianie oceanów

Wraz z degradacją środowiska morskiego przez ludzi powodujących zanieczyszczanie wód morskich odpadami oraz ich eutrofizację poprzez spływy azotanów i fosforanów pochodzących z nawozów sztucznych, coraz większym problemem ocieplania się klimatu jest obok ich zakwaszenia, także ich odtlenianie, czyli powiększanie się stref beztlenowych w oceanach świata.
W opublikowanej w Science pracy z 5 stycznia 2018 roku „Declining oxygen in the global ocean and coastal waters” [„Zmniejszający się poziom tlenu w oceanach i wodach przybrzeżnych na świecie”], Denise Breitburg z Centrum Badań Środowiska Smithsonian w Edgewater, w USA, ze swoimi współpracownikami piszą następująco:
Globalne ocieplenie spowodowane gazami cieplarnianymi jest prawdopodobnie ostateczną przyczyną trwającej dezoksygenacji w wielu częściach otwartego oceanu. W przypadku górnego oceanu w latach 1958–2015 zawartość tlenu i ciepła jest silnie skorelowana z gwałtownym wzrostem zarówno dezoksygenacji, jak i zawartości ciepła w oceanie, począwszy od połowy lat 80. XX wieku.
Badanie to zostało przeprowadzone przez zespół naukowców z GO2NE (Global Ocean Oxygen Network), nowej grupy roboczej utworzonej w 2016 r. przez Międzyrządową Komisję Oceanograficzną ONZ.
Jest ono jednym z pierwszych badań wnikliwie badających przyczyny i skutki odtleniania oceanów.
Naukowcy piszą:
Potrzebne są ulepszone modele numeryczne procesów oceanograficznych, które kontrolują ubytek tlenu i wielkoskalowy wpływ zmienionych cykli biogeochemicznych, aby lepiej przewidywać wielkość i wzorce przestrzenne odtleniania na otwartym oceanie, a także sprzężenia zwrotne z klimatem. Opracowanie i weryfikacja kolejnej generacji tych modeli będzie wymagało wzmożonych obserwacji in situ i lepszego zrozumienia mechanizmów w różnych skalach.
—-
Rys.1. Niskie i malejące poziomy tlenu w otwartym oceanie i wodach przybrzeżnych wpływają na procesy, od biogeochemii po bezpieczeństwo żywnościowe.
Mapa globalna wskazuje obszary przybrzeżne, w których antropogeniczne składniki odżywcze zaostrzyły lub spowodowały spadek O2 do <2 mg litra −1 (<63 μmol litra ^−1 ) (czerwone kropki), a także strefy o minimalnej zawartości tlenu w oceanach na głębokości 300 m ( regiony zacieniowane na niebiesko). [Mapa stworzona na podstawie danych dostarczonych przez R. Diaza, zaktualizowana przez członków sieci GO 2 NE i pobrana z World Ocean Atlas 2009].
—-
Autorzy pracy niniejszej zauważyli w swoich wynikach badań, że w takich obszarach morskich jak Zatoka Chesapeake i Zatoka Meksykańska, poziom tlenu spada do tak niskiego poziomu, że wiele zwierząt dusi się i umiera. Gdy jednak mimo wszystko ryby unikają tych stref, ich siedliska kurczą się, a wtedy stają się te ryby bardziej podatne na drapieżniki lub połowy przez ludzi.
Bardzo silny spadek tlenu w wodach oceanicznych przyczynia się również do spadku reprodukcji wielu gatunków morskich, częstych chorób, a nawet śmierci wielu osobników mniej przystosowanych do tak zmiennych warunków oksydacyjnych. Grozi to też uwalnianiem się szkodliwego dla organizmów podtlenku azotu, którego molekuła ma 300 razy silniejszy potencjał cieplarniany niż dwutlenku węgla. Ponadto powstaje równie bardzo niebezpieczny, toksyczny gaz – siarkowodór.
Zmiana klimatu ma wpływ na odtlenianie wód oceanicznych, głównie na otwartym oceanie, gdzie największe stężenie tlenu jest w powierzchniowej warstwie, a najmniejsze w głębinach, zwłaszcza na dnie, gdzie też właśnie najczęściej powstają martwe strefy oceaniczne i morskie. Z kolei w wodach przybrzeżnych, duży wpływ ma działalność gospodarcza, zwłaszcza spuszczanie do rzek nawozów sztucznych, np. azotanów i fosforanów, które gdy trafią do oceanu czy morza, powodują silne zakwity glonów oraz bardzo silnie toksycznych sinic.
Również odtlenianie oceanów uderza mocno w gospodarkę opartą na rybołówstwie. Tam gdzie powstają martwe strefy oceaniczne i morskie, tam spada produkcja ryb i „owoców morza”, czyli bezkręgowców morskich, takich jak np. popularne w Stanach Zjednoczonych krewetki czy w południowej Europie homary.
Zdaniem naukowców, potrzebne są bardziej skuteczne działania profilaktyczne: zdrowotne, sanitarne, epidemiologiczne, a także środowiskowe oraz konieczne są działania mitygacyjne i adaptacyjne przeciw zmianom klimatu.
—-
Według wyników badań oceanografów Matthew Longa z Narodowego Centrum Badań Atmosferycznych w Boulder, w Kolorado, Curtisa Deutcha ze Szkoły Oceanografii na Uniwersytecie Waszyngtońskim w Seattle oraz Taki Ito z Wydziału Nauki o Ziemi i Atmosferze w Instytucie Technologii Georgia w Atlancie, zamieszczonych 10 lutego 2016 roku, w czasopiśmie Global Biogeochemical Cycles, w pracy „Finding forced trends in oceanic oxygen” [„Znalezienie wymuszonych trendów tlenu oceanicznego”], coraz cieplejsze oceany i morza powodują ich stratyfikację utrudniającą mieszanie i dopływ tlenu, dwutlenku węgla, tlenu i innych składników pokarmowych do głębszych warstw oceanu dla wielu głębinowych organizmów morskich, co skutkuje ich odtlenianiem. A dzieje się tak dlatego, że od powierzchni morza ku większym głębokościom rośnie gradient gęstości wody właśnie gdy one coraz słabiej mieszają się pod wpływem coraz wyższego wzrostu temperatury.
Badacze swoje spostrzeżenia naukowe oparli na symulacji komputerowej Dużego Zestawu Modelu Systemu Ziemskiego Klimatu (CESM-LE – Community Earth System Model – Large Ensemble) opartego na Narodowym Centrum Badań Atmosfery (NCAR – National Center for Atmospheric Research), sfinansowanego przez Narodową Fundację Nauki i Departament Energii Stanów Zjednoczonych.
—-
Rys.2. Szeregi czasowe średniej rocznej globalnej inwentaryzacji rozpuszczonego O2 w eksperymencie CESM Large Ensemble. Jasnoszara linia pokazuje kontrolę 1850 roku bez korekcji dryfu; ciemnoszara linia jest kontrolą 1850 roku po usunięciu trendu liniowego związanego z dryfem modelu. Czarna linia oznacza element zespołu 1, a kolorowe linie pokazują pozostałe elementy zespołu; wszystkie szeregi czasowe związane z integracjami przejściowymi zostały skorygowane pod kątem dryftu liniowego w kontroli od 1850 roku.
—-
Zgodnie z prawem Henry’ego z każdym wzrostem temperatury wód oceanicznych maleje w nich rozpuszczalność wszystkich gazów, takich jak dwutlenek węgla i tlen. Ponadto zmniejsza się gęstość wód powierzchniowych pod wpływem ich ocieplania. W sumie stratyfikacja powodująca hamowanie mieszania wód i transportu dwutlenku węgla i tlenu do głębszych warstw wód oceanicznych sprawia, że te gazy w dużej ilości kumulują się w najsilniej nagrzewanych przypowierzchniowych warstwach oceanów. W szczególności gdy już w niektórych rejonach oceanicznych nastąpiło przesycenie dwutlenkiem węgla w uwarstwionych wodach powierzchniowych, może on więcej się wydzielać do atmosfery niż być pochłanianym z niej przez oceany.
—-
W pracy z 16 kwietnia 2020 roku „A committed fourfold increase in ocean oxygen loss” [„Czterokrotny wzrost utraty tlenu w oceanie”], zamieszczonej w Nature Communications, naukowiec pracujący w instytucie oceanicznym Helmholtz Center for Ocean Research GEOMAR w Kilonii, Andreas Oschlies zauważa na podstawie symulacji Modelu Systemu Ziemskiego Klimatu z Uniwersytetu w Victorii, że nawet zatrzymanie emisji gazów cieplarnianych do atmosfery nie powstrzyma dalszego ocieplania się klimatu, w tym wód oceanicznych oraz ich odtleniania, zwłaszcza na ich większych głębokościach, z powodu zwiększającej się stratyfikacji hamującej transport pionowy tlenu i dwutlenku węgla z powierzchni oceanów w głębiny oraz w odwrotnym kierunku składników odżywczych z głębin ku powierzchni oceanów.
W szczególności groźne jest odtlenianie o czym pisze autor we wspomnianym artykule. Wskaźnik metaboliczny pokazuje nawet 25 % spadku zawartości tlenu w głębinach oceanów poniżej 2000 metrów, co oczywiście już wpływa bardzo niekorzystnie na będącą tam faunę pelagiczną i bentosową.
Profesor Oschlies wyjaśnia:
W badaniu wykorzystano model systemu Ziemi do oceny tego, co w dłuższej perspektywie stanie się w oceanie, jeśli wszystkie emisje CO2 zostaną natychmiast zatrzymane.
Wyniki pokazują, że nawet w tym ekstremalnym scenariuszu ubytek tlenu będzie trwał przez wieki, ponad czterokrotnie zwiększając utratę tlenu, jaką do tej pory widzieliśmy w oceanie.
—-
W
—-
W
—-
W

Zakwaszenie oceanów (AO)

W drugiej połowie XVIII wieku, wraz z pierwszym spalaniem paliw kopalnych, emisjami gazów cieplarnianych, początkowo dwutlenku węgla, do atmosfery oraz pierwszym przyrostem w niej stężenia tego gazu, również zaczął on pojawiać się w oceanach.
Wprawdzie oceany, tak jak i lądy, mniej więcej w naturalnych procesach tyle samo emitują co absorbują dwutlenku węgla, ale od uruchomienia pierwszych manufaktur opalających węgiel w Wielkiej Brytanii również stężenie tego gazu zaczęło powoli wzrastać w oceanach. Ale temperatura w największych akwenach wodnych Ziemi dopiero zaczęła tak naprawdę rosnąć od lat 70 XX wieku.
Jak czytamy już w 2006 roku w pracy naukowej „Carbon Dioxide and Our Ocean Legacy„ [„Dwutlenek węgla i nasze dziedzictwo oceanu„], opublikowanej w instytucji naukowej NOAA Pacific Marine Environment Laboratory przez badaczy zakwaszenia oceanów, Richarda Feely’ego, Christophera Sabine i Victorię Fabry, od początku ery przemysłowej ocean wchłonął z atmosfery około 525 miliardów ton CO2, a więc, w 2006 roku około 22 milionów ton dziennie. Na łamach serwisu Smithsonian Institution czytamy:
Początkowo naukowcy myśleli, że może to być dobre rozwiązanie, ponieważ pozostawia mniej dwutlenku węgla w powietrzu, aby ogrzać planetę. Ale w ostatniej dekadzie zdali sobie sprawę, że to spowolnione ocieplenie odbywa się kosztem zmiany chemii oceanu. Kiedy dwutlenek węgla rozpuszcza się w wodzie morskiej, woda staje się bardziej kwaśna, a stężenie (pH) oceanu (miara kwasowości lub zasadowości oceanu) spada. Chociaż ocean jest ogromny, wystarczająca ilość dwutlenku węgla może mieć duży wpływ. Tylko w ciągu ostatnich 200 lat woda w oceanie stała się o 30 procent bardziej kwaśna – szybciej niż jakakolwiek znana zmiana chemiczna oceanu w ciągu ostatnich 50 milionów lat.
—–
Jeden z najważniejszych eksperymentów badania wpływu zakwaszenia oceanu (AO – Acidification Ocean) na gatunki oceaniczne i morskie, Mesocosm, został przeprowadzony w pelagialu u wybrzeży Norwegii w 2015 r. Projektem tym kierował profesor Biologicznej Oceanografii Ulf Riebesell, pracujący w GEOMAR -Centrum Badań Oceanicznych im. Helmholtza w Kilonii.
Badania przeprowadzone zostały w ośmiu mezokosmach o pojemności 55 000 litrów każdy (w eksperymentalnych zbiornikach wodnych umieszczonych w morzu lub w oceanie) przez 36 badaczy, którzy przez 50 dni pobierali próbki.
Projekt ten pokazuje, że kluczowe gatunki w skali globalnej o strukturze wapiennej jak glon Emiliania huxleyi czy zwierzę bezkręgowe – mięczak, pteropod, czyli morski ślimak skrzydłonogi Limacina helicina, będą głównymi przegranymi.
Wspomniany glon Emiliania huxleyi odgrywa dwie ważne role klimatyczne. Po pierwsze, transportuje węgiel w głębiny oceaniczne opadając po śmierci, a więc, łagodzi klimat. A po drugie, wytwarza chłodny i jasny gaz aerozolowy – dimetylek siarczku (DMS), dzięki czemu chmury bieleją, głównie stratocumulusy nad oceanami, i silnie odbijają w przestrzeń kosmiczną promienie słoneczne, a więc, dzięki temu ochładza klimat. Z kolei ślimak skrzydłonogi Limacina helicina jest bardzo ważnym ogniwem w sieci troficznej, służącym jako pokarm dla wielu ryb i morskich ssaków i ptaków. Gdy go zabraknie w ekosystemie pelagicznego planktonu, to łańcuchy i sieci pokarmowe po prostu załamią się i może dojść do katastrofy ekologicznej. Mięczak ten jest uzależniony od wysokiego nasycenia wód pelagicznych aragonitem.
—-
Fot.1. Skaningowa mikrografia elektronowa pojedynczej komórki Emiliania huxleyi
—-
Fot.2. Żywy osobnik Limacina helicina
—-
Do zwycięzców należą gatunki niewapienne – pikoplanktonowe jak bakterie, a wśród bezkręgowych zwierząt, megaplanktonowe osłonice Oicopleura doica, a także z pewnością wiele innych o galaretowatym kształcie zwierząt jak inne gatunki osłonic czy też wiele gatunków meduz.
Swoje spostrzeżenia i uwagi, względem newralgicznego gatunku pelagicznego Emiliania huxleyi, Ulf Riebesell wraz ze swoimi współpracownikami przedstawił 12 grudnia 2016 roku na łamach Nature Geoscience, w artykule „Competitive fitness of a predominant pelagic calcifier impaired by ocean acidification” [„Zdolność konkurencyjna dominującego wapiennego organizmu pelagicznego upośledzona przez zakwaszenie oceanów”].
—-
Fot.3. Mezokosmy na Svalbardzie. Naukowcy pobierają próbkę wody z mezokosmu. Fot. Maike Nicolai, GEOMAR
—-
Kunshan Gao z Państwowego Kluczowego Laboratorium Nauk o Środowisku Morskim i Wyższej Szkoły Nauk o Oceanie i Ziemi na Uniwersytecie w Xiamen w Chinach, wraz ze swoim zespołem badawczym na wstępie pracy z 2019 roku „Effects of Ocean Acidification on Marine Photosynthetic Organisms Under the Concurrent Influences of Warming, UV Radiation, and Deoxygenation” [„Wpływ zakwaszenia oceanu na morskie organizmy fotosyntetyczne pod wpływem jednoczesnego ocieplenia, promieniowania UV i odtlenienia”], we Frontier Sin piszą:
Oceany pobierają ponad 1 milion ton antropogenicznego CO2 na godzinę, zwiększając poziom ciśnienia parcjalnego rozpuszczonego dwutlenku węgla (pCO2) i obniżając stężenie (pH) wody morskiej w procesie zwanym zakwaszeniem oceanów (OA – Ocean Acidification). Jednocześnie cieplarniane ocieplenie powierzchni oceanu powoduje zwiększone rozwarstwienie warstw mieszanych, narażając żyjące tam organizmy fotosyntetyczne na zwiększone promieniowanie widzialne i ultrafioletowe (UV), a także na zmniejszoną podaż składników odżywczych. Ponadto ocieplenie oceanów i eutrofizacja antropogeniczna zmniejszają stężenie rozpuszczonego O2 w wodzie morskiej, przyczyniając się do rozprzestrzeniania się stref niedotlenienia.
Naukowcy ci zauważyli, że promieniowanie słoneczne ultrafioletowe oraz / lub podwyższona temperatura wyraźnie powodują zmniejszenie zwapnienia pośród glonów wapiennych. Natomiast u okrzemek został stwierdzony większy ich wzrost przy podwyższonym poziomie CO2, ale i przy niewielkim nasłonecznieniu. Jednak zbyt intensywne światło słoneczne hamuje rozwój tych glonów krzemianowych.
Z kolei, Catriona Hurd w pracy zespołowej z 2018 roku „Current understanding and challenges for oceans in a higher-CO2 world” [„Aktualny zrozumienie i wyzwania dla oceanów w wyższym światowym stężeniu CO2”] mówi:
Zakwaszenie oceanów jest zjawiskiem globalnym, ale nakłada się na nie wyraźna zmienność regionalna modulowana przez lokalną fizykę, chemię i biologię. Uznanie jego wielopłaszczyznowego charakteru i współdziałania zakwaszenia z innymi czynnikami wpływającymi na ocean doprowadziło do międzynarodowych i regionalnych inicjatyw mających na celu ustanowienie sieci obserwacyjnych i opracowanie ujednolicających zasad reakcji biologicznych. Rośnie świadomość zagrożenia, jakie stanowi zakwaszenie oceanów dla usług ekosystemowych, a konsekwencje społeczno-gospodarcze stają się coraz bardziej widoczne i wymierne. W świecie o wyższym poziomie emisji CO2 przyszłe wyzwania obejmują lepsze projektowanie i rygorystyczne testy opcji adaptacyjnych, łagodzących i interwencyjnych, aby zrównoważyć skutki zakwaszenia oceanów w skali od lokalnej do regionalnej.
—-

Zawartość cieplna oceanów (OHC)

Od lat 60 XX wieku przybywa coraz więcej energii cieplnej w oceanach, które od tamtej pory zaczęły się dość szybko i gwałtownie nagrzewać. Choć, mimo wszystko te największe zbiorniki wodne na Ziemi i tak nieco wolniej nagrzewają się niż atmosfera naszej planety.
W pracy z 2012 roku „World ocean heat content and thermosteric sea level change (0–2000 m), 1955–2010” [„Światowa zawartość ciepła w oceanach i termosteryczna zmiana poziomu morza (0–2000 m), 1955–2010”], przedstawionej przez Sydneya Levitusa i jego zespół naukowy czytamy, że, gdyby całe ciepło z oceanów, nagrzane w latach 1955-2010, trafiło do atmosfery na wysokość 10 kilometrów, ta nagrzałaby się ona w szybkim tempie do 36 stopni Celsjusza względem okresu przedprzemysłowego.

Continue reading “Zawartość cieplna oceanów (OHC)”