Model, który policzył klimat: Jak praca Syukuro Manabe i Richarda Wetheralda z 1967 roku stworzyła fundament współczesnej fizyki klimatu

W 1967 roku dwóch badaczy z Geophysical Fluid Dynamics Laboratory – Syukuro Manabe i Richard Wetherald – opublikowało artykuł, który dziś uchodzi za jeden z najważniejszych w historii nauki o klimacie. Ich praca “Thermal Equilibrium of the Atmosphere with a Given Distribution of Relative Humidity” nie była publicystyczną refleksją o pogodzie ani prostą spekulacją o efekcie cieplarnianym. Była pierwszą spójną próbą policzenia fizyki atmosfery przy użyciu modelu radiacyjno-konwekcyjnego. To właśnie w tym modelu po raz pierwszy uzyskano realistyczną estymację ocieplenia po podwojeniu koncentracji CO₂.

Syukuro Manabe i Richard Wetherald pokazali, że klimat można badać jako problem równowagi energetycznej atmosfery, w którym promieniowanie, konwekcja i para wodna tworzą sprzężony układ fizyczny. Ich model – choć jednowymiarowy – uchwycił podstawowe mechanizmy sterujące temperaturą planety i stał się punktem wyjścia dla współczesnych modeli klimatycznych.

Fot. Syukuro Manabe. Źródło: Bengt Nyman/CC BY 2.0

Radiacyjno-konwekcyjna równowaga atmosfery

Kluczowym pojęciem w pracy Manabe i Wetheralda była radiacyjno-konwekcyjna równowaga atmosfery – stan, w którym ochładzanie atmosfery poprzez wypromieniowanie energii w podczerwieni do przestrzeni kosmicznej jest równoważone przez dopływ ciepła z powierzchni Ziemi, transportowany ku górze przez konwekcję, czyli pionowy ruch powietrza w troposferze. Dzięki konwekcji ciepło z niższych warstw jest przenoszone ku górze, a pionowy profil temperatury stabilizuje się w fizycznie realistycznym kształcie.

Gdyby atmosfera przekazywała energię wyłącznie poprzez promieniowanie, pionowy rozkład temperatury byłby określony tylko przez bilans absorpcji i emisji promieniowania w kolejnych warstwach powietrza. W rzeczywistości troposfera jest układem dynamicznym: kiedy spadek temperatury wraz z wysokością staje się zbyt duży, powietrze staje się niestabilne, a wznoszenie cieplejszych i opadanie chłodniejszych mas powietrza uruchamia konwekcję. Ten proces transportuje energię ku górze i prowadzi do ustalenia stabilnego profilu temperatury w troposferze.

W modelu Manabe i Wetheralda zjawisko to odwzorowano za pomocą procedury zwanej korektą konwekcyjną. Gdy obliczony gradient temperatury przekracza fizyczną granicę stabilności atmosfery, algorytm automatycznie go koryguje, przywracając realistyczny rozkład temperatury w całej kolumnie atmosfery.

Dzięki temu podejściu model połączył dwa fundamentalne procesy fizyczne:

  1. Transfer promieniowania – absorpcję i emisję promieniowania przez gazy atmosferyczne.

  2. Transport konwekcyjny – pionowy przepływ powietrza, który reguluje temperaturę troposfery.

Takie rozwiązanie pozwoliło po raz pierwszy obliczyć stabilny profil temperatury od powierzchni Ziemi aż do stratosfery bez wprowadzania arbitralnych założeń, co stanowiło przełom w modelowaniu klimatu.

Architektura pierwszego modelu klimatu

Model przedstawiony przez Manabe i Wetheralda w 1967 roku był jednowymiarowym modelem kolumny atmosferycznej. Zamiast symulować całą planetę w trzech wymiarach, badacze analizowali pionowy przekrój atmosfery, dzieląc go na warstwy ciśnienia. Dyskretyzacja, czyli podział ciągłego pionowego profilu na takie warstwy, pozwalała komputerowi obliczać zmiany w każdej części atmosfery krok po kroku.

W każdej warstwie model uwzględniał:

  • strumień promieniowania słonecznego docierającego z góry i promieniowania podczerwonego (długofalowego) emitowanego przez powietrze i powierzchnię,

  • absorpcję energii przez gazy cieplarniane: CO₂, parę wodną i ozon,

  • emisję energii w postaci promieniowania podczerwonego,

  • zmiany temperatury wynikające z bilansu energetycznego w kolejnych krokach czasowych.

Równowagę systemu osiągano poprzez iteracyjną integrację czasową – proces polegający na obliczaniu zmian temperatury w kolejnych małych krokach czasowych, w którym wynik jednego kroku staje się warunkiem początkowym dla następnego, aż system przestaje się zmieniać. Wtedy atmosfera osiągała stan równowagi radiacyjno-konwekcyjnej.

Choć model był prosty w porównaniu do współczesnych, zawierał kluczowe elementy, które stały się standardem w obliczeniowej klimatologii:

  1. Podział pionowy atmosfery na warstwy, umożliwiający dokładne obliczenia w każdej części kolumny,

  2. Obliczenia strumieni promieniowania w pasmach podczerwieni, pozwalające uwzględnić absorpcję i emisję energii przez gazy cieplarniane,

  3. Uwzględnienie sprzężenia pary wodnej, które zwiększało wrażliwość modelu na zmiany temperatury.

Dzięki temu model był pierwszym spójnym fizycznie modelem klimatu, który można było uruchomić na komputerze i używać do przewidywania, jak zmiany w składzie atmosfery wpływają na temperaturę powierzchni i pionowy profil troposfery.

Wilgotność względna jako kluczowe założenie

Jednym z najbardziej innowacyjnych elementów pracy Manabe i Wetheralda było założenie dotyczące wilgotności względnej powietrza w modelu. Wilgotność względna określa, jaki procent maksymalnej ilości pary wodnej możliwej do utrzymania w powietrzu przy danej temperaturze jest faktycznie obecny. W skrócie: powietrze o wilgotności względnej 100% jest nasycone i nie może przyjąć więcej pary wodnej bez kondensacji.

Dla porównania, wilgotność bezwzględna opisuje faktyczną ilość pary wodnej w powietrzu (np. w gramach na metr sześcienny), a wilgotność całkowita (specyficzna) to stosunek masy pary wodnej do masy suchego powietrza. W modelu Manabe i Wetheralda podstawowym parametrem była wilgotność względna, dzięki czemu ilość pary wodnej zmieniała się wraz z temperaturą, ale proporcja w stosunku do maksymalnej możliwej ilości pozostawała w przybliżeniu stała.

To pozornie techniczne założenie miało ogromne konsekwencje fizyczne. W atmosferze cieplejszej wzrasta ciśnienie pary nasyconej – czyli ciśnienie, jakie wywierałaby para wodna, gdy powietrze byłoby nasycone. W praktyce oznacza to, że ciepłe powietrze może utrzymać więcej pary wodnej niż zimne. Dla porównania ciśnienie pary nienasyconej to faktyczne ciśnienie, jakie w danym momencie wywiera obecna para wodna; w atmosferze jest ono zwykle niższe od ciśnienia pary nasyconej.

Ponieważ para wodna jest silnym gazem cieplarnianym, wzrost jej zawartości w cieplejszym powietrzu wzmacnia ogrzewanie atmosfery. W modelu Manabe i Wetheralda proces ten opisano jako dodatnie sprzężenie pary wodnej: wzrost temperatury powierzchni zwiększa ilość pary wodnej w atmosferze, a to z kolei zwiększa absorpcję promieniowania podczerwonego i prowadzi do dalszego wzrostu temperatury.

Symulacje pokazały, że uwzględnienie tego sprzężenia znacząco zwiększało wrażliwość klimatu na zmiany składu atmosfery, na przykład na podwojenie koncentracji CO₂. Bez uwzględnienia pary wodnej wcześniejsze modele znacząco niedoszacowywały efektu cieplarnianego.

Dodatkowo, przyjęcie stałej wilgotności względnej pozwoliło modelowi realistycznie odtworzyć pionowy rozkład pary wodnej w troposferze: najwięcej pary znajdowało się w dolnych, cieplejszych warstwach, a im wyżej, tym jej mniej, zgodnie z obserwacjami atmosferycznymi. Dzięki temu model stał się znacznie bardziej realistyczny i przewidywalny, a jego wyniki w zakresie wrażliwości klimatu były zbliżone do obserwowanych procesów fizycznych w atmosferze.

W skrócie, Manabe i Wetherald pokazali, że para wodna nie jest tylko „dodatkiem” do atmosfery, lecz aktywnym uczestnikiem bilansu energetycznego, którego sprzężenia z temperaturą decydują o sile efektu cieplarnianego i stabilności pionowego profilu temperatury.

RYS. 3. Pionowy rozkład wilgotności względnej. Źródło: Mastenbrook, 1963; Murgatroyd, 1960; Telegadas i London, 1954/CC BY 2.0

Numeryczna metodologia obliczeń

Metodologia zastosowana przez Manabe i Wetheralda opierała się na numerycznym rozwiązaniu problemu początkowego. Oznacza to, że komputer obliczał zmiany temperatury w atmosferze krok po kroku w czasie, zaczynając od określonego stanu początkowego, aż system osiągnął równowagę. Atmosfera była traktowana jako układ dynamiczny, w którym temperatura zmienia się pod wpływem procesów radiacyjnych i konwekcyjnych.

Algorytm obliczeń można przedstawić w czterech etapach:

  1. Obliczenie strumieni promieniowania – dla każdej warstwy atmosfery komputer określał, ile energii pochłaniają gazy (CO₂, para wodna, ozon) i ile emitują w postaci promieniowania podczerwonego.

  2. Wyznaczenie zmian temperatury – na podstawie bilansu energii w warstwach atmosfery obliczano, jak zmienia się temperatura w danym kroku czasowym.

  3. Korekta konwekcyjna – gdy spadek temperatury wraz z wysokością (tzw. gradient pionowy temperatury) przekraczał wartość adiabatyczną, czyli maksymalny spadek temperatury powietrza przy wznoszeniu lub opadaniu bez wymiany ciepła z otoczeniem, uruchamiano konwekcję. Ta procedura wyrównywała gradient i przywracała stabilny profil temperatury.

  4. Iteracyjna integracja czasowa – proces powtarzano wiele razy, aż różnice temperatur w kolejnych krokach stawały się minimalne, czyli atmosfera osiągała radiacyjno-konwekcyjną równowagę.

Kluczowe parametry fizyczne

W obliczeniach istotną rolę odgrywały właściwości fizyczne powietrza:

  • Ciepło właściwe powietrza – ilość energii potrzebnej do podniesienia temperatury jednostki masy powietrza o 1°C. To ciepło „jawne”, które podnosi temperaturę powietrza bez zmiany jego stanu fazowego.

  • Ciepło utajone parowania – energia potrzebna, aby zamienić wodę w powietrzu z cieczy w parę wodną, bez zmiany temperatury powietrza. W modelu uwzględniono jego wpływ na pionowy transport energii w troposferze.

  • Ciśnienie pary nasyconej – maksymalne ciśnienie, jakie mogłaby wywierać para wodna w powietrzu przy danej temperaturze; powyżej tego ciśnienia powstaje kondensacja. Dla porównania ciśnienie pary nienasyconej to aktualne ciśnienie pary wodnej w powietrzu.

W modelu Manabe i Wetheralda uwzględniono również zmodyfikowaną pojemność cieplną powietrza wilgotnego, czyli ilość energii potrzebnej do podniesienia temperatury powietrza z uwzględnieniem energii związanej z parą wodną i jej kondensacją.

Tak przygotowany schemat obliczeń był jedną z pierwszych prób kompleksowego odwzorowania fizyki atmosfery na komputerze. W praktyce oznaczało to, że komputer nie tylko liczył prosty bilans energii, lecz również realistycznie uwzględniał procesy radiacyjne, konwekcyjne oraz sprzężenie z parą wodną, dzięki czemu wyniki modelu były spójne z obserwacjami atmosferycznymi.

Pierwsza realistyczna estymacja wrażliwości klimatu

Najbardziej znanym wynikiem pracy Manabe i Wetheralda była symulacja wpływu podwojenia koncentracji CO₂ w atmosferze. Model wskazał, że w takim scenariuszu średnia temperatura powierzchni Ziemi wzrasta o około 2 °C.

Warto przy tym wyjaśnić, czym jest estymacja – w tym kontekście oznacza ona przybliżone, obliczone na podstawie modelu oszacowanie reakcji klimatu na zmianę warunków atmosferycznych, tutaj – podwojenie CO₂.

Symulacje ujawniły także charakterystyczny pionowy profil zmian temperatury w atmosferze:

  • Troposfera – najniższa warstwa atmosfery, sięgająca od powierzchni Ziemi do około 8–15 km w zależności od szerokości geograficznej. W tej warstwie powietrze jest mieszane przez konwekcję, a model pokazał w niej wyraźne ocieplenie.

  • Stratosfera – warstwa nad troposferą, gdzie powietrze jest bardziej stabilne i słabiej wymieszane. W stratosferze symulacje wskazały ochłodzenie, co wynika z przesunięcia bilansu radiacyjnego – mniej promieniowania podczerwonego dociera tam z troposfery, gdy CO₂ absorbuje część energii niżej.

To zjawisko tworzy tzw. sygnał radiacyjny, czyli charakterystyczny pionowy wzorzec zmian temperatury wywołany przez promieniowanie podczerwone i interakcję z gazami cieplarnianymi. Obserwacja takiego sygnału w rzeczywistej atmosferze jest dziś jednym z najważniejszych dowodów fizycznego działania efektu cieplarnianego.

Choć współczesne modele klimatyczne są znacznie bardziej złożone, uwzględniające oceany, lądolody, cyrkulację atmosferyczną i sprzężenia klimatyczne, wyniki Manabe i Wetheralda okazały się zadziwiająco trafne. Dzisiejsze estymacje wrażliwości klimatu, oparte na nowoczesnych modelach i obserwacjach, wskazują średni wzrost temperatury o około 3 °C dla podwojenia CO₂ – tylko nieco więcej niż w pionierskim modelu z 1967 roku.

Dziedzictwo pracy z 1967 roku

Artykuł Manabe i Wetheralda stał się kamieniem milowym w historii klimatologii. Po raz pierwszy pokazano, że klimat można analizować jako system fizyczny opisany równaniami transportu energii.

Model radiacyjno-konwekcyjny stał się bezpośrednim poprzednikiem współczesnych modeli globalnej cyrkulacji (GCM – global circulation models) – trójwymiarowych symulacji atmosfery i oceanów. To właśnie z tych narzędzi korzystają dziś raporty IPCC i większość badań klimatycznych.

W praktyce oznacza to, że wiele współczesnych symulacji klimatu – mimo ogromnego postępu obliczeniowego – wciąż opiera się na fizycznych koncepcjach sformułowanych w pracy z 1967 roku.

Dlatego artykuł Manabe i Wetheralda jest nie tylko historyczną ciekawostką. To jeden z tekstów, które zbudowały matematyczne fundamenty współczesnej nauki o klimacie.

Referencje:

Manabe S. & Wetherald R. T., 1967 ; Thermal Equilibrium of the Atmosphere with a Given Distribution of Relative Humidity ; Journal of the Atmospheric Sciences ; https://geosci.uchicago.edu/~archer/warming_papers/manabe.1967.rad_conv_eq.pdf

Leave a Comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Scroll to Top