W 1967 roku dwóch badaczy z Geophysical Fluid Dynamics Laboratory – Syukuro Manabe i Richard Wetherald – opublikowało artykuł, który dziś uchodzi za jeden z najważniejszych w historii nauki o klimacie. Ich praca “Thermal Equilibrium of the Atmosphere with a Given Distribution of Relative Humidity” nie była publicystyczną refleksją o pogodzie ani prostą spekulacją o efekcie cieplarnianym. Była pierwszą spójną próbą policzenia fizyki atmosfery przy użyciu modelu radiacyjno-konwekcyjnego. To właśnie w tym modelu po raz pierwszy uzyskano realistyczną estymację ocieplenia po podwojeniu koncentracji CO₂.
Syukuro Manabe i Richard Wetherald pokazali, że klimat można badać jako problem równowagi energetycznej atmosfery, w którym promieniowanie, konwekcja i para wodna tworzą sprzężony układ fizyczny. Ich model – choć jednowymiarowy – uchwycił podstawowe mechanizmy sterujące temperaturą planety i stał się punktem wyjścia dla współczesnych modeli klimatycznych.
![]()
Fot. Syukuro Manabe. Źródło: Bengt Nyman/CC BY 2.0
Radiacyjno-konwekcyjna równowaga atmosfery
Kluczowym pojęciem w pracy Manabe i Wetheralda była radiacyjno-konwekcyjna równowaga atmosfery – stan, w którym ochładzanie atmosfery poprzez wypromieniowanie energii w podczerwieni do przestrzeni kosmicznej jest równoważone przez dopływ ciepła z powierzchni Ziemi, transportowany ku górze przez konwekcję, czyli pionowy ruch powietrza w troposferze. Dzięki konwekcji ciepło z niższych warstw jest przenoszone ku górze, a pionowy profil temperatury stabilizuje się w fizycznie realistycznym kształcie.
Gdyby atmosfera przekazywała energię wyłącznie poprzez promieniowanie, pionowy rozkład temperatury byłby określony tylko przez bilans absorpcji i emisji promieniowania w kolejnych warstwach powietrza. W rzeczywistości troposfera jest układem dynamicznym: kiedy spadek temperatury wraz z wysokością staje się zbyt duży, powietrze staje się niestabilne, a wznoszenie cieplejszych i opadanie chłodniejszych mas powietrza uruchamia konwekcję. Ten proces transportuje energię ku górze i prowadzi do ustalenia stabilnego profilu temperatury w troposferze.
W modelu Manabe i Wetheralda zjawisko to odwzorowano za pomocą procedury zwanej korektą konwekcyjną. Gdy obliczony gradient temperatury przekracza fizyczną granicę stabilności atmosfery, algorytm automatycznie go koryguje, przywracając realistyczny rozkład temperatury w całej kolumnie atmosfery.
Dzięki temu podejściu model połączył dwa fundamentalne procesy fizyczne:
-
Transfer promieniowania – absorpcję i emisję promieniowania przez gazy atmosferyczne.
-
Transport konwekcyjny – pionowy przepływ powietrza, który reguluje temperaturę troposfery.
Takie rozwiązanie pozwoliło po raz pierwszy obliczyć stabilny profil temperatury od powierzchni Ziemi aż do stratosfery bez wprowadzania arbitralnych założeń, co stanowiło przełom w modelowaniu klimatu.
Architektura pierwszego modelu klimatu
Model przedstawiony przez Manabe i Wetheralda w 1967 roku był jednowymiarowym modelem kolumny atmosferycznej. Zamiast symulować całą planetę w trzech wymiarach, badacze analizowali pionowy przekrój atmosfery, dzieląc go na warstwy ciśnienia. Dyskretyzacja, czyli podział ciągłego pionowego profilu na takie warstwy, pozwalała komputerowi obliczać zmiany w każdej części atmosfery krok po kroku.
W każdej warstwie model uwzględniał:
-
strumień promieniowania słonecznego docierającego z góry i promieniowania podczerwonego (długofalowego) emitowanego przez powietrze i powierzchnię,
-
absorpcję energii przez gazy cieplarniane: CO₂, parę wodną i ozon,
-
emisję energii w postaci promieniowania podczerwonego,
-
zmiany temperatury wynikające z bilansu energetycznego w kolejnych krokach czasowych.
Równowagę systemu osiągano poprzez iteracyjną integrację czasową – proces polegający na obliczaniu zmian temperatury w kolejnych małych krokach czasowych, w którym wynik jednego kroku staje się warunkiem początkowym dla następnego, aż system przestaje się zmieniać. Wtedy atmosfera osiągała stan równowagi radiacyjno-konwekcyjnej.
Choć model był prosty w porównaniu do współczesnych, zawierał kluczowe elementy, które stały się standardem w obliczeniowej klimatologii:
-
Podział pionowy atmosfery na warstwy, umożliwiający dokładne obliczenia w każdej części kolumny,
-
Obliczenia strumieni promieniowania w pasmach podczerwieni, pozwalające uwzględnić absorpcję i emisję energii przez gazy cieplarniane,
-
Uwzględnienie sprzężenia pary wodnej, które zwiększało wrażliwość modelu na zmiany temperatury.
Dzięki temu model był pierwszym spójnym fizycznie modelem klimatu, który można było uruchomić na komputerze i używać do przewidywania, jak zmiany w składzie atmosfery wpływają na temperaturę powierzchni i pionowy profil troposfery.
Wilgotność względna jako kluczowe założenie
Jednym z najbardziej innowacyjnych elementów pracy Manabe i Wetheralda było założenie dotyczące wilgotności względnej powietrza w modelu. Wilgotność względna określa, jaki procent maksymalnej ilości pary wodnej możliwej do utrzymania w powietrzu przy danej temperaturze jest faktycznie obecny. W skrócie: powietrze o wilgotności względnej 100% jest nasycone i nie może przyjąć więcej pary wodnej bez kondensacji.
Dla porównania, wilgotność bezwzględna opisuje faktyczną ilość pary wodnej w powietrzu (np. w gramach na metr sześcienny), a wilgotność całkowita (specyficzna) to stosunek masy pary wodnej do masy suchego powietrza. W modelu Manabe i Wetheralda podstawowym parametrem była wilgotność względna, dzięki czemu ilość pary wodnej zmieniała się wraz z temperaturą, ale proporcja w stosunku do maksymalnej możliwej ilości pozostawała w przybliżeniu stała.
To pozornie techniczne założenie miało ogromne konsekwencje fizyczne. W atmosferze cieplejszej wzrasta ciśnienie pary nasyconej – czyli ciśnienie, jakie wywierałaby para wodna, gdy powietrze byłoby nasycone. W praktyce oznacza to, że ciepłe powietrze może utrzymać więcej pary wodnej niż zimne. Dla porównania ciśnienie pary nienasyconej to faktyczne ciśnienie, jakie w danym momencie wywiera obecna para wodna; w atmosferze jest ono zwykle niższe od ciśnienia pary nasyconej.
Ponieważ para wodna jest silnym gazem cieplarnianym, wzrost jej zawartości w cieplejszym powietrzu wzmacnia ogrzewanie atmosfery. W modelu Manabe i Wetheralda proces ten opisano jako dodatnie sprzężenie pary wodnej: wzrost temperatury powierzchni zwiększa ilość pary wodnej w atmosferze, a to z kolei zwiększa absorpcję promieniowania podczerwonego i prowadzi do dalszego wzrostu temperatury.
Symulacje pokazały, że uwzględnienie tego sprzężenia znacząco zwiększało wrażliwość klimatu na zmiany składu atmosfery, na przykład na podwojenie koncentracji CO₂. Bez uwzględnienia pary wodnej wcześniejsze modele znacząco niedoszacowywały efektu cieplarnianego.
Dodatkowo, przyjęcie stałej wilgotności względnej pozwoliło modelowi realistycznie odtworzyć pionowy rozkład pary wodnej w troposferze: najwięcej pary znajdowało się w dolnych, cieplejszych warstwach, a im wyżej, tym jej mniej, zgodnie z obserwacjami atmosferycznymi. Dzięki temu model stał się znacznie bardziej realistyczny i przewidywalny, a jego wyniki w zakresie wrażliwości klimatu były zbliżone do obserwowanych procesów fizycznych w atmosferze.
W skrócie, Manabe i Wetherald pokazali, że para wodna nie jest tylko „dodatkiem” do atmosfery, lecz aktywnym uczestnikiem bilansu energetycznego, którego sprzężenia z temperaturą decydują o sile efektu cieplarnianego i stabilności pionowego profilu temperatury.

RYS. 3. Pionowy rozkład wilgotności względnej. Źródło: Mastenbrook, 1963; Murgatroyd, 1960; Telegadas i London, 1954/CC BY 2.0
Numeryczna metodologia obliczeń
Metodologia zastosowana przez Manabe i Wetheralda opierała się na numerycznym rozwiązaniu problemu początkowego. Oznacza to, że komputer obliczał zmiany temperatury w atmosferze krok po kroku w czasie, zaczynając od określonego stanu początkowego, aż system osiągnął równowagę. Atmosfera była traktowana jako układ dynamiczny, w którym temperatura zmienia się pod wpływem procesów radiacyjnych i konwekcyjnych.
Algorytm obliczeń można przedstawić w czterech etapach:
-
Obliczenie strumieni promieniowania – dla każdej warstwy atmosfery komputer określał, ile energii pochłaniają gazy (CO₂, para wodna, ozon) i ile emitują w postaci promieniowania podczerwonego.
-
Wyznaczenie zmian temperatury – na podstawie bilansu energii w warstwach atmosfery obliczano, jak zmienia się temperatura w danym kroku czasowym.
-
Korekta konwekcyjna – gdy spadek temperatury wraz z wysokością (tzw. gradient pionowy temperatury) przekraczał wartość adiabatyczną, czyli maksymalny spadek temperatury powietrza przy wznoszeniu lub opadaniu bez wymiany ciepła z otoczeniem, uruchamiano konwekcję. Ta procedura wyrównywała gradient i przywracała stabilny profil temperatury.
-
Iteracyjna integracja czasowa – proces powtarzano wiele razy, aż różnice temperatur w kolejnych krokach stawały się minimalne, czyli atmosfera osiągała radiacyjno-konwekcyjną równowagę.
Kluczowe parametry fizyczne
W obliczeniach istotną rolę odgrywały właściwości fizyczne powietrza:
-
Ciepło właściwe powietrza – ilość energii potrzebnej do podniesienia temperatury jednostki masy powietrza o 1°C. To ciepło „jawne”, które podnosi temperaturę powietrza bez zmiany jego stanu fazowego.
-
Ciepło utajone parowania – energia potrzebna, aby zamienić wodę w powietrzu z cieczy w parę wodną, bez zmiany temperatury powietrza. W modelu uwzględniono jego wpływ na pionowy transport energii w troposferze.
-
Ciśnienie pary nasyconej – maksymalne ciśnienie, jakie mogłaby wywierać para wodna w powietrzu przy danej temperaturze; powyżej tego ciśnienia powstaje kondensacja. Dla porównania ciśnienie pary nienasyconej to aktualne ciśnienie pary wodnej w powietrzu.
W modelu Manabe i Wetheralda uwzględniono również zmodyfikowaną pojemność cieplną powietrza wilgotnego, czyli ilość energii potrzebnej do podniesienia temperatury powietrza z uwzględnieniem energii związanej z parą wodną i jej kondensacją.
Tak przygotowany schemat obliczeń był jedną z pierwszych prób kompleksowego odwzorowania fizyki atmosfery na komputerze. W praktyce oznaczało to, że komputer nie tylko liczył prosty bilans energii, lecz również realistycznie uwzględniał procesy radiacyjne, konwekcyjne oraz sprzężenie z parą wodną, dzięki czemu wyniki modelu były spójne z obserwacjami atmosferycznymi.
Pierwsza realistyczna estymacja wrażliwości klimatu
Najbardziej znanym wynikiem pracy Manabe i Wetheralda była symulacja wpływu podwojenia koncentracji CO₂ w atmosferze. Model wskazał, że w takim scenariuszu średnia temperatura powierzchni Ziemi wzrasta o około 2 °C.
Warto przy tym wyjaśnić, czym jest estymacja – w tym kontekście oznacza ona przybliżone, obliczone na podstawie modelu oszacowanie reakcji klimatu na zmianę warunków atmosferycznych, tutaj – podwojenie CO₂.
Symulacje ujawniły także charakterystyczny pionowy profil zmian temperatury w atmosferze:
-
Troposfera – najniższa warstwa atmosfery, sięgająca od powierzchni Ziemi do około 8–15 km w zależności od szerokości geograficznej. W tej warstwie powietrze jest mieszane przez konwekcję, a model pokazał w niej wyraźne ocieplenie.
-
Stratosfera – warstwa nad troposferą, gdzie powietrze jest bardziej stabilne i słabiej wymieszane. W stratosferze symulacje wskazały ochłodzenie, co wynika z przesunięcia bilansu radiacyjnego – mniej promieniowania podczerwonego dociera tam z troposfery, gdy CO₂ absorbuje część energii niżej.
To zjawisko tworzy tzw. sygnał radiacyjny, czyli charakterystyczny pionowy wzorzec zmian temperatury wywołany przez promieniowanie podczerwone i interakcję z gazami cieplarnianymi. Obserwacja takiego sygnału w rzeczywistej atmosferze jest dziś jednym z najważniejszych dowodów fizycznego działania efektu cieplarnianego.
Choć współczesne modele klimatyczne są znacznie bardziej złożone, uwzględniające oceany, lądolody, cyrkulację atmosferyczną i sprzężenia klimatyczne, wyniki Manabe i Wetheralda okazały się zadziwiająco trafne. Dzisiejsze estymacje wrażliwości klimatu, oparte na nowoczesnych modelach i obserwacjach, wskazują średni wzrost temperatury o około 3 °C dla podwojenia CO₂ – tylko nieco więcej niż w pionierskim modelu z 1967 roku.
Dziedzictwo pracy z 1967 roku
Artykuł Manabe i Wetheralda stał się kamieniem milowym w historii klimatologii. Po raz pierwszy pokazano, że klimat można analizować jako system fizyczny opisany równaniami transportu energii.
Model radiacyjno-konwekcyjny stał się bezpośrednim poprzednikiem współczesnych modeli globalnej cyrkulacji (GCM – global circulation models) – trójwymiarowych symulacji atmosfery i oceanów. To właśnie z tych narzędzi korzystają dziś raporty IPCC i większość badań klimatycznych.
W praktyce oznacza to, że wiele współczesnych symulacji klimatu – mimo ogromnego postępu obliczeniowego – wciąż opiera się na fizycznych koncepcjach sformułowanych w pracy z 1967 roku.
Dlatego artykuł Manabe i Wetheralda jest nie tylko historyczną ciekawostką. To jeden z tekstów, które zbudowały matematyczne fundamenty współczesnej nauki o klimacie.
Referencje:
Manabe S. & Wetherald R. T., 1967 ; Thermal Equilibrium of the Atmosphere with a Given Distribution of Relative Humidity ; Journal of the Atmospheric Sciences ; https://geosci.uchicago.edu/~archer/warming_papers/manabe.1967.rad_conv_eq.pdf
