Gdzie najlepiej obserwować globalne ocieplenie?

Gdy mówimy “globalne ocieplenie” niektórzy rozumieją to jako “ocieplenie w Polsce” lub co gorsza “ocieplenie w mojej miejscowości” i stąd pseudoargumenty w stylu “wystarczy że spojrzę na termometr za oknem i już wiem…”.

Z tym poziomem argumentacji nawet nie trzeba dyskutować. Wiemy, że “globalne” to znaczy… globalne, czyli powinniśmy badać anomalie średniej temperatury całej naszej planety. Ale w tym miejscu nawet my, naukowcy, często wpadamy w pułapkę. Utożsamiamy bowiem anomalie temperatury planety z temperaturą powierzchniową. W gruncie rzeczy duża część dyskusji na temat globalnego ocieplenia dotyczy pól temperatur najniższych warstw atmosfery nad lądem i powierzchniowej warstwy wody na morzach – bo to jest “temperatura powierzchniowa” według definicji stosowanej w meteorologii.

Jednak temperatura powierzchniowa nie jest najlepszą miarą globalnego ocieplenia. To dość oczywiste – zakrzyknie czytelnik – powinniśmy brać pod uwagę zmiany temperatury całej atmosfery. To prawda. Ale to nie jest największy problem. Największym problemem jest nieuwzględnianie zmian temperatury głębi oceanicznych. Wynika to z olbrzymiej pojemności ciepłej oceanów. Już tu o tym pisałem kilka wpisów temu. Ocean pochłania 90% dodatkowego ciepła pochodzącego ze zwiększającego się efektu cieplarnianego. Czyli przyrost temperatury atmosfery, gleby oraz topienie lodu to, w sensie energetycznym, w gruncie rzeczy niewielka poprawka do przyrostu temperatury oceanu. Gdybyśmy znali dokładnie wartość tej ostatniej to, nawet (błędne) założenie, że atmosfera i powierzchnia ziemi w ogóle się nie ociepla a żaden lód się nie topi, dałoby nam jedynie 10% błąd w oceanie wielkości globalnego ocieplenia.

Niestety, w rzeczywistości znamy tę olbrzymią wartość ze znacznie większą niepewnością niż zmiany temperatury atmosfery, o które denialiści toczą tak zacięte boje na swoich blogach. Na szczęście, w ostatnich latach coraz lepiej. Satelitarne pomiary poziomu morza z dokładnością do milimetra (ma to bezpośredni związek ze średnia temperaturą oceanu dzięki zjawisku rozszerzalności cieplnej wody morskiej) oraz 3000 sond ARGO mierzących temperaturę górnych 2000 m oceanu znacznie poprawiło, w ostatnich latach, naszą wiedzę o strumieniu ciepła płynącego do oceanu [1].

I właśnie ze względu na wagę zagadnienia strumienia ciepła płynącego do oceanu oraz postęp w szacowaniu jego wartości, ostatnio każdy istotny artykuł w tej kwestii trafia do najlepszych czasopism naukowych, czyli do Nature i Science. Tak było i w tym tygodniu. Artykuł Lymana i innych [2] z najnowszego numeru Nature już w samym tytule “Robust warming of the global upper ocean” zawiera zdecydowane stwierdzenie. Słowo “robust” oznacza “silny, krzepki”, a w literaturze naukowej “solidny”, w sensie “trudny do podważenia” czy wręcz “statystycznie istotny”.

Chyba największym problemem w ocenie zmian “zawartości cieplnej” oceanu [3] są dane z tanich i jednorazowych profilerów temperatury XBT (eXpendable BathyThermograph). Jest to taka mała sonda w kształcie bomby, zrzucana ze statku lub helikoptera i mierząca temperaturę wody w czasie opadania w dół, aż do zerwania cienkiego kabla ciągniętego przez sondę. Wyrzucenie takiej sondy, scenę jak z filmu science fiction kategorii C, można zobaczyć na tym zdjęciu. Producenci tych sond oszczędzali na czujniku ciśnienia, szacując głębokość na podstawie czasu opadania. Niestety nie dość, że się mylili w tych obliczeniach, to jeszcze od czasu do czasu zmieniali projekt obudowy. Co gorsza, było kilka rodzajów tego rodzaju sond. Od kilku lat oceanografowie pracują nad korektami zebranych wyników (zarówno głębokości jak i samych temperatur, bo te też miały swoje problemy).

Autorzy omawianego artykułu podjęli się niewdzięcznego zadania ujednolicenia wyników pomiarów profili temperatury za pomocą sond XBT, skorygowanych przez różne zespoły badaczy różnymi metodami. Oto co zastali:

Rysunek przedstawia przebieg czasowy globalnej anomalii “zawartości cieplnej” pierwszych 700 metrów oceanu, skorygowanej różnymi metodami, interpolowanej różnymi metodami i porównanymi z różnymi klimatologiami (mapami wartości średnich). Jedynym zabiegiem dokonanym na tych danych jest “wyzerowanie” ich średnią każdej serii dla lat 1993-2006, czyli wspólnego okresu wszystkich serii. Ogólnie jednak wygląda to dość beznadziejnie.

Lyman i inni zastosowali do każdej z serii tę samą klimatologię, tę samą metodę “mapowania” (interpolacji) i połączyli z innymi dostępnymi danymi (sondowaniami “klasycznymi” sondami CTD mierzącymi oprócz temperatury także i głębokość, a także od roku 2003 danymi z automatycznych profilerów ARGO). Różnice między krzywymi poniżej są więc wynikiem li tylko różnic w korekcie danych XBT. Wygląda to znacznie lepiej:

Linie ciągłe są anomaliami względem klimatologii z lat 1993-2002 a przerywane z lat 2005-2008 (gdy dostępne są już dane ARGO). Widać, że różnica między nimi nie jest duża. Linie kropkowane są wynikiem zastosowania innych opublikowanych korekcji (nie będę wchodził w szczegóły).

Czarna linia ciągła to średnia wszystkich metod korekcji. Trend z niej wynikający dla lat 1993-2003 (przed rozpoczęciem programu ARGO) to w przeliczeniu na całą powierzchnię Ziemi (czyli nie jedynie na powierzchnie oceanów) to 0,63 ± 0,28 W/m2. Dla porównania IV Raport IPCC podawał wartość 0,5 ± 0,18 W/m2 (zgodną z nowym wynikiem, jeśli uwzględnić niepewności). Wartość dla całego 16-letniego okresu 1993-2008, który zawiera ostatnie 5 lat, z dużą ilością danych ARGO, ma mniejszą niepewność: 0,64 ± 0,11 W/m2.

Zwraca uwagę bardzo mały przyrost zawartości cieplnej oceanu w “okresie ARGO”, czyli od roku 2003. Ale dotyczy to jedynie pierwszych 700 metrów oceanu. W artykule z tego samego numeru Nature, omawiającym perspektywę tych wyników, Trenberth [4] zwraca uwagę na to, że niedawna analiza całych 2000 metrów do których sondują ARGO przez von Schuckmanna i innych [5], daje dla okresu 2003-2008 znacznie większą wartość trendu (w przeliczeniu na całą Ziemię) 0,54 ± 0,08 W/m2. Wynikałoby z tego, że w ostatnich latach ogrzewają się raczej głębsze warstwy oceanu (poniżej 700 m). Na rysunku poniżej dane Lymana i innych dla 700 m to czarna linia, a trend z nich wynikający to czerwona. Natomiast trend dla całych 2000 m danych ARGO (Schuckmann i inni 2009) to niebieska.

Oczywiście nadal, tak naprawdę,  nie wiemy co się dzieje jeszcze głębiej niż 2000 m, a to ponad jedna trzecia objętości oceanu. Trenberth ponownie nie odważył się napisać wprost tego, co mówi dziennikarzom, mianowicie, że różnica miedzy pomiarami bilansu energii Ziemi z satelitów i z wzrostu temperatury oceanu (plus oczywiści atmosfery, topnienia lodów itp.) ukrywa się w głębokim oceanie. Pewnie dlatego, że nadal istnieje możliwość, że gdzieś siedzi jeszcze jakiś jeszcze nie wyłapany systematyczny błąd pomiarowy. Coraz mniej prawdopodobna w miarę, jak coraz więcej ludzi pracuje nad tymi danymi, ale oczywiście istnieje.

Mój ulubiony uważny czytelnik zauważył na pewno, że nie odpowiedziałem na pytanie z tytułu wpisu.  Zrobię to teraz. Otóż paradoksalnie, globalnego ocieplenia spowodowanego zwiększeniem efektu cieplarnianego, czyli zjawiska czysto atmosferycznego, nie należy mierzyć jedynie w atmosferze, bo jej pojemność cieplna jest za mała w porównaniu z oceanem. Jedyne pomiary, które można uważać w istocie za dowód ogrzewania się Ziemi, to pomiary radiacji wykonywane nad atmosferą oraz sumowanie przyrostu zawartości cieplnej środowiska, a przede wszystkim oceanu, który leży pod atmosferą. Ale czy ktoś obiecywał, że nauka o klimacie będzie trywialnie łatwa?

Jednak ważnym wnioskiem jest to, że te dwie niezależne metody dają wartości globalnego ocieplenia (braku równowagi termicznej Ziemi) mimo, że nieco różne, ale w obu wypadkach statystycznie istotnie różne od trendu zerowego. A mówiąc jeszcze prościej oznacza to, że globalne ocieplenie istnieje, czy się to komuś podoba czy nie.

PS. Ten sam temat przede mną podjął już i RealClimate i Skeptical Science, ale specjalnie tamtych wpisów nie czytałem przed napisaniem mojego, aby się nie dać zasugerować.

[1] Tak, do oceanu, bo wbrew temu, czego chcieliby niektórzy denialiści, pomiary wykluczają możliwość, że to ocean jest źródłem globalnego ocieplenia.

[2] Lyman, J., Good, S., Gouretski, V., Ishii, M., Johnson, G., Palmer, M., Smith, D., & Willis, J. (2010). Robust warming of the global upper ocean Nature, 465 (7296), 334-337 DOI: 10.1038/nature09043

[3] Uwaga dla fizyków: jest to w gruncie rzeczy entalpia, ale oceanografowie najwyraźniej boją się tego terminu jak ognia (pewnie dlatego że oceanografów, nawet tych fizycznych, w przeciwieństwie do fizyków atmosfery, najczęściej nikt termodynamiki nie uczył).

[4] Trenberth, K. (2010). Global change: The ocean is warming, isn’t it? Nature, 465 (7296), 304-304 DOI: 10.1038/465304a

[5] von Schuckmann, K., Gaillard, F., & Le Traon, P. (2009). Global hydrographic variability patterns during 2003–2008 Journal of Geophysical Research, 114 (C9) DOI: 10.1029/2008JC005237

Hits: 216

Subscribe
Notify of
guest

This site uses Akismet to reduce spam. Learn how your comment data is processed.

80 Comments
Inline Feedbacks
View all comments
pohjois
pohjois
13 years ago

Mam wrażenie, że w oceanie mieści się nie 90% a raczej grubo ponad 99% całego gromadzonego ciepła. To co widać w atmosferze, to jedynie odbicie temperatury powierzchni oceanów.

pohjois
pohjois
13 years ago

Nadal mam wrażenie (niepoparte żadnymi obliczeniami a tylko szacunkiem z głowy), że pisząc “Ocean pochłania 90% dodatkowego ciepła pochodzącego ze zwiększającego się efektu cieplarnianego.” zdecydowanie niedoszacowałeś ilości dodatkowego ciepła pochłanianego przez ocean.
Ja stawiam dolary przeciw orzechom (powiedzmy dwa), że to nie jest 90% tylko więcej niż 99%.
Oczywiście mogę się mylić – i chętnie przyznam Ci rację gdy przedstawisz jakieś konkretne oszacowanie albo link do pracy, w której ktoś to zrobił.
Pozdrowienia

pohjois
pohjois
13 years ago

OK.
Zostałem przekonany.

pohjois
pohjois
13 years ago

Nie wiedziałem jaka jest przyczyna wykasowania mnie – jakaś mania antyalkoholowa?
Napisałem, że 2$ są twoje i że jest to mniej więcej równowartość piwa w pubie.
Stawiam przy najbliższej okazji ;-).

doskonaleszare
13 years ago

Możecie zobaczyć, jak zmieniał się kurs zakładu arctic_haze w przeciągu ostatnich kilku miesięcy 😉

http://data.intrade.com/graphing/jsp/closingPricesForm.jsp?contractId=706211&tradeURL=https://www.intrade.com

Interpretując te dane probabilistycznie, na początku rynek dawał arctic_haze 25% szans na wygraną. Jak pamiętacie, już w okolicach 12 stycznia zauważyliśmy, co się dzieje z danymi z AMSU – powszechną internetową wiedzą stało się to jakiś tydzień później, i kurs skoczył o 5 punktów do góry. Kolejny skok miał miejsce w połowie marca, gdy opublikowano dane za luty i powoli do ludzi docierało, że 2010 faktycznie może być najcieplejszym rokiem w historii pomiarów.

Obecnie znacznie więcej można ugrać licząc że rok 2010 nie będzie najcieplejszy 😉

pohjois
pohjois
13 years ago

Ja się nie chciałem zakładać o bicie rekordu.
Jak do tej pory to w GISS się na rekord zapowiada ale w UAH niespecjalnie.
Tak czy inaczej – jak się okazja znajdzie to masz u mnie piwo.
Pozdrowienia

pdjakow
13 years ago

@arctic

Na razie masz szanse i w UAH:
http://www.gfspl.rootnode.net/klimat/uah1.png

Zobaczymy dalej.

doskonaleszare
13 years ago

W RSS i UAH maj 2010 jest drugi w rankingu (po 1998).

DZIOBAS RAR PLAYER
13 years ago

No i bardzo dobrze, że ocean się ociepla. Rybki i żółwie będą miały cieplej. Tylko, że słyszałem, że jak będzie im za ciepło to młode gadziny będą jednopłciowe i nie będą się umiały rozmnażać.

pdjakow
13 years ago

Będzie chyba remis. W UAH średnia miesięczna za ostatnie 12 miesięcy jest zaledwie o 0.005 niższa, niż w 1998.

pdjakow
13 years ago

To fakt – ale jednocześnie również w tym roku spodziewamy się chłodniejszych dwóch ostatnich miesięcy. Ale póki co jest jeszcze dość wysoko:

http://gfspl.rootnode.net/klimat/uahanom.png

pdjakow
13 years ago

Raczej się tego u nas nie stosuje. Przynajmniej nie słyszałem o tym.

A tymczasem rośnie szansa, by listopad był wg UAH cieplejszy niż listopad 1998.

pdjakow
13 years ago

Patrząc po aktualnych danych i wiedząc, że Spencer zrobi korektę w dół w grudniu, strzelam iż UAH w grudniu będzie ledwo w okolicy 0.

Szacując średnią listopada na Blackboard rąbnąłem się bodaj o 0.04.

pdjakow
12 years ago

Ptaszki śpiewają że GISTEMP zabija wartością +0.73 dla listopada. Nie za dużo trochę?

pdjakow
12 years ago

O ile pamiętam, to w zakładzie, do którego nie doszło stało, że większość indeksów miała potwierdzać “rekordowość” 2010 🙂

Nawiasem mówiąc. UAH Spencera miało odchylenie +0.38. Offset dla okresu 1951-1980 względem 1979-1998 to chyba około -0.25, a więc tak naprawdę odchylenie Spencera to 0.38+0.25 = +0.63 dla listopada względem okresu bazowego 1951-1980. Różnica wynosi więc 0.1 – sporo, ale znośnie biorąc pod uwagę to, że Spencer nie ujmuje Arktyki.

pdjakow
12 years ago

Z ccc-gistempa wychodzi mi jednak 0.73 🙂 Bardzo ciekawe. Wygląda na to, że dużo dała ta nieszczęsna Arktyka:
http://data.giss.nasa.gov/cgi-bin/gistemp/do_nmap.py?year_last=2010&month_last=11&sat=4&sst=1&type=anoms&mean_gen=11&year1=2010&year2=2010&base1=1951&base2=1980&radius=1200&pol=reg

Przy ograniczeniu interpolacji do 250 km wychodzi +0.62

http://data.giss.nasa.gov/cgi-bin/gistemp/do_nmap.py?year_last=2010&month_last=11&sat=4&sst=1&type=anoms&mean_gen=11&year1=2010&year2=2010&base1=1951&base2=1980&radius=250&pol=reg

Zobaczymy co na to HadCET, ale wygląda na to, że obejmując jeszcze mniejszy obszar, niż GISTEMP z interpolacją na 250 km, anomalia wg HadCET wyniesie około +0.50 (w stosunku do 1961-1990).

Co do warunków zakładu, gdzieś tam sugerowałeś kilka źródeł, ale nie pomnę już gdzie.

pdjakow
12 years ago

HadCRUT, nie HadCET rzecz jasna.

pdjakow
12 years ago

Oba źródla – NOAA i GISS korzystają z GHCN. Być moze zmiany w bazie GHCN wygenerowały zmiany w anomaliach. A być może NOAA przeszło na GHCN v3, ale wątpię.

pdjakow
12 years ago

Są już dane z Hadley Centre i jest jeszcze mniej, niż myślałem: +0.431

pdjakow
12 years ago

Hej, a gdzie obiecany wpis o blokadach, hm? 😉

pdjakow
12 years ago

Różnica pomiędzy anomaliami nie powinna zależeć od okresu bazowego, to jest raczej jasne. Ważne jest za to, że nawet w satelitarnej serii różnica pomiędzy 1998 a 2010 jest nieistotna statystycznie.

A co z wpisem na temat blokad? Wiem, monotematyczny jestem 😛