Denialiści klimatyczni od dawna tak twierdzą. Co ciekawsze, to samo mówił mi niedawno nawet jeden z polskich klimatologów. A w ostatnich dniach ukazały się dwa artykuły tłumaczące zmniejszenie trendu globalnego ocieplenia po 1998 roku. Tylko czy jest się z czego tłumaczyć?
Przedstawiam poniżej wykres temperatury globalnej w okresie satelitarnym (czyli od 1978 r.). Z kliku dostępnych serii globalnych średnich dla poszczególnych miesięcy wybrałem brytyjską HadCRUT3 (dane dostepne z tej strony), która jest bardziej konserwatywna niż amerykańska GISS, nie interpolując temperatur w obszarach, gdzie nie ma danych, przez co nie obejmuje na przykład większości bardzo szybko ocieplającej się Arktyki. Przez to nie narażam się na oskarżenie o alarmizm. Z drugiej strony nie używam serii UAH, ulubionej przez denialistów. Nawet nie dlatego, żeby pokazywała coś innego niż HadCRUT3, ale dlatego, że jej autor, Roy Spencer (link do jego blogu jest po prawej stronie), zmienia nieustannie wartości całej serii, nie bardzo tłumacząc dlaczego (przez co dane ściągnięte od niego dziś za miesiąc mogą być niezgodne nawet z jego stroną). Okres satelitarny wybrałem, bo wcześniej nie było dobrych danych dla większości oceanów (taki wybór zapewnia bardziej jednolitą serię danych niż rozpoczęcie np. od 1950 roku).
Na wykresie własnej produkcji przedstawiłem anomalię temperatury globalnej (względem okresu bazowego 1961-1990) z danych HadCRUT3 oraz jej trend (czarna przerywana linia). Na wykresie wyróżniono okres 1998-2008 oraz trend dla niego (czerwona przerywana linia). Dekada 1998-2007 r., albo bardziej prawidłowy [1] okres 11-letni 1998-2008 (wyróżniony na rysunku pionowymi szarymi liniami), zdaje się dowodzić jednoznacznie, że od roku 1998 nijakiego globalnego ocieplenia nie uświadczysz (dlatego takie właśnie okresy uwielbiają denialiści). Zamiast wzrostu temperatury o (średnio) 0.15 K na dekadę mamy po 1998 roku nawet niewielki spadek. Czy jednak sprawa jest zamknięta?
Nie jest i to z kilku powodów. Po pierwsze serie czasowe takie jak przedstawiona powyżej HadCRUT3 czy UAH, nie interpolujące wyników w rejonach bez pomiarów, nie pokrywają całej kuli ziemskiej, a akurat wśród tych 20%, których nie pokrywają są najszybciej ogrzewające się obszary arktyczne. Jeśli użyć serii GISS sytuacja nie będzie wyglądała tak optymistycznie (zakładam, że zgadzamy się, że globalne ocieplenie jest problemem), ale należy pamiętać, że wartości interpolowane to wartości mniej pewne niż mierzone. Poza tym wybór okresu tak jak powyżej pomija rekordowo ciepły rok 2010 [2] (denialiści pomijają go z lubością).
Przede wszystkim jednak wybór jest “tendencyjny” z prostego powodu: zaczyna się od lokalnego maksimum i kończy się na lokalnym minimum. Politycy uwielbiają ten trik w przypadku dowodzenia skuteczności (lub nie) rządu danego kraju w rozwijaniu gospodarki. Rozpoczęcie wykresu od dna najnowszej recesji zawsze daje wrażenie dynamicznego wzrostu, a rozpoczęcie od szczytu przed tą recesja wręcz odwrotnie. Na wykresie powyżej, jeśli obciąć okres “czerwony” z każdej strony o rok, pozbywając się lokalnego maksimum i minimum (czyli rozpoczynając od roku 1999 i kończąc w 2007), otrzyma efekcie średni wzrost (trend) nawet szybszy niż w całym okresie satelitarnym (+0.157 w porównaniu z +0.152 K/dekadę) podczas gdy zaznaczony na czerwono trend dla lat 1998-2008 to -0.015 K/dekadę. Czyli znowu z igły widły? Był zresztą o tym nie tak dawno artykuł Easterling i Wehner 2009 [3] pokazujący na danych historycznych i wynikach modelowania, że naturalna zmienność (głównie cykl El Niño – La Niña, ale nie tylko) musi powodować występowanie okresów rzędu dekady o trendzie odwrotnym niż wynikający ze zmiany wymuszeń radiacyjnych, nawet przy ich tak szybkim wzroście jak w ostatnich dekadach. Poprzednio takimi były okresy 1977-1985 i 1981-1989 (patrz rysunek poniżej).

Czy zatem dowodzi to czegoś poza tym, że okresy około 10-letnie są za krótkie aby wyznaczać długotrwałe trendy? Otóż nie są jeśli rozumie się procesy i wymuszenia jakie wpływają na globalna temperaturę (wspomniany na początku polski klimatolog był niestety dawniejszego typu “geograficzno-statystycznego”, który nie zaprząta sobie głowy procesami fizycznymi). Jeśli zauważyć, że prawie wszystkie lokalne maksima to okresy El Niño (okresy ocieplenia wschodniego tropikalnego Pacyfiku), a zimne La Niña (faza przeciwna tego samego cyklu o nieregularnej długości, zwanego też ENSO, jednak zwykle mieszczącej się w przedziale 2-7 lat) to sprawa stanie się mniej tajemnicza. Na przykład rok 1998 to najsilniejsze El Niño w okresie satelitarnym, a 2010 to inne mniejsze (oba te lata były rekordowo ciepłe), natomiast lata 1999, 2008 i 2010 to zimne lata La Niñi (zwyczajem amerykańskim numeruję te zjawiska rokiem, w których pierwszych miesiącach mają swoje maksimum i w którym się kończą; bo wykrywalne są już parę miesięcy wcześniej). Temperatury tropikalnego Pacyfiku wpływają, jak się wydaje, na ilość niskich chmur w całych tropikach (patrz np. Clement et al. 2009 czy Dessler 2010, oba w Science co może tłumaczyć częściowo odpowiada na pytania Trnenbetha, o których pisałem poprzednio), co powoduje, że ENSO jest największym źródłem różnic międzyrocznych temperatur na naszej planecie. Dlatego zaczynanie i kończenie okresów trendów na tych zjawiskach generalnie nie jest najlepszym pomysłem, ale jak tego uniknąć gdy w ostatnich kilku latach zawsze albo El Niño albo La Niña?
W sumie do niedawna uważałem, że “anomalia” trendu ostatniej dekady to wyłącznie efekt ENSO i ewentualnie słońca. Obecność silnego El Niño w 1998 roku oraz słabszego w 2010 i w dodatku otoczonego dwoma dość silnymi (zimnymi) La Niñiami w oczywisty sposób musi powodować, że trendy między tymi datami powinny być znacznie niższe niż trend długoterminowy, a nawet ujemne. Nie widziałem zatem nawet potrzeby szukania innych przyczyn. Ot, poczekamy jeszcze trochę i trend dodatni, wynikający z rosnącego wymuszenia radiacyjnego gazów cieplarnianych będzie musiał wrócić.
I tak może być. Z tym, że (jak zwykle) sytuacja jest tym bardziej skomplikowana im bardziej jej się przyglądamy. Ukazały się ostatnio dwa niezależne artykuły tłumaczące przynajmniej część tego zmniejszenia trendu zmianami koncentracji aerozolu (za resztę przypominam odpowiada zmienność naturalna związana z cyklem ENSO). Nie jest to może takie dziwne biorąc pod uwagę, że aerozol (i chmury) to ciągle jedne z najsłabszych punktów naszej wiedzy o działaniu maszyny klimatycznej na naszej planecie.
Pierwszy z tych artykułów, Kaufmann i inni 2011 [4] (w “ulubionym” przeze mnie PNAS) zwraca uwagę na znane fakty takie jak słabsza niż zwykle aktywność Słońca w ostatnim 11-letnim cyklu oraz opisaną powyżej zmienność związaną z cyklem ENSO, co tłumaczy większą część spadku wartości trendu zmian temperatury po 1998 roku. Tu nie ma niespodzianki. Nowością jest jednak czynnik antropogeniczny, którego nie brano dotychczas pod uwagę: wzmożone spalanie węgla w Chinach. Konsumpcja węgla w Chinach podwoiła się w ciągu 4 lat (2003-2007), a poprzednie podwojenie wymagało 22 lat (1980-2002). Uważny czytelnik zakrzyknie tu “Zaraz, zaraz, przecież spalanie węgla to emisja dwutlenku węgla, najważniejszego antropogenicznego gazu cieplarnianego!”. Czyli powinno to raczej ogrzewać niż oziębiać planetę. I słusznie. Z tym, że na długą metę. Dwutlenek węgla pozostanie w systemie atmosfera-ocean przez tysiące lat grzejąc nas przez ten czas. Jednak jego emisja związana jest z produkcją dymu, czyli bardziej fachowo – aerozolu. A że Chińczycy są opóźnieniu w zakładaniu filtrów na kominy, produkują oni aerozol zawierający dużo siarki. Taki aerozol ma działanie ochładzające planetę (odbijając światło słoneczne z powrotem w kosmos), co wiadomo co najmniej od lat 1970-ch. Aerozol utrzymuje się w atmosferze krótko, zasadniczo do najbliższego deszczu (no chyba, że zostanie wyemitowany aż do stratosfery jak to umieją najsilniejsze wulkany i bomby atomowe – wtedy drobne cząstki mogą unosić się tam nawet parę lat, ale tej sztuki kominy elektrowni nie potrafią). Jednak w tym czasie jego efekt chłodzący może być nawet większy niż tej części dwutlenku węgla, jaka jest z nim wspólnie emitowana [5].

Na rysunku powyżej zaznaczono wymuszenia radiacyjne (lewa oś) i spowodowane nimi zmiany temperatury [6] (prawa oś) dla poszczególnych wymuszeń i ich sum. Przypomnę, że wymuszenie w sensie używanym przez IPCC to różnica w stosunku do okresu przedprzemysłowego. Fioletowa linia to właśnie wymuszenie aerozolu “siarkowego” (ujemna wartość oznacza efekt chłodzący). Zwraca uwagę zwiększenie tego (ujemnego) wymuszenia w drugiej części okresu 1998-2008 (tego samego, o którym pisałem powyżej), zaznaczonego po prawej stronie wykresu przez błękitne tło. Błękitna linia to suma wymuszeń antropogenicznych (czyli gazów cieplarnianych i aerozolu), a prosta, kropkowana błękitna to jej liniowe przybliżenie, pomarańczowa linia to wymuszenie słoneczne, a zielona to wymuszenie ENSO (ponieważ szczegóły działania tego wymuszenia są słabo znane zastosowano po prostu indeks SOI podzielony przez 10, co wydaje się “graficznie” wyborem dość nieszczęśliwym, bo dodatni SOI oznacza wpływ oziębiający i na odwrót). W końcu czerwona linia to suma wszystkich wymuszeń, a czarna to obserwowane zmiany temperatury.
Widać, że zmiany ENSO dominują – proszę wyobrazić sobie zieloną linię ze zmienionym znakiem (odbitą poziomo w lustrze) i porównać ją z czarną kreską temperatury. W drugiej części okresu “błękitnego”, czyli od roku 2002, efekt zmian ENSO (zielony wykres z “odwróconym” znakiem), słońca (pomarańczowy) i aerozolów siarkowych (fioletowy) jest co do znaku jednakowy: wszystkie ciągną w dół. Autorzy oceniają ten ostatni jako najmniejszy, ale jest to efekt mierzalny. Zmiana wymuszenia związanego z aerozolem siarkowym po 2002 roku ma wynosić 0.03 W m-2. Tłumaczyłoby to spadek temperatury o około 0.01 K czyli 1/15 spadku trendu w tym okresie (efekt spadku aktywności słońca oceniają na 6 razy większy, resztę spadku przypisując ENSO).
Nawet ciekawszy wydał mi się drugi z omawianych artykułów z ostatnich tygodni, Solomon i inni 2011 [7] z Science. Ciekawszy, bo dotyczy aerozolu stratosferycznego, właśnie tego, który w wyniku braku opadów w górnych warstwach atmosfery jest w stanie unosić się nawet latami. Wiemy to z obserwacji grubości optycznej atmosfery (znowu to pojęcie!) po dużych wybuchach wulkanów, szczególnie po największym odkąd mierzymy tę wielkość, czyli Pinatubo na Filipinach w 1991 roku. Dotychczasowy stan wiedzy wskazywał, że taki wybuch, powodujący wstrzykniecie do stratosfery olbrzymich ilości związków siarki, powodował znaczące globalne oziębienie (w przypadku Pinatubo -0.3 K wkrótce po eksplozji), stopniowo wracające “do normy” w ciągu kilku lat. Uważano jednak, ze mniejsze wulkany nie są w stanie emitować pyłu do stratosfery, są zatem pomijalne w sensie klimatycznym. I tu pierwsza niespodzianka. Solomon i inni pokazują, na podstawie pomiarów lidarowych dokonywanych z satelity (lidar to optyczny odpowiednik radaru używający lasera jako źródła światła), wyraźny wzrost grubości optycznej (przynajmniej regionalny) po czterech “małych” wybuchach wulkanów z lat 2006-2010.

Na powyższym wykresie kolory oznaczają intensywność rozpraszania (właściwie tzw. “stosunek rozproszeń” czyli stosunek całkowitego rozpraszania wstecz do rozpraszania na samym powietrzu – czyli “rayleighowskiego” – którego wartość da się wyliczyć teoretycznie). Oś pionowa to szerokość geograficzna (dodatnie wartości to półkula północna), a pozioma to czas. Numerami zaznaczono czas i szerokość geograficzną czterech wybuchów wulkanów. Bez wątpienia wpływają one na wartość “tła” aerozolowego na dużej części planety przez całe miesiące (pięknie na przykład widać jak pył wulkanów 1 i 2 rozchodzi się od równika w obie strony na północ i południe). Czyli większa ilość takich słabych wulkanów w danej dekadzie musi prowadzić do jej ochłodzenia w stosunku do dekad sąsiednich, nawet gdy w żadnej z nich nie ma “dużego” wulkanu.
Jednak czy ilość aerozolu w stratosferze rzeczywiście zmienia się między dekadami? Otóż tak i są na to aż cztery niezależne dowody. Trzy z nich pochodzą z pomiarów górze Mauna Loa na Hawajach na wysokości tak dużej, że w przybliżeniu wszystko co powyżej można uznać za aerozol stratosferyczny (no może nie całkiem, ale wybierano dni o najniższych wartościach grubości optycznej dla zminimalizowania wpływu wyższych warstw troposfery). Te trzy to dwa różne instrumenty mierzące grubość optyczną atmosfery z jasności tarczy słonecznej i naziemny lidar. Czwartą serią pomiarową są globalne wartości stratosferycznej grubości optycznej mierzone “od góry” z lidaru satelitarnego. Poniższy rysunek z artykułu podsumowuje je wszystkie.

W wartościach najdłuższej z tych serii – pomiarów transmisji poprzez atmosferę – widać dwa najnowsze “wielkie” wybuchy wulkanów, El Chichon (Meksyk) z 1982 i Pinatubo z 1991 roku. Środkowy panel to pomiary grubości optycznej od 1994 roku (trzy przyrządy z Mauna Loa i pomiary satelitarne). Widać wzrost średniej wartości po roku 2000. To samo potwierdzają wyniki globalne (dolny panel). Jest to istotne, bo w modelowaniu klimatycznym stosuje się wartości stratosferycznej grubości optycznej osiągające zero już w kilka lat po wybuchu Pinatubo (linie oznaczone jako GISS i Ammann et al na dolnym panelu). Oznacza to (według autorów artykułu), że od końca lat 1990 nie bierzemy pod uwagę wymuszenia radiacyjnego odpowiadającego oziębieniu o -0.07 K. A to już nie są żarty. To połowa “brakującego” ocieplenia w ostatniej dekadzie. Czyli w sumie aż za dużo, bo jeśli uwzględnić wartości jakie Kaufmann i inni (2011) przypisują zmianom wymuszeń przez aerozol troposferyczny i aktywność słoneczną, to nie zostaje nic dla ENSO. A przecież widzieliśmy, że to najważniejszy czynnik zmian międzyletnich, od wartości którego, w latach rozpoczynających i kończących serie czasową o dekadalnej długości, zależy nawet czy obserwujemy trend ocieplenia czy nie. Częściowo da się to wytłumaczyć tym, że te wymuszenie “tła” aerozolowego, odpowiadające oziębieniu -0.07 K zdaniem autorów narastało od lat 1960-ch, ale w okresie dużych wybuch w wulkanów i kilka lat po nich było przez nie zamaskowane. Czyli nie jestem pewny jak je rozłożyć na te kilka dekad po drodze. Jak to się pisze w artykułach “wymaga to dalszych badań”.
Czyli znowu nie wszystko wiemy? No, właśnie. Nikt nie obiecywał, że nauka o klimacie to obserwacyjnie najłatwiejsza gałąź nauki. A na pewno nie jest to gałąź martwa (czyli taka gdzie już wszystko odkryto). Jednak dla mnie, nawet bardziej prawdopodobne niż błędy pomiarowe jest, że nadal nie uwzględniamy wszystkich czynników naturalnej zmienności. Mówiliśmy tu o międzyletniej zmienności związanej z ENSO, ale istnieje też międzydekadowa zmienność związana ze zmianami głębinowej (dokładniej termohalinowej) cyrkulacji oceanicznej. Zwykle mierzy się ją pośrednio przez temperaturę grzanego przez nią Północnego Atlantyku. A ta w latach 1990-ch była szczególnie wysoka, co musiało wpłynąć na temperaturę globalną z definicji (stanowiąc jej integralną część).
I w tym kontekście wróciłbym do rysunku z początku tego wpisu. Dla mnie najciekawszym naukowo pytaniem nie jest – dlaczego trend temperatury po roku 1998 był tak niski? Jest na to wiele powodów wyliczonych powyżej. Naprawdę ciekawe jest to, dlaczego pierwsza polowa lat 2000-ch była tak ciepła, wyraźnie wykraczając ponad trend wieloletni? Bo była. Jeśli z tych samych danych (HadCRUT3) policzyć różnice średnich wartości globalnych dla całych sąsiednich dekad (zdefiniowanych klasycznie jako kończące się na roku z zerem na ostatniej pozycji) to różnica pomiędzy latami 1980-mi i 1990-mi wynosi +0.144 K (prawie tyle ile wynika z trendu długoterminowego). Ile zatem wynosi różnica między latami 1990-mi a tymi “zimnymi” 2000-mi? Czy będzie to wartość ujemna? Absolutnie nie. Różnica ta to +0.192 K. Tak jest, różnica miedzy latami 1990-mi a 2000-mi była większa niż pomiędzy poprzednimi dwoma dekadami i większa niż trend długoterminowy. Proponuję zastanowić się nad zdaniem “Globalnego ocieplenia nie ma od 1998, ale lata 2000-ne były cieplejsze od poprzedniej dekady i to o większą wartość niż wynika z trendu”. Absurd? Tak, absurd. Czyli mamy odpowiedź na tytułowe pytanie. Nie dość, że globalne ocieplenie nie skończyło się w 1998 roku, ale następna po nim dekada była rekordowo ciepła, tak ciepła że właściwie nie wiemy dlaczego. I chociażby dlatego warto zajmować się klimatologią.
Przypisy:
[1] Wybór okresu 11-letniego dla średnich temperatur pozwala na usuniecie cyklu aktywności słonecznej o takiej w przybliżeniu długości.
[2] Na oko tego nie widać (dane są wartościami miesięcznymi i trzeba je “optycznie” uśrednić do całych lat) ale w żadnej znanej mi serii czasowej, łącznie z przedstawioną powyżej nie ma roku cieplejszego niż 2010. Co ciekawe 2010 wygrał lub zremisował (w granicach błędu pomiarowego) z rokiem 1998 w HadCRUT3 i UAH oraz z rokiem 2005 w GISS. Różnica zdania co do poprzednio najcieplejszego roku wynika właśnie z decyzji co do przestrzennej interpolacji danych.
[3] Easterling, D., & Wehner, M. (2009). Is the climate warming or cooling? Geophysical Research Letters, 36 (8) DOI: 10.1029/2009GL037810
[4] Kaufmann RK, Kauppi H, Mann ML, & Stock JH (2011). Reconciling anthropogenic climate change with observed temperature 1998-2008. Proceedings of the National Academy of Sciences of the United States of America, 108 (29), 11790-3 PMID: 21730180
[5] Można by się nawet cieszyć z tej chińskiej “geoinzynierii” chłodzącej naszą planetę gdyby nie tragiczne skutki tego dymu dla życia w Chinach, gdzie gęsto zaludniona wschodnia część kraju pokryta jest brązowym smogiem przez większość roku.
[6] Zwraca uwagę niska czułość klimatu na wymuszenie radiacyjne, 0.3 K W-1 m2, wynikająca z podzielenia przez siebie wartości na obu pionowych osiach, co oznaczać ma zapewne że autorzy mają na myśli zmiany w przeciągu zaledwie kilku lat. Przypominam, że ze względu na olbrzymią pojemność cieplną oceanów ogrzanie naszej planety (i o jedynie w sensie dolnych warstw atmosfery, które jednak mają styczność z oceanem) trwa dość długo, czyli im dłużej poczekamy tym większy efekt temperaturowy będzie miało to samo wymuszenie radiacyjne (o ile działa trwale).
[7] Solomon S, Daniel JS, Neely RR 3rd, Vernier JP, Dutton EG, & Thomason LW (2011). The persistently variable “background” stratospheric aerosol layer and global climate change. Science , 333 (6044), 866-70 PMID: 21778361
Hits: 2397
Hmm gwoli ścisłości mi wychodzą nieco inne liczby. Po pierwsze HadCRUT najcieplejszy jest w dalszym ciągu 1998, przynajmniej tak wynika z http://www.metoffice.gov.uk/hadobs/hadcrut3/diagnostics/global/nh+sh/
Przy czym nie jest to różnica powalająca, bo wynosząca 0.018 stopnia, a więc w zakresie błędu obliczeń.
Natomiast różnica pomiędzy ostatnimi dekadami wychodzi mi równo +0.2.
Napisałem komentarz, ale albo go nie wysłało, albo jest w moderacji. W każdym bądź razie gwoli ścisłości, HadCRUT3 daje jednak rok 1998 cieplejszy od 2010, z tym że różnica jest minimalna (0.01 z kawałkiem). Natomiast różnica pomiędzy ostatnimi dekadami wyszła mi na poziomie 0.2.
Tak, te różnice były minimalne. Pisałem o tym u siebie ale w komentarzach (a propos zakładu, który wygrałem). Pewnie trzeba będzie jednak poprawić tekst.
Ciekawe, ze wyszła Ci inna różnica. Musze sprawdzić czy przypadkiem moje lata nie zaczynały się od grudnia 😉 Jeśli tak to przeliczę i tez poprawię.
@pdjakow
Mógłbyś sprawdzić moje dane. Robiłem trochę ręcznego copy-paste i mogłem się gdzieś rąbnąć. Moje dekady zaczynają się od stycznia roku z jedynką na końcu (np. styczeń 1981 – grudzień 1990). W załączonym pliku kolejne kolumny to
– dekada 1981-1990
– dekada 1991-2000
– dekada 2001-2010
– średnie anomalie dla dekad
– różnice między nimi
A plik (txt) jest tutaj.
To jest HadCRUT? Dane są zbliżone, ale jednak się różnią od http://www.metoffice.gov.uk/hadobs/hadcrut3/diagnostics/global/nh+sh/monthly
Mamy jakieś rozbieżne źródła 😉
Już sam wiem. Użyłem “variance adjusted HadCRUT3”. Błąd kliknięcia w złej linijce 🙁 A ponieważ “global and regional time-series should be calculated using unadjusted data” wiec przeliczę wszystko jeszcze raz i poprawię we wpisie. Różnice nie będą duże ale trzeba to zrobić.
Dwa interesujące wpisy na bardzo podobny temat można znaleźć na blogu Open Mind.
W tej notce Tamino uwzględnia wpływ różnych wymuszeń na globalną temperaturę i pokazuje, że po ich uwzględnieniu rozbieżności między różnymi seriami danych bardzo się zmniejszają:
http://tamino.wordpress.com/2011/01/20/how-fast-is-earth-warming/
W tej notce z kolei rozprawia się z badaniem trendów na danych pochodzących z krótkich okresów
http://tamino.wordpress.com/2011/07/16/trend-and-noise/
Nawiasem mówiąc ta pierwsza notka stała się podstawą do przygotowania artykułu – Tamino pisał w komentarzach, że pod koniec lipca miał mieć gotowy artykuł.
P.S. Długo trzeba było czekać na kolejną notkę…
Oni tam mają trochę nakopane. Można się jeszcze spierać, czy używać (nh+sh)/2, czy “simple area weighted”. Stosunkowo rzadko spoglądam na HadCRUT, bo publikują dane ze strasznym opóźnieniem.
Obawiam się, że jak wejdzie HadCRUT4, pewne rzeczy ulegną zmianie i podniosą się głosy o oszustwach. Z pewnością uwzględnią tam ten błąd z oceanami z lat 40-tych.
Poprawiłem w artykule ale ciągle mamy różnicę. Poprawki wyszły minimalne
Trzy trendy o jakich piszę w starej i nowej wersji to:
+0.151 +0.152 cały okres satelitarny
+0.145 +0.157 dla 1999-2007
-0.010 -0.015 dla 1998-2008
Ale tu jest ciekawy punkt. Trend dla 1999-2007 wyszedł nawet większy niż dla okresu satelitarnego (co jeszcze wzmacnia moje konkluzje). Poprawiłem tekst aby to zaznaczyć.
Różnice dekad w starej i nowej wersji:
+0.141 +0.144 lata 1990-te minus 1980-te
+0.189 +0.192 lata 2000-ne minus 1990-te
Obie różnice podniosły się o 0.003. Ciekawe.
Rysunku jeszcze nie wymieniłem ale nawet jeśli wymienię to nikt nie zauważy – takie małe różnice.
:
@pohjois
Ja z tego artykułu nie zrobię bo pierwszy nie jestem. Ale chętnie przeczytam co zrobił Tamino.
I nie narzekaj, że długo nie pisałem, jak już pisze bo to… nieaktualne.
Mam listę sześciu tematów na blog. Oby tylko czasu starczało.
Możemy mieć różnice, bo ja poszedłem na skróty i sprawdzałem średnie roczne 😉
Nawiasem mówiąc tu masz GISTEMP przeliczony przez ccc-gistemp dla okresu bazowego 1981-2010
http://gfspl.rootnode.net/klimat/cccgis.txt
Ten błąd z 1945 roku ma być poprawiony w HadSST3. Podejrzewam, że nie jest to takie proste i dlatego przygotowanie go trwa tak długo.
Właśnie szukam czy o tym pisałem na blogu. Na pewno w komentarzach tu lub na Doskonale Szare ale chyba nie we wpisie.
Trzeba to będzie kiedyś naprawić.
I jeszcze jedno. Nikt nie czyta chyba moich wpisów uważnie. Dwukrotnie nazwałem trend dla lat 1998-2008 zielonym a w rzeczywistości to czerwona kreska (już poprawiłem). I nikt nie zwrócił na to uwagi, a podobno czytało ten wpis prawie 100 osób…
To proste, każdy patrzy na tekst i widzi go jako “czerwony” bo to jest na obrazku. Ja na przykład dałbym sobię głowę uciąć, że było tam wcześniej “czerwony” 🙂
Sześć pełnotłustych notek – to brzmi nieźle.
Czekam zaciekawiony.
A co do tego pytania, dlaczego ostatnia dekada była tak ciepła, to swego czasu natknąłem się na czyjeś twierdzenie, iż czułość klimatu została znacznie niedoszacowana i wynosi blisko 8 stopni. Sądzę jednak, że to druga strona skrajności – coś jak twierdzenie, że wynosi ona 1.2 stopnia.
No tak, ale przecież czułość klimatu nie była większa 10 lat temu niż dzisiaj. Prawa fizyki się nie zmieniły, ani nasza planeta (w dłuższej skali czasu czułość klimatyczna może się zmienić wraz ze zmianami kształtu kontynentów itp.).
Ja jednak myślę, że to zmienne w skali dekadalnej strumienie ciepła z atmosfery do oceanu. Ten “ciepły” okres zazębia się z okresem gdy oceany wolniej niż zwykle się ogrzewały. Ale to temat na inny wpis.
Przeczytałem właśnie swój pierwszy komentarz i zauważyłem, że właściwie pominąłem w nim najważniejsze przesłanie polecanej notki Tamino.
Otóż Tamino pokazał, że gdy z dane temperaturowe zamodeluje się explicite jako sumę najważniejszych czynników, czyli ENSO, wulkany i zmiany stałej słonecznej oraz rosnącego trendu liniowego, to dostaje się bardzo piękną zgodność między wszystkimi seriami danych, trend wyliczony z takiego modelu jest dla różnych serii danych niemal identyczny. Co więcej model równie dobrze opisuje ostatnią dekadę jak poprzednie. Wniosek jest bardzo prosty – obserwowane temperatury są doskonale zgodne z trendem rosnącym o wartości mniej więcej 0.17 K/dekadę.
Tamino pracował na serii danych zaledwie trzydziestoparoletniej. A to za mało aby zauważyć zmienność o cyklach dłuższych, naturalną czy nie.
A suma wymuszenia gazów cieplarnianych i aerozolu to na pewno nie trend liniowy. Szczególnie aerozol.
Lean i Rind mieli dwa artykuły, w których robili podobną multiregionalne ale dodali wymuszenie antropogeniczne jako dodatkowe zadane wymuszenie. I widać u nich wyraźnie (w serii czasowej wymuszenia antropologicznego) to minimum koło lat 1970-ch spowodowane zadymieniem. Tamino ma trend liniowy właśnie dlatego, że bierze za krótki okres, od końca lat 1970-ch.
Ja nie widzę sprzeczności. Po prostu po uwzględnieniu podstawowych wymuszeń reszta jest na tyle mała, że nie powoduje systematycznych odchyleń od trendu.
A wspomniane przez Ciebie wymuszenia od aerozoli wulkanicznych z małych erupcji są zapewne znacznie mniej zmienne, więc wymuszenie od nich po prostu zmienia bazę, ale nie koryguje trendu.
Poza tym – czy cykle dłuższe to nie jest jakiś mit wprowadzany przez denialistów, żeby nie przyznać, że jest ocieplenie? Ja nie śledzę literatury tylko jej odbicie na blogach (klimatologia to nie moja działka) i takie odniosłem wrażenie…
Ja nie myślę o małych wulkanach a raczej o widocznym w globalnej temperaturze cyklu 65-70 letnim, który albo jest efektem cyklu zmienności termohalinowej cyrkulacji oceanicznej o tym samym okresie (to kuszące ale trzeba jeszcze znaleźć mechanizm fizyczny) albo artefaktem. Tego nie wiadomo bo mamy mniej niż dwa cykle w danych instrumentalnych (meteorologia globalna ma jakieś 150 lat).
A na zauważenie takiej zmienności 35 lat to akurat tyle aby wziąć rosnącą połowę cyklu za część liniowego trendu 😉
Dodam jeszcze, że jeśli ten “cykl” w globalnej temperaturze to przypadek (co nie jest wykluczone) to przynajmniej jego cześć to zmiany koncentracji aerozolu ale antropogenicznego. Przełom wieku XIX i XX: wzrost przemysłowy; od pierwszej wojny do lat trzydziestych spadek (wojna i wielki kryzys); po drugiej wojnie znów wzrost przemysłowy; od lat 1970-ch zmniejszanie zadymienia spowodowane świadomością ekologiczną a od paru lat nowe ‘chińskie” zadymianie. Może nie jest to cykl o okresie dokładnie 65 lat ale nieźle takowy przypomina.
Co gorsza cyrkulacja termohalinowa miała prawie identyczną historię zmienności w XX wieku (o ile wiemy bo to też w większości rekonstrukcja na podstawie temperatur powierzchniowych Północnego Atlantyku). Przypadek? Nie wiemy.
O tym właśnie myślałem pisząc, że zajmowanie się tymi zagadnieniami jest nadal takie ciekawe.
Jakiś czas temu wspominałem Boryczkę. Ten to się w cyklach wręcz zakochał. Cytata:
“Na przykład coraz cieplejsze zimy
w Warszawie – o 1,03oC/100 lat w latach 1779-1990 są efektem nałożenia się kilku
okresów: 3,5; 5,5; 8,3; 12,9; 18,0; 38,3; 66,7; 113,1; 218,3 lat.”
Jakim cudem Boryczka wykrył cykl o długości 218 lat, nie jest do końca jasne. Dane meteorologiczne jeśli są, to sprzed początku XX wieku najczęściej obarczone są sporymi błędami. Żeby właściwie ocenić, czy cykl istnieje, powinno się ich pokazać kilka. Tego warunku nie spełnia żaden cykl dłuższy od 50 lat.
Cykle maja sens jeśli rozumiemy ich fizyczną przyczynę (choćby w zarysie). Np. cykle aktywności słońca albo cykle wymiany ocean atmosfera ENSO). Ale takie żonglowanie cyklami to czysta statystyka. Ciekawe czy chociaż sprawdził czy te cykle są statystycznie istotne. Bo założę się, że większość nie jest.
Ale zaskoczę Cię, bo ten cykl koło 200 lat ma lepsze podstawy naukowe niż większość innych przez niego wymienianych. Ma nawet nazwę (Suess) i jest to cykl 208-letni widoczny w grubościach słoi drzew, a także w osadach morskich i jeziornych (jednak pomiary meteo to nie wszystko).
Przypisywany jest aktywności słońca podobnie rzekomy cykl ok. 2200 lat a nawet niedawno postulowany (Xapsos i Burke 2009) jeszcze dłuższy cykl 6 tysięcy lat! Nawiasem mówiąc oni też mieli mniej niż dwa cykle paleodanych (11360 lat) aby go “wykryć”.
Moje źródła to Dean 2000 “The sun and the climate” (fact-sheet USGS dostępny w Internecie http://pubs.usgs.gov/fs/fs-0095-00/fs-0095-00.pdf) oraz Xapsos i Burke 2009 “Evidence of 6 000-Year Periodicity in Reconstructed Sunspot Numbers” Solar Phys. 257: 363–369, doi:10.1007/s11207-009-9380-3M
Dodam jeszcze, że denialisci po prostu kochają takie cykle (co nie znaczy, że ich w ogóle nie ma) bo za ich pomocą można “wytłumaczyć” wszystko, przy pewnej dozie (zwykle dużej) machania rękami.
Oto jeden z bardziej zabawnych przykładów:
http://climatechangeskeptic.blogspot.com/2007/06/208-year-solar-cycle.html
Jasne, cykl 208 letni może być sobie widoczny w słojach drzew. Tyle, że jakie ma to przełożenie na pomiar instrumentalny? Dlaczego Boryczka wymienia “cykl około 180 letni” i wskazuje jego okres na 218 lat w Warszawie, ale tylko 168 w Krakowie i 144 w Genewie? Podobnie jest z innymi cyklami przez niego wymienianymi. Po za tym jak może przełknąć bzdurę iż (wg niego) stopień ocieplenia stycznia we Wrocławiu to 1.1 stopnia/100 lat, zaś w pobliskiej Pradze tylko 0.04 stopnia/ 100 lat… W lipcu jego trendy dla tych miast mają wręcz znak przeciwny.
Zgadzam się, że to nie brzmi poważnie. Może nie aż tak oryginalnie jak w blogu, który zlinkowałem, który twierdzi, że obecne ocieplenie da się “wyjaśnić” tym, że jesteśmy 5 cykli 208 lat po suszy z roku 925 n.e., która wg. autora blogu wykończyła Majów (ciekawe tylko co robiły 4 cykle po drodze, które nikogo nie wykończyły i dlaczego nie uwiędliśmy z suszy już w 1965 roku bo 925 + 5*208 = 1965).
Hmmm… a pełnotłustych notek brak… 😛
Anyway – Zasięg lodu arktycznego puknie na dniach poniżej 5 mln km^2. Tym samym jesteśmy już zaraz po za podium (4 miejsce) i uparcie pniemy się w górę. Obstawiam srebro.
Mnie bardziej przekonuje R.Spencer.pozdrawiam.
A co, Spencer twierdzi, że skończyło się ocieplać? Akurat nie. Zacytuję z jego blogu:
“Do we deny global warming? No, we believe it has indeed warmed in the last few hundred years, just like it did before the Medieval Warm Period around 1000 AD“. Czyli w kwestii tego wpisu raczej by się ze mną zgodził.
Więc do czego przekonuje Cię Spencer, św. Mikołaju?
Ma inne spojrzenie na sprawy klimatu ,w ktorych twierdzi tak ja rozumiem ze czlowiek ma znikomy wplyw na zmiany klimatyczne .
Ze Spencerem w paru punktach bym się nie zgadzał. Ale żaden z nich nie dotyczy powyższego wpisu. Pytałem bo jestem ciekaw czy w ogóle rozumiesz co twierdzi Spencer?
Szczególnie, że na doskonaleszare twierdziłeś, że globalnego ocieplenia nie ma w ogóle. A akurat tego Spencer nie twierdzi.
Spencer jest zresztą zwolennikiem “Inteligentnego Projektu”. Nie wiem, czy w tej idei jest miejsce na GO.
Spencer i “Inteligentny projekt”. Rzeczywiście. I jeszcze miesza politykę z nauką. Przestałem właściwie czytać jego blog gdy cześć naukowa stała się dodatkiem do wyrażania poglądów o innych rzeczach.
Pomogę św. Mikołajowi bo najwyraźniej nie wie za co konkretnie lubi Spencera. Mianowicie ja jego poglądy o “wewnętrznych wymuszeniach” uważałem za ciekawe. Niestety nie był w stanie sprecyzować ich na tyle aby napisać artykuł naukowy. Może dlatego, że jeśli w tym pogrzebać to widać, że chociaż część zmienności temperatury w XX wieku może być związana z cyrkulacja oceaniczną (podobny okres i faza zmian) to trendu rosnącego tym wyjaśnić się nie da w żaden sposób. To wynika chociażby z prawa zachowania energii: ocean może pobierać ciepło z atmosfery w różnym tempie w skali dekadalnej wpływając na temperaturę tejże atmosfery (w sensie jej wolniejszego lub szybszego wzrostu). Ale aby wyjaśnić tym sam rosnący trend należałoby założyć, że ocean cały czas traci energię na rzecz atmosfery a to nijak się nie da pogodzić z wzrostem temperatur wód oceanicznych.
Widać z jego blogu, że Spencer cały czas nad tym myśli (proszę zwrócić uwagę na wszystkie jego wpisy o tempie ogrzewania się oceanu na różnych głębokościach) ale gdyby coś z tego myślenia wynikało to już napisałby o tym artykuł naukowy. Tzn. może i coś z tego wynika, ale widać wnioski nie pasują Spencerowi do jego ideologii.
Wiem, że pogoda to nie klimat (żeby było śmieszniej dziś mi o tym przypominał dziennikarz z Wyborczej) ale rekordów ciepła ostatnio bardzo dużo.
W Anglii najcieplej od 1895 roku:
http://www.dailymail.co.uk/news/article-2042838/UK-heatwave-Hottest-end-September-1895-Temperature-soars-28C.html
A w północnych Włoszech najgoręcej nawet od początku pomiarów meteorologicznych w 1753 i to w całym wrześniu:
http://www.corriere.it/scienze_e_tecnologie/11_settembre_30/settembre-caldo-record_3da5be5e-eb73-11e0-bc18-715180cde0f0.shtml
(uwaga: po włosku ale co nieco można zrozumieć nawet bez translate.google.com).
Ciekawe kto i czym mierzył temperaturę w Turynie już w 1753 roku. To musi być chyba jedna z najdłuższych serii czasowych temperatury w Europie (czyli i na świecie).
Seria z Turynu.
http://www.zamg.ac.at/histalp/downloads/SM/HISTALP-T01-TOR.zip
Może to kogoś zainteresuje, że Światowa Organizacja Meteorologiczna przewiduje, że obecny rok 2011 będzie 10-ty najcieplejszy w historii pomiarów.
Nie brzmi to na wiele ale mamy obecnie rok w miarę silnej La Ninii, a zwykle są to lata zimne.
Wiadomość podaję za dzisiejszym Nature, które zamieściło o tym krótka wzmiankę:
“Warmest La Niña This year is set to be the tenth warmest since records began in 1850, the World Meteorological Organization (WMO) said on 29 November. But it will also be the hottest year to have experienced a strong La Niña event — the natural cycle in which temperature falls over vast areas of the sea surface in the equatorial east-central Pacific Ocean. The WMO used figures up to October from three data sources to make its projection.“
http://www.bibliotekacyfrowa.pl/Content/27265/Integracja_gospodarcza_w_rozszerzonej_UE_25.pdf
Mogę prosić o jakiś szybki komentarz do tej produkcji. W szczególności do twierdzenia:
“Należy zauważyć, że przypisany CO2 procent odpowiedzialności za efekt cieplarniany dotyczy 2 900 miliardów ton CO2, a odpowiedzialność człowieka za efekt cieplarniany w wyniku wprowadzenia 24 mld tonCO2 można oszacować na ( 0,07 – 0,2)%, a więc poza błędem szacowania”
oraz:
Do zbliżonych i dokładniejszych wyników można dojść ograniczając się tylko do terytorium Polski. Wiadomo, że 1hektar lasu asymiluje rocznie ok. (130…250) ton CO2. Z kolei 1 km2 lasu asymiluje rocznie ok. (13…25)·103 ton CO2 – do dalszych szacunków przyjęto 20·103 ton CO2. Stąd do całkowitej asymilacji 208 mln ton CO2 potrzeba (208·106 ton CO2 : 20·103 ton CO2/km2) ≈ 10·103 km2 lasów. Współczynnik lesistości, czyli stosunek powierzchni zalesionej do całej powierzchni Polski jest równy 0,3. Stąd powierzchnia lasów w Polsce jest równa: 0,3·314·103 km2 ≈ 94·103 km2. Jak z tego wynika do całkowitej asymilacji 208 mln ton CO2 należy zwiększyć powierzchnię lasów o (10·103 km2: 94·103)·100% ≈ 11% ; współczynnik lesistości wzrósłby do wartości 0,33. Asymilację odpowiadającą zmniejszeniu emisji o 20% można osiągnąć zwiększając powierzchnię lasu o 2,2%”
PS. “Walczę” trochę z denialistami z Nowego Ekranu
Komentuję. Po pierwsze podany tam strumień CO2 za morza do atmosfery jest totalnym nieporozumieniem. Morze i atmosfera wymieniają w obie strony olbrzymie ilości CO2 (w różnych miejscach i porach roku) ale strumień netto wynosi około 2 Gt węgla rocznie z atmosfery do morza. A skąd inaczej by się brało (mierzalne) zakwaszenie oceanu?
Zupełnie podobnie z 400 mld ton CO2 jakie absorbuje roślinność lądowa (nawiasem mówiąc naukowcy wola mówić o masie węgla, a to ponad 3 razy mniej). Znowu netto węgla roślinność lądowa absorbuje ok. 2 Gt węgla (czyli 6 mld ton CO2). Różnica wynika z tego, że roślinność jest zjadana przez zwierzęta, grzyby i bakterie a to uwalnia CO2 z powrotem do atmosfery.
Stąd te olbrzymie liczby “naturalnych” emisji CO2. Oczywiście zanim zaczęliśmy my spalać paliwa kopalne, naturalne emisje były netto zerowe, a nawet lekko ujemne bo przez ostatnich 50 mln lat koncentracja CO2 w atmosferze głownie spadała. Przez ostatnie 200 lat nadrobiliśmy kilka milionów lat naturalnego trendu spadkowego.
Mam nadzieję, że trochę pomogłem.
Dziękuję za komentarz. Z lasami pomógł mi też perfectgreybody.
BTW. Obalenie obalenia teorii względności za pomocą teorii względności. Sama radość! 🙂 Będę tu zaglądał częściej.
Wiosna ma być ciepła. Nawet bardzo.
Ale to nie jest efekt globalnego ocieplenia. A przynajmniej nie bezpośrednio. To skutek suchej jesieni i małej ilości śniegu zimą. Po prostu jest sucho. A susze zwykle wiążą się z dodatnimi anomaliami ciepła. Co nie jest trudne do zrozumienia jeśli się zauważy, że parowanie chłodzi a zarazem wytwarza chmury (też chłodzące) a suchsza ziemia to mniej parowania.
Na razie wychodzi na to, że to był Prima Aprilis:) Ja z całą pewnością nie mam Pańskiej wiedzy, ale wydaje mi się, że pominął Pan jeden aspekt suchości: wilgoć (para wodna, chmury) chroni też przed ucieczką ciepła, czyli to że jest sucho może też powodować (częściowo) to, że jak na razie jest zimno:) A przy okazji, mieszkam sobie w okolicach Kalisza i Konina, za wyjątkiem stycznia od sierpnia jest u nas koszmarnie sucho, jeśli ta susza się przedłuży (na razie nie ma intensywnego parowania, wegetacja dopierp rusza) będzie chyba tragedia, ciekawi mnie więc jakie są prognozy?
To nie mój pomysł. Od paru lat uważa się, że za letnie fale upałów odpowiedzialna jest w dużym stopniu (niska) wilgotność gleby. Coś jak na 10-ej stronie tej prezentacji: http://www.health.vic.gov.au/environment/downloads/mcgregor_presentation.pdf
Ale chodzi tu bardziej o letnie upały bardziej niż wiosenne anomalie pogody. Czyli może nie będzie to działało w kwietniu ale później powinno.
A literatura tego tematu zaczyna się co najmniej od Seneviratne et al. 2006, http://dx.doi.org/10.1038/nature05095 Jeśli potrzebujesz więcej nowszych cytatów to służę (samymi PDF-ami artykułów też – ale wtedy napisz mailem).
No i chyba się zaczyna sprawdzać, co prawda prognozy długoterminowe wskazują na ochłodzenie ale na krótkie. Czyli, to jest mój prywatny wniosek-suchość sprzyja skrajnością, zależnie od napływu mas powietrza, niemal jak na pustyni:) Co do suszy – w moim regionie (Konin) od lutego wskaźnik SPI jest ujemny a roślinność zielona, ale może to przez opóźnienie wegetacji przez lutowe mrozy??
A konkretniej wskaźnik SPI jest ujemny niemal przez cały 2011 za wyjątkiem trzech miesięcy oraz od lutego 2012 już dość mocno ujemny.
Jedną falę upałów z rekordami temperatur już mieliśmy nie tylko u nas ale w dużej części Europy tej wiosny (pdjakow pisał o tym na swoim blogu i na doskonaleszare), czyli mogę chodzić w glorii sławy, że znowu mi się udała prognoza. Ale to tylko proste zastosowanie wiedzy o procesach klimatycznych i… prawach fizyki.
A jeśli spojrzeć na mapkę klika komentarzy w górę (która jest żywym linkiem a nie kopią – a zatem zawsze jest aktualna) widać że prognoza na najbliższe miesiące jest podobna.
Prognozy na lato zrobiły się mniej ekstremalne. I całe szczęście. Zaczynam się obawiać nadejścia lata. Możecie powiedzieć: alarmista. Ale to po prostu wynika z obserwacji.
2003 – fala bezprecedensowych upałów w zachodniej Europie
2010 – fala bezprecedensowych upałów w Rosji
2011 – fala bezprecedensowych upałów w Teksasie i okolicznych stanach.
Kiedy pisze bezprecedensowe mam na myśli bijące rekordy o kilka odchyleń standardowych. Mam na myśli znacznie zwiększoną śmiertelność starszych osób. Mam na myśli całkowicie nieudane żniwa.
Stąd mój niepokój. Ale mam nadzieję, że jeszcze w tym roku nam się uda. Ale w coraz cieplejszym świecie i nas to kiedyś dopadnie.
Odczuwając “uroki” tegorocznej wiosny, choć wiem, że świat się ociepla (a przynajmniej przekonują mnie dowody na to) nie dziwię się “zaprzeczaczom” i sam się łapię na tym, że chciałbym by GO postępowało szybciej. Wiem też, że to tylko wrażenie i to jak pokazuje statystyka błędne ale ta wiosna jest beznadziejna, w tamtym roku lato było jakieś takie nijakie….no jednym słowem gdzie to GO?…:P