Czy globalne ocieplenie skończyło się w 1998 roku?

ResearchBlogging.orgDenialiści klimatyczni od dawna tak twierdzą. Co ciekawsze, to samo mówił mi niedawno nawet jeden z polskich klimatologów. A w ostatnich dniach ukazały się dwa artykuły tłumaczące zmniejszenie trendu globalnego ocieplenia po 1998 roku. Tylko czy jest się z czego tłumaczyć?

Przedstawiam poniżej wykres temperatury globalnej w okresie satelitarnym (czyli od 1978 r.). Z kliku dostępnych serii globalnych średnich dla poszczególnych miesięcy wybrałem brytyjską HadCRUT3 (dane dostepne z tej strony), która jest bardziej konserwatywna niż amerykańska GISS, nie interpolując temperatur w obszarach, gdzie nie ma danych, przez co nie obejmuje na przykład większości bardzo szybko ocieplającej się Arktyki. Przez to nie narażam się na oskarżenie o alarmizm. Z drugiej strony nie używam serii UAH, ulubionej przez denialistów. Nawet nie dlatego, żeby pokazywała coś innego niż HadCRUT3, ale dlatego, że jej autor, Roy Spencer (link do jego blogu jest po prawej stronie), zmienia nieustannie wartości całej serii, nie bardzo tłumacząc dlaczego (przez co dane ściągnięte od niego dziś za miesiąc mogą być niezgodne nawet z jego stroną). Okres satelitarny wybrałem, bo wcześniej nie było dobrych danych dla większości oceanów (taki wybór zapewnia bardziej jednolitą serię danych niż rozpoczęcie np. od 1950 roku).

Na wykresie własnej produkcji przedstawiłem anomalię temperatury globalnej (względem okresu bazowego 1961-1990) z danych HadCRUT3 oraz jej trend (czarna przerywana linia). Na wykresie wyróżniono okres 1998-2008 oraz trend dla niego (czerwona przerywana linia). Dekada 1998-2007 r., albo bardziej prawidłowy [1] okres 11-letni 1998-2008 (wyróżniony na rysunku pionowymi szarymi liniami), zdaje się dowodzić jednoznacznie, że od roku 1998 nijakiego globalnego ocieplenia nie uświadczysz (dlatego takie właśnie okresy uwielbiają denialiści). Zamiast wzrostu temperatury o (średnio) 0.15 K na dekadę mamy po 1998 roku nawet niewielki spadek. Czy jednak sprawa jest zamknięta?

Nie jest i to z kilku powodów. Po pierwsze serie czasowe takie jak przedstawiona powyżej HadCRUT3 czy UAH, nie interpolujące wyników w rejonach bez pomiarów, nie pokrywają całej kuli ziemskiej, a akurat wśród tych 20%, których nie pokrywają są najszybciej ogrzewające się obszary arktyczne. Jeśli użyć serii GISS sytuacja nie będzie wyglądała tak optymistycznie (zakładam, że zgadzamy się, że globalne ocieplenie jest problemem), ale należy pamiętać, że wartości interpolowane to wartości mniej pewne niż mierzone. Poza tym wybór okresu tak jak powyżej pomija rekordowo ciepły rok 2010 [2] (denialiści pomijają go z lubością).

Przede wszystkim jednak wybór jest “tendencyjny” z prostego powodu: zaczyna się od lokalnego maksimum i kończy się na lokalnym minimum. Politycy uwielbiają ten trik w przypadku dowodzenia skuteczności (lub nie) rządu danego kraju w rozwijaniu gospodarki. Rozpoczęcie wykresu od dna najnowszej recesji zawsze daje wrażenie dynamicznego wzrostu, a rozpoczęcie od szczytu przed tą recesja wręcz odwrotnie. Na wykresie powyżej, jeśli obciąć okres “czerwony” z każdej strony o rok, pozbywając się lokalnego maksimum i minimum (czyli rozpoczynając od roku 1999 i kończąc w 2007), otrzyma efekcie średni wzrost (trend) nawet szybszy niż w całym okresie satelitarnym (+0.157 w porównaniu z +0.152 K/dekadę) podczas gdy zaznaczony na czerwono trend dla lat 1998-2008 to -0.015 K/dekadę. Czyli znowu z igły widły? Był zresztą o tym nie tak dawno artykuł Easterling i Wehner 2009 [3] pokazujący na danych historycznych i wynikach modelowania, że naturalna zmienność (głównie cykl El Niño – La Niña, ale nie tylko) musi powodować występowanie okresów rzędu dekady o trendzie odwrotnym niż wynikający ze zmiany wymuszeń radiacyjnych, nawet przy ich tak szybkim wzroście jak w ostatnich dekadach. Poprzednio takimi były okresy 1977-1985 i 1981-1989 (patrz rysunek poniżej).

Wykres z pracy Easterling i Wehner 2009, pokazujący dwa okresy z ujemnym trendem zmian temperatury globalnej po 1975 roku.

Czy zatem dowodzi to czegoś poza tym, że okresy około 10-letnie są za krótkie aby wyznaczać długotrwałe trendy? Otóż nie są jeśli rozumie się procesy i wymuszenia jakie wpływają na globalna temperaturę (wspomniany na początku polski klimatolog był niestety dawniejszego typu “geograficzno-statystycznego”, który nie zaprząta sobie głowy procesami fizycznymi). Jeśli zauważyć, że prawie wszystkie lokalne maksima to okresy El Niño (okresy ocieplenia wschodniego tropikalnego Pacyfiku), a zimne La Niña (faza przeciwna tego samego cyklu o nieregularnej długości, zwanego też ENSO, jednak zwykle mieszczącej się w przedziale 2-7 lat) to sprawa stanie się mniej tajemnicza. Na przykład rok 1998  to najsilniejsze El Niño w okresie satelitarnym, a 2010 to inne mniejsze (oba te lata były rekordowo ciepłe), natomiast lata 1999, 2008 i 2010 to zimne lata La Niñi (zwyczajem amerykańskim numeruję te zjawiska rokiem, w których pierwszych miesiącach mają swoje maksimum i w którym się kończą; bo wykrywalne są już parę miesięcy wcześniej). Temperatury tropikalnego Pacyfiku wpływają, jak się wydaje, na ilość niskich chmur w całych tropikach (patrz np. Clement et al. 2009 czy Dessler 2010, oba w Science co może tłumaczyć częściowo odpowiada na pytania Trnenbetha, o których pisałem poprzednio), co powoduje, że ENSO jest największym źródłem różnic międzyrocznych temperatur na naszej planecie.  Dlatego zaczynanie i kończenie okresów trendów na tych zjawiskach generalnie nie jest najlepszym pomysłem, ale jak tego uniknąć gdy w ostatnich kilku latach zawsze albo El Niño albo La Niña?

W sumie do niedawna uważałem, że “anomalia” trendu ostatniej dekady to wyłącznie efekt ENSO i ewentualnie słońca. Obecność silnego El Niño w 1998 roku oraz słabszego w 2010 i w dodatku otoczonego dwoma dość silnymi (zimnymi) La Niñiami w oczywisty sposób musi powodować, że trendy między tymi datami powinny być znacznie niższe niż trend długoterminowy, a nawet ujemne. Nie widziałem zatem nawet potrzeby szukania innych przyczyn. Ot, poczekamy jeszcze trochę i trend dodatni, wynikający z rosnącego wymuszenia radiacyjnego gazów cieplarnianych będzie musiał wrócić.

I tak może być. Z tym, że (jak zwykle) sytuacja jest tym bardziej skomplikowana im bardziej jej się przyglądamy. Ukazały się ostatnio dwa niezależne artykuły tłumaczące przynajmniej część tego zmniejszenia trendu zmianami koncentracji aerozolu (za resztę przypominam odpowiada zmienność naturalna związana z cyklem ENSO). Nie jest to może takie dziwne biorąc pod uwagę, że aerozol (i chmury) to ciągle jedne z najsłabszych punktów naszej wiedzy o działaniu maszyny klimatycznej na naszej planecie.

Pierwszy z tych artykułów, Kaufmann i inni 2011 [4] (w “ulubionym” przeze mnie PNAS) zwraca uwagę na znane fakty takie jak słabsza niż zwykle aktywność Słońca w ostatnim 11-letnim cyklu oraz opisaną powyżej zmienność związaną z cyklem ENSO, co tłumaczy większą część spadku wartości trendu zmian temperatury po 1998 roku. Tu nie ma niespodzianki. Nowością jest jednak czynnik antropogeniczny, którego nie brano dotychczas pod uwagę: wzmożone spalanie węgla w Chinach. Konsumpcja węgla w Chinach podwoiła się w ciągu 4 lat (2003-2007), a poprzednie podwojenie wymagało 22 lat (1980-2002). Uważny czytelnik zakrzyknie tu “Zaraz, zaraz, przecież spalanie węgla to emisja dwutlenku węgla, najważniejszego antropogenicznego gazu cieplarnianego!”. Czyli powinno to raczej ogrzewać niż oziębiać planetę. I słusznie. Z tym, że na długą metę. Dwutlenek węgla pozostanie w systemie atmosfera-ocean przez tysiące lat grzejąc nas przez ten czas. Jednak jego emisja związana jest z produkcją dymu, czyli bardziej fachowo – aerozolu. A że Chińczycy są opóźnieniu w zakładaniu filtrów na kominy, produkują oni aerozol zawierający dużo siarki. Taki aerozol ma działanie ochładzające planetę (odbijając światło słoneczne z powrotem w kosmos), co wiadomo co najmniej od lat 1970-ch. Aerozol utrzymuje się w atmosferze krótko, zasadniczo do najbliższego deszczu (no chyba, że zostanie wyemitowany aż do stratosfery jak to umieją najsilniejsze wulkany i bomby atomowe – wtedy drobne cząstki mogą unosić się tam nawet parę lat, ale tej sztuki kominy elektrowni nie potrafią). Jednak w tym czasie jego efekt chłodzący może być nawet większy niż tej części dwutlenku węgla, jaka jest z nim wspólnie emitowana [5].

Rysunek z pracy Kaufmann i inni 2011 przedstawiający wymuszenia radiacyjne (lewa skala) i ich skutek w postaci zmian temperatury (prawa skala). Dokładniejszy opis w tekście poniżej.

Na rysunku powyżej zaznaczono wymuszenia radiacyjne (lewa oś) i spowodowane nimi zmiany temperatury [6] (prawa oś) dla poszczególnych wymuszeń i ich sum. Przypomnę, że wymuszenie w sensie używanym przez IPCC to różnica w stosunku do okresu przedprzemysłowego. Fioletowa linia to właśnie wymuszenie aerozolu “siarkowego” (ujemna wartość oznacza efekt chłodzący). Zwraca uwagę zwiększenie tego (ujemnego) wymuszenia w drugiej części okresu 1998-2008 (tego samego, o którym pisałem powyżej), zaznaczonego po prawej stronie wykresu przez błękitne tło. Błękitna linia to suma wymuszeń antropogenicznych (czyli gazów cieplarnianych i aerozolu), a prosta, kropkowana błękitna to jej liniowe przybliżenie, pomarańczowa linia to wymuszenie słoneczne, a zielona to wymuszenie ENSO (ponieważ szczegóły działania tego wymuszenia są słabo znane zastosowano po prostu indeks SOI podzielony przez 10, co wydaje się “graficznie” wyborem dość nieszczęśliwym, bo dodatni SOI oznacza wpływ oziębiający i na odwrót). W końcu czerwona linia to suma wszystkich wymuszeń, a czarna to obserwowane zmiany temperatury.

Widać, że zmiany ENSO dominują – proszę wyobrazić sobie zieloną linię ze zmienionym znakiem (odbitą poziomo w lustrze) i porównać ją z czarną kreską temperatury. W drugiej części okresu “błękitnego”, czyli od roku 2002, efekt zmian ENSO (zielony wykres z “odwróconym” znakiem), słońca (pomarańczowy) i aerozolów siarkowych (fioletowy) jest co do znaku jednakowy: wszystkie ciągną w dół. Autorzy oceniają ten ostatni jako najmniejszy, ale jest to efekt mierzalny. Zmiana wymuszenia związanego z aerozolem siarkowym po 2002 roku ma wynosić 0.03 W m-2. Tłumaczyłoby to spadek temperatury o około 0.01 K czyli 1/15 spadku trendu w tym okresie (efekt spadku aktywności słońca oceniają na 6 razy większy, resztę spadku przypisując ENSO).

Nawet ciekawszy wydał mi się drugi z omawianych artykułów z ostatnich tygodni, Solomon i inni 2011 [7] z Science. Ciekawszy, bo dotyczy aerozolu stratosferycznego, właśnie tego, który w wyniku braku opadów w górnych warstwach atmosfery jest w stanie unosić się nawet latami. Wiemy to z obserwacji grubości optycznej atmosfery (znowu to pojęcie!) po dużych wybuchach wulkanów, szczególnie po największym odkąd mierzymy tę wielkość, czyli Pinatubo na Filipinach w 1991 roku. Dotychczasowy stan wiedzy wskazywał, że taki wybuch, powodujący wstrzykniecie do stratosfery olbrzymich ilości związków siarki, powodował znaczące globalne oziębienie (w przypadku Pinatubo -0.3 K wkrótce po eksplozji), stopniowo wracające “do normy” w ciągu kilku lat. Uważano jednak, ze mniejsze wulkany nie są w stanie emitować pyłu do stratosfery, są zatem pomijalne w sensie klimatycznym. I tu pierwsza niespodzianka. Solomon i inni pokazują, na podstawie pomiarów lidarowych dokonywanych z satelity (lidar to optyczny odpowiednik radaru używający lasera jako źródła światła), wyraźny wzrost grubości optycznej (przynajmniej regionalny) po czterech “małych” wybuchach wulkanów z lat 2006-2010.

Rozpraszanie na aerozolu stratosferycznym (17-21 km nad powierzchnia ziemi) w funkcji szerokości geograficznej i czasu

Na powyższym wykresie kolory oznaczają intensywność rozpraszania (właściwie tzw. “stosunek rozproszeń” czyli stosunek całkowitego rozpraszania wstecz do rozpraszania na samym powietrzu – czyli “rayleighowskiego” – którego wartość da się wyliczyć teoretycznie). Oś pionowa to szerokość geograficzna (dodatnie wartości to półkula północna), a pozioma to czas. Numerami zaznaczono czas i szerokość geograficzną czterech wybuchów wulkanów. Bez wątpienia wpływają one na wartość “tła” aerozolowego na dużej części planety przez całe miesiące (pięknie na przykład widać jak pył wulkanów 1 i 2 rozchodzi się od równika w obie strony na północ i południe). Czyli większa ilość takich słabych wulkanów w danej dekadzie musi prowadzić do jej ochłodzenia w stosunku do dekad sąsiednich, nawet gdy w żadnej z nich nie ma “dużego” wulkanu.

Jednak czy ilość aerozolu w stratosferze rzeczywiście zmienia się między dekadami? Otóż tak i są na to aż cztery niezależne dowody. Trzy z nich pochodzą z pomiarów górze Mauna Loa na Hawajach na wysokości tak dużej, że w przybliżeniu wszystko co powyżej można uznać za aerozol stratosferyczny (no może nie całkiem, ale wybierano dni o najniższych wartościach grubości optycznej dla zminimalizowania wpływu wyższych warstw troposfery). Te trzy to dwa różne instrumenty mierzące grubość optyczną atmosfery z jasności tarczy słonecznej i naziemny lidar. Czwartą serią pomiarową są globalne wartości stratosferycznej grubości optycznej mierzone “od góry” z lidaru satelitarnego. Poniższy rysunek z artykułu podsumowuje je wszystkie.

Transmisja przez atmosferę (a), grubość optyczna (b) na wulkanie Mauna Loa na Hawajach oraz globalna wartość stratosferycznej grubości optycznej mierzonej satelitarnie (c).

W wartościach najdłuższej z tych serii – pomiarów transmisji poprzez atmosferę – widać dwa najnowsze “wielkie” wybuchy wulkanów, El Chichon (Meksyk) z 1982 i Pinatubo z 1991 roku. Środkowy panel to pomiary grubości optycznej od 1994 roku (trzy przyrządy z Mauna Loa i pomiary satelitarne). Widać wzrost średniej wartości po roku 2000. To samo potwierdzają wyniki globalne (dolny panel). Jest to istotne, bo w modelowaniu klimatycznym stosuje się wartości stratosferycznej grubości optycznej osiągające zero już w kilka lat po wybuchu Pinatubo (linie oznaczone jako GISS i Ammann et al na dolnym panelu). Oznacza to (według autorów artykułu), że od końca lat 1990 nie bierzemy pod uwagę wymuszenia radiacyjnego odpowiadającego oziębieniu o -0.07 K. A to już nie są żarty. To połowa “brakującego” ocieplenia w ostatniej dekadzie. Czyli w sumie aż za dużo, bo jeśli uwzględnić wartości jakie Kaufmann i inni (2011) przypisują zmianom wymuszeń przez aerozol troposferyczny i aktywność słoneczną, to nie zostaje nic dla ENSO. A przecież widzieliśmy, że to najważniejszy czynnik zmian międzyletnich, od wartości którego, w latach rozpoczynających i kończących serie czasową o dekadalnej długości, zależy nawet czy obserwujemy trend ocieplenia czy nie. Częściowo da się to wytłumaczyć tym, że te wymuszenie “tła” aerozolowego, odpowiadające oziębieniu -0.07 K zdaniem autorów narastało od lat 1960-ch, ale w okresie dużych wybuch w wulkanów i kilka lat po nich było przez nie zamaskowane. Czyli nie jestem pewny jak je rozłożyć na te kilka dekad po drodze. Jak to się pisze w artykułach “wymaga to dalszych badań”.

Czyli znowu nie wszystko wiemy? No, właśnie. Nikt nie obiecywał, że nauka o klimacie to obserwacyjnie najłatwiejsza gałąź nauki. A na pewno nie jest to gałąź martwa (czyli taka gdzie już wszystko odkryto). Jednak dla mnie, nawet bardziej prawdopodobne niż błędy pomiarowe jest, że nadal nie uwzględniamy wszystkich czynników naturalnej zmienności. Mówiliśmy tu o międzyletniej zmienności związanej z ENSO, ale istnieje też międzydekadowa zmienność związana ze zmianami głębinowej (dokładniej termohalinowej) cyrkulacji oceanicznej. Zwykle mierzy się ją pośrednio przez temperaturę grzanego przez nią Północnego Atlantyku. A ta w latach 1990-ch była szczególnie wysoka, co musiało wpłynąć na temperaturę globalną z definicji (stanowiąc jej integralną część).

I w tym kontekście wróciłbym do rysunku z początku tego wpisu. Dla mnie najciekawszym naukowo pytaniem nie jest – dlaczego trend temperatury po roku 1998 był tak niski? Jest na to wiele powodów wyliczonych powyżej. Naprawdę ciekawe jest to, dlaczego pierwsza polowa lat 2000-ch była tak ciepła, wyraźnie wykraczając ponad trend wieloletni? Bo była. Jeśli z tych samych danych (HadCRUT3) policzyć różnice średnich wartości globalnych dla całych sąsiednich dekad (zdefiniowanych klasycznie jako kończące się na roku z zerem na ostatniej pozycji) to różnica pomiędzy latami 1980-mi i 1990-mi wynosi +0.144 K (prawie tyle ile wynika z trendu długoterminowego). Ile zatem wynosi różnica między latami 1990-mi a tymi “zimnymi” 2000-mi? Czy będzie to wartość ujemna? Absolutnie nie. Różnica ta to +0.192 K. Tak jest, różnica miedzy latami 1990-mi a 2000-mi była większa niż pomiędzy poprzednimi dwoma dekadami i większa niż trend długoterminowy. Proponuję zastanowić się nad zdaniem “Globalnego ocieplenia nie ma od 1998, ale lata 2000-ne były cieplejsze od poprzedniej dekady i to o większą wartość niż wynika z trendu”. Absurd? Tak, absurd. Czyli mamy odpowiedź na tytułowe pytanie. Nie dość, że globalne ocieplenie nie skończyło się w 1998 roku, ale następna po nim dekada była rekordowo ciepła, tak ciepła że właściwie nie wiemy dlaczego. I chociażby dlatego warto zajmować się klimatologią.

Przypisy:

[1] Wybór okresu 11-letniego dla średnich temperatur pozwala na usuniecie cyklu aktywności słonecznej o takiej w przybliżeniu długości.

[2] Na oko tego nie widać (dane są wartościami miesięcznymi i trzeba je “optycznie” uśrednić do całych lat) ale w żadnej znanej mi serii czasowej, łącznie z przedstawioną powyżej nie ma roku cieplejszego niż 2010. Co ciekawe 2010 wygrał lub zremisował (w granicach błędu pomiarowego) z rokiem 1998 w HadCRUT3 i UAH oraz z rokiem 2005 w GISS. Różnica zdania co do poprzednio najcieplejszego roku wynika właśnie z decyzji co do przestrzennej interpolacji danych.

[3] Easterling, D., & Wehner, M. (2009). Is the climate warming or cooling? Geophysical Research Letters, 36 (8) DOI: 10.1029/2009GL037810

[4] Kaufmann RK, Kauppi H, Mann ML, & Stock JH (2011). Reconciling anthropogenic climate change with observed temperature 1998-2008. Proceedings of the National Academy of Sciences of the United States of America, 108 (29), 11790-3 PMID: 21730180

[5] Można by się nawet cieszyć z tej chińskiej “geoinzynierii” chłodzącej naszą planetę gdyby nie tragiczne skutki tego dymu dla życia w Chinach, gdzie gęsto zaludniona wschodnia część kraju pokryta jest brązowym smogiem przez większość roku.

[6] Zwraca uwagę niska czułość klimatu na wymuszenie radiacyjne, 0.3 K W-1 m2, wynikająca z podzielenia przez siebie wartości na obu pionowych osiach, co oznaczać ma zapewne że autorzy mają na myśli zmiany w przeciągu zaledwie kilku lat. Przypominam, że ze względu na olbrzymią pojemność cieplną oceanów ogrzanie naszej planety (i o jedynie w sensie dolnych warstw atmosfery, które jednak mają styczność z oceanem) trwa dość długo, czyli im dłużej poczekamy tym większy efekt temperaturowy będzie miało to samo wymuszenie radiacyjne (o ile działa trwale).

[7] Solomon S, Daniel JS, Neely RR 3rd, Vernier JP, Dutton EG, & Thomason LW (2011). The persistently variable “background” stratospheric aerosol layer and global climate change. Science , 333 (6044), 866-70 PMID: 21778361

Hits: 2397

Subscribe
Notify of
guest

This site uses Akismet to reduce spam. Learn how your comment data is processed.

507 Comments
Inline Feedbacks
View all comments
pohjois
8 years ago

W serii GISS wyraźnego rekordu chyba nie będzie. Pojawił się wynik za listopad i średnia grudzień – listopad wynosi 0.66.
W 2010 średnia roczna również była 0.66. Jak anomalia grudniowa nie spadnie poniżej 0.55 to wynik się utrzyma, jak będzie co najmniej 0.7 to średnia będzie 0.67.
Jak prognozy na grudzień?

pohjois
8 years ago

Gratulacje za szybkość.
I tylko się należy zastanawiać – czy cieszyć się – bo rekord trochę chociaż przymknie denialistów i jakoś zwiększa szansę na reakcję, czy smucić się – bo katastrofa nieubłaganie nadciąga.

pohjois
8 years ago

A swoją drogą – której serii GISS używasz?
Jak sprawdziłem na szybko, to dla serii LOTI od 1880 roku dostałem wynik
2010 – 65,75
2014 – 67,17
A zatem mniej niż te dwie setne u Ciebie – dokładniej 0.0142.
???

pohjois
8 years ago

Tamino ostatnio się znowu ożywił i napisał dwie notki o trendach. Ja mu wrzuciłem dwa komentarze do ostaniej notki, z obserwacją i zapytaniem. Jestem ciekaw i twojego zdania na ten temat, więc wkleję tutaj poniżej.

[komentarz #1 – do notki https://tamino.wordpress.com/2015/01/20/its-the-trend-stupid-3, wspomniana w tekście komentarza poprzednia notka to https://tamino.wordpress.com/2014/12/09/is-earths-temperature-about-to-soar/%5D
Looking at the data and plot from the previous post, I just wonder if we should expect next really big record in few closest years?
In the last seven years (with two records in 2010 and 2014) we have had only one year above the trend and six years below trend, with four years roughly sitting at one standard deviation below trend. While this can happen due to fluctuations, nevertheless if this happens few more times it would be evidence of the change in the trend.
Question is how many more years without relatively large deviation (say one sigma) above the trend we can have before the trend itself should be modified?

[komentarz #2 – jeszcze nieopublikowany]
Followup to previous question and a little extension.
The linear trend is the best explanation of data now. Denialists love to perform mathturbations with cycles that would explain everything and its bullshit. Basic physics tells us that we should expect linear trend and we observe linear trend. Nevertheless, it is still possible that some multidecadal oscillation is real. The plausible physical mechanism is redistribution of heat between northern (land and ocean) and southern (mostly ocean) hemisphere. Assuming that this is real, and that the full cycle is about 60 years, and that minimum was around 1970, we probably could already estimate bounds on the size of this contribution. It certainly cannot be large – with these assumptions we are in the phase with fastest decrease of temperature due to cycle and yet we have just achieved the record high temperature. Nevertheless, if the cycle is real then the in the next fifteen years we may expect slow growth or even “pause”.
Playing with excell graphs – certainly not best tool around – I have checked that model that assumes linear trend at 0.015 K/year starting at 1970 looks reasonably well when 60 years cycle with amplitude 0.1 (0.2 difference between max an min) is added.
With amplitude increased to 0.15 the trend has to be decreased to about 0.012 K/year and fit to data is still not bad, but this is as far as you can go.

When I put amplitude of the cycle below 0.05K the change in future trend was minimal, but with amplitude at 0.1 the differences for the next few years are significant, and with aplitude 0.15 they are really large. With the last value we could expect more or less stable temperatures for the next 15 years or so.

So – to sum up – the linear trend is currently the best explanation of data, but in the next two or three years we will see, whether it should be augmented – for example with a 60-years cycle.

pohjois
8 years ago

Ja Tamino pytałem o to kiedy statystyk może zauważyć, że jednak trend nie jest liniowy.
Ja mam wrażenie, że jeżeli kolejne dwa trzy lata wypadną poniżej trendu, to trzeba będzie uznać istnienie spowolnienia – ale to tylko intuicja.

A fizyka chciałem spytać czy są przesłanki do zakładania istnienia regularnej oscylacji i jaka może być jej amplituda.
Poza oscylacją mogą być inne przyczyny ewentualnego spowolnienia – przede wszystkim zadymienie w Azji.
Pytanie, czy to można jakoś odróżnić?

pohjois
8 years ago

Ja w żaden sposób nie sugeruję, że spowolnienie już widać. Natomiast zauważam, że jeśli w najbliższych dwóch – trzech latach nie będzie kolejnych rekordów (i to raczej spektakularnych – koło 0.05K a może nawet 0.1K) to być może to już będzie oznaka że spowolnienie wzrostu temperatur powierzchniowych może być realne.
Po prostu szansa na losowe wystąpienie N kolejnych lat poniżej trendu maleje jak od pewnego momentu jak 1/(2^N) więc przy N około 8 to już się robi mało a przy N=9 jest statystycznie istotne.
Zauważ, że wszystkie rekordowe lata przed 2010 były odchylone od trendu powyżej 1 sigma, a teraz mamy rekord dokładnie na trendzie. Jakbyśmy mieli mieć w roku 2015 porządny rekord co najmniej o 1 sigmę ponad trendem, to rekord by musiał być powyżej 0.05K (chyba około 0.07K) wyższy niż w tym roku.
Co chyba jest całkiem realne swoją drogą.

pohjois
8 years ago

W 1997 roku też był rekord. Jeżeli masz rację, to 2015 powinien na jakiś czas zakończyć gadanie o końcu globalnego ocieplenia.
Zobaczymy za rok.

pohjois
8 years ago

A jak się mają kolejne miesiące?

PPB
PPB
8 years ago

Korekta obywatelska: pierwsze półrocze 1998 było chłodniejsze od bieżącego o 0,15C, a nie o 1,5C (na szczęście 😉 )

pohjois
8 years ago

Przyjrzałem się nowej wersji danych GISS i mam wątpliwości, czy oni poprawili dane, czy popsuli. Źródłem wątpliwości są temperatury globalne w latach 1940-1945. Wszystkie pięć lat z drugiej wojny światowej mają wyraźnie wyższe anomalie niż lata poprzedające i następne. Wygląda na efekt systematyczny.

A poza tym, fajnie, że jest nowa notka. Dawno nic się tu nie działo…

Pozdrowienia

pohjois
8 years ago

Ja już o tym problemie z wiadrami, wlotami i bojami czytałem, zapewne u Jego Doskonałości, albo w SkepticalScience. Ale efekt dla 1940-1945 jest wyraźny – w kolejnych latach 1930-1950 średnie temperatury wynoszą:
1930:
-13, -9, -16, -28, -13, -19, -14, -1, -2, -3
1940
8, 13, 10, 14, 26, 13, -3, -3, -9, -9,
1950
-18
Wyraźnie wyróżniony okres wojenny z dodatnimi anomaliami. To może być przypadek, ale to chyba małoprawdopodobne.
Inne potencjalne źródło wzrostu to, że ze względu na toczące się działania wojenne znacząco spadło zadymienie w Europie.

pohjois
8 years ago

Zerknąłem jeszcze na dane strefowe.
Na pólkuli północnej w porównaniu z dziesięcioleciem 1930-39 temperatura średnia w okresie 1940-45 wzrosła o 0.16 a na południowej o 0.41. Potem po wojnie na półkuli północnej spadła praktycznie do poziomu przedwojennego, a na południowej została na poziomie o mniej więcej 0.1 wyższym niż przed wojną.

Bardzo to sugeruje na wpływ sposobu mierzenia temperatur w oceanie.

kslawin
kslawin
7 years ago

Bo kto pyta, ten nie błądzi 🙂

pohjois
7 years ago

Na blogu Tamino jeden z komentatorów twierdził, że z październik w GISSTemp będzie miał o 0.4 stopnia więcej niż wrzesień. To by był niesamowity skok. Po pierwsze to byłby rekord anomalii i to ponad 0.2 K. Po drugie sam skok byłby niezwykle rzadko spotykany. Po trzecie taki skok w zasadzie zagwarantowałby, że 2015 będzie cieplejszy niż 2014 i to z dużym zapasem.
Czy to się sprawdzi – zobaczymy bardzo niedługo. A ja się zastanawiam jak można zrobić takie oszacowanie. Nie udało mi się znaleźć danych dziennych GISS – może ty wiesz gdzie takie dane można znaleźć – GISS czy w ogóle dzienne dane globalne?

kslawin
kslawin
7 years ago

Piotrek już zrobił reanalizę za październik:
http://meteomodel.pl/BLOG/?p=11232

pohjois
7 years ago

Dzięki za komentarz i info. Zajrzałem do tych reanaliz i rzeczywiscie prognozują, że październik będzie dużo cieplejszy niż wrzesień. Różnica raczej nie 0.4 stopnia, ale może 0.2 co i tak byłony największą anomalią kiedykolwiek notowaną. Ale zobaczymy za parę dni.

pohjois
7 years ago

Mamy w zasadzie gwarancję kolejnego rekordowego roku. Kumulacyjna nadwyżka anomali nad poprzednim rokiem wynosi 0.84. Żeby rekordu nie było anomalie w listopadzie i grudniu musiałyby spaść do poziomu nie widzianego przez dwa kolejne miesiące od 15 lat. Raczej zanosi się na rekord solidnie wyższy od poprzedniego – zgodnie z Twoimi przewidywaniami z początku roku.

pohjois
7 years ago

Do kompletu brakuje co najmniej NOAA ;-), ale tam jest niemal identycznie.
Zdaje się, że mem o braku ocieplenia od 1998 roku właśnie zginął śmiercią tragiczną.
Czas odświeżyć mema o fałszowaniu danych. Zdaje się, że to już się dzieje w USA, tak w każdym razie wyglądają działania szefa komisji nauki z Izby Reprezentantów.