Denialiści klimatyczni od dawna tak twierdzą. Co ciekawsze, to samo mówił mi niedawno nawet jeden z polskich klimatologów. A w ostatnich dniach ukazały się dwa artykuły tłumaczące zmniejszenie trendu globalnego ocieplenia po 1998 roku. Tylko czy jest się z czego tłumaczyć?
Przedstawiam poniżej wykres temperatury globalnej w okresie satelitarnym (czyli od 1978 r.). Z kliku dostępnych serii globalnych średnich dla poszczególnych miesięcy wybrałem brytyjską HadCRUT3 (dane dostepne z tej strony), która jest bardziej konserwatywna niż amerykańska GISS, nie interpolując temperatur w obszarach, gdzie nie ma danych, przez co nie obejmuje na przykład większości bardzo szybko ocieplającej się Arktyki. Przez to nie narażam się na oskarżenie o alarmizm. Z drugiej strony nie używam serii UAH, ulubionej przez denialistów. Nawet nie dlatego, żeby pokazywała coś innego niż HadCRUT3, ale dlatego, że jej autor, Roy Spencer (link do jego blogu jest po prawej stronie), zmienia nieustannie wartości całej serii, nie bardzo tłumacząc dlaczego (przez co dane ściągnięte od niego dziś za miesiąc mogą być niezgodne nawet z jego stroną). Okres satelitarny wybrałem, bo wcześniej nie było dobrych danych dla większości oceanów (taki wybór zapewnia bardziej jednolitą serię danych niż rozpoczęcie np. od 1950 roku).
Na wykresie własnej produkcji przedstawiłem anomalię temperatury globalnej (względem okresu bazowego 1961-1990) z danych HadCRUT3 oraz jej trend (czarna przerywana linia). Na wykresie wyróżniono okres 1998-2008 oraz trend dla niego (czerwona przerywana linia). Dekada 1998-2007 r., albo bardziej prawidłowy [1] okres 11-letni 1998-2008 (wyróżniony na rysunku pionowymi szarymi liniami), zdaje się dowodzić jednoznacznie, że od roku 1998 nijakiego globalnego ocieplenia nie uświadczysz (dlatego takie właśnie okresy uwielbiają denialiści). Zamiast wzrostu temperatury o (średnio) 0.15 K na dekadę mamy po 1998 roku nawet niewielki spadek. Czy jednak sprawa jest zamknięta?
Nie jest i to z kilku powodów. Po pierwsze serie czasowe takie jak przedstawiona powyżej HadCRUT3 czy UAH, nie interpolujące wyników w rejonach bez pomiarów, nie pokrywają całej kuli ziemskiej, a akurat wśród tych 20%, których nie pokrywają są najszybciej ogrzewające się obszary arktyczne. Jeśli użyć serii GISS sytuacja nie będzie wyglądała tak optymistycznie (zakładam, że zgadzamy się, że globalne ocieplenie jest problemem), ale należy pamiętać, że wartości interpolowane to wartości mniej pewne niż mierzone. Poza tym wybór okresu tak jak powyżej pomija rekordowo ciepły rok 2010 [2] (denialiści pomijają go z lubością).
Przede wszystkim jednak wybór jest “tendencyjny” z prostego powodu: zaczyna się od lokalnego maksimum i kończy się na lokalnym minimum. Politycy uwielbiają ten trik w przypadku dowodzenia skuteczności (lub nie) rządu danego kraju w rozwijaniu gospodarki. Rozpoczęcie wykresu od dna najnowszej recesji zawsze daje wrażenie dynamicznego wzrostu, a rozpoczęcie od szczytu przed tą recesja wręcz odwrotnie. Na wykresie powyżej, jeśli obciąć okres “czerwony” z każdej strony o rok, pozbywając się lokalnego maksimum i minimum (czyli rozpoczynając od roku 1999 i kończąc w 2007), otrzyma efekcie średni wzrost (trend) nawet szybszy niż w całym okresie satelitarnym (+0.157 w porównaniu z +0.152 K/dekadę) podczas gdy zaznaczony na czerwono trend dla lat 1998-2008 to -0.015 K/dekadę. Czyli znowu z igły widły? Był zresztą o tym nie tak dawno artykuł Easterling i Wehner 2009 [3] pokazujący na danych historycznych i wynikach modelowania, że naturalna zmienność (głównie cykl El Niño – La Niña, ale nie tylko) musi powodować występowanie okresów rzędu dekady o trendzie odwrotnym niż wynikający ze zmiany wymuszeń radiacyjnych, nawet przy ich tak szybkim wzroście jak w ostatnich dekadach. Poprzednio takimi były okresy 1977-1985 i 1981-1989 (patrz rysunek poniżej).

Czy zatem dowodzi to czegoś poza tym, że okresy około 10-letnie są za krótkie aby wyznaczać długotrwałe trendy? Otóż nie są jeśli rozumie się procesy i wymuszenia jakie wpływają na globalna temperaturę (wspomniany na początku polski klimatolog był niestety dawniejszego typu “geograficzno-statystycznego”, który nie zaprząta sobie głowy procesami fizycznymi). Jeśli zauważyć, że prawie wszystkie lokalne maksima to okresy El Niño (okresy ocieplenia wschodniego tropikalnego Pacyfiku), a zimne La Niña (faza przeciwna tego samego cyklu o nieregularnej długości, zwanego też ENSO, jednak zwykle mieszczącej się w przedziale 2-7 lat) to sprawa stanie się mniej tajemnicza. Na przykład rok 1998 to najsilniejsze El Niño w okresie satelitarnym, a 2010 to inne mniejsze (oba te lata były rekordowo ciepłe), natomiast lata 1999, 2008 i 2010 to zimne lata La Niñi (zwyczajem amerykańskim numeruję te zjawiska rokiem, w których pierwszych miesiącach mają swoje maksimum i w którym się kończą; bo wykrywalne są już parę miesięcy wcześniej). Temperatury tropikalnego Pacyfiku wpływają, jak się wydaje, na ilość niskich chmur w całych tropikach (patrz np. Clement et al. 2009 czy Dessler 2010, oba w Science co może tłumaczyć częściowo odpowiada na pytania Trnenbetha, o których pisałem poprzednio), co powoduje, że ENSO jest największym źródłem różnic międzyrocznych temperatur na naszej planecie. Dlatego zaczynanie i kończenie okresów trendów na tych zjawiskach generalnie nie jest najlepszym pomysłem, ale jak tego uniknąć gdy w ostatnich kilku latach zawsze albo El Niño albo La Niña?
W sumie do niedawna uważałem, że “anomalia” trendu ostatniej dekady to wyłącznie efekt ENSO i ewentualnie słońca. Obecność silnego El Niño w 1998 roku oraz słabszego w 2010 i w dodatku otoczonego dwoma dość silnymi (zimnymi) La Niñiami w oczywisty sposób musi powodować, że trendy między tymi datami powinny być znacznie niższe niż trend długoterminowy, a nawet ujemne. Nie widziałem zatem nawet potrzeby szukania innych przyczyn. Ot, poczekamy jeszcze trochę i trend dodatni, wynikający z rosnącego wymuszenia radiacyjnego gazów cieplarnianych będzie musiał wrócić.
I tak może być. Z tym, że (jak zwykle) sytuacja jest tym bardziej skomplikowana im bardziej jej się przyglądamy. Ukazały się ostatnio dwa niezależne artykuły tłumaczące przynajmniej część tego zmniejszenia trendu zmianami koncentracji aerozolu (za resztę przypominam odpowiada zmienność naturalna związana z cyklem ENSO). Nie jest to może takie dziwne biorąc pod uwagę, że aerozol (i chmury) to ciągle jedne z najsłabszych punktów naszej wiedzy o działaniu maszyny klimatycznej na naszej planecie.
Pierwszy z tych artykułów, Kaufmann i inni 2011 [4] (w “ulubionym” przeze mnie PNAS) zwraca uwagę na znane fakty takie jak słabsza niż zwykle aktywność Słońca w ostatnim 11-letnim cyklu oraz opisaną powyżej zmienność związaną z cyklem ENSO, co tłumaczy większą część spadku wartości trendu zmian temperatury po 1998 roku. Tu nie ma niespodzianki. Nowością jest jednak czynnik antropogeniczny, którego nie brano dotychczas pod uwagę: wzmożone spalanie węgla w Chinach. Konsumpcja węgla w Chinach podwoiła się w ciągu 4 lat (2003-2007), a poprzednie podwojenie wymagało 22 lat (1980-2002). Uważny czytelnik zakrzyknie tu “Zaraz, zaraz, przecież spalanie węgla to emisja dwutlenku węgla, najważniejszego antropogenicznego gazu cieplarnianego!”. Czyli powinno to raczej ogrzewać niż oziębiać planetę. I słusznie. Z tym, że na długą metę. Dwutlenek węgla pozostanie w systemie atmosfera-ocean przez tysiące lat grzejąc nas przez ten czas. Jednak jego emisja związana jest z produkcją dymu, czyli bardziej fachowo – aerozolu. A że Chińczycy są opóźnieniu w zakładaniu filtrów na kominy, produkują oni aerozol zawierający dużo siarki. Taki aerozol ma działanie ochładzające planetę (odbijając światło słoneczne z powrotem w kosmos), co wiadomo co najmniej od lat 1970-ch. Aerozol utrzymuje się w atmosferze krótko, zasadniczo do najbliższego deszczu (no chyba, że zostanie wyemitowany aż do stratosfery jak to umieją najsilniejsze wulkany i bomby atomowe – wtedy drobne cząstki mogą unosić się tam nawet parę lat, ale tej sztuki kominy elektrowni nie potrafią). Jednak w tym czasie jego efekt chłodzący może być nawet większy niż tej części dwutlenku węgla, jaka jest z nim wspólnie emitowana [5].

Na rysunku powyżej zaznaczono wymuszenia radiacyjne (lewa oś) i spowodowane nimi zmiany temperatury [6] (prawa oś) dla poszczególnych wymuszeń i ich sum. Przypomnę, że wymuszenie w sensie używanym przez IPCC to różnica w stosunku do okresu przedprzemysłowego. Fioletowa linia to właśnie wymuszenie aerozolu “siarkowego” (ujemna wartość oznacza efekt chłodzący). Zwraca uwagę zwiększenie tego (ujemnego) wymuszenia w drugiej części okresu 1998-2008 (tego samego, o którym pisałem powyżej), zaznaczonego po prawej stronie wykresu przez błękitne tło. Błękitna linia to suma wymuszeń antropogenicznych (czyli gazów cieplarnianych i aerozolu), a prosta, kropkowana błękitna to jej liniowe przybliżenie, pomarańczowa linia to wymuszenie słoneczne, a zielona to wymuszenie ENSO (ponieważ szczegóły działania tego wymuszenia są słabo znane zastosowano po prostu indeks SOI podzielony przez 10, co wydaje się “graficznie” wyborem dość nieszczęśliwym, bo dodatni SOI oznacza wpływ oziębiający i na odwrót). W końcu czerwona linia to suma wszystkich wymuszeń, a czarna to obserwowane zmiany temperatury.
Widać, że zmiany ENSO dominują – proszę wyobrazić sobie zieloną linię ze zmienionym znakiem (odbitą poziomo w lustrze) i porównać ją z czarną kreską temperatury. W drugiej części okresu “błękitnego”, czyli od roku 2002, efekt zmian ENSO (zielony wykres z “odwróconym” znakiem), słońca (pomarańczowy) i aerozolów siarkowych (fioletowy) jest co do znaku jednakowy: wszystkie ciągną w dół. Autorzy oceniają ten ostatni jako najmniejszy, ale jest to efekt mierzalny. Zmiana wymuszenia związanego z aerozolem siarkowym po 2002 roku ma wynosić 0.03 W m-2. Tłumaczyłoby to spadek temperatury o około 0.01 K czyli 1/15 spadku trendu w tym okresie (efekt spadku aktywności słońca oceniają na 6 razy większy, resztę spadku przypisując ENSO).
Nawet ciekawszy wydał mi się drugi z omawianych artykułów z ostatnich tygodni, Solomon i inni 2011 [7] z Science. Ciekawszy, bo dotyczy aerozolu stratosferycznego, właśnie tego, który w wyniku braku opadów w górnych warstwach atmosfery jest w stanie unosić się nawet latami. Wiemy to z obserwacji grubości optycznej atmosfery (znowu to pojęcie!) po dużych wybuchach wulkanów, szczególnie po największym odkąd mierzymy tę wielkość, czyli Pinatubo na Filipinach w 1991 roku. Dotychczasowy stan wiedzy wskazywał, że taki wybuch, powodujący wstrzykniecie do stratosfery olbrzymich ilości związków siarki, powodował znaczące globalne oziębienie (w przypadku Pinatubo -0.3 K wkrótce po eksplozji), stopniowo wracające “do normy” w ciągu kilku lat. Uważano jednak, ze mniejsze wulkany nie są w stanie emitować pyłu do stratosfery, są zatem pomijalne w sensie klimatycznym. I tu pierwsza niespodzianka. Solomon i inni pokazują, na podstawie pomiarów lidarowych dokonywanych z satelity (lidar to optyczny odpowiednik radaru używający lasera jako źródła światła), wyraźny wzrost grubości optycznej (przynajmniej regionalny) po czterech “małych” wybuchach wulkanów z lat 2006-2010.

Na powyższym wykresie kolory oznaczają intensywność rozpraszania (właściwie tzw. “stosunek rozproszeń” czyli stosunek całkowitego rozpraszania wstecz do rozpraszania na samym powietrzu – czyli “rayleighowskiego” – którego wartość da się wyliczyć teoretycznie). Oś pionowa to szerokość geograficzna (dodatnie wartości to półkula północna), a pozioma to czas. Numerami zaznaczono czas i szerokość geograficzną czterech wybuchów wulkanów. Bez wątpienia wpływają one na wartość “tła” aerozolowego na dużej części planety przez całe miesiące (pięknie na przykład widać jak pył wulkanów 1 i 2 rozchodzi się od równika w obie strony na północ i południe). Czyli większa ilość takich słabych wulkanów w danej dekadzie musi prowadzić do jej ochłodzenia w stosunku do dekad sąsiednich, nawet gdy w żadnej z nich nie ma “dużego” wulkanu.
Jednak czy ilość aerozolu w stratosferze rzeczywiście zmienia się między dekadami? Otóż tak i są na to aż cztery niezależne dowody. Trzy z nich pochodzą z pomiarów górze Mauna Loa na Hawajach na wysokości tak dużej, że w przybliżeniu wszystko co powyżej można uznać za aerozol stratosferyczny (no może nie całkiem, ale wybierano dni o najniższych wartościach grubości optycznej dla zminimalizowania wpływu wyższych warstw troposfery). Te trzy to dwa różne instrumenty mierzące grubość optyczną atmosfery z jasności tarczy słonecznej i naziemny lidar. Czwartą serią pomiarową są globalne wartości stratosferycznej grubości optycznej mierzone “od góry” z lidaru satelitarnego. Poniższy rysunek z artykułu podsumowuje je wszystkie.

W wartościach najdłuższej z tych serii – pomiarów transmisji poprzez atmosferę – widać dwa najnowsze “wielkie” wybuchy wulkanów, El Chichon (Meksyk) z 1982 i Pinatubo z 1991 roku. Środkowy panel to pomiary grubości optycznej od 1994 roku (trzy przyrządy z Mauna Loa i pomiary satelitarne). Widać wzrost średniej wartości po roku 2000. To samo potwierdzają wyniki globalne (dolny panel). Jest to istotne, bo w modelowaniu klimatycznym stosuje się wartości stratosferycznej grubości optycznej osiągające zero już w kilka lat po wybuchu Pinatubo (linie oznaczone jako GISS i Ammann et al na dolnym panelu). Oznacza to (według autorów artykułu), że od końca lat 1990 nie bierzemy pod uwagę wymuszenia radiacyjnego odpowiadającego oziębieniu o -0.07 K. A to już nie są żarty. To połowa “brakującego” ocieplenia w ostatniej dekadzie. Czyli w sumie aż za dużo, bo jeśli uwzględnić wartości jakie Kaufmann i inni (2011) przypisują zmianom wymuszeń przez aerozol troposferyczny i aktywność słoneczną, to nie zostaje nic dla ENSO. A przecież widzieliśmy, że to najważniejszy czynnik zmian międzyletnich, od wartości którego, w latach rozpoczynających i kończących serie czasową o dekadalnej długości, zależy nawet czy obserwujemy trend ocieplenia czy nie. Częściowo da się to wytłumaczyć tym, że te wymuszenie “tła” aerozolowego, odpowiadające oziębieniu -0.07 K zdaniem autorów narastało od lat 1960-ch, ale w okresie dużych wybuch w wulkanów i kilka lat po nich było przez nie zamaskowane. Czyli nie jestem pewny jak je rozłożyć na te kilka dekad po drodze. Jak to się pisze w artykułach “wymaga to dalszych badań”.
Czyli znowu nie wszystko wiemy? No, właśnie. Nikt nie obiecywał, że nauka o klimacie to obserwacyjnie najłatwiejsza gałąź nauki. A na pewno nie jest to gałąź martwa (czyli taka gdzie już wszystko odkryto). Jednak dla mnie, nawet bardziej prawdopodobne niż błędy pomiarowe jest, że nadal nie uwzględniamy wszystkich czynników naturalnej zmienności. Mówiliśmy tu o międzyletniej zmienności związanej z ENSO, ale istnieje też międzydekadowa zmienność związana ze zmianami głębinowej (dokładniej termohalinowej) cyrkulacji oceanicznej. Zwykle mierzy się ją pośrednio przez temperaturę grzanego przez nią Północnego Atlantyku. A ta w latach 1990-ch była szczególnie wysoka, co musiało wpłynąć na temperaturę globalną z definicji (stanowiąc jej integralną część).
I w tym kontekście wróciłbym do rysunku z początku tego wpisu. Dla mnie najciekawszym naukowo pytaniem nie jest – dlaczego trend temperatury po roku 1998 był tak niski? Jest na to wiele powodów wyliczonych powyżej. Naprawdę ciekawe jest to, dlaczego pierwsza polowa lat 2000-ch była tak ciepła, wyraźnie wykraczając ponad trend wieloletni? Bo była. Jeśli z tych samych danych (HadCRUT3) policzyć różnice średnich wartości globalnych dla całych sąsiednich dekad (zdefiniowanych klasycznie jako kończące się na roku z zerem na ostatniej pozycji) to różnica pomiędzy latami 1980-mi i 1990-mi wynosi +0.144 K (prawie tyle ile wynika z trendu długoterminowego). Ile zatem wynosi różnica między latami 1990-mi a tymi “zimnymi” 2000-mi? Czy będzie to wartość ujemna? Absolutnie nie. Różnica ta to +0.192 K. Tak jest, różnica miedzy latami 1990-mi a 2000-mi była większa niż pomiędzy poprzednimi dwoma dekadami i większa niż trend długoterminowy. Proponuję zastanowić się nad zdaniem “Globalnego ocieplenia nie ma od 1998, ale lata 2000-ne były cieplejsze od poprzedniej dekady i to o większą wartość niż wynika z trendu”. Absurd? Tak, absurd. Czyli mamy odpowiedź na tytułowe pytanie. Nie dość, że globalne ocieplenie nie skończyło się w 1998 roku, ale następna po nim dekada była rekordowo ciepła, tak ciepła że właściwie nie wiemy dlaczego. I chociażby dlatego warto zajmować się klimatologią.
Przypisy:
[1] Wybór okresu 11-letniego dla średnich temperatur pozwala na usuniecie cyklu aktywności słonecznej o takiej w przybliżeniu długości.
[2] Na oko tego nie widać (dane są wartościami miesięcznymi i trzeba je “optycznie” uśrednić do całych lat) ale w żadnej znanej mi serii czasowej, łącznie z przedstawioną powyżej nie ma roku cieplejszego niż 2010. Co ciekawe 2010 wygrał lub zremisował (w granicach błędu pomiarowego) z rokiem 1998 w HadCRUT3 i UAH oraz z rokiem 2005 w GISS. Różnica zdania co do poprzednio najcieplejszego roku wynika właśnie z decyzji co do przestrzennej interpolacji danych.
[3] Easterling, D., & Wehner, M. (2009). Is the climate warming or cooling? Geophysical Research Letters, 36 (8) DOI: 10.1029/2009GL037810
[4] Kaufmann RK, Kauppi H, Mann ML, & Stock JH (2011). Reconciling anthropogenic climate change with observed temperature 1998-2008. Proceedings of the National Academy of Sciences of the United States of America, 108 (29), 11790-3 PMID: 21730180
[5] Można by się nawet cieszyć z tej chińskiej “geoinzynierii” chłodzącej naszą planetę gdyby nie tragiczne skutki tego dymu dla życia w Chinach, gdzie gęsto zaludniona wschodnia część kraju pokryta jest brązowym smogiem przez większość roku.
[6] Zwraca uwagę niska czułość klimatu na wymuszenie radiacyjne, 0.3 K W-1 m2, wynikająca z podzielenia przez siebie wartości na obu pionowych osiach, co oznaczać ma zapewne że autorzy mają na myśli zmiany w przeciągu zaledwie kilku lat. Przypominam, że ze względu na olbrzymią pojemność cieplną oceanów ogrzanie naszej planety (i o jedynie w sensie dolnych warstw atmosfery, które jednak mają styczność z oceanem) trwa dość długo, czyli im dłużej poczekamy tym większy efekt temperaturowy będzie miało to samo wymuszenie radiacyjne (o ile działa trwale).
[7] Solomon S, Daniel JS, Neely RR 3rd, Vernier JP, Dutton EG, & Thomason LW (2011). The persistently variable “background” stratospheric aerosol layer and global climate change. Science , 333 (6044), 866-70 PMID: 21778361
Hits: 2397
Prawdopodobnie masz rację. Z tym, że nadal nie rozumiem celu tej operacji. Ponieważ metoda Cowtan & Way nie działa bez satelitów to po co tworzyć serię z małą ilości stacji? Normalnie takie rzeczy się robi aby mieć jednolitą (“homogeniczną”) serię. Bierze się tylko stacje, które istnieją w całym (lub prawie całym) okresie trwania serii. Jednak w tym wypadku nie ma mowy i tak o homogeniczności jeśli metoda się zmienia (a raczej zaczyna mieć sens) w 1979 roku. Powinni moim zdaniem powinni po prostu dokleić stare wyniki HadCRUT4 do swojej serii od 1979 roku. Aby sklejenie było gładkie powinni dodać/odjąć czynnik o jaki obie serie różnią się w pierwszych latach po 1979 (nie w całym okresie satelitarnym bo przez Arktykę ich seria ma prawo mieć inny trend niż HadCRUT4 któremu tej części świata brakuje).
W Nature wspominają o informacji WMO, że średnia używanych także tu serii temperatur miesięcznych dla okresów styczeń-październik (tak jak u mnie) już daje najcieplejszy rok w historii:
Że też ja na to nie wpadłem. Będę musiał to zrobić przy okazji.
W serii GISS wyraźnego rekordu chyba nie będzie. Pojawił się wynik za listopad i średnia grudzień – listopad wynosi 0.66.
W 2010 średnia roczna również była 0.66. Jak anomalia grudniowa nie spadnie poniżej 0.55 to wynik się utrzyma, jak będzie co najmniej 0.7 to średnia będzie 0.67.
Jak prognozy na grudzień?
Ano zobaczmy. W serii GISS ten listopad był dopiero 9-ty
Pierwsza 12-ka grudni:
2013 0.75
2010 0.74
2009 0.71
2005 0.70
2004 0.69
2006 0.69
2012 0.68
2001 0.67
2014 0.65
2008 0.62
1997 0.61
2002 0.58
Czyli rok 2014 stracił i do 2005 i 2010. Natomiast zyskał do 1998. Z tym, że w przypadku byłych lat wiemy jakie wyniki miały i w grudniu. Rezeczywiście w skali roku najcieplejszy jest 2010 (anomalia 0,66) i to z nim się tak naprawdę “ściga” rok obecny.
Zatem jak to wygląda po 11 miesiącach?
2010 0.677
2014 0.667
2005 0.651
2007 0.632
2002 0.622
1998 0.614
Różnica jest rzędu 0,01 C w skali rocznej. Czyli trzeba przebić w grudniu 2010 o jakieś 0,12 C. Czy jest to możliwe? Moim zdaniem jest bo grudzień 2010 miał anomalię… 0,44 C. Tak, tylko tyle. A wobec indeksów NINO3 i NINO3.4 mających w ostatnim tygodniu wartość (czyli też w sumie anomalię temperatury) wynoszącą 0,9 grudzień w okolicach 0,70 wydaje się bardzo prawdopodobny..
A jakie są prognozy? Oto dane do dziś plus prognoza na tydzień.
http://www.karstenhaustein.com/reanalysis/gfs0p5/ANOM2m_equir/ANOM2m_fcstMTH_equir.html
W tej chwili pokazuje to anomalię 0.237 C co w przeliczeniu na okres bazowy używany przez GISS daje 0,62 C. A o ile dobrze liczę to wystarczy zaledwie 0,56 C aby wyrównać rekord roczny 2010.
Natomiast w NCDC tak to wygląda:
Niby podobnie. Obecny listopad jest na 8-ym miejscu. Oto pierwsza 12-ka
2013 0.78
2004 0.75
2010 0.74
2005 0.71
2001 0.68
2012 0.66
2008 0.65
2014 0.65
2006 0.63
2009 0.62
2002 0.60
2003 0.58
Natomiast za 11 miesięcy nasz rok już wyszedł na prowadzenie!
2014 0.676
2010 0.670
2005 0.649
1998 0.635
2002 0.619
2013 0.614
Czyli tu raczej nic naszemu ulubionemu “rokowi” rekordu już chyba nie zabierze.
Do kompletu dodaję jak wyglądał listopad (nie grudzień jak pisałem wyżej – już poprawione) w serii HadCRUT4. Listopad był dopiero 11-y:
2005 0.628
2013 0.628
2001 0.608
2004 0.594
2010 0.587
2012 0.547
2009 0.546
2006 0.543
2008 0.521
1997 0.498
2014 0.487
2003 0.457
Natomiast stan po 11-u miesiącach wygląda tak:
2010 0.5757
2014 0.5580
2005 0.5510
1998 0.5425
2002 0.5113
2009 0.5071
Czyli rok 2014 na drugim miejscu za 2010.
Jeszcze bardziej do kompletu, w serii Cowtan i Way (HadCRUT4 z lepszą interpolacją obszarów polarnych) ten listopad był 10-ty najcieplejszy:
2013 0.713
2010 0.697
2012 0.692
2001 0.689
2009 0.659
2005 0.642
2006 0.632
2004 0.607
2008 0.591
2014 0.568
1997 0.554
2007 0.518
Po 11-u miesiącach też drugie miejsce, ale ze znacznie większą przewagą roku 2010. Czyli tu rekordu rocznego może nie być – sceptycy zaczną kochać tą serię danych 😉
2010 0.6551
2014 0.6092
2005 0.5910
2007 0.5840
2009 0.5581
2002 0.5388
Rok 2014 jest rekordowy zarówno w serii GISS (NASA) jak i NCDC (NOAA). Zaraz to oficjalnie ogłoszą ale już sobie to można wyliczyć. Zaraz podam dane grudniowe ale najpierw za cały rok.
Oto wykres całych lat w serii GISS:
Pierwsza 12-ka pełnych lat wg NASA:
2014 0.675
2010 0.658
2005 0.652
2007 0.618
1998 0.608
2002 0.602
2013 0.595
2003 0.590
2009 0.588
2006 0.586
2012 0.570
2011 0.546
Przewaga prawie dwóch setnych stopnia. Niedużo ale zawsze. Rok 1998 od którego rzekomo nie mamy globalnego ocieplenia jest dopiero piąty.
a to w serii NCDC:
Oto pierwsza 12-ka pełnych lat wg. NOAA:
2014 0.689
2010 0.654
2005 0.649
1998 0.633
2013 0.622
2003 0.618
2002 0.608
2006 0.596
2009 0.594
2007 0.590
2012 0.576
2004 0.572
Tu rekord jest o ponad 3 setne. Natomiast 1998 jest czwarty.
No, no. Pobiłem te dwie agencje z tym newsem o 7 minut 🙂
Gratulacje za szybkość.
I tylko się należy zastanawiać – czy cieszyć się – bo rekord trochę chociaż przymknie denialistów i jakoś zwiększa szansę na reakcję, czy smucić się – bo katastrofa nieubłaganie nadciąga.
A swoją drogą – której serii GISS używasz?
Jak sprawdziłem na szybko, to dla serii LOTI od 1880 roku dostałem wynik
2010 – 65,75
2014 – 67,17
A zatem mniej niż te dwie setne u Ciebie – dokładniej 0.0142.
???
Używam tej:
http://data.giss.nasa.gov/gistemp/tabledata_v3/GLB.Ts+dSST.txt
A czy się smucić czy cieszyć? Smucić się trzeba, że ludzkość nic z tym problemem nie robi. Ale z samego rekordu raczej cieszyć bo to może dać do myślenia. A parę setnych stopnia mniej w 2014 roku i tak by nie rozwiązało problemu.
Artykuł z WP z roku 2013:
“Gorzej, jeżeli nie myli się i w tym przypadku – Abdusamatow twierdzi bowiem, że już w 2014 roku rozpocznie się epoka lodowcowa. ”
http://pogoda.wp.pl/kat,1035641,title,Abdusamatow-straszy-zima-wszech-czasow-Mamy-sie-czego-bac,wid,16036203,wiadomosc.html
O rekordzie temperatury w 2014 roku jeszcze na WP nic nie mają. Zaskoczyło ich to?
Tamino ostatnio się znowu ożywił i napisał dwie notki o trendach. Ja mu wrzuciłem dwa komentarze do ostaniej notki, z obserwacją i zapytaniem. Jestem ciekaw i twojego zdania na ten temat, więc wkleję tutaj poniżej.
—
[komentarz #1 – do notki https://tamino.wordpress.com/2015/01/20/its-the-trend-stupid-3, wspomniana w tekście komentarza poprzednia notka to https://tamino.wordpress.com/2014/12/09/is-earths-temperature-about-to-soar/%5D
Looking at the data and plot from the previous post, I just wonder if we should expect next really big record in few closest years?
In the last seven years (with two records in 2010 and 2014) we have had only one year above the trend and six years below trend, with four years roughly sitting at one standard deviation below trend. While this can happen due to fluctuations, nevertheless if this happens few more times it would be evidence of the change in the trend.
Question is how many more years without relatively large deviation (say one sigma) above the trend we can have before the trend itself should be modified?
[komentarz #2 – jeszcze nieopublikowany]
Followup to previous question and a little extension.
The linear trend is the best explanation of data now. Denialists love to perform mathturbations with cycles that would explain everything and its bullshit. Basic physics tells us that we should expect linear trend and we observe linear trend. Nevertheless, it is still possible that some multidecadal oscillation is real. The plausible physical mechanism is redistribution of heat between northern (land and ocean) and southern (mostly ocean) hemisphere. Assuming that this is real, and that the full cycle is about 60 years, and that minimum was around 1970, we probably could already estimate bounds on the size of this contribution. It certainly cannot be large – with these assumptions we are in the phase with fastest decrease of temperature due to cycle and yet we have just achieved the record high temperature. Nevertheless, if the cycle is real then the in the next fifteen years we may expect slow growth or even “pause”.
Playing with excell graphs – certainly not best tool around – I have checked that model that assumes linear trend at 0.015 K/year starting at 1970 looks reasonably well when 60 years cycle with amplitude 0.1 (0.2 difference between max an min) is added.
With amplitude increased to 0.15 the trend has to be decreased to about 0.012 K/year and fit to data is still not bad, but this is as far as you can go.
When I put amplitude of the cycle below 0.05K the change in future trend was minimal, but with amplitude at 0.1 the differences for the next few years are significant, and with aplitude 0.15 they are really large. With the last value we could expect more or less stable temperatures for the next 15 years or so.
So – to sum up – the linear trend is currently the best explanation of data, but in the next two or three years we will see, whether it should be augmented – for example with a 60-years cycle.
@pohjois
Przeczytałem oba wpisy Tamino i jeszcze jeden wspomniany tam Stephana. Bardzo ciekawe.
A co do Twojego pytania to przy wymuszeniu rosnącym więcej niż liniowo jeśli trend nie przyspieszy w najbliższych 10 czy trochę więcej latach to może być właśnie spowodowane nałożeniem się na ten trend cyklu multidekadowego związanego z oceanem. To, że przy minimalnym bo minimalnym ale El Nino jesteśmy dokładnie na trendzie może być pewnym sygnałem, że coś w tym jest. Nie zmienia to faktu, że 2015 będzie cieplejszy niż 2014 jeśli w najbliższym czasie nie wybuchnie duży wulkan. Fizyk od klimatu Ci to mówi. Natomiast nie spodziewałbym się podobnej odpowiedzi w kwestii przyszłych rekordów od statystyka. O statystyce mógłbym się jeszcze wiele od niego nauczyć. O procesach klimatycznych jednak raczej niewiele.
Ja Tamino pytałem o to kiedy statystyk może zauważyć, że jednak trend nie jest liniowy.
Ja mam wrażenie, że jeżeli kolejne dwa trzy lata wypadną poniżej trendu, to trzeba będzie uznać istnienie spowolnienia – ale to tylko intuicja.
A fizyka chciałem spytać czy są przesłanki do zakładania istnienia regularnej oscylacji i jaka może być jej amplituda.
Poza oscylacją mogą być inne przyczyny ewentualnego spowolnienia – przede wszystkim zadymienie w Azji.
Pytanie, czy to można jakoś odróżnić?
Spowolnienia wcale nie musi być przy wyścigu coraz większych emisji CO2 i fazy cyklu AMO sprzyjającemu eksportowi ciepła do oceanu.
Bo to moim zdaniem ma związek z cyrkulacją oceaniczną, której wyrazem są oscylacje temperatury powierzchniowej Północnego Atlantyku (i wyniku tego sąsiadujących lądów) o obserwowanej długości rzędu 65 lat. Hipotez co do mechanizmu jest kilka i ja mam największe zaufanie do najprostszej (fizycy tak mają). A jet to po prostu adwekcja zmian zasolenia z Karaibów do okolic subarktycznych. Wiemy trzy rzeczy: 1) zmiany zasolenia wód subarktycznych wpływają na intensywność cyrkulacji termohalinowej i grzania półkuli północnej. 2) Zmiany temperatury jednej półkuli względem drugiej powodują przesunięcie strefy konwergencji tropikalnej (dla laików: deszczy tropikalnych) w stronę cieplejszej półkuli, 3) Przesunięcia tej strefy wpływają na deszcze w rejonie Karaibów a zatem na zasolenie tropikalnego Atlantyku. Pozostaje tylko pytanie jak szybko takie “sygnały zasolenia” przepływają stamtąd do rejonów subarktycznych. Wiele wskazuje, ze wolniej niż by to wynikało z tempa płynięcia prądów. W skrócie: wiry o różnej skali komplikują zjawisko i wymagają w zasadzie wypełnienia całych powierzchniowych wód Atlantyku Północnego tymi wodami zanim dopłyną do okolic Islandii. W zasadzie nie znamy odpowiedzi (za krótki okres obserwacji) ale jeśli to jest ok 30-35 lat to mamy mechanizm. Sam sobie dopowiesz jak to działa?
A przy okazji wiemy już że zmiany AMO to nie tylko zmiany transportu na północ ale także wymiany ocean-atmosfera. Także ciepła. Dlatego AMO ma prawo wpływać na temperaturę globalną. Powierzchniową oczywiście, bo gdy jest większy strumień do oceanu to powierzchnia jest chłodniejsza niż byłaby bez tego a wody paręset metrów niżej cieplejsze. I to akurat jest obserwowane na Atlantyku. Niestety tylko od kilkudziesięciu lat (niecały jeden cykl).
Próbowano nawet oszacować jak bardzo AMO może wpłynąć na temperaturę globalną traktując je jako wymuszenie w analizie “atrybucji” (przypisania ile ocieplenia odpowiada któremu wymuszeniu). Wychodzi na to, że w skali dekadalnej AMO może zmieniać trend nawet o 20%. To na tyle niewielki wpływ (i na tyle duży), że jego spadek może co do rzędu zamaskować przyspieszenie trendu. I dlatego nie śpieszyłbym się z korektą trendu w dół na podstawie krótkoterminowych serii danych bo potem trzeba będzie korygować znowu w górę 🙂
Ja w żaden sposób nie sugeruję, że spowolnienie już widać. Natomiast zauważam, że jeśli w najbliższych dwóch – trzech latach nie będzie kolejnych rekordów (i to raczej spektakularnych – koło 0.05K a może nawet 0.1K) to być może to już będzie oznaka że spowolnienie wzrostu temperatur powierzchniowych może być realne.
Po prostu szansa na losowe wystąpienie N kolejnych lat poniżej trendu maleje jak od pewnego momentu jak 1/(2^N) więc przy N około 8 to już się robi mało a przy N=9 jest statystycznie istotne.
Zauważ, że wszystkie rekordowe lata przed 2010 były odchylone od trendu powyżej 1 sigma, a teraz mamy rekord dokładnie na trendzie. Jakbyśmy mieli mieć w roku 2015 porządny rekord co najmniej o 1 sigmę ponad trendem, to rekord by musiał być powyżej 0.05K (chyba około 0.07K) wyższy niż w tym roku.
Co chyba jest całkiem realne swoją drogą.
Rzecz w tym, że ilość zjawisk El Nino i La Nina w konkretnej dekadzie nie musi być losowa, a od tego zależy ile i jakich rekordów mamy w dekadzie. Niektórzy zaczynają podejrzewać cykliczność i w tej dziedzinie. Kilka olbrzymich El Nino w latach 1980-ch i 1990-ch i brak dużego El Nino przez następne kilkanaście lat. Ma to już nawet nazwę: Interdecadal Pacific Oscillation (ni mylić z Pacific Decadal Oscllation bo to co innego). Tu jest jeden ze sztandarowych artykułów tego kierunku:
http://www.cgd.ucar.edu/cas/Trenberth/website-archive/trenberth.papers-moved/Meehl_etal_2013a.pdf
A co do rekordów o 0,05 do 0,10 C to zdziwiłbym się gdyby 2015 nie spełnił Twoich oczekiwań. Przy rosnącym wymuszeniu gazów cieplarnianych nawet dziadowskie El Nino powinno dać spektakularny rekord. Wszystkie poprzednie rekordy od 1998 roku były podczas lat z rozwiniętym El Nino, nie jednym przed. To rok 2014 był tu wyjątkiem: rekordem bez oficjalnego rozwiniętego El Nino.
W 1997 roku też był rekord. Jeżeli masz rację, to 2015 powinien na jakiś czas zakończyć gadanie o końcu globalnego ocieplenia.
Zobaczymy za rok.
W serii HadCRUT4 rok 2014 też był najcieplejszy:
2014 0.564
2010 0.556
2005 0.544
1998 0.537
2003 0.508
2006 0.505
Tak to wygląda na wykresie (najcieplejsze lata w całej historii pomiarów):
Natomiast grudzień nie był najcieplejszy. Pobił go… rok 2006.
Najcieplejsze grudnie:
2006 0.701
2014 0.632
2003 0.593
1997 0.507
2013 0.506
1998 0.473
2005 0.470
2009 0.470
2011 0.400
1999 0.388
2008 0.385
2001 0.370
W serii GISS (zwanej wg. niektórych GISTEMP) styczeń 2015 był drugim najcieplejszym styczniem w historii pomiarów:
Oto najcieplejsza dwunastka:
2007 0.93
2015 0.75
2002 0.71
2003 0.71
2005 0.68
2014 0.68
2010 0.65
2013 0.61
1998 0.59
2009 0.56
2004 0.55
2006 0.53
Ciekawy jest ten “strzał” najcieplejszego stycznia w historii czyli stycznia 2007. Jednak są “strzały” i w drugą stronę. Styczeń 2011 był dopiero 18-ty (+0.45), a 2012 był 22-gi (+0.38). Widać, że stycznie mają większy rozrzut (“zmienność naturalną”) niż większość miesięcy. Pewnie jest to związane ze zmiennością międzyroczną zimą na kontynentach, a te jak wiadomo leżą głównie na północnej półkuli powodując, ze np, styczeń ma znacznie większą zmienność niż lipiec.
Nawiasem mówiąc styczeń 2015 jest nad trendem na rysunku wynoszącym 0.12 C/dekadę. Więc albo jest to styczeń nietypowo ciepły, nawet po odjęciu globalnego ocieplenia, albo trend za lata 1980-2015 jest zaniżony właśnie “zmiennością naturalną”. Każdy może sobie wybrać ulubioną odpowiedź ale i tak przyszłość pokaże, która była prawdziwa.
A jak się mają kolejne miesiące?
Trochę nadrabiania zaległości w dziedzinie comiesięcznych raportów klimatycznych. Dla uproszczenia pozostanę przy danych GISS.
Luty 2015 był najcieplejszy w historii.
2015 0.89
1998 0.87
2010 0.79
1995 0.77
2002 0.75
2006 0.72
W marcu obecny rok zajął drugie miejsce:
2010 0.93
2015 0.91
2002 0.90
2014 0.79
1990 0.75
2008 0.75
W kwietniu rok 2015 był “aż” na piątym miejscu:
2010 0.89
2014 0.81
2007 0.77
2005 0.71
2015 0.71
2012 0.70
W maju nasz 2015 był czwarty:
2014 0.88
2012 0.77
2010 0.76
2015 0.73
2007 0.69
1998 0.68
Za to w czerwcu rok 2015 zremisował na pierwszym miejscu ze sławetnym 1998. Tak przy okazji tu świetnie widać, ze to był naprawdę wyjątkowy rok, odstający wyraźnie od trendu.
1998 0.76
2015 0.76
2009 0.68
2005 0.67
2013 0.67
2010 0.66
2014 0.66
2006 0.64
2012 0.64
2011 0.60
2007 0.59
2002 0.55
Ponieważ dochodzimy do współczesności podaję całą pierwszą 12-kę. Oczywiście wszystko oprócz 1998 roku jest już z XXI wieku.
Co ciekawe po sześciu miesiącach “nasz” rok prowadzi, a sławetny 1998 (kiedy “zakończyło się globalne ocieplenie”) jest dopiero szósty:
2015 0.802
2010 0.795
2007 0.742
2014 0.735
2002 0.695
1998 0.683
Może kogoś to zainteresuję więc podaję, że trend dla ostatniego rysunku (danych z miesięcy styczeń – czerwiec od 1980 roku) to 0,148 C/dekadę. Czyli na prawdę nie widać w danych żadnego spowolnienia globalnego ocieplenia.
Okazuje się, że w nowej wersji analizy temperatur powierzchni morza ERSST v4 był błąd. Po jego uwzględnieniu zaszły drobne zmiany miedzy danymi dla różnych lat. Np. w lutym 2015 spadł na drugie miejsce, w marcu na trzecie, w kwietniu jest nadal na czwartym ale teraz już samodzielnie, za to w maju awansował na drugie, ex equo z 2012, a w czerwcu jest teraz samodzielnym liderem.
Ogólnie to wiele nie zmieniło bo po sześciu miesiącach jest teraz tak (można porównać z poprzednim komentarzem):
2015 0.817
2010 0.783
2007 0.733
2014 0.718
1998 0.707
2002 0.700
Kolejność się nie zmieniła, z wyjątkiem awansu 1998 z 6-go na 5-te miejsce, ale różnice się zwiększyły. Oto poprawiony wykres:
Wiem, ze denialiści znów wystrzelą na orbitę z wściekłości ale błędy się zdarzają w programach komputerowych i trzeba je poprawiać.
Dalej w ramach nadrabiania zaległości, sześc pierwszych miesięcy tego roku z danych NOAA – czyli do niedawna NCDC – teraz ta nazwa się zmieniła ale nie pamiętam na co 😉
Podaję dane od stycznia do maja tylko dane, i to jedynie pierwsza trójka (zobaczycie dlaczego):
Styczeń 2015 był drugi najcieplejszy w historii:
2007 0.89
2015 0.81
2002 0.70
Luty 2015 był rekordowy:
2015 0.90
1998 0.87
2002 0.79
Marzec 2015 był (zgadliście już?) też rekordowy:
2015 0.90
2010 0.85
2002 0.79
Kwiecień 2015 był (tu zaskoczenie) dopiero trzeci:
2010 0.83
2014 0.81
2015 0.78
Maj 2015 był za to znów rekordowy:
2015 0.86
2014 0.80
2010 0.76
A czerwiec 2015 był rekordowy, aż o 0,12 C!
2015 0.88
2014 0.76
2010 0.73
Za całe pierwsze 6 miesięcy roku łącznie obecny rok 2015 jest także najcieplejszy:
2015 0.855
2010 0.763
2014 0.720
1998 0.700
2007 0.687
2002 0.670
Proszę zwrócić uwagę na to, że sławetny 1998 jest chłodniejszy od obecnego o ponad
1,50,15 C!I jeszcze ciekawostka. To jest porównanie globalnej temperatury “lat” zaczynających się w lipcu i kończących w czerwcu z damych GISS. W ten sposób wykorzystujmy dane do najnowszego miesiąca porównując je z analogicznymi okresami 12-miesięcznymi z przeszłości.
Najcieplejsze “lata” od lipca do czerwca to:
2014-2015: +0.692
2009-2010: +0.638
2006-2007: +0.607
2013-2014: +0.607
2005-2006: +0.549
2012-2013: +0.539
Zauważalny jest brak “roku” 1997-1998 (+0.521), który jest dopiero na 8-ym miejscu. Czy zatem ktokolwiek jeszcze twierdzi, że globalne ocieplenie skończylo się w 1998 roku?
Korekta obywatelska: pierwsze półrocze 1998 było chłodniejsze od bieżącego o 0,15C, a nie o 1,5C (na szczęście 😉 )
Dzięki. Poprawiłem.
I ciesze się, bo to oznacza, że ktoś jednak to czyta 🙂
Przyjrzałem się nowej wersji danych GISS i mam wątpliwości, czy oni poprawili dane, czy popsuli. Źródłem wątpliwości są temperatury globalne w latach 1940-1945. Wszystkie pięć lat z drugiej wojny światowej mają wyraźnie wyższe anomalie niż lata poprzedające i następne. Wygląda na efekt systematyczny.
A poza tym, fajnie, że jest nowa notka. Dawno nic się tu nie działo…
Pozdrowienia
Myślę, że te poprawki dla czasów wojny to dalszy ciąg prób homogenizacji brytyjskich pomiarów temperatury wody morskiej przy pomocy wiadra i amerykańskich przy pomocy termometru w rurze wlotu wody chłodzącej silnik statku. A dokładniej problem okresu gdy brytyjskim statkom handlowym zabroniono pobierać wodę do tych pomiarów (czyli właśnie II Wojny Światowej).
Te ostatnie zmiany opisane są w Karl i inni (2015), http://dx.doi.org/10.1126/science.aaa5632. O wiadrach też tam jest:
“These networks of observations are always undergoing change. Changes of particular importance include (i) an increasing amount of ocean data from buoys, which are
slightly different than data from ships; (ii) an increasing amount of ship data from engine intake thermometers, which are slightly different than data from bucket seawater temperatures; and (iii) a large increase in land-station data, which enables better analysis of key regions that may be warming faster or slower than the global average. We address all three of these, none of which were included in our previous analysis used in the IPCC report”
Ja już o tym problemie z wiadrami, wlotami i bojami czytałem, zapewne u Jego Doskonałości, albo w SkepticalScience. Ale efekt dla 1940-1945 jest wyraźny – w kolejnych latach 1930-1950 średnie temperatury wynoszą:
1930:
-13, -9, -16, -28, -13, -19, -14, -1, -2, -3
1940
8, 13, 10, 14, 26, 13, -3, -3, -9, -9,
1950
-18
Wyraźnie wyróżniony okres wojenny z dodatnimi anomaliami. To może być przypadek, ale to chyba małoprawdopodobne.
Inne potencjalne źródło wzrostu to, że ze względu na toczące się działania wojenne znacząco spadło zadymienie w Europie.
Zerknąłem jeszcze na dane strefowe.
Na pólkuli północnej w porównaniu z dziesięcioleciem 1930-39 temperatura średnia w okresie 1940-45 wzrosła o 0.16 a na południowej o 0.41. Potem po wojnie na półkuli północnej spadła praktycznie do poziomu przedwojennego, a na południowej została na poziomie o mniej więcej 0.1 wyższym niż przed wojną.
Bardzo to sugeruje na wpływ sposobu mierzenia temperatur w oceanie.
Nie wiem czy to już się udało oczyścić z artefaktów pomiarowych ale samej różnicy temperatur między półkulami nie używałbym do homogenizacji. Ta różniąca to właśnie miara intensywności cyrkulacji, którą po polsku ciągle nazywamy termohalinową (po angielsku to obecnie “meridional overturning circulation”).
Globalne ocieplenie skończyło się w zeszłym roku. Tak przynajmniej denialista zrozumie dane GISTEMP za sierpień.
Oto 12 najcieplejszych sierpni w historii pomiarów:
2014 0.82
2015 0.81
2011 0.74
2006 0.71
1998 0.69
2009 0.68
2003 0.66
2013 0.66
2010 0.65
2012 0.64
2005 0.63
2007 0.61
W pierwszej 12-ce tylko jeden rok z zeszłego stulecia, nie trudno zgadnąć który.
Natomiast żaden denialista nawet nie tknie tych danych, dotyczących średniej za pierwsze 8 miesięcy danego roku:
2015 0.81125
2010 0.75250
2014 0.71625
1998 0.70375
2007 0.70375
2002 0.67000
Pokazałem tu tradycyjnie 6 najcieplejszych “lat” styczeń-sierpień ale mógłbym więcej aby pokazać, ze wśród najcieplejszych 16 “lat” tego typu, aż 15 było w tym stuleciu zaczynającym się od 2001 roku. Proszę sobie samemu policzyć czy jakiegoś z tego stulecia brakuje w pierwszej 16-ce. To tak a propos “zakończenia” globalnego ocieplenia, pauzy, czy innego “hiatusu”.
Jak na średnią z 2/3 roku ta przewaga o 0,06 C nad rokiem 2010 i 0,1 C nad 1998 jest naprawdę imponujące. Rok 1998 był najsilniejszym El Nino jakie zanotowaliśmy i chociaż obecne też jest silne, to jeszcze nie aż tak.
I oczywiście czekam aż denialiści zaczną mówić, ze rekordy temperatury w 2014 i 2015 roku się nie liczą bo padły podczas ciepłego El Nino. Oczywiście ci sami denialiści, którzy liczyli przez ponad 10 lat trendy wyłącznie od El Nino z 1998 roku 😉
W temacie tego wpisu, czyli rzekomym zatrzymaniu globalnego ocieplenia po 1998 roku ukazał się ciekawy artykuł (Lewandowsky i inni 2015) pokazujący jak to w gruncie rzeczy nieistniejące zjawisko wpłynęło na środowisko naukowe, które nie tylko przyjęło terminologię denialistów (pause, hiatus itp.) ale jeszcze poświęcało czas na tworzenie artykułów naukowych mających wytłumaczyć czemu istnieje coś co w sensie istotności statystycznej nigdy nie istniało. Czuję się dowartościowany bo ja taki pogląd (o bzdurności tego “hiatusu”) przyjąłem od samego początku, czego powyższy wpis z 2011 roku jest niezaprzeczalnym świadectwem 🙂
Cały artykuł dostępny jest (jak się wydaje za darmo) tutaj:
http://www.sciencedirect.com/science/article/pii/S0959378015000515
Denialiści powinni jednak polubić GISTEMP bo seria NOAA (dawniej zwana NCDC) jest jednak cieplejsza:
W serii NOAA sierpień nie tylko jest najcieplejszy, ale o ile!
2015 0.88
2014 0.79
2009 0.70
1998 0.67
2012 0.66
2013 0.66
2010 0.65
2005 0.62
2006 0.62
2003 0.61
2011 0.61
2001 0.59
Natomiast pierwsze 8 miesięcy w roku… tak samo.
2015 0.84500
2010 0.74375
2014 0.71875
1998 0.69500
2005 0.64375
2007 0.64375
Zasadniczo jak ma wyglądać globalne ocieplenie, jeśli nie tak?
No to pora wrzucić dane globalne za wrzesień. Najpierw GISS (czyli NASA):
W danych NASA globalne ocieplenie wrześniowe skończyło się ewidentnie w zeszłym roku bo wrzesień 2015 jest “dopiero” drugi 😉
Oto pierwsza szóstka:
2014 0.90
2015 0.81
2005 0.77
2013 0.77
2012 0.75
2009 0.70
Rok 1998 jest dopiero 14-ty więc nie ma co dla niego przedłużać listy.
Natomiast pierwsze 9 miesięcy roku było najcieplejsze w historii pomiarów.
Pierwsza szóstka:
2015 0.805
2014 0.738
2010 0.737
2007 0.696
1998 0.678
2005 0.673
Tu 1998 jeszcze się mieści na liście, na piątym miejscu.
Tyle NASA. Teraz kolej na dane z NOAA. I co ciekawe od niedawna są one “cieplejsze” niż seria NASA. Ponieważ różnia się głównie interpolacją rejonów polarnych (NOAA zostawia białą plamę daleko od stacji pomiarowych a NASA agresywnie ekstrapoluje na całą Arktykę i Antarktydę) to pewnie oznacza, że są one chłodniejsze niż w ostatnich latach, w przeciwieństwie do reszty świata.
Oto wykres dla danych wrześnniowych:
i pierwsza szóstka:
2015 0.90
2014 0.79
2012 0.72
2009 0.71
2005 0.69
2013 0.68
Zwraca uwagę duża przewaga września 2015 nad następnym (zeszłorocznym) oraz to, ze wśród najcieplejszych 6 wrześni, 4 są… najnowszymi czterema w serii.
Jeszcze bardziej widać jak wyjątkowy mamy rok w danych NOAA za pierwsze 9 miesięcy roku:
Oto sześć najcieplejszych “lat” styczeń-wrzesień w danych NOAA:
2015 0.853
2014 0.734
2010 0.726
1998 0.678
2005 0.652
2013 0.642
Ho, ho. Prawie 0,2 C nad rokiem 1998 gdy skończyło się ponoć globalne ocieplenie. Czas aby ci, którzy tak twierdzili weszli pod stół i to odszczekali. Ale nie podejrzewam ich o taką uczciwość w tej kwestii.
Dodam jeszcze dane z serii HadCRUT4 za wrzesień. Wygląda to dość wstrząsająco, nawet jak na El Nino:
Pierwsza szóstka:
2015 0.786
2014 0.589
2005 0.566
2009 0.564
2012 0.553
2003 0.542
Pierwszy rok spoza tego stulecia to 1997 na 9-ym miejscu. Wrzesień 1998 jest dopiero 17-ty (tamto silne El Nino to była druga polowa 1997 i pierwsza 1998.
Za pierwsze dziewięć miesięcy tego roku mamy natomiast tak:
Tu już widać El Nino z roku 1998, z powodów które wymieniłem. Ale do końca roku różnica między 2015 a 1998 jeszcze wzrośnie (z tych samych powodów).
Pierwsza szóstka za miesiące styczeń-wrzesień:
2015 0.7037
2010 0.5863
1998 0.5858
2014 0.5630
2005 0.5373
2002 0.5314
Pięć pierwszych lat na tej liście to wszystko lata El Nino, z tym że 2005 to był bardzo słaby epizod. El Nino z 2010 też nie było największe ale i tak cieplejsze niż 1998. Czegóż to nie zdziała rosnące wymuszenie gazów cieplarnianych…
A Marcin D niech śmiało pyta o klimat. W każdym razie jestem ten sam Arctic Haze co na blogu Piotra Djakowa, jeśli to chciał sprawdzić 🙂
Bo kto pyta, ten nie błądzi 🙂
Na blogu Tamino jeden z komentatorów twierdził, że z październik w GISSTemp będzie miał o 0.4 stopnia więcej niż wrzesień. To by był niesamowity skok. Po pierwsze to byłby rekord anomalii i to ponad 0.2 K. Po drugie sam skok byłby niezwykle rzadko spotykany. Po trzecie taki skok w zasadzie zagwarantowałby, że 2015 będzie cieplejszy niż 2014 i to z dużym zapasem.
Czy to się sprawdzi – zobaczymy bardzo niedługo. A ja się zastanawiam jak można zrobić takie oszacowanie. Nie udało mi się znaleźć danych dziennych GISS – może ty wiesz gdzie takie dane można znaleźć – GISS czy w ogóle dzienne dane globalne?
Wydaje mi się, że nie ma czegoś takiego jak codzienne wartości GISTEMP. Po prostu dlatego, że tenże wyliczany jest z dwóch serii produkowanych przez NOAA (dane meteorologiczne i oceanograficzne) wypuszczanych co miesiąc. Gdy te dane są już dostępne (koło 10-go każdego miesiąca) mozna sobie z dużym przybliżeniem wyliczyć własny GISTEMP przy pomocy programu open-source pt.: ccc-gistemp
https://github.com/ClimateCodeFoundation/ccc-gistemp/blob/master/config/sources
i wiem, że np. Piotr Diaków to robi. Może powinieneś jego zapytać.
Są pewne “protezy” jak reanalizy. No. NCEP/NCAR jest reanalizą opóźnioną w stosunku do rzeczywistości tylko 2 do 3 dni i dałoby się już policzyć październik globalnie. Z tym, że i tak nie wyjdzie dokładnie to samo więc ja wolę poczekać jeszcze pare dni i mieć oficjalny wynik.
PS. takie uśrednienie z użyciem reanalizy NCEP/NCAR dostepne jest tu:
http://www.moyhu.blogspot.com.au/p/latest-ice-and-temperature-data.html#NCAR
I rzeczywiście październik odstaje w górę! Ale poczekajmy na serie pochodzące wyłącznie z danych pomiarowych.
Piotrek już zrobił reanalizę za październik:
http://meteomodel.pl/BLOG/?p=11232
Dzięki za komentarz i info. Zajrzałem do tych reanaliz i rzeczywiscie prognozują, że październik będzie dużo cieplejszy niż wrzesień. Różnica raczej nie 0.4 stopnia, ale może 0.2 co i tak byłony największą anomalią kiedykolwiek notowaną. Ale zobaczymy za parę dni.
No to mamy niespodziankę: w serii GISS w październiku 2015 mieliśmy po raz pierwszy anomalię większa niż jeden stopień! Anomalia w stosunku do lat 1951-1980 wyniosła +1,04 C.
Wykres chyba ostatecznie grzebie mit o zatrzymaniu się globalnego ocieplenia w 1998 roku:
Z tej okazji pokażę całą 12-kę najcieplejszych październików w historii pomairów:
2015 1.04
2014 0.86
2005 0.80
2012 0.79
2003 0.75
2006 0.71
2010 0.71
2013 0.69
2008 0.67
2004 0.66
2011 0.66
2009 0.65
Są to wszystkie lata od 2003 roku z wyjątkiem jedynie października 2007.
A jak wygląda to jeśli policzyć anomalie dla pierwszyh 10 miesięcy roku (okres I-X)? O tak:
W pierwszej szóstce nie ma już roku 1998 (jest siódmy):
2015 0.822
2014 0.745
2010 0.733
2007 0.686
2005 0.683
2002 0.654
A jak tam trendy od roku 1980? Dla października to jest +0,179 C/dekadę al dla okresów I-X odpowiednio +0,170 C/dekadę. Czyli bajania o spowolnieniu też można schować na półkę.
Mamy w zasadzie gwarancję kolejnego rekordowego roku. Kumulacyjna nadwyżka anomali nad poprzednim rokiem wynosi 0.84. Żeby rekordu nie było anomalie w listopadzie i grudniu musiałyby spaść do poziomu nie widzianego przez dwa kolejne miesiące od 15 lat. Raczej zanosi się na rekord solidnie wyższy od poprzedniego – zgodnie z Twoimi przewidywaniami z początku roku.
Do kompletu jeszcze brytyjska seria HadCRUT4. Oto jak to wyglądało dla października:
Nie ma specjalnej różnicy w stosunku do pozostałych serii. Ten miesiąc wyróżnia się za mocno aby nieco inne metody interpolacji danych mogły coś zmienić. Oto sześć najcieplejszych październików w historii pomiarów:
2015 0.811
2014 0.626
2003 0.612
2005 0.608
2006 0.562
2012 0.556
Tu nie ma mowy o nieistotności statystycznej różnicy!
Podobnie dla dotychczasowej części roku (styczeń do października).
Była najcieplejsza w historii pomiarów:
2015 0.7143
2010 0.5773
2014 0.5693
1998 0.5676
2005 0.5444
2002 0.5190
Zauważcie, ze w serii HadCRUT4 poprzednie wielkie El Nino (1998) jeszcze się łapie do pierwszej szóstki. Właściwie w tej serii dopiero rok 2015 jest “nową jakością”.
Ach i jeszcze trendy liniowe od 1980 roku. Dla października jest to wręcz oszołamiające 0,195 C/dekadę, a dla okresów I-X to 0,164 C/dekadę.
Do kompletu brakuje co najmniej NOAA ;-), ale tam jest niemal identycznie.
Zdaje się, że mem o braku ocieplenia od 1998 roku właśnie zginął śmiercią tragiczną.
Czas odświeżyć mema o fałszowaniu danych. Zdaje się, że to już się dzieje w USA, tak w każdym razie wyglądają działania szefa komisji nauki z Izby Reprezentantów.
O, rzeczywiście masz rację.Myslałem, że już wrzuciłem. Oto NOAA (seria dawnej zwana NCDC), a dokładniej najcieplejsze październiki:
2015 0.98
2014 0.78
2003 0.72
2012 0.70
2005 0.69
2006 0.68
Prawie stopień anomalii i to co ciekawe anomalii względem całego XX wieku. A w dodatku 0,2 C cieplej niż następny październik w kolejce.
Wygląda naprawdę imponująco albo, jak to woli, przerażająco.
A oto okresy styczeń-październik:
2015 0.862
2014 0.733
2010 0.715
1998 0.657
2005 0.654
2013 0.644
A trendy liniowe od 1980 roku to 0,165 C/dekadę dla października i 0,156 C/dekadę dla okresu I-X. Ciekawe, ze aż taka różnica w stosunku do HadCRUT4. Pewnie efekt (różnych) luk w danych dla Arktyki i Antarktydy. W takim razie pokażę jeszcze wyniki z serii Cowtan & May gdy się pojawi rezultat październikowy (ta seria to HadCRUT4 z ulepszonym pokryciem rejonów polarnych).