Denialiści klimatyczni od dawna tak twierdzą. Co ciekawsze, to samo mówił mi niedawno nawet jeden z polskich klimatologów. A w ostatnich dniach ukazały się dwa artykuły tłumaczące zmniejszenie trendu globalnego ocieplenia po 1998 roku. Tylko czy jest się z czego tłumaczyć?
Przedstawiam poniżej wykres temperatury globalnej w okresie satelitarnym (czyli od 1978 r.). Z kliku dostępnych serii globalnych średnich dla poszczególnych miesięcy wybrałem brytyjską HadCRUT3 (dane dostepne z tej strony), która jest bardziej konserwatywna niż amerykańska GISS, nie interpolując temperatur w obszarach, gdzie nie ma danych, przez co nie obejmuje na przykład większości bardzo szybko ocieplającej się Arktyki. Przez to nie narażam się na oskarżenie o alarmizm. Z drugiej strony nie używam serii UAH, ulubionej przez denialistów. Nawet nie dlatego, żeby pokazywała coś innego niż HadCRUT3, ale dlatego, że jej autor, Roy Spencer (link do jego blogu jest po prawej stronie), zmienia nieustannie wartości całej serii, nie bardzo tłumacząc dlaczego (przez co dane ściągnięte od niego dziś za miesiąc mogą być niezgodne nawet z jego stroną). Okres satelitarny wybrałem, bo wcześniej nie było dobrych danych dla większości oceanów (taki wybór zapewnia bardziej jednolitą serię danych niż rozpoczęcie np. od 1950 roku).
Na wykresie własnej produkcji przedstawiłem anomalię temperatury globalnej (względem okresu bazowego 1961-1990) z danych HadCRUT3 oraz jej trend (czarna przerywana linia). Na wykresie wyróżniono okres 1998-2008 oraz trend dla niego (czerwona przerywana linia). Dekada 1998-2007 r., albo bardziej prawidłowy [1] okres 11-letni 1998-2008 (wyróżniony na rysunku pionowymi szarymi liniami), zdaje się dowodzić jednoznacznie, że od roku 1998 nijakiego globalnego ocieplenia nie uświadczysz (dlatego takie właśnie okresy uwielbiają denialiści). Zamiast wzrostu temperatury o (średnio) 0.15 K na dekadę mamy po 1998 roku nawet niewielki spadek. Czy jednak sprawa jest zamknięta?
Nie jest i to z kilku powodów. Po pierwsze serie czasowe takie jak przedstawiona powyżej HadCRUT3 czy UAH, nie interpolujące wyników w rejonach bez pomiarów, nie pokrywają całej kuli ziemskiej, a akurat wśród tych 20%, których nie pokrywają są najszybciej ogrzewające się obszary arktyczne. Jeśli użyć serii GISS sytuacja nie będzie wyglądała tak optymistycznie (zakładam, że zgadzamy się, że globalne ocieplenie jest problemem), ale należy pamiętać, że wartości interpolowane to wartości mniej pewne niż mierzone. Poza tym wybór okresu tak jak powyżej pomija rekordowo ciepły rok 2010 [2] (denialiści pomijają go z lubością).
Przede wszystkim jednak wybór jest “tendencyjny” z prostego powodu: zaczyna się od lokalnego maksimum i kończy się na lokalnym minimum. Politycy uwielbiają ten trik w przypadku dowodzenia skuteczności (lub nie) rządu danego kraju w rozwijaniu gospodarki. Rozpoczęcie wykresu od dna najnowszej recesji zawsze daje wrażenie dynamicznego wzrostu, a rozpoczęcie od szczytu przed tą recesja wręcz odwrotnie. Na wykresie powyżej, jeśli obciąć okres “czerwony” z każdej strony o rok, pozbywając się lokalnego maksimum i minimum (czyli rozpoczynając od roku 1999 i kończąc w 2007), otrzyma efekcie średni wzrost (trend) nawet szybszy niż w całym okresie satelitarnym (+0.157 w porównaniu z +0.152 K/dekadę) podczas gdy zaznaczony na czerwono trend dla lat 1998-2008 to -0.015 K/dekadę. Czyli znowu z igły widły? Był zresztą o tym nie tak dawno artykuł Easterling i Wehner 2009 [3] pokazujący na danych historycznych i wynikach modelowania, że naturalna zmienność (głównie cykl El Niño – La Niña, ale nie tylko) musi powodować występowanie okresów rzędu dekady o trendzie odwrotnym niż wynikający ze zmiany wymuszeń radiacyjnych, nawet przy ich tak szybkim wzroście jak w ostatnich dekadach. Poprzednio takimi były okresy 1977-1985 i 1981-1989 (patrz rysunek poniżej).

Czy zatem dowodzi to czegoś poza tym, że okresy około 10-letnie są za krótkie aby wyznaczać długotrwałe trendy? Otóż nie są jeśli rozumie się procesy i wymuszenia jakie wpływają na globalna temperaturę (wspomniany na początku polski klimatolog był niestety dawniejszego typu “geograficzno-statystycznego”, który nie zaprząta sobie głowy procesami fizycznymi). Jeśli zauważyć, że prawie wszystkie lokalne maksima to okresy El Niño (okresy ocieplenia wschodniego tropikalnego Pacyfiku), a zimne La Niña (faza przeciwna tego samego cyklu o nieregularnej długości, zwanego też ENSO, jednak zwykle mieszczącej się w przedziale 2-7 lat) to sprawa stanie się mniej tajemnicza. Na przykład rok 1998 to najsilniejsze El Niño w okresie satelitarnym, a 2010 to inne mniejsze (oba te lata były rekordowo ciepłe), natomiast lata 1999, 2008 i 2010 to zimne lata La Niñi (zwyczajem amerykańskim numeruję te zjawiska rokiem, w których pierwszych miesiącach mają swoje maksimum i w którym się kończą; bo wykrywalne są już parę miesięcy wcześniej). Temperatury tropikalnego Pacyfiku wpływają, jak się wydaje, na ilość niskich chmur w całych tropikach (patrz np. Clement et al. 2009 czy Dessler 2010, oba w Science co może tłumaczyć częściowo odpowiada na pytania Trnenbetha, o których pisałem poprzednio), co powoduje, że ENSO jest największym źródłem różnic międzyrocznych temperatur na naszej planecie. Dlatego zaczynanie i kończenie okresów trendów na tych zjawiskach generalnie nie jest najlepszym pomysłem, ale jak tego uniknąć gdy w ostatnich kilku latach zawsze albo El Niño albo La Niña?
W sumie do niedawna uważałem, że “anomalia” trendu ostatniej dekady to wyłącznie efekt ENSO i ewentualnie słońca. Obecność silnego El Niño w 1998 roku oraz słabszego w 2010 i w dodatku otoczonego dwoma dość silnymi (zimnymi) La Niñiami w oczywisty sposób musi powodować, że trendy między tymi datami powinny być znacznie niższe niż trend długoterminowy, a nawet ujemne. Nie widziałem zatem nawet potrzeby szukania innych przyczyn. Ot, poczekamy jeszcze trochę i trend dodatni, wynikający z rosnącego wymuszenia radiacyjnego gazów cieplarnianych będzie musiał wrócić.
I tak może być. Z tym, że (jak zwykle) sytuacja jest tym bardziej skomplikowana im bardziej jej się przyglądamy. Ukazały się ostatnio dwa niezależne artykuły tłumaczące przynajmniej część tego zmniejszenia trendu zmianami koncentracji aerozolu (za resztę przypominam odpowiada zmienność naturalna związana z cyklem ENSO). Nie jest to może takie dziwne biorąc pod uwagę, że aerozol (i chmury) to ciągle jedne z najsłabszych punktów naszej wiedzy o działaniu maszyny klimatycznej na naszej planecie.
Pierwszy z tych artykułów, Kaufmann i inni 2011 [4] (w “ulubionym” przeze mnie PNAS) zwraca uwagę na znane fakty takie jak słabsza niż zwykle aktywność Słońca w ostatnim 11-letnim cyklu oraz opisaną powyżej zmienność związaną z cyklem ENSO, co tłumaczy większą część spadku wartości trendu zmian temperatury po 1998 roku. Tu nie ma niespodzianki. Nowością jest jednak czynnik antropogeniczny, którego nie brano dotychczas pod uwagę: wzmożone spalanie węgla w Chinach. Konsumpcja węgla w Chinach podwoiła się w ciągu 4 lat (2003-2007), a poprzednie podwojenie wymagało 22 lat (1980-2002). Uważny czytelnik zakrzyknie tu “Zaraz, zaraz, przecież spalanie węgla to emisja dwutlenku węgla, najważniejszego antropogenicznego gazu cieplarnianego!”. Czyli powinno to raczej ogrzewać niż oziębiać planetę. I słusznie. Z tym, że na długą metę. Dwutlenek węgla pozostanie w systemie atmosfera-ocean przez tysiące lat grzejąc nas przez ten czas. Jednak jego emisja związana jest z produkcją dymu, czyli bardziej fachowo – aerozolu. A że Chińczycy są opóźnieniu w zakładaniu filtrów na kominy, produkują oni aerozol zawierający dużo siarki. Taki aerozol ma działanie ochładzające planetę (odbijając światło słoneczne z powrotem w kosmos), co wiadomo co najmniej od lat 1970-ch. Aerozol utrzymuje się w atmosferze krótko, zasadniczo do najbliższego deszczu (no chyba, że zostanie wyemitowany aż do stratosfery jak to umieją najsilniejsze wulkany i bomby atomowe – wtedy drobne cząstki mogą unosić się tam nawet parę lat, ale tej sztuki kominy elektrowni nie potrafią). Jednak w tym czasie jego efekt chłodzący może być nawet większy niż tej części dwutlenku węgla, jaka jest z nim wspólnie emitowana [5].

Na rysunku powyżej zaznaczono wymuszenia radiacyjne (lewa oś) i spowodowane nimi zmiany temperatury [6] (prawa oś) dla poszczególnych wymuszeń i ich sum. Przypomnę, że wymuszenie w sensie używanym przez IPCC to różnica w stosunku do okresu przedprzemysłowego. Fioletowa linia to właśnie wymuszenie aerozolu “siarkowego” (ujemna wartość oznacza efekt chłodzący). Zwraca uwagę zwiększenie tego (ujemnego) wymuszenia w drugiej części okresu 1998-2008 (tego samego, o którym pisałem powyżej), zaznaczonego po prawej stronie wykresu przez błękitne tło. Błękitna linia to suma wymuszeń antropogenicznych (czyli gazów cieplarnianych i aerozolu), a prosta, kropkowana błękitna to jej liniowe przybliżenie, pomarańczowa linia to wymuszenie słoneczne, a zielona to wymuszenie ENSO (ponieważ szczegóły działania tego wymuszenia są słabo znane zastosowano po prostu indeks SOI podzielony przez 10, co wydaje się “graficznie” wyborem dość nieszczęśliwym, bo dodatni SOI oznacza wpływ oziębiający i na odwrót). W końcu czerwona linia to suma wszystkich wymuszeń, a czarna to obserwowane zmiany temperatury.
Widać, że zmiany ENSO dominują – proszę wyobrazić sobie zieloną linię ze zmienionym znakiem (odbitą poziomo w lustrze) i porównać ją z czarną kreską temperatury. W drugiej części okresu “błękitnego”, czyli od roku 2002, efekt zmian ENSO (zielony wykres z “odwróconym” znakiem), słońca (pomarańczowy) i aerozolów siarkowych (fioletowy) jest co do znaku jednakowy: wszystkie ciągną w dół. Autorzy oceniają ten ostatni jako najmniejszy, ale jest to efekt mierzalny. Zmiana wymuszenia związanego z aerozolem siarkowym po 2002 roku ma wynosić 0.03 W m-2. Tłumaczyłoby to spadek temperatury o około 0.01 K czyli 1/15 spadku trendu w tym okresie (efekt spadku aktywności słońca oceniają na 6 razy większy, resztę spadku przypisując ENSO).
Nawet ciekawszy wydał mi się drugi z omawianych artykułów z ostatnich tygodni, Solomon i inni 2011 [7] z Science. Ciekawszy, bo dotyczy aerozolu stratosferycznego, właśnie tego, który w wyniku braku opadów w górnych warstwach atmosfery jest w stanie unosić się nawet latami. Wiemy to z obserwacji grubości optycznej atmosfery (znowu to pojęcie!) po dużych wybuchach wulkanów, szczególnie po największym odkąd mierzymy tę wielkość, czyli Pinatubo na Filipinach w 1991 roku. Dotychczasowy stan wiedzy wskazywał, że taki wybuch, powodujący wstrzykniecie do stratosfery olbrzymich ilości związków siarki, powodował znaczące globalne oziębienie (w przypadku Pinatubo -0.3 K wkrótce po eksplozji), stopniowo wracające “do normy” w ciągu kilku lat. Uważano jednak, ze mniejsze wulkany nie są w stanie emitować pyłu do stratosfery, są zatem pomijalne w sensie klimatycznym. I tu pierwsza niespodzianka. Solomon i inni pokazują, na podstawie pomiarów lidarowych dokonywanych z satelity (lidar to optyczny odpowiednik radaru używający lasera jako źródła światła), wyraźny wzrost grubości optycznej (przynajmniej regionalny) po czterech “małych” wybuchach wulkanów z lat 2006-2010.

Na powyższym wykresie kolory oznaczają intensywność rozpraszania (właściwie tzw. “stosunek rozproszeń” czyli stosunek całkowitego rozpraszania wstecz do rozpraszania na samym powietrzu – czyli “rayleighowskiego” – którego wartość da się wyliczyć teoretycznie). Oś pionowa to szerokość geograficzna (dodatnie wartości to półkula północna), a pozioma to czas. Numerami zaznaczono czas i szerokość geograficzną czterech wybuchów wulkanów. Bez wątpienia wpływają one na wartość “tła” aerozolowego na dużej części planety przez całe miesiące (pięknie na przykład widać jak pył wulkanów 1 i 2 rozchodzi się od równika w obie strony na północ i południe). Czyli większa ilość takich słabych wulkanów w danej dekadzie musi prowadzić do jej ochłodzenia w stosunku do dekad sąsiednich, nawet gdy w żadnej z nich nie ma “dużego” wulkanu.
Jednak czy ilość aerozolu w stratosferze rzeczywiście zmienia się między dekadami? Otóż tak i są na to aż cztery niezależne dowody. Trzy z nich pochodzą z pomiarów górze Mauna Loa na Hawajach na wysokości tak dużej, że w przybliżeniu wszystko co powyżej można uznać za aerozol stratosferyczny (no może nie całkiem, ale wybierano dni o najniższych wartościach grubości optycznej dla zminimalizowania wpływu wyższych warstw troposfery). Te trzy to dwa różne instrumenty mierzące grubość optyczną atmosfery z jasności tarczy słonecznej i naziemny lidar. Czwartą serią pomiarową są globalne wartości stratosferycznej grubości optycznej mierzone “od góry” z lidaru satelitarnego. Poniższy rysunek z artykułu podsumowuje je wszystkie.

W wartościach najdłuższej z tych serii – pomiarów transmisji poprzez atmosferę – widać dwa najnowsze “wielkie” wybuchy wulkanów, El Chichon (Meksyk) z 1982 i Pinatubo z 1991 roku. Środkowy panel to pomiary grubości optycznej od 1994 roku (trzy przyrządy z Mauna Loa i pomiary satelitarne). Widać wzrost średniej wartości po roku 2000. To samo potwierdzają wyniki globalne (dolny panel). Jest to istotne, bo w modelowaniu klimatycznym stosuje się wartości stratosferycznej grubości optycznej osiągające zero już w kilka lat po wybuchu Pinatubo (linie oznaczone jako GISS i Ammann et al na dolnym panelu). Oznacza to (według autorów artykułu), że od końca lat 1990 nie bierzemy pod uwagę wymuszenia radiacyjnego odpowiadającego oziębieniu o -0.07 K. A to już nie są żarty. To połowa “brakującego” ocieplenia w ostatniej dekadzie. Czyli w sumie aż za dużo, bo jeśli uwzględnić wartości jakie Kaufmann i inni (2011) przypisują zmianom wymuszeń przez aerozol troposferyczny i aktywność słoneczną, to nie zostaje nic dla ENSO. A przecież widzieliśmy, że to najważniejszy czynnik zmian międzyletnich, od wartości którego, w latach rozpoczynających i kończących serie czasową o dekadalnej długości, zależy nawet czy obserwujemy trend ocieplenia czy nie. Częściowo da się to wytłumaczyć tym, że te wymuszenie “tła” aerozolowego, odpowiadające oziębieniu -0.07 K zdaniem autorów narastało od lat 1960-ch, ale w okresie dużych wybuch w wulkanów i kilka lat po nich było przez nie zamaskowane. Czyli nie jestem pewny jak je rozłożyć na te kilka dekad po drodze. Jak to się pisze w artykułach “wymaga to dalszych badań”.
Czyli znowu nie wszystko wiemy? No, właśnie. Nikt nie obiecywał, że nauka o klimacie to obserwacyjnie najłatwiejsza gałąź nauki. A na pewno nie jest to gałąź martwa (czyli taka gdzie już wszystko odkryto). Jednak dla mnie, nawet bardziej prawdopodobne niż błędy pomiarowe jest, że nadal nie uwzględniamy wszystkich czynników naturalnej zmienności. Mówiliśmy tu o międzyletniej zmienności związanej z ENSO, ale istnieje też międzydekadowa zmienność związana ze zmianami głębinowej (dokładniej termohalinowej) cyrkulacji oceanicznej. Zwykle mierzy się ją pośrednio przez temperaturę grzanego przez nią Północnego Atlantyku. A ta w latach 1990-ch była szczególnie wysoka, co musiało wpłynąć na temperaturę globalną z definicji (stanowiąc jej integralną część).
I w tym kontekście wróciłbym do rysunku z początku tego wpisu. Dla mnie najciekawszym naukowo pytaniem nie jest – dlaczego trend temperatury po roku 1998 był tak niski? Jest na to wiele powodów wyliczonych powyżej. Naprawdę ciekawe jest to, dlaczego pierwsza polowa lat 2000-ch była tak ciepła, wyraźnie wykraczając ponad trend wieloletni? Bo była. Jeśli z tych samych danych (HadCRUT3) policzyć różnice średnich wartości globalnych dla całych sąsiednich dekad (zdefiniowanych klasycznie jako kończące się na roku z zerem na ostatniej pozycji) to różnica pomiędzy latami 1980-mi i 1990-mi wynosi +0.144 K (prawie tyle ile wynika z trendu długoterminowego). Ile zatem wynosi różnica między latami 1990-mi a tymi “zimnymi” 2000-mi? Czy będzie to wartość ujemna? Absolutnie nie. Różnica ta to +0.192 K. Tak jest, różnica miedzy latami 1990-mi a 2000-mi była większa niż pomiędzy poprzednimi dwoma dekadami i większa niż trend długoterminowy. Proponuję zastanowić się nad zdaniem “Globalnego ocieplenia nie ma od 1998, ale lata 2000-ne były cieplejsze od poprzedniej dekady i to o większą wartość niż wynika z trendu”. Absurd? Tak, absurd. Czyli mamy odpowiedź na tytułowe pytanie. Nie dość, że globalne ocieplenie nie skończyło się w 1998 roku, ale następna po nim dekada była rekordowo ciepła, tak ciepła że właściwie nie wiemy dlaczego. I chociażby dlatego warto zajmować się klimatologią.
Przypisy:
[1] Wybór okresu 11-letniego dla średnich temperatur pozwala na usuniecie cyklu aktywności słonecznej o takiej w przybliżeniu długości.
[2] Na oko tego nie widać (dane są wartościami miesięcznymi i trzeba je “optycznie” uśrednić do całych lat) ale w żadnej znanej mi serii czasowej, łącznie z przedstawioną powyżej nie ma roku cieplejszego niż 2010. Co ciekawe 2010 wygrał lub zremisował (w granicach błędu pomiarowego) z rokiem 1998 w HadCRUT3 i UAH oraz z rokiem 2005 w GISS. Różnica zdania co do poprzednio najcieplejszego roku wynika właśnie z decyzji co do przestrzennej interpolacji danych.
[3] Easterling, D., & Wehner, M. (2009). Is the climate warming or cooling? Geophysical Research Letters, 36 (8) DOI: 10.1029/2009GL037810
[4] Kaufmann RK, Kauppi H, Mann ML, & Stock JH (2011). Reconciling anthropogenic climate change with observed temperature 1998-2008. Proceedings of the National Academy of Sciences of the United States of America, 108 (29), 11790-3 PMID: 21730180
[5] Można by się nawet cieszyć z tej chińskiej “geoinzynierii” chłodzącej naszą planetę gdyby nie tragiczne skutki tego dymu dla życia w Chinach, gdzie gęsto zaludniona wschodnia część kraju pokryta jest brązowym smogiem przez większość roku.
[6] Zwraca uwagę niska czułość klimatu na wymuszenie radiacyjne, 0.3 K W-1 m2, wynikająca z podzielenia przez siebie wartości na obu pionowych osiach, co oznaczać ma zapewne że autorzy mają na myśli zmiany w przeciągu zaledwie kilku lat. Przypominam, że ze względu na olbrzymią pojemność cieplną oceanów ogrzanie naszej planety (i o jedynie w sensie dolnych warstw atmosfery, które jednak mają styczność z oceanem) trwa dość długo, czyli im dłużej poczekamy tym większy efekt temperaturowy będzie miało to samo wymuszenie radiacyjne (o ile działa trwale).
[7] Solomon S, Daniel JS, Neely RR 3rd, Vernier JP, Dutton EG, & Thomason LW (2011). The persistently variable “background” stratospheric aerosol layer and global climate change. Science , 333 (6044), 866-70 PMID: 21778361
Hits: 2397
Zwróć uwagę, że zawsze liczę trendy liniowe od momentu gdy globalne ocieplenie zaczęło się na dobre. I dla zimy wychodzi coś koło 0,14 C/dekadę.
Teraz zobaczmy co uzyskamy sprawdzając ile taki trend zwiększy temperaturę globalna miedzy ostatnim wielkim El Nino, a obecnym. (2016-1998)*0,14/10 = 0,252 C
I tu jest ciekawa zagwozdka. Nawet stosując 0,17 C/dekadę dostaniemy 0,306 C. A to jeszcze daleko od 0,5 C.
Czyli czy to El Nino jest silniejsze niż poprzednie? Też bym tak pomyślał gdybym nie zobaczył mapy anomalii:
Ta druga połowa różnicy musi leżeć w Arktyce. Przynajmniej duża jej część. I to jest naprawdę niepokojące.
Zrobiłem sobie jeszcze kilka ćwiczeń poglądowych.
Gdyby założyć, że El Nino właśnie wygenerowało szczyt (podobnie jak w 1998), a potem będzie się zachowywać identycznie (takie same różnice temperatur w kolejnych miesiącach), to na koniec roku wyszła mi prognoza anomalii 1.17K. Jak nałożyłem przebieg El Nino z 2010 (szczyt w marcu), to anomalia na koniec 2016 wyszła 1.12K. Nałożenie El Nino z 2007 (szczyt w marcu) dało 1.07K a dla 2002 roku 1,22K.
Sięgnąłem dalej w historię (na podstawie GISS i dat El-Nino z el-nino.com) i dostałem następujące predykcje oparte na nałożeniu przebiegu historycznych El-Nino na lutowy szczyt.
1997/8 – 1.17K
2009/10 – 1.12K
2006/7 – 1.07K
2002/3 – 1.22K
1982/3 – 1.14K
1972/3 – 1.18K
1957/8 – 1.05K
1987/8 – 1.18K
1963/4 – 1.20K
1991/2 – 1.26K
Wygląda na to, że jeśli wynik lutowy nie był wynikiem gigantycznej dodatniej fluktuacji nałożonej na bardzo wysoki pik, to pobicie rekordu z 2015 roku mamy jak w banku. Jak bardzo – to zależy tylko od tego jak bardzo nietypowy przebieg będzie miało dalsze El-Nino i jego wpływ na pogodę w 2016 roku.
W każdym razie w świetle tego co powyżej, przebicie poziomu 1.0K nie wygląda na niemożliwe.
Strach się bać.
Rzeczywiście – ta potężna anomalia w Arktyce wygląda bardzo niepokojąco. Zwłaszcza w kontekście lodu morskiego.
I ta Arktyka może dać nam kolejny roczny rekord temperatury w 2016 roku (nie żeby się było za bardzo z czego cieszyć). Po prostu ona nie zrobi się zimna gdy przyjdzie La Nina. Nawet tego nie zauważy!
Uaktualniłem średnie dakadalne (czyli co 10 lat) liczone do ostatniego miesiąca. Czyli każda dekada to 120 miesięcy, kończących się na lutym roku z “6” na końcu.
Już prawie nie widać spowolnienia ocieplenia, na temat którego przelano niepotrzebnie tyle (wirtualnego) atramentu. Co gorsza nazywając go czasem nawet “przerwą” w ociepleniu. Jaka przerwą?! Kto tu widzi przerwę?
Są już też lutowe wyniki z NOAA, z serii którą ja (i wielu innych) nadal nazywa NCDC, mimo, że chyba to już nazwa zmieniona w wyniku jakiejś ich reorganizacji.
Pierwsza szóstka:
2016 1.21
2015 0.89
1998 0.86
2002 0.78
2004 0.72
2010 0.71
Czyli w tej serii też drugi jest zeszły rok, a trzeci rok poprzedniego wielkiego El Nino. Różnica w stosunku do GISS jest taka, że tu brakuje pokrycia dużej części Arktyki.
A jeśli spojrzeć na dwa pierwsze miesiące roku łącznie to mamy… właściwie to samo:
Pierwsza szóstka:
2016 1.130
2015 0.855
2007 0.770
2002 0.740
1998 0.730
2010 0.705
Różnica taka, że po dwóch miesiącach rok 1998 jest piątym miejscu (styczeń z jakiegoś powodu miał znacznie chłodniejszy niż luty).
A trendy liniowe? Od 1980 roku trend za luty to 0,136 K/dekadę, a za oba miesiące łącznie 0,130 K/dekadę.
Pytanie do gospodarza. Dlaczego w Arktyce nie ochłodzi się pomimo La Nina?
Teraz jest El Niño (ciepłe), a nie La Niña (zimna). W dodatku to rodzeństwo ma niewielki wpływ na Arktykę. Tzn. czasem podczas El Niño bywają w Europie zimne zimy (ale nie zawsze ni nie tym razem). Ale to w Europie, nie Arktyce.
Nie ma jeszcze CowtanWay za luty?
Zawsze w okolicach 22 dnia następnego miesiąca pojawiały sie dane, a tu 24 i nic 🙁
Cowtan & Way nie może się pokazać póki nie ma HadCRUT4 za luty, bo na nim bazuje. A HadCRUT ostatnio potrafi spóźnić się aż do następnego miesiąca.
A w dodatku teraz są zdaje się w UK wiosenne ferie szkolne (dwa tygodnie), a jeśli tak to naukowcy siedzą z rodzinami na ciepłych plażach.
Jest już HadCRUT4 i Cowtan & Way za luty.
Zacznijmy od HadCRUT4. Wykres lutych wygląda… znajomo
Pierwsza szóstka też bez niespodzianek:
2016 1.057
1998 0.763
2002 0.705
2015 0.660
2004 0.611
1995 0.595
Luty obecnego roku bije tez z El Nino 1997/98 o prawie 0,3 C.
A tak to wygląda łącznie dla stycznia i lutego (znowu bardzo znajomo):
2016 0.978
2007 0.696
2002 0.683
2015 0.674
1998 0.623
2010 0.569
Tu 1998 jest chłodniejszy nawet o ponad 0,4 C.
A trendy liniowe od 1981 roku to 0,142 C/dekadę dlla lutego i 0,140 C/dekadę łącznie dla dwóch pierwszych miesięcy roku.
A teraz to samo dla serii “Cowatan & Way”. Przypomnę, jest to HadCRUT4 z dodatkowym pokryciem obszarów polarnych przy pomocy danych satelitarnych “zakotwiczonych” pomiarami naziemnymi, tam gdzie istnieją.
Lute (liczba mnoga od “luty”):
2016 0.883
2010 0.498
1998 0.458
2015 0.454
2006 0.403
2007 0.389
Po dodaniu Arktyki różnica z poprzednim El Nino jest jeszcze wyraźniejsza (0,425 C).
A dla stycznia i lutego łącznie wygląda to tak:
2016 0.858
2007 0.518
2010 0.467
2015 0.458
2002 0.389
1998 0.347
Tu różnica z 1998 rokiem jest większa niż pół stopnia (0,511 C).
A trendy liniowe od 1981 roku to 0,156 C/dekadę dla lutego i 0,159 C/dekadę za luty i marzec. Czyli jeśli uwzględnić Arktykę to malejące od 1990-ch lat NAO nie zmniejszyło znacząco nawet zimowych trendów globalnych. Jeśli to ono było przyczyną rzekomej pauzy czy raczej zwolnienia ocieplenia (jeśli ona w ogóle istniała to raczej winny był brak dużych El Nino przez kilkanaście lat przed 2014 rokiem).
No to mamy GISTEMP (GISS) z marca. Piotr Djaków wyprzedził mnie ale nie dał wykresów.
Oto najcieplejsze marce. Marzec 2016 kontynuuje tradycje poprzednich kilku miesięcy i tez bije rekord w swojej kategorii:
Pierwsza szóstka wygląda tak:
2016 1.28
2010 0.92
2002 0.90
2015 0.90
2014 0.77
1990 0.76
Aż ciężko uwierzyć ale marzec 1998 jest dopiero 15-ty.
Pierwsze trzy miesiące roku łącznie wyglądają tak:
Pierwsza szóstka okresów JFM (od angielskich nazw miesięcy – mówiąc żargonem klimatologów):
2016 1.250
2015 0.860
2010 0.813
2002 0.800
2007 0.787
1998 0.700
Przewaga prawie 0,4 C nad drugim miejscem. Tu rok 1998 łapie się na szóstym miejscu.
A trendy liniowe od 1980 roku (zaznaczone na wykresach) to 0,177 C/dekadę dla marca (dużo!) i 0,152 C/dekadę dla JFM.
A ja policzyłem przewidywania do końca roku – wziąłem pod uwagę ewolucję temperatury w latach El Nino. Każdy kolejny miesiąc został otrzymany jako kumulatywny efekt przyrostów/ubytków temperatury w roku kończącego się El Nino. Przewidywana średnia anomalia na koniec roku to 1.2 K, (minimalne przewidywanie to 1.03 K maksymalne 1.40K).
Próba nie jest wielka – 10 lat, ale to już jest jakaś statystyka. Prawie na pewno będzie kolejny rekordowy rok. I obstawiam, że przebije 1.0K
Nie mówię, ze nie masz racji. Bo pewnie masz. Jednak nie mam aż takiej pewności rekordu aby się o to zakładać (po tej samej stronie co Ty, bo po odwrotnej to jeszcze mniejsze szanse). A nie wiem czy pamiętasz ale były lata w których gotów byłem się założyć, ze będzie rekord i… był.
Z tym, ze nie wszyscy tak uważali. Na Doskonale Szare są nadal te dyskusje o 2010 roku (zakład proponowałem 1 grudnia 2009):
http://doskonaleszare.blox.pl/2009/11/Yet-Another-Nail-in-the-Coffin.html
Zresztą do dziś żałuje, ze nie postawiłem na to pieniędzy u brytyjskich bukmacherów. Po zimnym 2009, na początku 2010 stawki (“odds”) w przypadku padnięcia rekordu w 2010 były tak wysokie, że można było naprawdę zarobić pieniądze. A wiedząc, ze El Nino już jest w toku i o ile gazy cieplarniane ociepliły Ziemię od poprzedniego to byłby naprawdę mało ryzykowny zakład.
Teraz jest inaczej bo rekord był zaledwie w zeszłym roku. W sumie 2015 i 2016 dzielą się tym samym, rekordowo ciepłym El Nino i który będzie cieplejszy zależy od tego co stanie się pod koniec 2016 roku. Tzn. jak zimna będzie La Nina (bo o to, ze będzie w tym roku to akurat mógłbym się chętnie założyć).
Ja bym się z Tobą nie zakładał. Ty jesteś fachowcem, a ja tylko oglądam liczby. Ale sprawdziłem, jak się ma predykcja na podstawie lat, w których La Nina wystąpiła bezpośrednio po El Nino (64, 73, 83, 98, 10) . Wyszło 1.19 K. Występowanie El Nino i La Nina podaję za http://ggweather.com/enso/oni.htm – nie znam strony i jej wiarygodności, ale wygląda porządnie. Poza latami podają tam klasyfikację siły El Nino. Można zauważyć, że w wypadku najsilniejszych El Nino, rzeczywiście natychmiast po nich była La Nina. Co jednak nie zmienia specjalnie predykcji średniej temperatury – silniejsze El Nino jest mocniej kompensowane, ale predykcja wychodzi podobnie.
Co ciekawe najniższa projekcja jest dla umiarkowanego El Nino z roku 1991/1992 – 1.03K.
Jest już marzec w serii NCDC z NOAA. Ma gorsze pokrycie niż GISS obszarów polarnych. HadCRUT4 ma to poprawić metodą Cowtan & Way 2014 [1]. Zobaczymy czy jakoś poprawią NCDC.
Ale tak czy siak wyszło mniej więcej to samo co w serii GISS:
Pierwsza szóstka marców bez niespodzianek:
2016 1.218
2015 0.894
2010 0.847
2002 0.786
2014 0.771
2008 0.760
Tu też rok 1998 jest daleko, na 11-ym miejscu.
Natomiast za pierwsze 3 miesiące roku (JFM) wygląda to tak:
Pierwsza szóstka:
2016 1.1506
2015 0.8648
2002 0.7541
2010 0.7527
2007 0.7386
1998 0.7022
Tu poprzednie wielkie El Nino jeszcze się łapie w szóstce, podobnie jak w danych GISS i też z różnicą prawie pół stopnia poniżej tego roku.
A trendy liniowe od roku 1980 wynoszą 0,167 C/dekadę dla marca i 0,142 C/dekadę dla pierwszych trzech miesięcy roku łącznie.
[1] http://onlinelibrary.wiley.com/doi/10.1002/qj.2297/abstract
Czy takie dane o AGW – piszę skrótowo- mają wpływ na powierzchnię lodu “pływającego” w Arktyce? U Piotra jest artykuł – może nie go być (praktycznie) w tym roku, a nawet nie miało by nie być lodu na biegunie. Poczekamy do Września, zobaczymy.
-Ale to jest jakaś masakra,czarno to widzę, co dalej?
-Pozdrowienia,M
Errata – : może nie być lodu na biegunie,eh..
M
http://meteomodel.pl/BLOG/?P=1247 – nie udało mi się wstawić linka, podaję więc adres artykułu Piotra. Może ten link wstawić arctic_haze, Autor niniejszego Bloga.
Sytuacja warta komentarzy,bo mam wrażenie , że sporo osób piszących zajmuje się “własnym podwórkiem”- czyli zimną(?)wiosną w Polsce – a to kwestia cyrkulacji,czyli
“wyższości świąt BN nad Wielkanocą”- a przecież nie o to chodzi….
O Arktyce pisano tu wielokrotnie – ten problem uważam za bardzo istotny, powodów jest aż nadto.
M.
Link poprawiłem. Nie wiem czy grozi nam biegun północny bez lodu już w tym roku. Natomiast na pewno grozi nam mniejsza powierzchnia lodu morskiego w Arktyce niż w rekordowym roku 2012.
Jest także HadCRUT4 za marzec (jeszcze bez zapowiadanych zmian). Bez niespodzianek:
Najcieplejsze marce:
Sześć najcieplejszych:
2016 1.063
2002 0.699
2015 0.681
2010 0.678
1990 0.562
2014 0.561
Robi wrażenie różnica między marcem 2016 , a następnym 2002 (jest to 0.364 C). Rok 1998 jest tu na miejscu 8-ym (ale pewnie dodanie pokrycia Arktyki to zmieni).
A za styczeń-marzec sumarycznie wygląda to tak:
Pierwsza szóstka okresów “JFM”:
2016 1.011
2002 0.688
2015 0.676
2007 0.639
2010 0.605
1998 0.601
Tu przewaga roku 2016 nad 2002 jest jeszcze większa (praktycznie 0.7 C).
A trendy linowe od 1980 roku to 0,178 C/dekadę dla marca oraz 0,153 C/dekadę dla okresu JM.
Na koniec jeszcze seria “Cowtan & Way”, przypomnę że nazwana od nazwisk autorów artykułu pokazującego jak uzupełnić brak danych powierzchniowych pomiarami temperatur troposfery robionymi z satelitów ale, “kalibrowanych” istniejącymi stacjami naziemnymi. Jest to ważne, bo metodologia ta ma być wkrótce stosowana przy wyliczaniu serii HadCRUT. Przez to momentalnie zmieni się ona z serii z najgorszym pokryciem Arktyki do serii z najlepszym!
Oto najcieplejsze marce przy zastosowaniu tej metody do uzupełnienia oryginalnej serii HadCRUT:
Pierwsza szóstka:
2016 0.851
2010 0.564
2002 0.528
2015 0.484
2005 0.387
2014 0.362
Marzec roku 1998 jest dziesiąty z wynikiem 0.299 C, czyli o ponad 0.55 C chłodniejszy od marca 2016.
Dla trzech pierwszych miesięcy roku łącznie wygląda to tak:
2016 0.8560
2010 0.4990
2015 0.4667
2007 0.4507
2002 0.4350
2005 0.3534
Tu rok poprzedniego wielkiego El Nino jest siódmy (jedno miejsce za pokazaną pierwszą szóstką) z wynikiem 0,3307, czyli znów o ponad pół stopnia mniej niż obecny rok.
Największa zmiana jest w trendach liniowych od 1980 roku. Są istotnie wyższe niż dla “tradycyjnej” serii HadCRUT patrz wyżej). Wynoszą one 0,188 C/dekadę dla marca oraz 0,169 C/dekadę dla trzech pierwszych miesięcy roku (JFM).
A tymczasem zrobił się już maj. Prognozuję, że kwiecień w serii GISS będzie miał anomalię 1.10 (to na podstawie reanaliz NCEP/NCAR i modeli Nicka Stokesa). Mogę się trochę mylić, ale to nie zmienia prognozy rekordu temperatury w 2016.
Żeby w 2016 nie było kolejnego rekordu, to musiałoby się wydarzyć mnóstwo zdarzeń niespotykanych.
A to dlatego, że bieżący rok już “zgromadził” potężną nadwyżkę nad dotychczasowym rekordem. Kumulacyjnie to jest 1.4 miesiąco-Kelwina.
Taka kumulacja nadwyżki nad dotychczasowym rekordem rocznym sprawia, że rekord na koniec roku jest prawie pewny.
Żeby rekordu nie było, średnia anomalia w ośmiu pozostałych miesiącach powinna być mniejsza niż .68K a to jest prawie niemożliwe.
Maksymalny roczny zakres anomalii w serii GISS to jest 0.6 K.
Najwyższa w tym roku anomalia to jest 1.34K.
Żeby rekord nie padł, to pozostałe miesiące musiałyby mieć anomalię średnią mniejszą od najwyższej zanotowanej w tym roku o 0.66K.
Czyli nie jeden miesiąc powinien przekroczyć dotychczasowy rekord zmienności w skali roku – ale wszystkie.
To moim zdaniem jest niemożliwe – zakres zmienności anomalii w ramach jednego roku jest wielkością powiązaną z bezwładnością termiczną powierzchni Ziemii. Czyli opierając swoje przewidywania na tych danych przestaję się już się bawić w zgadywanie jak się pogoda będzie zachowywać w przyszłości (na czym się nie znam ani trochę), tylko opieram się (pośrednio) o solidne fundamenty fizyczne.
To prawda, że z każdym rekordowym miesiącem szanse na “zabranie” rekordu rocznego obecnemu rokowi [1] maleją. Możliwe, że zmalały już do statystycznie nieznaczącej wartości. Ci którzy próbowali to porównać z poprzednimi przejściami El Nino -> La Nina (pohjois tu czy pdjakow na swoim blogu) twierdzą że tak jest. Wierzę Wam, ale sam tego nie sprawdzałem.
[1] http://odmiana.net/odmiana-przez-przypadki-rzeczownika-rok
Mamy już wyniki pierwszej “powierzchniowej” serii dla kwietnia. jak zwykle jest to GSTEMP (u mnie tradycyjnie zwany GISS).
I rzeczywiście mamy kolejny rekordowy miesiąc:
Pierwsza szóstka:
2016 1.11
2010 0.87
2014 0.79
2007 0.75
2015 0.74
2005 0.69
Rok 1998 jest dopiero 9-ty (anomalia 0.63), czyli znów prawie pół stopnia mniej niż w tym roku (dokładnie 0.48 K)
Natomiast dla pierwszych czterech miesięcy łącznie wygląda to tak:
Pierwsza szóstka:
2016 1.210
2015 0.835
2010 0.830
2007 0.780
2002 0.745
2014 0.705
Rok 1998 jest tuz pod tą szóstką (siódmy) z anomalią 0.680 K (0.53 K poniżej obecnego roku). Podaje te różnice bo warto wiedzieć ile ociepliło się od poprzedniego wielkiego El Nino.
No i tradycyjnie trendy liniowe od 1980 roku. Dla kwietnia jest to 0.175 K/dekadę, a dla pierwszych 4 miesięcy roku łącznie 0,160 K/dekadę.
Ale mi się udało trafić z tą “prognozą” – prawie w punkt.
Niesłychanie wyglądają te wykresy. Wydaje się, że tym razem duże El Nino zbiegło się z dodatkowym ekstra wyhyleniem w górę (wyjątkowo ciepła Arktyka w zimie?) więc rekordy są niebotyczne.
Po dotychczasowym przebiegu temperatur majowych (znowu za Nickiem Stokesem) wygląda na to, że maj będzie względnie chłodniejszy od kwietnia – anomalia koło 1.0 ale i tak znowu rekordowy. Będziemy mieć pewnie w tym roku rekordy anomalii dla pięciu pierwszych miesięcy w roku.
To prawda. Coraz bardziej widać, że ciężko będzie nie zrobić nowego rekordu rocznego, nawet przy La Nini.
Jednak jeśli wykreślić temperatury “lat” biegnących od maja do kwietnia (aby nie zmarnowac najnowszych danych) to taki rok “2016” (maj 2015 – kwiecień 2016), będący w 1/3 rokiem 2016, jest
wprawdzierekordowy,ale bez urywania żadnej części ciała:Co ciekawe przy takim podziale danych na lata trend jest znacznie lepiej widoczny (nie ma żadnego wyraźnego “hiatusu”). Jest to kwestia “optyczna”, czyli jak nasze mózgi widza trendy, bo prawdziwy trend się praktycznie nie zmienia przez taką zmianę (różnica tylko w tych czterech dodatkowych miesiącach na końcu i braku takiej samej liczby na początku serii).
Poprawiłem wykres wyżej. Moja wina. Zrobiłem go rok temu “jednorazowo” i kończył się na zeszłym roku. Teraz poprawiłem. I chyba jednak urywa 😉
Oj urywa ;-).
Ale rzeczywiście ciekawe jest jak przesunięcie roku o kilka miesięcy zmienia optyczne postrzeganie trendów.
W zasadzie do zeszłego roku analiza “naoczna” rocznych wzrostów temperatur łatwo mogła prowadzić do mema, że globalne ocieplenie się skończyło w 98 roku, albo przynajmniej, że mamy jakąś wyraźną przerwę.
Na Twoim wykresie wcale tego efektu nie ma – piękny trend, z którego w tym roku wybija rakieta…
Swoją drogą
Aż mnie oczy zabolały jak zobaczyłem swoje “wyhylenie”.
Hyba mi się z wachadłem pomahało :-).
@Pohhjois – Witaj, uśmiałem się z tym wahadłem…
Uważnie przejrzałem Twój link o ElNino /powyżej, z 17 Kwietnia/..
– Czyżby były jednakowe w 1998 i te ostatnie? – podana jednakowa wartość +2,3K dla obu ElNino ?
Poprawcie mnie, jeżeli się mylę.
-Pozdrowienia,M
@Gandalf
Kto tak podawał? Bo to chyba nieprawda. Przynajmniej dla najczęściej stosowanego wskaźnika NINO34.
W serii której używam (średnie tygodniowe z NOAA), maksymalna anomalia NINO34 wyniosła tym razem +3,1 C (18 listopada 2015), natomiast podczas El Nino 1997-1998 maksymalna anomalia wyniosła +2,8 C (28 listopada 1997).
Jednak biorąc pod uwagę, że świat się ogrzał pomiędzy tymi El Ninami o jakieś 0,3 C (przyjmuję trend rzędu 0,16 C/dekadę jaki rzeczywiście obserwujemy), to wychodzi na to, ze były praktycznie równie silne (ponad tło termiczne aktualnej dekady). Nie dam jednak głowy co jest lepszą miarą siły El Nino: rzeczywista temperatura czy nadwyżka nad tło ostatnich lat przed El Nino.
Dane pochodzą z linku podanego przez pohois, link z 17 kwietnia br. Mój błąd polega na tym, że +2,3K -to średnia z NDJ,czyli z trzech miesięcy, dla obu Elnino – jest ona jednakowa.Na dole wykresu są podane wartości liczbowe, które – o dziwo – są jednakowe dla obu Elnino, stąd moje zapytanie.
-Dziękuję za odpowiedź, pozdrawiam, M
Po namyśle wstawię stronę o której piszemy – ręcznie:
http: //ggweather.com/enso/oni.htm
Co tak ciekawego jest na tej stronie? – otóż podane są tam wartości (siła) Elnino i Lanina od roku1950, ale z wartościami średnimi trzymiesięcznymi – gdyby przyjąć średnią tygodniową z NOAA – wykres nie zmieścił by się na ekranie komputera. Eo ipso (łac.” tym samym”..)możemy sobie porównać to, co Nas (mnie..) interesuje – czy siła tych zjawisk rośnie, czy maleje, czy jest jednakowa – jak powyżej dla dwóch ostatnich jest sugerowane. Nie ukrywam, że z błędami, ale za to wygodnie, można sobie to np. wydrukować. Wiem, że są lepsze źródła takich danych, ale z przyjemnością korzystam z tego bloga, bo tu otrzymujemy merytoryczne,ściśle uzasadnione odpowiedzi.
A w 1950r- to byłem jednorocznym brzdącem….
– Pozdrowienia,M
Gandalf, ten indeks tym się różni od tego którego ja używam (oprócz okresu uśredniania), że jest anomalią względem okresu 30 lat, co pięć lat posuwanego do przodu o 5 lat.
I to jest powód dla którego El Nino lat 1998 i 2016 są równe. Cały ocean się ogrzał od tego czasu średnio (czasowo) o mniej więcej tyle samo ile wynosi różnica między temperaturą NINO34 podczas tych dwóch ciepłych epizodów.
Wydaje mi się, ze jest to podejście właściwe do wielu celów. Sam patrzę raczej w “surową” serię aktualizowaną co tydzień bo w niej szybciej widać aktualne zmiany.
Nurtuje mnie jedna kwestia: Czy Ziemia doczeka się jeszcze epoki lodowcowej, zanim Słońce nas usmaży zgodnie z swoim mechanizmem ewolucji gwiazd?
Z całą pewnością Ci nie odpowiem bo nie mam kryształowej kuli. Jednak fizyka daje tu w miarę wiarygodną odpowiedź.
Usmażenie Ziemi to kwestia kilku miliardów lat. Przez najbliższe parędziesiąt milionów nawet nie zauważymy różnicy (1 W/m2 wymuszenia słonecznego przyrasta co kilkadziesiąt mln lat). Natomiast to co teraz pompujemy do atmosfery i pośrednio do oceanu powinno zamienić się w węglan wapnia w skali około 100 tys. lat. Czyli jest dużo czasu na epoki lodowe między jedną, a druga skala czasu.
A warunki, które powodowały obniżanie się stężenia CO2 w atmosferze przez ostatnie 50 mln lat (szybsza erozja gór niż tworzenie dna oceanicznego – bo pierwsze zabiera CO2 a drugie dodaje) nie zmienią się aż nie powstanie nowa Pangea i nie zacznie się na nowo dzielić. Czyli przez jakieś 250 mln lat będziemy mieli świetne warunki na epoki lodowe. Ale nie wcześniej niż za 100 tys. lat od zakończenia spalania paliw kopalnych.
Zanim ogłoszę czy maj był rekordowym miesiącem wg. NASA podam zaległe serie dla kwietnia
Najcieplejsze kwietnie wg. NOAA:
2016 1.103
2010 0.825
2014 0.800
2015 0.777
2007 0.734
1998 0.730
Trend liniowy 0,169 C/dekadę
Najcieplejsze kwietnie w serii HadCRUT4:
2016 0.926
2010 0.679
2014 0.657
2015 0.656
1998 0.636
2005 0.603
Trend liniowy 0,186 C/dekadę.
Najcieplejsze kwietnie w serii “Cowtan & Way” (prawdopodobnie niedługo tak będzie wyglądał HadCRUT4):
2016 0.760
2010 0.594
2014 0.479
2007 0.471
2015 0.447
2005 0.414
Trend liniowy: 0,198 C/dekadę.
No to kwiecień mamy z głowy. Czas na maj!
Otóż według NASA maj tez był rekordowy (surprise, surprise), chociaż już nie tak odjazdowo jak poprzednie miesiące. Denialiści zakrzykną prawdopodobnie: “Co to w ogóle za rekord. To jakaś parodia, nie rekord!” (czy coś w tym stylu)
2016 0.93
2014 0.86
2015 0.78
2012 0.76
2010 0.74
1998 0.71
Dla pięciu pierwszych miesięcy roku łącznie wygląda to tak (nadal niesamowicie wysoko):
2016 1.150
2015 0.818
2010 0.804
2007 0.756
2014 0.726
2002 0.722
Co ciekawe dla tych pięciu miesięcy (styczeń-maj), rok 1998 nie łapie się nawet do pierwszej szóstki (jest siódmy z anomalią 0,686).
Trendy liniowe od roku 1980 wynoszą 0,159 C/dekadę dla maja oraz 0,157 C/dekadę dla okresu styczeń-maj.
W moim “modelu” opartym na przebiegach temperatur z roku zamykającego El Nino po raz pierwszy przewidywana średnia anomalia dla 2016 spadła poniżej 1.0K – dokładnie na 0.99K. Nadal solidne 0.13 K powyżej zeszłorocznego rekordu. Będę bardzo zdziwiony, jeśli rekordu w tym roku nie będzie.
Chyba rzeczywiście trudno się już spodziewać braku rekordu. W końcu mamy już prawie pół roku i niesamowicie wysoką anomalię.
Są jeszcze wyniki dwóch serii dla maja. Druga jest swego rodzaju niespodzianką.
Jednak pierwsza to stary dobry NCDC, czy jak go tam aktualnie nazywa NOAA.
Najcieplejsze sześć majów:
2016 0.873
2015 0.852
2014 0.786
2010 0.754
2012 0.713
2013 0.705
Przewaga maja 2016 nad majem poprzedniego roku niewielka ale cała pierwsza szóstka należy do siedmiu ostatnich lat (brakuje tylko maja 2011). Maj 1998, podczas poprzedniego wielkiego El Nino jest siódmy ale z dużą “stratą”: +0.665 C
Natomiast pierwsze 5 miesięcy roku łącznie wyglądają tak:
2016 1.0808
2015 0.8421
2010 0.7643
2007 0.7070
2014 0.7023
1998 0.6987
Trend liniowy od roku 1980 to 0.157 C/dekadę dla maja oraz 0,150 C/dekadę (mniej niż dla innych serii).
A teraz ta niespodzianka. Jest to seria Berkeley Earth (zwana też BEST). Oni uaktualniają ja raz na parę miesięcy, mam wrażenie że biorą pod uwagę efekt medialny. Pewni dlatego podciągnęli ją o parę miesięcy póki są jeszcze rekordy.
Najcieplejsze 6 majów w serii Berkeley Earth:
2016 0.816
2014 0.788
2015 0.721
2010 0.694
2012 0.690
1998 0.667
Tu co ciekawe maj 2013 jest dopierom11-ty ale za to maj1998 łapie się do szóstki.
Natomiast pierwsze 5 miesięcy roku łącznie w serii Berkeley Earth wyglądają tak:
Najcieplejsze sześć okresy JFMAM:
2016 1.1012
2010 0.7914
2015 0.7620
2007 0.7342
2002 0.6846
2014 0.6768
I tu tez niespodzianka: nie ma w w szóstce roku poprzedniego El Nino (1998). Aż dziwne. Jest dopiero ósmy z wynikiem +0.6494 C.
A trendy liniowe od 1980 roku to 0,166 C/dekadę dla maja i 0,171 C/dekadę dla okresu styczeń-maj.
Najpierw rozliczmy się z majem. Pozostały HadCRUT4 oraz tzw. Cowtan & Way, czyli HadCRUT4 z polepszonym pokryciem obszarów polarnych.
I mamy niespodziankę. W serii HadCRUT4 maj 2016 nie był rekordowy. Był “dopiero” drugi, po maju 2015. Odzwyczalilismy się od nie rekordowych wyników! Za to maj 1998 jest szósty, a po drodze festiwal majów ostatnich lat.
2015 0.696
2016 0.680
2014 0.599
2010 0.591
2012 0.574
1998 0.573
Natomiast pierwsze 5 miesięcy roku łącznie bije i w serii HadCRUT4 rekord z dużym zapasem:
2016 0.9314
2015 0.6762
2010 0.6172
1998 0.6026
2002 0.5910
2007 0.5888
Trendy liniowe od 1980 roku to 0,160 K/dekadę dla maja oraz 0,161 K/dekadę dla okresu styczeń-maj łącznie.
Natomiast w serii Cowtan & Way maj 2016 jest najcieplejszy (efekt ciepłej Arktyki!). I to co ciekawe przed majem 2014, a maj 2015 jest dopiero trzeci:
2016 0.552
2014 0.496
2015 0.464
2010 0.461
2012 0.421
1998 0.394
Oczywiście w kwestii pierwszych pięciu miesięcy roku łącznie nie ma żadnej dyskusji:
2016 0.7823
2010 0.5103
2015 0.4621
2007 0.4315
2002 0.3775
2014 0.3715
I co ciekawe po lepszym uwzględnieniu rejonów polarnych, okres I-V roku 1998 nie mieści się w pierwszej szóstce (jest ósmy).
Trendy liniowe serii Cowtan & Way od roku 1980 są tez wyższe niż w HadCRUT4 i wynoszą odpowiednio 0,169 oraz 0,174 K/dekadę.
Czyli rok 2016 będzie kolejnym rokiem rekordowym – trzeci z rzędu, globalnie oczywiście. To już było wiadomo wcześniej.
A jaki będzie 2017? przy małej Lanini – można pospekulować?
A może by tak jakieś nowe podsumowanie? Już kilka miesięcy minęło, każdy kolejny najcieplejszy w historii (przynajmniej w GISS). Wrzesień chyba też okaże się cieplejszy on września z zeszłego roku i sprzed dwóch lat i będziemy mieć już 12 kolejnych rekordowych miesięcy. Wielkie El Nino z roku 97/98 miało jedenaście (marzec się wyłamał i w efekcie były wtedy dwie serie po 6 i 5 miesięcy).
No to zajmiemy się czerwcem. Lepiej późno niż wcale.
Najpierw GISS (albo, jeśli kto woli, GISTEMP). Czerwiec był wg. NASA rekordowy, ale tuż przed sławetnym 1998:
2016 0.80
1998 0.78
2015 0.78
2005 0.66
2014 0.66
2009 0.65
Okres I-VI łącznie też był najcieplejszy (jeszcze wyraźniej), a 1998 był dopiero szósty:
2016 1.093
2015 0.817
2010 0.783
2007 0.727
2014 0.723
1998 0.707
Trendy liniowe od 19980 roku wynosiły 0,166 K/dekadę dla czerwca i 0,160 K/dekadę dla okresu I-VI.
No to teraz czerwiec wg. NOAA. Czerwiec też był najcieplejszy, za to czerwca 1998 ze świeca szukać w pierwszej szóstce (był dopiero dziewiąty!):
2016 0.896
2015 0.878
2014 0.758
2010 0.732
2012 0.699
2013 0.682
Podobnie dla okresu I-VI NOAA nie zostawia wątpliwości:
2016 1.054
2015 0.850
2010 0.763
2014 0.716
1998 0.694
2007 0.682
trendy linowe dla NOAA to 0,172 K/dekadę dla czerwca i 0,153 K/dekadę dla okresu I-VI.
I jeszcze czerwiec dla HadCRUT4 (więcej serii chyba nie warto). I tu niespodzianka. W serii HadCRUT4 czerwiec 2016 był chłodniejszy od czerwca 2015.
2015 0.740
2016 0.733
2014 0.623
1998 0.594
2010 0.586
2012 0.558
Oczywiście dla całego pierwszego półrocza nie ma wątpliwości który rok jest cieplejszy:
2016 0.896
2015 0.702
2010 0.611
1998 0.602
2002 0.572
2007 0.560
Trendy liniowe od 1980 roku w HadCRUT4 to 0,182 K/dekadę dla czerwca (zdumiewająco dużo jak na tę serię!) i 0,165 K/dekadę dla pierwszego półrocza.
No to przechodzimy do lipca. Co ciekawe był n globalnie cieplejszy (w sensie anomalii) niż czerwiec.
W serii GISS/GISTEMP NASA lipce wyglądają tak:
2016 0.85
2011 0.74
2015 0.72
2009 0.71
1998 0.70
2005 0.65
Rok 1998 utrzymuje się w pierwszej szóstce, ale przewaga lipca 2016 nad 2011 i 2015 jest wyraźniejsza niż w czerwcu.
Dla pierwszych siedmiu miesięcy roku łącznie wygląda to tak:
2016 1.059
2015 0.803
2010 0.759
2007 0.711
1998 0.706
2014 0.701
Trendy liniowe dla lipca i pierwszych siedmiu miesięcy roku łącznie w serii GISS to odpowiednio 0,155 i 0,159 K/dekadę.
Teraz seria NOAA. Tak wyglądają w niej lipce. Rekord jest wyraźny:
2016 0.864
2015 0.804
1998 0.732
2010 0.727
2014 0.695
2012 0.683
Pierwsze 7 miesięcy roku łącznie w serii NOAA wygląda tak:
2016 1.027
2015 0.8436
2010 0.7578
2014 0.7127
1998 0.6997
2002 0.6603
A trendy liniowe (takie jak zwykle w tej serii to 0,174 oraz 0,156 K/dekadę dla miesiąca i całego okresu I-VII.
I jeszcze HadCRUT4. W przeciwieństwie do czerwca, w lipcu tu także jest rekord.
2016 0.734
2015 0.696
1998 0.672
2010 0.618
2005 0.548
2014 0.544
Dla całego okresu I-VII wygląda to tak:
2016 0.8733
2015 0.7008
2010 0.6123
1998 0.6116
2002 0.5606
2014 0.5518
Trendy liniowe dla lipca i całego okresu w HadCRUT4 wynoszą odpowiednio 0,183 oraz 0,168 K.dekadę (dużo!).
No to zabieram się za sierpień. W ten sposób będziemy w zasadzie na bieżąco
Najpierw GISS. Kto jest na miejscu pierwszym, jako najcieplejszy sierpień w historii pomiarów? Nasz ukochany rok 2016. I to o ile. Znowu wynik jak z czasów niedawnego El Nino!
2016 0.98
2014 0.82
2015 0.78
2011 0.73
2006 0.71
1998 0.67
Za pierwsze 8 miesięcy roku łącznie GISS ma taką “top listę”:
2016 1.049
2015 0.800
2010 0.745
2014 0.716
1998 0.701
2007 0.698
Ciągle ponad stopień w stosunku do okresu bazowego 1951-1980.
A trendy liniowe od 1980 roku to w serii GISS 0,179K/dekadę dla sierpnia i 0,161 K/dekadę za pierwsze 7 miesięcy roku łącznie.
No to teraz NOAA. Trochę mniej spektakularnie niż w serii GISS ale też rekord.
2016 0.915
2015 0.872
2014 0.796
2009 0.696
1998 0.680
2012 0.666
…a za osiem miesięcy (I-VIII) łącznie:
2016 1.013
2015 0.8472
2010 0.7451
2014 0.7232
1998 0.6972
2005 0.6483
Trend w serii NOAA to 0,179 K/dekadę dla sierpni oraz 0,159 K/dekadę za pierwsze osiem miesięcy łącznie.
No i na koniec HadCRUT4. W sierpniu też maja rekord (podobnie jak w lipcu ale nie jak w czerwcu):
2016 0.775
2015 0.738
2014 0.675
1998 0.599
2009 0.592
2003 0.550
A dla okresu styczeń-sierpień łącznie
2016 0.8610
2015 0.7055
1998 0.6100
2010 0.6035
2014 0.5672
2002 0.5466
Trend w serii HadCRUT4 dla sierpni to 0,186 K/dekadę, a dla I–VIII łącznie 0,170 K/dekadę.
Dzięki za podsumowanie. Wrzesień też raczej będzie rekordowy, przynajmniej w GISS.