Denialiści klimatyczni od dawna tak twierdzą. Co ciekawsze, to samo mówił mi niedawno nawet jeden z polskich klimatologów. A w ostatnich dniach ukazały się dwa artykuły tłumaczące zmniejszenie trendu globalnego ocieplenia po 1998 roku. Tylko czy jest się z czego tłumaczyć?
Przedstawiam poniżej wykres temperatury globalnej w okresie satelitarnym (czyli od 1978 r.). Z kliku dostępnych serii globalnych średnich dla poszczególnych miesięcy wybrałem brytyjską HadCRUT3 (dane dostepne z tej strony), która jest bardziej konserwatywna niż amerykańska GISS, nie interpolując temperatur w obszarach, gdzie nie ma danych, przez co nie obejmuje na przykład większości bardzo szybko ocieplającej się Arktyki. Przez to nie narażam się na oskarżenie o alarmizm. Z drugiej strony nie używam serii UAH, ulubionej przez denialistów. Nawet nie dlatego, żeby pokazywała coś innego niż HadCRUT3, ale dlatego, że jej autor, Roy Spencer (link do jego blogu jest po prawej stronie), zmienia nieustannie wartości całej serii, nie bardzo tłumacząc dlaczego (przez co dane ściągnięte od niego dziś za miesiąc mogą być niezgodne nawet z jego stroną). Okres satelitarny wybrałem, bo wcześniej nie było dobrych danych dla większości oceanów (taki wybór zapewnia bardziej jednolitą serię danych niż rozpoczęcie np. od 1950 roku).
Na wykresie własnej produkcji przedstawiłem anomalię temperatury globalnej (względem okresu bazowego 1961-1990) z danych HadCRUT3 oraz jej trend (czarna przerywana linia). Na wykresie wyróżniono okres 1998-2008 oraz trend dla niego (czerwona przerywana linia). Dekada 1998-2007 r., albo bardziej prawidłowy [1] okres 11-letni 1998-2008 (wyróżniony na rysunku pionowymi szarymi liniami), zdaje się dowodzić jednoznacznie, że od roku 1998 nijakiego globalnego ocieplenia nie uświadczysz (dlatego takie właśnie okresy uwielbiają denialiści). Zamiast wzrostu temperatury o (średnio) 0.15 K na dekadę mamy po 1998 roku nawet niewielki spadek. Czy jednak sprawa jest zamknięta?
Nie jest i to z kilku powodów. Po pierwsze serie czasowe takie jak przedstawiona powyżej HadCRUT3 czy UAH, nie interpolujące wyników w rejonach bez pomiarów, nie pokrywają całej kuli ziemskiej, a akurat wśród tych 20%, których nie pokrywają są najszybciej ogrzewające się obszary arktyczne. Jeśli użyć serii GISS sytuacja nie będzie wyglądała tak optymistycznie (zakładam, że zgadzamy się, że globalne ocieplenie jest problemem), ale należy pamiętać, że wartości interpolowane to wartości mniej pewne niż mierzone. Poza tym wybór okresu tak jak powyżej pomija rekordowo ciepły rok 2010 [2] (denialiści pomijają go z lubością).
Przede wszystkim jednak wybór jest “tendencyjny” z prostego powodu: zaczyna się od lokalnego maksimum i kończy się na lokalnym minimum. Politycy uwielbiają ten trik w przypadku dowodzenia skuteczności (lub nie) rządu danego kraju w rozwijaniu gospodarki. Rozpoczęcie wykresu od dna najnowszej recesji zawsze daje wrażenie dynamicznego wzrostu, a rozpoczęcie od szczytu przed tą recesja wręcz odwrotnie. Na wykresie powyżej, jeśli obciąć okres “czerwony” z każdej strony o rok, pozbywając się lokalnego maksimum i minimum (czyli rozpoczynając od roku 1999 i kończąc w 2007), otrzyma efekcie średni wzrost (trend) nawet szybszy niż w całym okresie satelitarnym (+0.157 w porównaniu z +0.152 K/dekadę) podczas gdy zaznaczony na czerwono trend dla lat 1998-2008 to -0.015 K/dekadę. Czyli znowu z igły widły? Był zresztą o tym nie tak dawno artykuł Easterling i Wehner 2009 [3] pokazujący na danych historycznych i wynikach modelowania, że naturalna zmienność (głównie cykl El Niño – La Niña, ale nie tylko) musi powodować występowanie okresów rzędu dekady o trendzie odwrotnym niż wynikający ze zmiany wymuszeń radiacyjnych, nawet przy ich tak szybkim wzroście jak w ostatnich dekadach. Poprzednio takimi były okresy 1977-1985 i 1981-1989 (patrz rysunek poniżej).

Czy zatem dowodzi to czegoś poza tym, że okresy około 10-letnie są za krótkie aby wyznaczać długotrwałe trendy? Otóż nie są jeśli rozumie się procesy i wymuszenia jakie wpływają na globalna temperaturę (wspomniany na początku polski klimatolog był niestety dawniejszego typu “geograficzno-statystycznego”, który nie zaprząta sobie głowy procesami fizycznymi). Jeśli zauważyć, że prawie wszystkie lokalne maksima to okresy El Niño (okresy ocieplenia wschodniego tropikalnego Pacyfiku), a zimne La Niña (faza przeciwna tego samego cyklu o nieregularnej długości, zwanego też ENSO, jednak zwykle mieszczącej się w przedziale 2-7 lat) to sprawa stanie się mniej tajemnicza. Na przykład rok 1998 to najsilniejsze El Niño w okresie satelitarnym, a 2010 to inne mniejsze (oba te lata były rekordowo ciepłe), natomiast lata 1999, 2008 i 2010 to zimne lata La Niñi (zwyczajem amerykańskim numeruję te zjawiska rokiem, w których pierwszych miesiącach mają swoje maksimum i w którym się kończą; bo wykrywalne są już parę miesięcy wcześniej). Temperatury tropikalnego Pacyfiku wpływają, jak się wydaje, na ilość niskich chmur w całych tropikach (patrz np. Clement et al. 2009 czy Dessler 2010, oba w Science co może tłumaczyć częściowo odpowiada na pytania Trnenbetha, o których pisałem poprzednio), co powoduje, że ENSO jest największym źródłem różnic międzyrocznych temperatur na naszej planecie. Dlatego zaczynanie i kończenie okresów trendów na tych zjawiskach generalnie nie jest najlepszym pomysłem, ale jak tego uniknąć gdy w ostatnich kilku latach zawsze albo El Niño albo La Niña?
W sumie do niedawna uważałem, że “anomalia” trendu ostatniej dekady to wyłącznie efekt ENSO i ewentualnie słońca. Obecność silnego El Niño w 1998 roku oraz słabszego w 2010 i w dodatku otoczonego dwoma dość silnymi (zimnymi) La Niñiami w oczywisty sposób musi powodować, że trendy między tymi datami powinny być znacznie niższe niż trend długoterminowy, a nawet ujemne. Nie widziałem zatem nawet potrzeby szukania innych przyczyn. Ot, poczekamy jeszcze trochę i trend dodatni, wynikający z rosnącego wymuszenia radiacyjnego gazów cieplarnianych będzie musiał wrócić.
I tak może być. Z tym, że (jak zwykle) sytuacja jest tym bardziej skomplikowana im bardziej jej się przyglądamy. Ukazały się ostatnio dwa niezależne artykuły tłumaczące przynajmniej część tego zmniejszenia trendu zmianami koncentracji aerozolu (za resztę przypominam odpowiada zmienność naturalna związana z cyklem ENSO). Nie jest to może takie dziwne biorąc pod uwagę, że aerozol (i chmury) to ciągle jedne z najsłabszych punktów naszej wiedzy o działaniu maszyny klimatycznej na naszej planecie.
Pierwszy z tych artykułów, Kaufmann i inni 2011 [4] (w “ulubionym” przeze mnie PNAS) zwraca uwagę na znane fakty takie jak słabsza niż zwykle aktywność Słońca w ostatnim 11-letnim cyklu oraz opisaną powyżej zmienność związaną z cyklem ENSO, co tłumaczy większą część spadku wartości trendu zmian temperatury po 1998 roku. Tu nie ma niespodzianki. Nowością jest jednak czynnik antropogeniczny, którego nie brano dotychczas pod uwagę: wzmożone spalanie węgla w Chinach. Konsumpcja węgla w Chinach podwoiła się w ciągu 4 lat (2003-2007), a poprzednie podwojenie wymagało 22 lat (1980-2002). Uważny czytelnik zakrzyknie tu “Zaraz, zaraz, przecież spalanie węgla to emisja dwutlenku węgla, najważniejszego antropogenicznego gazu cieplarnianego!”. Czyli powinno to raczej ogrzewać niż oziębiać planetę. I słusznie. Z tym, że na długą metę. Dwutlenek węgla pozostanie w systemie atmosfera-ocean przez tysiące lat grzejąc nas przez ten czas. Jednak jego emisja związana jest z produkcją dymu, czyli bardziej fachowo – aerozolu. A że Chińczycy są opóźnieniu w zakładaniu filtrów na kominy, produkują oni aerozol zawierający dużo siarki. Taki aerozol ma działanie ochładzające planetę (odbijając światło słoneczne z powrotem w kosmos), co wiadomo co najmniej od lat 1970-ch. Aerozol utrzymuje się w atmosferze krótko, zasadniczo do najbliższego deszczu (no chyba, że zostanie wyemitowany aż do stratosfery jak to umieją najsilniejsze wulkany i bomby atomowe – wtedy drobne cząstki mogą unosić się tam nawet parę lat, ale tej sztuki kominy elektrowni nie potrafią). Jednak w tym czasie jego efekt chłodzący może być nawet większy niż tej części dwutlenku węgla, jaka jest z nim wspólnie emitowana [5].

Na rysunku powyżej zaznaczono wymuszenia radiacyjne (lewa oś) i spowodowane nimi zmiany temperatury [6] (prawa oś) dla poszczególnych wymuszeń i ich sum. Przypomnę, że wymuszenie w sensie używanym przez IPCC to różnica w stosunku do okresu przedprzemysłowego. Fioletowa linia to właśnie wymuszenie aerozolu “siarkowego” (ujemna wartość oznacza efekt chłodzący). Zwraca uwagę zwiększenie tego (ujemnego) wymuszenia w drugiej części okresu 1998-2008 (tego samego, o którym pisałem powyżej), zaznaczonego po prawej stronie wykresu przez błękitne tło. Błękitna linia to suma wymuszeń antropogenicznych (czyli gazów cieplarnianych i aerozolu), a prosta, kropkowana błękitna to jej liniowe przybliżenie, pomarańczowa linia to wymuszenie słoneczne, a zielona to wymuszenie ENSO (ponieważ szczegóły działania tego wymuszenia są słabo znane zastosowano po prostu indeks SOI podzielony przez 10, co wydaje się “graficznie” wyborem dość nieszczęśliwym, bo dodatni SOI oznacza wpływ oziębiający i na odwrót). W końcu czerwona linia to suma wszystkich wymuszeń, a czarna to obserwowane zmiany temperatury.
Widać, że zmiany ENSO dominują – proszę wyobrazić sobie zieloną linię ze zmienionym znakiem (odbitą poziomo w lustrze) i porównać ją z czarną kreską temperatury. W drugiej części okresu “błękitnego”, czyli od roku 2002, efekt zmian ENSO (zielony wykres z “odwróconym” znakiem), słońca (pomarańczowy) i aerozolów siarkowych (fioletowy) jest co do znaku jednakowy: wszystkie ciągną w dół. Autorzy oceniają ten ostatni jako najmniejszy, ale jest to efekt mierzalny. Zmiana wymuszenia związanego z aerozolem siarkowym po 2002 roku ma wynosić 0.03 W m-2. Tłumaczyłoby to spadek temperatury o około 0.01 K czyli 1/15 spadku trendu w tym okresie (efekt spadku aktywności słońca oceniają na 6 razy większy, resztę spadku przypisując ENSO).
Nawet ciekawszy wydał mi się drugi z omawianych artykułów z ostatnich tygodni, Solomon i inni 2011 [7] z Science. Ciekawszy, bo dotyczy aerozolu stratosferycznego, właśnie tego, który w wyniku braku opadów w górnych warstwach atmosfery jest w stanie unosić się nawet latami. Wiemy to z obserwacji grubości optycznej atmosfery (znowu to pojęcie!) po dużych wybuchach wulkanów, szczególnie po największym odkąd mierzymy tę wielkość, czyli Pinatubo na Filipinach w 1991 roku. Dotychczasowy stan wiedzy wskazywał, że taki wybuch, powodujący wstrzykniecie do stratosfery olbrzymich ilości związków siarki, powodował znaczące globalne oziębienie (w przypadku Pinatubo -0.3 K wkrótce po eksplozji), stopniowo wracające “do normy” w ciągu kilku lat. Uważano jednak, ze mniejsze wulkany nie są w stanie emitować pyłu do stratosfery, są zatem pomijalne w sensie klimatycznym. I tu pierwsza niespodzianka. Solomon i inni pokazują, na podstawie pomiarów lidarowych dokonywanych z satelity (lidar to optyczny odpowiednik radaru używający lasera jako źródła światła), wyraźny wzrost grubości optycznej (przynajmniej regionalny) po czterech “małych” wybuchach wulkanów z lat 2006-2010.

Na powyższym wykresie kolory oznaczają intensywność rozpraszania (właściwie tzw. “stosunek rozproszeń” czyli stosunek całkowitego rozpraszania wstecz do rozpraszania na samym powietrzu – czyli “rayleighowskiego” – którego wartość da się wyliczyć teoretycznie). Oś pionowa to szerokość geograficzna (dodatnie wartości to półkula północna), a pozioma to czas. Numerami zaznaczono czas i szerokość geograficzną czterech wybuchów wulkanów. Bez wątpienia wpływają one na wartość “tła” aerozolowego na dużej części planety przez całe miesiące (pięknie na przykład widać jak pył wulkanów 1 i 2 rozchodzi się od równika w obie strony na północ i południe). Czyli większa ilość takich słabych wulkanów w danej dekadzie musi prowadzić do jej ochłodzenia w stosunku do dekad sąsiednich, nawet gdy w żadnej z nich nie ma “dużego” wulkanu.
Jednak czy ilość aerozolu w stratosferze rzeczywiście zmienia się między dekadami? Otóż tak i są na to aż cztery niezależne dowody. Trzy z nich pochodzą z pomiarów górze Mauna Loa na Hawajach na wysokości tak dużej, że w przybliżeniu wszystko co powyżej można uznać za aerozol stratosferyczny (no może nie całkiem, ale wybierano dni o najniższych wartościach grubości optycznej dla zminimalizowania wpływu wyższych warstw troposfery). Te trzy to dwa różne instrumenty mierzące grubość optyczną atmosfery z jasności tarczy słonecznej i naziemny lidar. Czwartą serią pomiarową są globalne wartości stratosferycznej grubości optycznej mierzone “od góry” z lidaru satelitarnego. Poniższy rysunek z artykułu podsumowuje je wszystkie.

W wartościach najdłuższej z tych serii – pomiarów transmisji poprzez atmosferę – widać dwa najnowsze “wielkie” wybuchy wulkanów, El Chichon (Meksyk) z 1982 i Pinatubo z 1991 roku. Środkowy panel to pomiary grubości optycznej od 1994 roku (trzy przyrządy z Mauna Loa i pomiary satelitarne). Widać wzrost średniej wartości po roku 2000. To samo potwierdzają wyniki globalne (dolny panel). Jest to istotne, bo w modelowaniu klimatycznym stosuje się wartości stratosferycznej grubości optycznej osiągające zero już w kilka lat po wybuchu Pinatubo (linie oznaczone jako GISS i Ammann et al na dolnym panelu). Oznacza to (według autorów artykułu), że od końca lat 1990 nie bierzemy pod uwagę wymuszenia radiacyjnego odpowiadającego oziębieniu o -0.07 K. A to już nie są żarty. To połowa “brakującego” ocieplenia w ostatniej dekadzie. Czyli w sumie aż za dużo, bo jeśli uwzględnić wartości jakie Kaufmann i inni (2011) przypisują zmianom wymuszeń przez aerozol troposferyczny i aktywność słoneczną, to nie zostaje nic dla ENSO. A przecież widzieliśmy, że to najważniejszy czynnik zmian międzyletnich, od wartości którego, w latach rozpoczynających i kończących serie czasową o dekadalnej długości, zależy nawet czy obserwujemy trend ocieplenia czy nie. Częściowo da się to wytłumaczyć tym, że te wymuszenie “tła” aerozolowego, odpowiadające oziębieniu -0.07 K zdaniem autorów narastało od lat 1960-ch, ale w okresie dużych wybuch w wulkanów i kilka lat po nich było przez nie zamaskowane. Czyli nie jestem pewny jak je rozłożyć na te kilka dekad po drodze. Jak to się pisze w artykułach “wymaga to dalszych badań”.
Czyli znowu nie wszystko wiemy? No, właśnie. Nikt nie obiecywał, że nauka o klimacie to obserwacyjnie najłatwiejsza gałąź nauki. A na pewno nie jest to gałąź martwa (czyli taka gdzie już wszystko odkryto). Jednak dla mnie, nawet bardziej prawdopodobne niż błędy pomiarowe jest, że nadal nie uwzględniamy wszystkich czynników naturalnej zmienności. Mówiliśmy tu o międzyletniej zmienności związanej z ENSO, ale istnieje też międzydekadowa zmienność związana ze zmianami głębinowej (dokładniej termohalinowej) cyrkulacji oceanicznej. Zwykle mierzy się ją pośrednio przez temperaturę grzanego przez nią Północnego Atlantyku. A ta w latach 1990-ch była szczególnie wysoka, co musiało wpłynąć na temperaturę globalną z definicji (stanowiąc jej integralną część).
I w tym kontekście wróciłbym do rysunku z początku tego wpisu. Dla mnie najciekawszym naukowo pytaniem nie jest – dlaczego trend temperatury po roku 1998 był tak niski? Jest na to wiele powodów wyliczonych powyżej. Naprawdę ciekawe jest to, dlaczego pierwsza polowa lat 2000-ch była tak ciepła, wyraźnie wykraczając ponad trend wieloletni? Bo była. Jeśli z tych samych danych (HadCRUT3) policzyć różnice średnich wartości globalnych dla całych sąsiednich dekad (zdefiniowanych klasycznie jako kończące się na roku z zerem na ostatniej pozycji) to różnica pomiędzy latami 1980-mi i 1990-mi wynosi +0.144 K (prawie tyle ile wynika z trendu długoterminowego). Ile zatem wynosi różnica między latami 1990-mi a tymi “zimnymi” 2000-mi? Czy będzie to wartość ujemna? Absolutnie nie. Różnica ta to +0.192 K. Tak jest, różnica miedzy latami 1990-mi a 2000-mi była większa niż pomiędzy poprzednimi dwoma dekadami i większa niż trend długoterminowy. Proponuję zastanowić się nad zdaniem “Globalnego ocieplenia nie ma od 1998, ale lata 2000-ne były cieplejsze od poprzedniej dekady i to o większą wartość niż wynika z trendu”. Absurd? Tak, absurd. Czyli mamy odpowiedź na tytułowe pytanie. Nie dość, że globalne ocieplenie nie skończyło się w 1998 roku, ale następna po nim dekada była rekordowo ciepła, tak ciepła że właściwie nie wiemy dlaczego. I chociażby dlatego warto zajmować się klimatologią.
Przypisy:
[1] Wybór okresu 11-letniego dla średnich temperatur pozwala na usuniecie cyklu aktywności słonecznej o takiej w przybliżeniu długości.
[2] Na oko tego nie widać (dane są wartościami miesięcznymi i trzeba je “optycznie” uśrednić do całych lat) ale w żadnej znanej mi serii czasowej, łącznie z przedstawioną powyżej nie ma roku cieplejszego niż 2010. Co ciekawe 2010 wygrał lub zremisował (w granicach błędu pomiarowego) z rokiem 1998 w HadCRUT3 i UAH oraz z rokiem 2005 w GISS. Różnica zdania co do poprzednio najcieplejszego roku wynika właśnie z decyzji co do przestrzennej interpolacji danych.
[3] Easterling, D., & Wehner, M. (2009). Is the climate warming or cooling? Geophysical Research Letters, 36 (8) DOI: 10.1029/2009GL037810
[4] Kaufmann RK, Kauppi H, Mann ML, & Stock JH (2011). Reconciling anthropogenic climate change with observed temperature 1998-2008. Proceedings of the National Academy of Sciences of the United States of America, 108 (29), 11790-3 PMID: 21730180
[5] Można by się nawet cieszyć z tej chińskiej “geoinzynierii” chłodzącej naszą planetę gdyby nie tragiczne skutki tego dymu dla życia w Chinach, gdzie gęsto zaludniona wschodnia część kraju pokryta jest brązowym smogiem przez większość roku.
[6] Zwraca uwagę niska czułość klimatu na wymuszenie radiacyjne, 0.3 K W-1 m2, wynikająca z podzielenia przez siebie wartości na obu pionowych osiach, co oznaczać ma zapewne że autorzy mają na myśli zmiany w przeciągu zaledwie kilku lat. Przypominam, że ze względu na olbrzymią pojemność cieplną oceanów ogrzanie naszej planety (i o jedynie w sensie dolnych warstw atmosfery, które jednak mają styczność z oceanem) trwa dość długo, czyli im dłużej poczekamy tym większy efekt temperaturowy będzie miało to samo wymuszenie radiacyjne (o ile działa trwale).
[7] Solomon S, Daniel JS, Neely RR 3rd, Vernier JP, Dutton EG, & Thomason LW (2011). The persistently variable “background” stratospheric aerosol layer and global climate change. Science , 333 (6044), 866-70 PMID: 21778361
Hits: 2399
Wg HadCRUT4 XX-wieczne ocieplenie rozpoczęło się w okolicach roku 1910.
Na stronach Berkeley Earth można znaleźć porównanie wyników modelowania z ich rekonstrukcją:
http://static.berkeleyearth.org/graphics/ar4-gcms-versus-be-dataset.png
@pdjakow
Dla mnie najbardziej przekonywujące jest nie porównanie z modelami cyrkulacji (z asymilacją wymuszeń historycznych), a prosta regresja liniowa wielu zmiennych, przypisująca znanym wymuszeniom ich efekt temperaturowy. Czyli na przykład Lean i Rind 2008, z którego jest poniższy rysunek:

Tu widać świetnie to co napisałeś, czyli że wzrost wymuszeń antropogenicznych (gazy cieplarniane i aerozol) miał znaczenie gdzieś od 1910 roku, ale był też wzmocniony serią El Nino i dochodzeniem klimatu do siebie po serii dużych erupcji wulkanicznych z lat 1902 i 1903, z których największa to wybuch wulkanu Santa Maria w Gwatemali http://en.wikipedia.org/wiki/Santa_Mar%C3%ADa_%28volcano%29, wg Ammanna 2003 druga najważniejsza erupcja dla klimatu w XX wieku:

Powyższy rysunek z 4-go raportu IPCC, porównujący dane z Ammann 2003 i Sato 1993 (przy okazji widać, że Lean i Rind korzystali z tego drugiego).
Tymczasem u nas w Europie sierpień był wszędzie cieplejszy niż zwykle. Oto anomalia względem lat 1981:2000 wyrysowana na podstawie reanalizy NCEP/NCAR (dokładniej anomalia średniej temperatury dobowej):
W Polsce, jak widać, ta anomalia wynosiła gdzieś od +0,9 do +1,3 C.
Mam do Pana ogromna probe. Proszę choć raz , ten jeden jedyny raz spróbować zastanowić się bez uprzedzeń.
Pan Pyta jakie statystycznie istotne miara wskazuje że ocieplanie się zakończyło.
Tylko że ja nic takiego nie twierdze.
Twierdze, że na podstawie PAŃSKICH KRYTERIÓW antropogeniczne ocieplenie klimatu wcale się nie zaczęło.
Skoro coś się nie zaczęło to jak może się skończyć ?
Metody którymi Pan udowadnia że antropogeniczne ocieplenie się nie skończyło tak samo udowadniają że się nie zaczęło.
Ja nie chwale danych GISS ale na czymś oprzeć się trzeba, przecież sam tych danych nie zbiorę.
Usiłuje tez nie być “tendencyjnym” wiec biorę całą dostępną serię nie wybierając tego co mi pasuje do poparcia mojego stanowiska,
To że klimat się zmienia i następują okresy chłodniejsze a po nich cieplejsze chyba nie jest kwestionowane. Nie jest tez kwestionowana “mała epoka lodowcowa”, choć niektórzy twierdza, ze nie była globalna, ale seria podesłana przez Pana pdjakow wskazuje, że przez wiele tysięcy lat w Grenlandii było o ponad 1 stopień cieplej niż dziś… od około 1840 do 1880 ociepliło się o około 0,5 stopnia w ciągu 50 lat potem dane GISS wskazują że przez 30 lat się nie ocieplało, następnie mamy 35 lat ocieplania się, znów nie ocieplenie przez 40 lat, ocieplanie przez niecałe 30 lat i na razie koniec.
Może Pan pokazać jakąkolwiek statystycznie istotną różnicę pomiędzy poprzednimi okresami wzrostu temperatury a ostatnim ?.
To co pan pisze są to jedynie hipotezy.
Jak sam Pan stwierdził, pierwszy raport IPCC powstał na zamówienie polityków. Mógłby Pan się odnieść do stwierdzenia, że gdyby raport był naukowo uczciwy powinien zawierać konkluzje że nie ma statystycznie żadnego dowodu, że coś szczególnego się dzieje ?
Wszyscy wiemy co po nim nastąpiło. Wzrost podatków na energie, wzrost cen żywności spowodowany przestawieniem rolnictwa na produkcje “biopaliw”, Wzbogacenie się wielu polityków na panice “globalnego ocieplania.” Wiec politycznie jest zrozumiałe dlaczego raport IPCC był alarmistyczny.
Tym bardziej powinni być ostrożni naukowcy.
Gdzie są te statystycznie znaczące wielkości wskazujące że stało się coś szczególnego w porównaniu z całym okresem ok 200 lat gdy temperatura trzykrotnie wzrastała o około 0,5 stopnia przez około 40 lat?
“Gdzie są te statystycznie znaczące wielkości wskazujące że stało się coś szczególnego w porównaniu z całym okresem ok 200 lat gdy temperatura trzykrotnie wzrastała o około 0,5 stopnia przez około 40 lat?”
A ja nadal proszę o nie robienie z serii grenlandzkiej serii globalnej. Pańskie dodawanki temperatury z GISTEMP do rdzenia GISP2 nie mają żadnego sensu. Równie dobrze można sobie dodawać dane z Warszawy, będzie miało to dokładnie ten sam sens (czyli żaden). Nawet uśrednione dane z całej Grenlandii nie koniecznie muszą się tu nadawać (mimo, że akurat od 1850 ociepliła się ona o około 2 stopnie).
Grenlandia (w ogóle regiony arktyczne) mają to do siebie, że każde zmiany klimatyczne są tam najgwałtowniejsze. Lepiej opierać się już na rekonstrukcji dotyczącej całej półkuli, jak np. rekonstrukcja Moberga.
http://www.ncdc.noaa.gov/paleo/globalwarming/images/moberg-2005-large.jpg
http://www.ncdc.noaa.gov/paleo/pubs/moberg2005/moberg2005.html
Nauka o klimacie to nie tylko obserwacje. To także zrozumienie fizyki procesów klimatycznych. Ocieplenie związane z wzrostem koncentracji gazów cieplarnianych jest naturalną konsekwencją teorii przenoszenia energii radiacyjnej. Czy to dowodzi, że ocieplenie ostatnich stu kilkudziesięciu lat jest spowodowane właśnie tym? Nie do końca, ale jeśli chce się temu zaprzeczyć należny podać mechanizm fizyczny, który równoważy zwiększenie efektu cieplarnianego. Oraz co jeszcze ważniejsze podać alternatywny mechanizm ocieplenia.
Otóż nikt takiego alternatywnego mechanizmu nie pokazał. Tzn. paru próbowało ale ich hipotezy były sprzeczne z danymi obserwacyjnymi (Słońce nie może zwiększać temperatury Ziemi niezależnie czy jego jasność rośnie czy maleje, a ocean nie może oddawać atmosferze ciepła samemu się przy tym ocieplając, itp.itd.).
Istnieje jednak różnica między nauką i pseudonauką i nie należy jej przekraczać tylko dlatego, że wyniki pomiarów naukowych nam nie odpowiadają.
Nauka o Klimacie też ma tekst na temat rzekomego zakończenia globalnego ocieplenia:
http://naukaoklimacie.pl/fakty-i-mity/mit-globalne-ocieplenie-sie-skonczylo-5
Są już dane GISS za sierpień. Globalnie ten sierpień był piąty, tuż za następującymi czterema: od najcieplejszego kolejno 2011, 1998, 2006 i 2003. Różnica między najcieplejszym sierpniem a tym z 2013 roku to tylko 0,07 C
Denialiści chętnie wyrysowali by linię po tych pięciu lokalnych maksimach, usiłując dowieść malejącego (a przynajmniej nierosnącego) trendu. Proszę jednak zwrócić uwagę na lokalne minima. Od pięciu lat nie ma tak zimnych sierpni jak 2008, 2004 czy 2000 (nie wspominając już w ogóle o lokalnych minimach z poprzedniej dekady).
I czy w ogóle warto wspominać o takiej oczywistości, że wśród najcieplejszych 12 sierpni w ogóle, aż 11 należy do ostatnich 13 lat? A także, że ostatnie 6 sierpni (2008-2013) było cieplejsze od poprzednich sześciu, i to pomimo zimnego sierpnia 2008? A tamte 6 cieplejsze od poprzednich 6? Bo tak dokładnie jest.
Mamy pierwsze skutki paraliżu budżetowego w USA. Strona GISS nie działa: http://www.giss.nasa.gov/
Zresztą główne strony NASA oraz NOAA też nie działają. Warto poczytać co tam umieścili zamiast normalnych stron 😉
Na szczęście działa jeszcze serwer FTP z danymi NOAA i dane satelitarne http://www.ospo.noaa.gov/index.html. Ba, nawet robią niektóre prognozy http://www.cpc.ncep.noaa.gov/. To pewnie załapało się pod hasło: “Only web sites necessary to protect lives and property will be maintained.”.
Na temperaturę globalna z NASA (GISS) i NOAA (NCDC) raczej poczekamy ze względu na paraliz budżetowy w USA. Dlatego na razie pozostają nam dane satelitarne.
I oto UAH ogłosił swoją ocenę anomalii września:
Wygląda na to, że przyroda uczciła opublikowanie raportu IPCC przyśpieszeniem globalnego ocieplenia 😉
Nikt więcej nie ogłosił na razie anomalii dla września. Na szczęście wreszcie skończył się ten budżetowy obłęd w USA i NASA oraz NOAA zaczną normalnie pracować.
Da się już nawet wykreślić anomalie temperatur Europy z reanaliz NCEP/NCAR (jeszcze rano tych zamiast potrzebnych do tego danych była informacja o “wyłączeniu” instytucji rządowych).
Jak widać na południowym wschodzie Polski było we wrześniu nawet stopień zimniej niż normalnie (czyli dokładniej w latach 1980:2000). Przyczynił się do tego zdaje się głównie początek zeszłego miesiąca.
Faceci od GISS napisali, że trzeba jeszcze poczekać “several days”. Pewnie do środy.
GISS jeszcze w polu ale NCDC (NOAA) już ma swoje dane za wrzesień:

Obecny wrzesień był globalnie 4-ty najcieplejszy po latach 2005, 2012 i 2009. W sumie niedaleko strefy rekordowej dla tego miesiąca (zabrakło 0.039 C). A przecież nawet nie mamy El Nino.
Przedwczoraj anomalia temperatury w całej Polsce była powyżej +6 C, a w zachodniej nawet powyżej +7 C
Ciekawe jak to wyjdzie dla całego miesiąca…
Aktualnie we Wrocławiu jest około +2 ponad normę dla lat 1961-1990. I tak się mniej więcej skończy. Niższe odchylenie będzie w innych miejscach, obszarowo dla Polski powinno wyjść w okolicach +1.5. Winę za to ponosi chłodny początek miesiąca.
P.S.
Może Cię to zainteresuje:
http://www.karstenhaustein.com/climate.php
Odchylenia policzone z GFS, NCEP, GISS. Porównane ze sobą.
Dzięki. Porównując moje rysunki z danych NCEP/NCAR z tymi zalinkowanymi przez Ciebie widzę, że default promienia interpolacji jest w RNCEP za duży. Zmniejszyłem z 0.75 do 0.1 i teraz wygląda to już nie tak gładko. To ten sam dzień co poprzednio:
Chyba bardziej realistyczne?
Tak, raczej lepiej. Ja robię podobnie z GFS, jak na stronie powyżej, prognoza na 8 dni:
http://meteomodel.pl/klimat/gfsanom_eu.png
(prognoza GFS – reanaliza CFSR)
Inne mapy tutaj:
http://meteomodel.pl/gfsanom.php
po zalogowaniu na stronie głównej.
Pozazdrościłem autorowi tamtej strony i robię rzecz podobną. Październik do 27-go, 00UTC:
http://meteomodel.pl/klimat/poltemp/gfs/201310.png
To różnica gfs-reanaliza cfsr, dla wielolecia 1981-2010.
GISS nadrobił zaległości i ogłosił globalną anomalii temperatury dla września. Okazuje się, że był to najcieplejszy wrzesień w historii pomiarów, ex equo z 2005 rokiem. Tylko, że wtedy było El Nino, a teraz nie. Dlatego, jak widać na poniższym wykresie, wrzesień 2005 musiał na poniższym wykresie tak wystawać nad trend a wrzesień 2013 nie musiał specjalnie odstawać od trendu aby wyrównać rekord.
Klimat chyba się dowiedział, że rzekomo globalne ocieplenie się zatrzymało i postanowił pokazać, że to nieprawda 😉 A tak poważnie to 12 najcieplejszych wrześniów w historii pomiarów było w komplecie w XXI wieku. Inaczej mówiąc tylko jeden wrzesień XX wieku (1997) był cieplejszy niż tylko jedynie jeden wrzesień tego stulecia (2004). Kolejność najcieplejszych 12 wrześniów to 2013 i 2005 (remis), 2012, 2009, 2003, 2002, 2007, 2008 i 2006 (remis), 2010, 2001, 2011.
Trend temperatury globalnej wrześniów dla pokazanego okresu wynosi +0,185 z niepewnością 0.021 C na dekadę. Tu podaję odchylenie standardowe. Widać, ze trend jest różny od zera o sześć odchyleń standardowych (inaczej “sigm”) co jest lepsza istotnością statystyczną niż ta, która dała nobla prof. Higgsowi za przewidzenie niedawno odkrytej cząstki elementarnej (w fizyce wysokich energii wystarczy pięć sigm). Sześć sigm to przedział ufności 99,999999% a w CERNIe wystarczy im pięć czyli “zaledwie” 99,9999%. Normalnie jako istotną statystycznie uważa się wartość z przedziałem ufności 95% (dwoma sigmami).
W wyniku tego ciepłego września nie dziwota, że średnie dekadowe (czyli z kolejnych 120 miesięcy) dociągnięte do ostatniego miesiąca nie pokazują żadnego zatrzymania ocieplenia:

Przypomnę jeszcze raz, że to jest wniosek istotny statystycznie. Proszę popatrzeć na niepewności, podwójne odchylenia standardowe “dwie sigmy”), czyli zakres ufności 95%, co dopowiada prawie dokładnie istotności 5%. Natomiast rzekomego zatrzymania się globalnego ocieplenia nijak nie da się pokazać w sposób istotny statystycznie (np. “oziębienie” wrześniów od 2005 do 2011 było za krótkie na to aby być istotne). Jeśli ktoś się nie zgadza, to niech to wykaże na danych, albo zamilknie na wieki 🙂
A co do El Nino i La Nini to poniżej widać dlaczego początek dekady 2000-2010 był tak ciepły a druga połowa chłodniejsza (to wykres NINO3.4, indeksu anomalii temperatur wschodniego tropikalnego Pacyfiku).
To kwestia ilości tych ciepłych i zimnych zjawisk na Pacyfiku. Stąd wrażenie “zatrzymania” globalnego ocieplenia gdy naprawdę po prostu początek tego tysiąclecia był nieco cieplejszy niż wynikałoby z samego wymuszenia gazów cieplarnianych a druga polowa tamtej dekady i początek obecnej nieco zimniejszy przez serię La Ninii.
Natomiast w serii brytyjskiej HadCRUT4 ten wrzesień był 3 najcieplejszy. Ale za to ex equo z dwoma innymi latami (2012 i 2003). Cieplejsze były tylko wrześnie 2005 i 2009.
Przypomnę, że różnica miedzy seriami GISS a HadCRUT jest taka, że GISS ekstrapoluje odważniej na obszary bez danych. Pogarsza to niepewność ale też daje bardziej reprezentatywny wynik dla całej kuli ziemskiej. Różnica jest istotna głownie w szybko ocieplającej się Arktyce.
Możemy się pobawić w grę “co pokaże październik”.
http://meteomodel.pl/klimat/poltemp/gfs/201310.png
Z “gieefesów” wychodzi +0.32, o 0.10 mniej niż we wrześniu:
http://meteomodel.pl/klimat/poltemp/gfs/201309.png
Można więc wnioskować, że GISTEMP powinien pokazać spadek, pytanie o ile 🙂
A ja się zastanawiałem na ile wiarygodną anomalię miesięczną uzyskałoby się z reanalizy NCEP/NCAR. Zaletą jest to, ze miałbym ją już 3-go następnego miesiąca. Oczywiście licząc średnią globalną trzeba sumować z cosinusem szerokości ale to jest trywialne. Pytanie na ile obszary bez obserwacji gdzie model ma prawo zdrowo rozjechać się z “realem” (odległe rejony oceaniczne i większość obszarów polarnych) mogą zaburzyć średnią globalną.
O, już jest cały październik w reanalizie NCEP/NCAR. Oto anomalia temperatury w naszych okolicach (jak zwykle u mnie względem lat 1980:2000):
Wygląda na to, że mieliśmy ciepły październik w dużej części Europy. W Polsce anomalia była między +1,5 a +2,0 C. Największa na południowym wschodzie.
Jeśli to przejrzeć dzień po dniu to najcieplejszy był oczywiście tydzień zakończony 27-go, szczególnie jego druga połowa. Oto sytuacja 27-go, w niedzielę, gdy już zaczęło wywiewać tą ciepła anomalię na wschód:
A jak łatwo zauważyć jeden dzień anomalii +10 C zwiększa miesięczną anomalię o +0.3 C.
Ten październik (wg. GISS) był dopieror ósmym najcieplejszym. Dokładnie ósmym – dziesiątym bo trzy październiki (2013, 2011 i 2004) miały identyczna anomalie temperatury. W sumie, biorąc pod uwagę trend globalnego ocieplenie to być zimny październik.
Siedem październików cieplejszych niż ostatni to (w kolejności od najcieplejszego): 2005, 2012, 2003, 2006, 2010, 2008 i 1997 (jedyny w pierwszej dziesiątce z ostatniego stulecia).
Koniec roku się zbliża. Zostało dwa miesiące. Postanowiłem zobaczyć jak by się miał obecny rok w porównaniu z poprzednimi “krótkimi” latami składającymi się z 10 miesięcy (I – X). W takiej “konkurencji” obecny rok był wg. GISS siódmym najcieplejszym. Mocno to się pewnie nie zmieni do końca roku. Dziesięć najcieplejszych w historii “lat” styczeń-październik to w kolejności od najcieplejszego: 2010, 2005, 2007, 1998, 2002, 2003, 2013, 2009, 2012 oraz 2006.
Według najnowszego Nature pomiary CO2 rozpoczete przez Keelinga w 1955 roku i kontynuowane przez jego syna są zagrożone cięciami budżetowymi
http://www.nature.com/news/budget-crunch-hits-keeling-s-curves-1.14206
Podobnie pomiary koncentracji tlenu, niezbędne dla stwierdzenia jak dużo CO2 idzie do oceanu a ile do biosfery.
Czyżby politycy byli aż tak krótkowzroczni? A może uważają, że jak się czegoś nie mierzy to problem znika? Coś jak nie mierzenie temperatury podczas gorączki?
Mam dwa pytanka
1. Gdyby oponenci mieli rację i od 1998 roku przestało by się ocieplać, a nie zaczęło się oziębiać to kiedy powinno się wydarzyć 10 najcieplejszych lat w ostatnim stuleciu ?
2) Na jakiej podstawie sadzi Pan, że politycy są tak krótkowzroczni. Dlaczego zakłada Pan że zniknięcie problemu ocieplania się klimatu jest na rękę politykom ?
Teza adwersarzy jest dokładnie przeciwna. To politykom zależy na podsycaniu histerii związanej z niewątpliwym ocieplaniem klimatu.
Ad. 1) Przecież w ten sposób można by próbować zaprzeczyć każdemu trendowi. Powiedzmy jestem denialistą datowym i twierdzę, ze numery lat już nie rosną od 1998 roku. Oświadczam: “gdyby numery lat przestały rosnąć , a zaczęły maleć to kiedy powinno się wydarzyć 10 lat o najwyższych numerach?”. Ma to sens? Raczej nie. Szczególnie, że w obu przypadkach odpowiedź brzmi “w okolicach 1998 roku”. Jak to pogodzić z tym, że najcieplejszy rok był 12 lat później?
Ad. 2) A są jakieś podstawy aby uważać, że politycy nie są krótkowzroczni i ich skala czasu myślenia przekracza datę najbliższych wyborów? Zaskoczył mnie Pan. Wydaje mi się że nauki polityczne są zgodne, że w demokracji cykl wyborczy decyduje o myśleniu. W kontekście dbania o środowisko rozważa to np. ta dostępna w Internecie książka: Robert Steib “Environmental Management and Decision Making for Business“. Jest o tym w rozdziale 5, a szczególnie podrozdziale 5.2.
Mam nadzieję, że Pan czyta po angielsku. Nie pamiętam już które z tu komentujących osób protestowały przeciw wrzucaniu cytatów po angielsku. A literatury polskojęzycznej z dziedziny nauk politycznych za dużo dostępnej w Internecie nie ma.
Nawiasem mówiąc jeśli w przyszłym roku będzie El Nino to rekord ciepła pewnie znów padnie. A coraz więcej modeli tak właśnie przewiduje. Tutaj np. model GEOS-5:
http://gmao.gsfc.nasa.gov/cgi-bin/products/climateforecasts/GEOS5/fore_monthly.cgi?var1=nov&var2=2013&var3=pac&var4=T&var5=mon&var6=November
Ta ciepła plama wędrująca z lewej w prawo po równiku w tej prognozie to właśnie początkujące El Nino. Jeśli koło końca roku dojdzie do brzegów Ameryki (stąd nazwa “dzieciątko” bo rybacy peruwiańscy zauważali to zwykle koło Bożego Narodzenia) i rozwinie się w pełne El Nino to 2015 będzie najcieplejszy w historii, a 2014 nie będzie daleko za nim.
Jeśli powyższy link nie działa to poniżej wrzucam oba rysunki z tej strony:
@Bogusław
Liczbowe wartości danych o temperaturze z kilku ośrodków masz np tu:
http://meteomodel.pl/index.php/klm/globalne-anomalie
Możesz sobie popatrzeć na wartości, wyrysować wykresy i sam przekonać się o tym jak wygląda odpowiedź na pytanie 1.
1. Chodzi o to , ze jeśli ktoś robi sensację z tego że funkcja niemalejąca ma największe wartości w ostatnim przedziale to jest to co najmniej … dziwne, zwłaszcza jeśli jest to przedstawiciel nauk ścisłych. Bo że robią sensacje gazety, to to jest normalne. To jest elementarny fakt, który powinien być znany od szkoły średniej. dokąd nie zacznie się (co najmniej przez parę lat) ochładzać, zawsze zawsze najcieplejsze lata będą w ostatniej dekadzie.
2 Pan tez mnie zaskoczył. Pominął Pan druga, ważniejsza część pytania. Wg oponentów to własnie interes polityków jest by straszliwe skutki Human made CO2 nie tak mroziły społeczeństwo by bez szemrania godziło się na ograniczenie wolności i coraz wyższe ceny paliw i żywności. I to nie jest bynajmniej interes “w dalekim horyzoncie”. Stąd tez użyte może niezbyt szczęśliwie “TAK” krótkowzroczni. W pytaniu chodziło mi o to dlaczego wg Pana ich krótkowzroczność miałaby sprawiać by ich krótkoterminowy interes przestał być dla nich widoczny.
Podany przez Pana fragment przeczytałem i choć zgadzam się z teza że polityków tak naprawdę mało interesuje co będzie za 50 lat, to jednak tu sytuację mamy odmienną, Politycy JUŻ DZIŚ robią kolosalne interesy na “walce z ociepleniem” i ich krótkoterminowym interesem jest wmawianie ludziom, że straszliwe skutki ocieplenia nakazują nam ogromne wyrzeczenia już dziś.
Kiedyś Pan prosił by nie dyskutować tu o polityce ale sam Pan ten wątek polityków poruszył, dlatego chciałem zwrócić uwagę że alarmiści oskarżają sceptyków o to że lobby paliwowe ich finansuje, ale bezspornym faktem jest że alarmiści są finansowani znacznie hojniej przez rządy. A skoro rządy wydawały przez tyle lat taką kasę na badania mające straszliwe skutki uprawdopodobnić to co nagle musiało się stać by nie chciały tego robić ?
Mam brzydkie podejrzenie że to co właśnie cytowana przez Pan praca zauważa. Że badania pokazują że skutki nie będą tak “natychmiastowe” jak to pokazał “science fiction horror mowie” Alla Gora, że badania pokażą że wzrost poziomu oceanów o 7 m nie będzie do końca stulecia a do końca tysiąclecia a to już godzi w krótkookresowy interes polityków, że jak wina CO2 nie jest aż tak duża jak się wydawało (sam pisał Pan o tym że są i inni winowajcy) … a to już w krótkookresowy interes polityków godzi.. Ale to są sprawy polityczne i nie zależy m na ciągnięciu tego tematu.
Może Panu trudno w to uwierzyć moim celem jest zrozumienie (na dostępnym mi poziomie) i co najmniej zbliżenie się do prawdy, i dlatego drażnią mnie zarówno “sztuczki” sceptyków (np dobieranie okresów pod ich potrzeby) jak i podobne sztuczki alarmistów (np. robienie sensacji z podstawowych praw znanych nauce).
Ale jednym z tych praw jest takie z którego wynika że:
Jeśli metodą A można uzasadnić ze P jest prawdziwe i że nie P tez jest prawdziwe, to metoda A nie udowadnia niczego.
Dlatego tak ważne jest sprawdzenie czy metoda jaka uzasadniamy nasza tezę nie uzasadnia również tezy przeciwników.
Przy okazji mam prośbę do Pana.
Księżyc jest średnio w dużym przybliżeniu w tej samej odległości od słońca co Ziemia i nie posiada praktycznie atmosfery i nie ma Human made CO2. Dlatego interesuje mnie jak zmieniała się średnia roczna temperatura Księżyca, ale nie mogę znaleźć danych. Mógłby mi Pan w tym pomóc ?
Dlaczego pominąłem drugą cześć pytania? Bo zasadniczo nie chcę tu dyskusji politycznej. Mam jednak wrażenie, że politykom (w ogólności – nie dam się wciągnąć w politykę) w skali czasu do najbliższych wyborów wygodniej jest nic nie robić niż np. podwyższyć podatki na paliwa kopalne. Bo mogliby te wybory przegrać. A w krajach z silnym górnictwem tych paliw politycy robią co mogą aby zadowolić ten sektor gospodarki ze szkodą dla jej reszty.
I na tym kończymy temat polityczny. Mówię poważnie: będę kasował komentarze na tematy inne niż procesy klimatyczne.
A teraz wracamy do nauki. Na Księżycu nie ma stacji meteorologicznych więc wszystkie pomiary temperatury są zdalne, najczęściej robione poprzez naszą atmosferę z naszymi gazami cieplarnianymi. Czyli marnej jakości.
W dodatku nie do końca rozumiem co Pan ma na myśli przez “zmieniała się średnia roczna temperatura Księżyca”. W jakiej skali czasu? 11-letniego cyklu słonecznego czy wieloletniego trendu? Jeśli chodzi o to ostatnie to jak wspomniałem nie sądzę aby istniała jednolita długa seria danych o niepewności na tyle małej aby dało się wyciągnąć z niej jakikolwiek trend. Ale w wolnej chwili mogę poszukać.
Panie Profesorze..
Przecież mamy satelity krążące wokół Ziemi, przecież pomiary temperatury powierzchni Ziemi są robione “przez atmosferę”. Może potrafiłbym zrozumieć jaki jest problem w zrobieniu pomiarów temperatury powierzchni Księżyca by zrobić takie piękne wykresy wieloletnie jak to robi GISS dla satelitarnych pomiarów temperatury powierzchni Ziemi ot choćby taki jak ten
http://data.giss.nasa.gov/gistemp/graphs_v3/Fig.C.gif
Naprawdę nie znam innej drogi by się z Panem skontaktować więc proszę wybaczyć i skasować po przeczytaniu poniższy wpis wpis:
Zapewniam Pana ze są lobby silniejsze niż paliwowe i jest to na przykład lobby rolnicze. I to rolnicze lobby potrafi dogadać się z paliwowym by był wilk syty (rolnicy) i owca cała (producenci paliw). Dzięki produkcji biopaliw która jest jak dotąd opłacalna jedynie dzięki odpowiednim ustawieniu podatków rolnicy znacznie podnoszą rentowność swej produkcji.
Jest tez już duże lobby producentów wiatraków i producentów solarów..
Jest też All Gor robiący olbrzymia kasę na straszeniu ociepleniem..
Proszę mi uwierzyć, krótkookresowym interesem polityków jest straszenie …
Ale szczerze mówiąc, kogo obchodzi Al Gore? Z dwóch stron działają różne lobby, nie ma najmniejszego sensu się tym zajmować, choć fakt że Mauna Loa ma problem z budżetem raczej przeczy tezie o jakimś gigantycznym finansowaniu akurat tych, a nie innych badań.
W ogóle finansowanie nauki ostatnio kuleje, także na naszym podwórku.
Problem w tym, że żaden satelita Księżyca nie krążył przez dziesięciolecia. Więc nawet jeśli któryś miał podczerwony czujnik temperatury to co najwyżej objął jeden cykl słoneczny. Ale pewnie nawet nie tyle bo NASA lubiła rozbijać je o Księżyc po roku czy dwóch krążenia aby sejsmografy pozostawione w lądownikach Apollo miały za pomocą czego badać wnętrze księżyca (nie ma zbyt wiele naturalnych trzęsień księżyca). Apollo 15 pozostawił termometr na powierzchni ale nie działał on zbyt długo. A potem była parudziesięcioletnia przerwa w badaniach Księżyca z jego orbity.
Tu jest artykuł o wynikach z tego termometru Apollo15:
http://www.earth.lsa.umich.edu/~shaopeng/Huang08ASR.pdf
Jak widać z wykresów działał tylko 4 lata (1971 do 1975). Celem artykułu jest pokazanie wpływu odbitego od Ziemi światła na temperaturę “naszej” strony Księżyca co zresztą jak widać na wykresach pięknie im wyszło. Na tyle pięknie, że widać wpływ zmian w ilości aerozolu w naszej atmosferze na nocne temperatury księżyca!
Jak już Pan musi pisać do mnie o polityce to już lepiej na mail, dostępny na tej stronie anomalia.klimatyczna@gmail.com
A co do zatrzymania ocieplenia. Jakiś czas temu pojawił sie artykuł, którego ani nazwy, ani autorów nie pomne, który wskazywał, że w sumie albo żaden, albo nie wiele modeli przewidziało tak mały trend w tym czasie.
Czytałem to dość dawno, więc nie pomnę czy autorzy o tym wspomnieli, ale kwestia jest następująca: skoro pauza ma być wynikiem naturalnych zmian w systemie klimatycznym, to jasne jest że te zmiany są dość losowe. Skoro są losowe, to czy ktoś zadał sobie trud sprawdzenia, czy modele widzą podobne pauzy nie koniecznie w dokładnie tym samym okresie, ale np później (powiedzmy 2010-2022). Skoro proces prowadzący do spowolnienia ma być chaotyczny, to jasne jest, że różne modele będą pokazywać takie zjawiska w różnym czasie. Pamiętam, że zassałem z Climate Explorera wyniki dla pierwszego z brzegu modelu dla RCP85 i on takie rzeczy pokazywał, tylko że nie koniecznie akurat w tym samym czasie.
Śmieszne jest również twierdzenie, że zimna zima przeczy AGW i modele tego nie przewidują. Owszem, przewidują. Każdy model z osobna przewiduje możliwość wystąpienia mroźnej zimy, czasem nawet w latach 80-tych XXI wieku.
Wycięte wyniki dla Polski dla różnych modeli wystawiłem tutaj:
http://meteomodel.pl/klimat/poltemp/GCM/CMIP5/RCP85/
Wykres dla RCP85:
http://meteomodel.pl/klimat/poltemp/GCM/CMIP5/RCP85/gcm.png
Skrócony opis tego co jest w powyższym katalogu:
http://meteomodel.pl/BLOG/?p=6102
Tak przy okazji, oto anomalia temperatur (względem 1981:2000) dla Europy w listopadzie 2013:

Szczególnie robi wrażenia dodatnia anomalia w Rosji. Sześć stopni w skali miesiąca (nie dnia!) to naprawdę dużo. Nawiasem mówiąc przypomina mi to o prognozach zimy tysiąclecia wg. “meteorologa” (jak go nazywają gazety) Abdusamatowa. Przypomnę, że według niego “Po ciepłym październiku i zimnym listopadzie ma przyjść w Europie wyjątkowo ciepły grudzień. Ale styczeń i luty 2014 mają być ekstremalnie mroźne“. Otóż jak na razie w każdym miesiącu jest dokładnie odwrotnie niż w jego “prognozie”, więc mam nadzieję, że tak już będzie do końca zimy.
Wg. UAH listopad 2013 jest dopiero 9-ty (dokładnej na pozycji 9-10):

Kolejność pierwszej dziesiątki (anomalie względem 1981:2000) to:
2009 0.39
2005 0.32
2012 0.31
2002 0.25
2010 0.24
2003 0.21
1990 0.20
2006 0.20
2008 0.19
2013 0.19
Co ciekawe, nie załapał się ani 1997 ani 1998 (ostatnie wielkie El Nino).
To są pomiary z satelitów, nie meteorologiczne więc poczekam z wyciąganiem wniosków na GISS, NCDC i HadCRUT. Jak na razie reanallizy wskazują na to
http://www.karstenhaustein.com/reanalysis/gfst62/ANOM2m_monthly/ANOM2m_NCEP_monthly_equir.php?date=Nov%A02013&file=ANOM2m_NCEP_1311_monthly_equir.png
że tam może wyjść cieplejszy listopad niż w serii UAH, która często odstaje od paczki.
ccc-gistemp wskazał mi najcieplejszy listopad (0.78), o 0.03 cieplejszy od poprzedniego rekordu. Wyliczę jeszcze raz, bo takie wstępne dane to duża niepewność.
W Kairze pada przez parę minut śnieg podniecając sceptyków klimatycznych. Czyżby początek epoki lodowej?
Chyba nie bo globalne ocieplenie ma to do siebie, że jest… globalne. A co mówią dane globalne?
Otóż listopad wg. NASA był najcieplejszy w historii pomiarów meteorologicznych z anomalia +0.77 C w stosunku do okresu bazowego 1951-1980:

Wśród dziesięciu najcieplejszych listopadów jest tylko jeden z poprzedniego stulecia i to na 10-ym miejscu.
2013 0.77
2010 0.75
2009 0.72
2005 0.71
2004 0.70
2006 0.70
2012 0.70
2001 0.68
2008 0.63
1997 0.61
Jeszcze mocniej może zabrzmieć (prawdziwe) stwierdzenie, że wszystkie 13 listopadów wieku XXI mieści się w pierwszej 14-ce najcieplejszych, w towarzystwie jedynie 1997 roku, gdy rozwijało się największe El Nino zeszłego stulecia (a przypomnę, ze teraz nie mamy El Nino, więc wynik jest “napędzany” właściwie wyłącznie wymuszeniem antropogenicznych).
To właśnie dlatego umieszczam te dane pod wpisem o tytule “Czy globalne ocieplenie skoczyło się w 1998 roku?”. Bo w danych meteorologicznych jest oczywista odpowiedź na to pytanie.
No to mamy komplet wyników za listopad.Wg serii NCDC produkowanej przez NOAA listopad 2013 był najcieplejszy w historii pomiarów, podobnie jak w serii GISS robionej przez NASA:

Różnica taka, że wg. NOAA kolejnośc najcieplejszych listopadów jest taka (zamieszczam pierwszą 12-kę aby widać było , który jest najcieplejszy listopad zeszłego stulecia):
2013 0.7780
2004 0.7515
2010 0.7407
2005 0.7149
2001 0.6818
2012 0.6619
2008 0.6512
2006 0.6317
2009 0.6262
2002 0.6065
2003 0.5830
1997 0.5644
Natomiast w serii brytyjskiej HadCRUT4 ten listopad jest dopiero trzeci:

Pamiętać należy, że ta seria ma najsłabsze pokrycie szybko ocieplającej się Arktyki, jest wiec najmniej wiarygodna z trzech opierających się o dane meteorologiczne.
Kolejność najcieplejszych listopadów w serii HadCRUT4 jest następująca (też zamieszczam 12 najcieplejszych):
2005 0.620
2001 0.604
2013 0.596
2004 0.594
2010 0.576
2009 0.541
2006 0.530
2012 0.518
2008 0.517
1997 0.495
2003 0.447
2002 0.445
W grudniu Europa była nieprzeciętnie ciepła:

Anomalie były dodatnie wszędzie z wyjątkiem części Hiszpanii (przypominam, że Turcja to nie Europa). W prawie całej Polsce wynosiły one ponad +3 C. Na północ od nas było jeszcze cieplej (w sensie anomalii), koło Petersburga nawet +5 C. A przypomnę, że tam mieszka astronom Abdusamatow, który przepowiedział zimę tysiąclecia w styczniu i lutym. W grudniu miało być według niego bardzo ciepło (u niego się nawet sprawdziło) ale po zimnym listopadzie (u niego, a nawet w całej Rosji też bardzo ciepłym). Czyli jak na razie jest szansa na zimę tysiąclecia ale raczej w sensie najcieplejszej niż najzimniejszej.
A jak będzie? Poczekamy, zobaczymy, jak mawiają… Rosjanie.
Są już dane globalne za grudzień z obu serii “satelitarnych” UAH i RSS. Jest to miara temperatury dolnej troposfery, nie powierzchni ziemi ale przynajmniej obie serie powinny pokazywać mniej więcej to samo. Niestety nie pokazują co podważa moje zaufanie do co najmniej jednej z nich. Ale której?
W ulubionym przez denialistów UAH, ostatni grudzień był drugim/trzecim (ex equo) najcieplejszym w historii. Natomiast w serii RSS był dopiero 11-y. Co do starych danych obie serie się zgadzają. W obu pierwsze dwie pozycje to 2003 i 1987. Jednak grudzień 2013 w serii UAH jest równy wartości z 1987, a w RSS aż o 0,157 C zimniejszy. A to duża różnica. Za duża, jak na serie mierzące podobno to samo.
Zresztą zobaczcie sami:
Któraś z tych serii musi mieć “dryf” dla danych grudniowych po roku 2003. Ale czy UAH dryfuje w górę czy RSS w dół? A może obie w przeciwne strony.
Zatem wnioski o trendach jednak lepiej robić z serii “powierzchniowych”, nie “satelitarnych”.
NASA ogłosiła wartość anomalii globalnej ich serii GISS za grudzień, a zatem przy okazji za cały rok 2013:
http://www.giss.nasa.gov/research/news/20140121/
W skrócie obie anomalie wynoszą tyle samo, 0.60 C względem okresu bazowego 1951-1980. W przypadku roku 2013 daje mu to 7-me miejsce za 2010 (0.67), 2005 (0.66), 2007 (0.63), 1998 i 2002 (ex equo 0.62) i 2003 (0,61). Zeszły rok zremisował zresztą z 2006 i 2009.
Natomiast grudzień 2013 był czwarty najcieplejszy w historii pomiarów, za 2006 ( 0.75), 2003 ( 0.73) i 2005 (0.65).

Obecnie ENSO jest neutralne (nawet lekko ujemne czyli w stronę La Ninii), a grudzień jest dokładnie na trendzie z ostatnich 30 lat. Z tego widać, że jakiekolwiek El Nino na najbliższych latach wprowadzi świat bez trudu w strefę nowych rekordów.
Ostatnia dekada (120 miesięcy zakończone grudniem 2013) była istotnie statystycznie cieplejsza od poprzedniej co widać z poniższego uaktualnionego wykresu:

Polecam też analizę tych wyników autorstwa Jima Hensona, twórcy serii GISS, obecnie już emerytowanego:
http://www.columbia.edu/~jeh1/mailings/2014/20140121_Temperature2013.pdf
W serii HadCRUT4 grudzień 2013 też był czwarty.
Oto 10 najcieplejszych grudni w tej serii:
2006 0.694
2003 0.591
1997 0.514
2013 0.487
2005 0.470
1998 0.466
2009 0.464
1999 0.389
2011 0.375
2008 0.374
EDIT: wymieniłem obrazek i wartości anomalii bo w pierwszej wersji, przez pomyłkę, były to dane za listopad, nie grudzień.
Zrobiłem też wykres dla danych grudniowych z HadCRUT4 poprawionego przez lepsza interpolację (Cowtan and Way 2013):
Ostatni grudzień był w tej serii 5-ty najcieplejszy po 2006, 2003, 2005 i 2009. Dziesięć najcieplejdszych grudniów w tej serii to:
2006 0.676
2003 0.629
2005 0.592
2009 0.582
2013 0.533
2001 0.503
1998 0.487
1997 0.470
2011 0.442
2008 0.419
Grudnie w czasie sławetnego El Nino z lat 1997/1998 były oba chłodniejsze niż grudzień zeszłego roku.
GISS ogłosił wartość globalnej anomalii za styczeń. Ten styczeń był czwarty najcieplejszy w historii pomiarów, chociaż na pierwszy rzut oka ciężko to zauważyć (prosta trendu wytwarza “fałszywy poziom”):
Oto 10 najcieplejszych styczni:
2007 0.93
2002 0.72
2003 0.72
2014 0.70
2005 0.69
2010 0.66
2013 0.63
1998 0.60
2009 0.57
2004 0.56
Anomalie, jak to w serii GISS, w stosunku do okresu bazowego 1951-1980.