O tym, że Grenlandia (a dokładniej lądolód ją pokrywający) się topi, wiemy od dobrych paru lat. Przedtem można było mieć nadzieje, że ubywa lodu tylko w pobliżu brzegów, gdzie jest najcieplej (bo najniżej), a zwiększone w wyniku ogrzania Północnego Atlantyku opady śniegu w wyższych partiach Grenlandii zrównoważą ten ubytek.
Niestety nowoczesne techniki pomiarowe, w tym altimetria radarowa, lotnicza i satelitarna (mierząca bardzo dokładnie wysokość lodu nad poziomem morza) i satelitarne metody grawimetryczne (mierzące wprost zmiany masy danego rejonu – takie jak misja GRACE), położyły kres tym nadziejom. Na Grenlandii nie tylko netto ubywa lodu, ale ubywa go coraz szybciej.
Powyższy rysunek, pochodzący z opublikowanej w zeszłym roku Diagnozy Kopenhaskiej [1], przedstawia szacunki zmiany masy lodu grenlandzkiego w funkcji czasu. Ujemne wartości to oczywiście ubytek. Prostokąty “kropkowane” to wartości z artykułów, które użyte były przez ostatni raport IPCC, a “solidne” są nowsze od niego. Kolory oznaczają metodę pomiaru: czerwone to tradycyjne bilanse opadów, spływu lodu i wody z Grenlandii oraz parowania i sublimacji; brązowe to metody altimetryczne, a niebieskie grawitacyjne. Oczywiście, wysokość prostokątów to niepewność pomiarowa, a szerokość to okres, dla którego szacowano zmianę masy lodu. Widać, że sytuacja się ewidentnie pogarsza. Na rysunku zaznaczono też (dla porównania) pozioma kreskę ubytku lodu odpowiadającemu 0.5 mm przyrostu poziomu oceanu światowego rocznie.
Jednak zawsze można mieć wątpliwości co do nowych metod pomiarowych takich, jak w tym wypadku radarowych i grawitacyjnych. Szczególnie te ostatnie są trudne, bo na wartość pomiaru zmiany masy rzutuje także podnoszenie się samego lądu. A to, że Grenlandia porusza się w pionie, podobnie jak Skandynawia czy Północna Kanada to żadna niespodzianka. Te rejony jeszcze nie doszły do równowagi po ostatniej epoce lodowej, gdy były wgniatane w dół przez wielokilometrowe warstwy lądolodu. Na Grenlandii ten efekt jest mniejszy (bo grubość lodu tak bardzo tam się nie zmieniła) ale też istnieje. Co ciekawe, w rejonach sąsiadujących z podnoszącymi się po epoce lodowej, muszą występować obszary, gdzie jest odwrotnie, tzn. następuje izostatyczne obniżanie się terenu. Warto te prędkości mierzyć bezpośrednio, by polepszyć dokładność metod grawitacyjnych. Jak? Oczywiście GPS-em. Nieustający pomiar stacjonarnym odbiornikiem GPS pozwala na pomiar pozycji (a w wyniku tego także powolnych ruchów) z dokładnościami milimetrowymi. W ten sposób zmierzono miedzy innymi bezpośrednio dryf kontynentów, a także unoszenie się izostatyczne rejonów dawnych zlodowaceń. Czyli nie ma tu nic sensacyjnego. Dlaczego więc o tym piszę?
Piszę o tym, bo właśnie ukazał się w czerwcowym numerze Nature Geoscience artykuł [2] pokazujący, że pomiary GPS-em mogą stanowić czwarta niezależna metodę szacowania tempa ubytku lodu. Nie z samych wartości prędkości pionowej w miejscu pomiaru, ale ich zmian w czasie. Zmiana prędkości podzielona przez czas, w którym nastąpiła, to, jak wiadomo, przyśpieszenie, stąd tytuł artykułu “Accelerating uplift in the North Atlantic region as an indicator of ice loss“.
Powyższa mapka z artykułu pokazuje lokalizacje użytych stacji GPS. Czerwone kropki to stacje, gdzie zmierzone przyśpieszenie jest większe niż 0,5 mm/rok2. Punkty te wyraźnie “gromadzą się” wokół Grenlandii. Wartości przyśpieszeń w tych punktach (górny panel rysunku poniżej pokazuje wartości zmian prędkości pionowej w czterech punktach na Grenlandii) wskazują, że to przyśpieszenie nie mogło zacząć się wcześniej niż w latach 1990-ch. Wartości prędkości pionowej dla tych samych punktów wynikające z modelu izostatycznego (czyli powrotu do równowagi po okresie glacjalnym) zaznaczono poziomymi liniami przerywanymi w tych samych kolorach. Wygląda na to, że pomiary GPS-owe rozpoczęto prawie dokładnie w momencie, gdy rozpoczęło się współczesne topienie Grenlandii. Uważny czytelnik zauważy, że dolny panel rysunku to w zasadzie powtórzenie rysunku z Diagnozy Kopenhaskiej (tylko kolory oznaczające metody są inne). Istotna jest tu czarna ukośna linia trendu zmiany prędkości (przyspieszenia) zmian masy, mierzonych grawitacyjnie przez misję GRACE z ostatnich lat, mająca wartość 21 ± 8 GT/rok2.
Te same przyśpieszenia wstawione do prostego modelu elastyczności skorupy ziemskiej, używanego przez glacjologów (autorzy artykułu wzięli go z podręcznika), pozwalają na wyliczenie zmian prędkości ubytku masy niezależną nową metodą (wyłącznie z pomiarów GPS). I co wychodzi? Dla zachodniego wybrzeża Grenlandii obliczone przyśpieszenie ubywania lodu wynosi 8.7 ± 3.5 GT/rok2, a dla południowo-wschodniego 12.5 ± 5.5 GT/rok2 [3]. A co otrzymamy, jeśli dodamy obie te wartości z dwóch regionów obserwowanego topienia lądolodu? Ano dostaniemy 21.2 ± 6.5 GT/rok2 (niepewności nie dodają się liniowo, trzeba wyliczyć pierwiastek z sumy ich kwadratów [4]). A ta wartość aż za dobrze pasuje do 21 ± 8 GT/rok2 z pomiarów grawitacyjnych. No cóż, czasem ma się szczęście do kasowania się błędów. I zawsze miło upewnić się co do wyniku stosując niezależną metodę.
Chociaż może nie ma się z czego cieszyć: jaką metodą tego nie mierzyć, zawsze Grenlandia topi się w coraz szybszym tempie…
[1] The Copenhagen Diagnosis, 2009: Updating the World on the Latest Climate Science.
I. Allison, N.L. Bindoff, R.A. Bindschadler, P.M. Cox, N. de Noblet, M.H. England, J.E. Francis, N. Gruber, A.M. Haywood, D.J. Karoly, G. Kaser, C. Le Quéré, T.M. Lenton, M.E. Mann, B.I. McNeil, A.J. Pitman, S. Rahmstorf, E. Rignot, H.J. Schellnhuber, S.H. Schneider, S.C. Sherwood, R.C.J. Somerville, K. Steffen, E.J. Steig, M. Visbeck, A.J. Weaver. The University of New South Wales Climate Change Research Centre (CCRC), Sydney, Australia, 60pp.
[2] Jiang, Y., Dixon, T., & Wdowinski, S. (2010). Accelerating uplift in the North Atlantic region as an indicator of ice loss Nature Geoscience, 3 (6), 404-407 DOI: 10.1038/ngeo845
[3] Zdanie z abstraktu artykułu “Using a simple elastic model, we estimate that western Greenland’s ice loss is accelerating at an average rate of 8.7 ± 3.5 Gt yr-2, whereas the rate for southeastern Greenland—based on limited data—falls at 12.5 ± 5.5 Gt yr-2.” zdawałoby się świadczyć, że na południowo-wschodnim wybrzeżu następuje deceleracja (spowolnienie) ubytku masy, ale treść samego artykułu nie pozostawia wątpliwości, że to jedynie niezręczność sformułowania: słowo “falls” oznacza tu “wynosi”, a nie “spada”.
[4] Specjalnie dla mwrony dodaję, że robi się tak dla przypadku gdy niepewności są nieskorelowane. Ale ponieważ w realnych sytuacjach badawczych staramy się uniknąć takiej sytuacji, zwykle o tym warunku się zapomina. A nawet jak są to i tak o tym nie wiemy bo przecież nie znamy prawdziwych wartości mierzonych parametrów. Tym, między innymi, z konieczności, różnią się pomiary naukowe od teorii pomiaru.
Hits: 259
“niepewności nie dodają się liniowo, trzeba wyliczyć pierwiastek z sumy ich kwadratów”
W tym przypadku,osobiscie watpie.
Wszak topnienie na zachodzie i wschodzie nie zalezy od roznych wielkosci niezaleznych.
corr(X1, X2) rozne od zera.
Niepewnosc wypadkowa jednak bedzie wieksza, blizsza tym 8Gt/rok^-2
PS
Wysylam ponownie bo znowu spam
@mwrona
“Wszak topnienie na zachodzie i wschodzie nie zalezy od roznych wielkosci niezaleznych…”
Ale błędy w jego wyznaczaniu prawdopodobnie tak.
Nawet gdyby podzielić sztucznie jedną serię pomiarową na n pod-serii (np. biorąc co n-tą daną) i każdej z nich policzyć odchylenie standardowe sigma to odchylenie standardowe całej serii będzie równe sqrt(n)*sigma, a nie n*sigma. Czyli dokładnie zgodnie z opisaną przeze mnie metodą.
Inaczej zwiększanie liczby pomiarów nigdy nie zmniejszyłoby błędu względnego. A chyba nawet metrolodzy wiedzą, że lepiej mierzyć 40 razy zamiast 10. Dokładnie dwa razy lepiej.
@arctic_haze
Pod warunkiem, że błędy w poszczególnych pomiarach są nieskorelowane, co się zazwyczaj zakłada, choć to nie zawsze prawda.
@arctic_haze
“A chyba nawet metrolodzy wiedzą, że lepiej mierzyć 40 razy zamiast 10. Dokładnie dwa razy lepiej.”
Taka prawda jest zastrzezona dla globcio-sfery.
Inni optymalizują takze ilosc pomiarow, bo zdaje sie to Erazm z Rotterdamu powiedzial, ze nie mozna wejsc dwa razy do tej samej rzeki.
Moza wyobrazic sobie sytuacje w ktorych zwiekszeniu ilosci pomiarow nie towarzyszy zmniejszenie niepewnosci
“Ale błędy w jego wyznaczaniu prawdopodobnie tak”
Ja pisalem o niepewnosciach, a to inna wielkosc. Z arctic to juz przerabialem.
Wszak metoda ta sama (GPS), narzedzie byc moze to samo, miejsce tez nie na antypodach, to dlaczego Pan uwaza, ze korelacja miedzy zmiennymi jest bliska zero?
Dla pewnosci tu: http://pl.wikipedia.org/wiki/Odchylenie_standardowe napisano o wplywie niezaleznosci zmiennych.
PS
n-ty raz
@Krzysztof Haman
Oczywiście. Z tym, że mówimy tu o dodawaniu wartości ubywania lodu z dwóch różnych rejonów. I jeśli by dało się wyliczyć jedną z nich z drugiej to po co w ogóle podawać obie? Ewidentnie obie były wyznaczanie niezależnie, a jeśli obejrzeć wzory z dodatku “Methods” to widać, że wartości błędów biorą się z niepewności ustalenia parametrów modelu, różnych dla każdego z wybrzeży.
Z ta rzeka to jednak duzo wczesniej: Heraklit
@osa = mwrona?
Tu jest mowa o dodawaniu strumieni masy. Zamiast tego wyobraź sobie, że liczymy strumień oświetlenia (bo to łatwiej sobie wyobrazić). Mamy n mierników rozstawionych po całym kraju. Wartość zmierzona każdym z nich reprezentuje strumień nad jednym obszarem i wyznaczając go z punktowego pomiaru popełniamy jakiś błąd. Ale dlaczego uważasz, że błędy muszą być skorelowane? W jednym rejonie mogliśmy ustawić przyrząd w średnio najbardziej nasłonecznionym a w drugim w średnio najbardziej zachmurzonym miejscu.
A to że przyrządy są jednakowe w ogóle nie ma tu znaczenia. Mówimy o błędzie statystycznym, nie systematycznym. Ten drugi jeśli jest znany to trzeba go po prostu odjąć od wyniku, a jeśli jest nieznany to przyjmujemy jego wartość jako zero (bo co innego można zrobić?)
Zareagowalem na to “niepewności nie dodają się liniowo, trzeba wyliczyć pierwiastek z sumy ich kwadratów” co jest w wiekszosci przypadkow prawdziwe, ale nie zawsze.
Ten blog ma charakter edukacyjny. W zwiazku z tym napisalem, ze nie zawsze. Nie zawsze tez skorelowanie powoduje zwiekszenie niepewnosci: corr [-1,+1].
Pisze tylko o tym, ze nalezy sprawdzic, czy wielkosci sa skorelowane, czy tez nie.
“Ten drugi jeśli jest znany to trzeba go po prostu odjąć od wyniku’ i z tym sie nie zgadzam.
Zakladam, ze Pan mowiac blad systematyczny mowi o niedokladnosci typu b.
Pierwsze to niepewnosc “a”, a drugi niepewnosc “b” i sa nie skorelowane. Nalezy wyznaczyc sqrt (a^2+b^2).
@mwrona
Ten blog ma też charakter popularny i nie ma sensu opatrywać każdego zdania wszystkimi warunkami prawdziwości. Jeśli kiedyś będę pisał podręcznik z tej dziedziny (co nie jet niemożliwe) to będę pisał inaczej.
Może trzeba było rzeczywiście dodać “w przypadku nieskorelowanych ze sobą niepewności”. Mogę dodać taki przypis odsyłając do niniejszej dyskusji.
Przy czym prof. Haman ma tu rację. W tym wypadku istotne jest czy błędy, a nie same wartości są skorelowane. Wartości w tym wypadku to po prostu dwie liczby (wartości przyśpieszenia ubytku lodu dla dwóch obszarów). A korelacja
dwóch niezerowych wartości to zawsze +1 albo -1w sensie corr(X,Y) dwóch jednoelementowych ciągów jest i tak nieokreślona. I co z tego?Na takie dictum:
“Wartości w tym wypadku to po prostu dwie liczby (wartości przyśpieszenia ubytku lodu dla dwóch obszarów). A korelacja dwóch niezerowych wartości to zawsze +1 albo -1. I co z tego?”
pass
“Zakladam, ze Pan mowiac blad systematyczny mowi o niedokladnosci typu b.”
Nie, mówię o błędzie systematycznym.
I nawet w Wikipedii wiedzą co to i jak się go eliminuje:
“Constant systematic errors are very difficult to deal with, because their effects are only observable if they can be removed”
Przecież to dokładnie to co napisałem powyżej. A ja tego hasła nie edytowałem 😉
Źródło: http://en.wikipedia.org/wiki/Systematic_error
PS. Poprawiłem zły link powyżej.
“Pass”
Już się sam zdążyłem poprawić. I proszę mi nie pisać, że pojedyncze liczby nie mogą mieć błędów statystycznych. Mogą, mogą. Zależy jak się je (te liczby) wylicza.
A może zamiast “pass” poda mi pan wartość corr (X,Y), gdzie X={8.7}, Y={12.5}.
Bawi mnie powracający argument o ociepleniu średniowiecznym i zielonej Grenlandii (nie wnikam w klimatyczną część tego argumentu) w kontekście tego, że ponoć Eryk Czerwony nadał Grenlandii taką nazwę, bo wyszedł ze słusznego skądinąd założenia, że jak nazwa będzie brzmiała miło i przytulnie, to ludzie z Islandii się rzucą ją zasiedlać – a Grenlandia miała sugerować wszechobecne połoniny i pastwiska itd.
Wymarciu grenlandzkich Wikingów musiał chyba towarzyszyć upiorny chichot historii.
Na marginesie: najnowszy numer NG jest poświęcony ociepleniu wyspy. M.in. ten tekst:
http://ngm.nationalgeographic.com/2010/06/melt-zone/jenkins-text
oraz ten:
http://ngm.nationalgeographic.com/2010/06/viking-weather/folger-text/1
To było omawiane wiele razy na blogu Doskonale Szare (link obok).
Primo. Nie wydaje się aby Grenlandia w tamtych czasach była szczególnie cieplejsza niż obecnie. Raczej miała podobną jak dziś temperaturę w granicach niepewności naszej wiedzy.
Secundo. Temperatura Grenlandii jest wybitnie niereprezentacyjna jako proxy temperatury światowej, a nawet dla północnej półkuli. Jest ona zbyt mocno pod wpływem atlantyckiej cyrkulacji termohalinowej (w uproszczeniu siły Golfsztromu) i wysokie temperatury w średniowieczu najpewniej świadczą tylko o silnej cyrkulacji termohalinowej.
Tertio: Nawet gdyby wówczas temperatura globalna była wyższa niż obecnie (nie była ale możemy pogdybać) to o czym by to świadczyło? Temperatura nie zmienia się magicznie – zawsze musi być jakaś przyczyna czyli tzw. wymuszenie (w tym wypadku wchodziłoby w grę jedynie silniejsze oświetlenie słoneczne wówczas niż w ostatnich wiekach). Obecnie od trzech cykli słonecznych (ponad 30 lat) ono akurat słabnie, a temperatury co dekadę są wyższe. Natomiast jest jedno wymuszenie które w tym czasie rosło. Są to gazy cieplarniane.
Więc jeśli nie wierzymy w magie mamy tylko jedno wytłumaczenie obecnego wzrostu globalnej temperatury – niezależnie od tego jaka była średnia jej anomalia w XI wieku.
Primo. Pod adresem ktory Pan podal napisano “Wikipedia does not have an article with this exact name.”
Secundo. “A może zamiast “pass” poda mi pan wartość corr (X,Y), gdzie X={8.7}, Y={12.5}.” [-1,1]. W kazdym przypadku trzeba indywidualnie wyznaczyc.
Tertio. Co ja jestem winny temu, ze nie rozroznia Pan bledow, poprawek, niepewnosci, a jednoczesnie podobno Pan kiedys, a moze i dzisiaj cos mierzy, ale to w dziedzinie globcia, tam wiele mozna byle na bazie i po linii. Mysle, ze Pan roznicy miedzy bledem, a niepewnoscia juz sie nie na umie.
Game over.
A gdzie ma się tego “na umieć”? Z youtuba i denialistycznych blogów? 😉
http://forum.gazeta.pl/forum/w,32,104748081,104798975,ABCO2_globalnego_ocieplenia.html
@kosa
Primo: Wystarczyło usunąć / ma końcu linku. Zaraz to zrobię w komentarzu.
Secundo: Jak pan umie dzielić przez zero to niech pan sobie wyznacza indywidualnie.
Tertio: Szczerze radzę mnie nie obrażać. Ma Pan żółtą kartkę. Jako pierwsza osoba na tym blogu. Proszę sobie przeczytać stronę “O blogu”.
To może coś na lżejszą nutę. Satyryczny magazyn The Onion także odniósł się do coraz szybszego ubywania lądolodu Arktyki:
http://www.theonion.com/articles/melting-ice-caps-expose-hundreds-of-secret-arctic,2806/
Spółka z o.o. Watts&Goddard wymyśliła coś nowego.
http://wattsupwiththat.com/2010/05/31/wuwt-arctic-sea-ice-new-7/
Czytam i nie mogę się nadziwić. Wygląda na to, że oni spiętrzenia lodu w rejonach przybrzeżnych, spowodowane przez wiatr, traktują jak nową wielką nadzieję denializmu arktycznego.
Problem w tym, że cienki lód jest o wiele łatwiej spiętrzyć niż gruby, wieloletni. A spiętrzony na płyciznach lód nie jest już nadzieją na nic – on nigdzie już nie popłynie.
To spiętrzenie miało się zdarzyć w ostatnich tygodniach. To pewnie tłumaczy przynajmniej część tak szybkiego ubywania lodu w tym okresie:
http://nsidc.org/data/seaice_index/images/daily_images/N_timeseries.png
Tylko czy jest się z czego cieszyć? Teraz gdy słońce jest tam nad horyzontem przez całą dobę rekordowo duży obszar Oceanu Arktycznego jest wolny od lodu i jest w stanie absorbować energię słoneczną.
A co z tego wyniknie? Poczekamy, zobaczymy – jak to mówią Rosjanie.
To jest naprawdę prześmieszne – pół roku temu Goddard krytykowali prognozy (prof. Masłowskiego) oparte o PIPS 3.0 jako alarmistyczne, a teraz powołują się na prognozy wyprodukowane przez poprzednią wersję tego modelu 😉
@artic
“A może zamiast “pass” poda mi pan wartość corr (X,Y), gdzie X={8.7}, Y={12.5}.”
Pzeciez corr (X,Y) liczb 8,7 i 12,5 nie dotyczy, boc to sa wyniki pomiarow zlozonych.
Corr dotyczy liczb 3,5 i 6,5 jak wynikow obliczen niepewnosci wielkosci X i Y.
Reszta jak Panu napisalem.
O co Panu w tym pytaniu chodzilo?
@kosa
No właśnie. A kto twierdził wczoraj (w komentarzu, który zaczął ten statystyczny spór) że corr(X,Y) liczone między dokładnie tymi dwoma liczbami 8.7 i 12.5 jest różne od zera?
Przecież nie ja.
Przeciez juz w pierwszym napisalem”
“Niepewnosc wypadkowa jednak bedzie wieksza, blizsza tym 8Gt/rok^-2”
Do glowy mi nie przyszlo, ze dalej Pan pisal o wartosciach wypadkowych wielkosci, a nie o niepewnosciach.
To sa tak elementarne wielkosci, ze z tekstem nie sprawdzalem konkretnych wartosci poszczegolnych niepewnosci.
Przeciez ciagle pisalem o niepewnosciach wielkosci, a nie samych wielkosciach.
Trzeba było uważniej czytać za pierwszym razem.
No dobrze. Koniec tych dywagacji. Proszę pisać na temat albo wcale.