Czy Antarktyda zaprzecza globalnemu ociepleniu?

Często słyszymy, że naukowcy lubią dobierać sobie te tematy, które im pasują. Piszą więc o Arktyce, gdzie temperatury są coraz większe, a lodu morskiego jest coraz mniej. Natomiast przemilczają Antarktydę, gdzie jest dokładnie na odwrót. Ale czy naprawdę? Przyjrzyjmy się zatem temu co dzieje się na Antarktydzie.

Pretekstem niech będzie nowy artykuł naukowy (znów z nielubianego przeze mnie PNAS): Liu i Curry 2010 [1]. O artykule tym napisała nawet Gazeta Wyborcza, chociaż autor notatki o nim chyba niezbyt uważnie go czytał (a może nie znał jego tła). Ale o tym niżej. O Antarktydzie rzeczywiście do niedawna sądzono, że większość jej się oziębia. Uważano też że przybywa na niej masy lądolodu (tak pisał jeszcze w 1972 Jacobs w czasopiśmie Science). Ponieważ obszary polarne powinny się ogrzewać szybciej niż przeciętnie cała Ziemia, wyglądało to na problem dla klimatologii. Słowem kluczowym jest tu jednak “do niedawna” bo nasza wiedza o tych problemach ostatnio znacznie się zwiększyła. W dodatku to “niedawno” to już dobrych parę lat. Przede wszystkim są części Antarktydy, które ogrzewają się i to szybciej niż przeciętna dla naszej planety (dokładnie tak jak przewiduje teoria). Jest to przede wszystkim “najbardziej wystająca” część Antarktydy, czyli Półwysep Antarktyczny. Powyższy rysunek z artykułu Vaughan i inni 2001 (też z Science) przedstawia wartości trendów zmian temperatury na dekadę czyli 10 lat (wraz z niepewnościami i poziomem istotności [2] trendu) dla stacji pomiarowych na Półwyspie Antarktycznym (podana jest także ilość lat  pomiarów). Widać, że mimo dużych błędów statystycznych, mierzony wzrost temperatury powietrza jest znacznie szybszy niż średnia dla całej Ziemi (czyli w ostatnich dekadach ok. 1,5 C/stulecie). Ten szybki wzrost temperatury jest przyczyną głośnego w mediach (a nawet filmach fabularnych)  rozpadu barier lodowych wokół Półwyspu, a zarazem jest on spodziewanym skutek znanej od dziesięcioleci “polarnej akceleracji” ocieplenia, czyli dodatnich sprzężeń zwrotnych (patrz wpis “Czy rozumiemy ocieplanie się Arktyki?“).

Czy jednak podobnie ociepla się reszta Antarktydy. Otóż nie. Do niedawna sądzono nawet, że wnętrze kontynentu się oziębia. Dopiero od około 5 lat (a nie od roku jak napisano we wspomnianej notatce z Wyborczej) wiemy, że wnętrze to się także ociepla, jednak znacznie wolniej niż większość planety.

W artykule Turnera i innych z marca 2006 roku (też Science) porównano dane z sondowań atmosfery balonami meteorologicznymi na stacjach polarnych.  Wskazywały one (jak widać powyżej), że praktycznie na wszystkich stacjach, z których mamy dane zanotowano ocieplenie w okresie od 1971 ro 2003 r. Słupki oznaczają wartość średnioroczna i dla czterech pór roku zaczynając od jesieni (czyli okresu marzec-maj bo to półkula południowa). Kolory słupków oznaczają poziom istotności (Turner stosuje odwrotną terminologię niż Vaughan, tzn 1% u niego to szansa 99% że trend jest istotnie niezerowy).

Dolna część wykresu to wyliczony średni profil zmiany temperatury (stopnie na 10 lat) w funkcji wysokości nad  powierzchnia morza – wyrażoną jak przystało na meteorologów wartością ciśnienia powietrza (średnio ok. 1013 hPa to powierzchnia morza a wartość zero to szczyt atmosfery). Wykres ten wskazuje na ocieplanie się nie tylko w pobliżu powierzchni lodu ale w całej troposferze.

Jedynie w stratosferze, która nawiasem mówiąc w obszarach polarnych zaczyna się niżej niż w naszych szerokościach,  zanotowano ocieplenie. I w dodatku dokładnie wiemy dlaczego. To też nasza robota ale w tym wypadku nie chodzi o gazy cieplarniane. W stratosferze silnym czynnikiem grzejącym jest absorpcja ultrafioletu przez molekuły ozonu. A ponieważ pod koniec okresu, z którego posiadamy dane koncentracja ozonu zaczęła ponownie rosnąć po zakazaniu używania freonów, stratosfera też zaczęła się ogrzewać (i to jedynie w rejonach polarnych ale tam zmiany koncentracji ozonu są największe – słynna Dziura Ozonowa; gdzie indziej dominuje oziębianie stratosfery – efekt uboczny efektu cieplarnianego, o którym tu jeszcze napiszę).

Wspomniany w notatce z Wyborczej artykuł Steiga i innych z 2009 r. (tym razem Nature) zastosował model klimatyczny aby uzupełnić dziury w pomiarach (mamy dane jedynie z kilku stacji pomiarowych na kontynencie większym niż Europa). Wynika z niego, że Zachodnia Antarktyda (czyli ta od strony Półwyspu Antarktycznego) ogrzewa się szybciej niż wynika z pracy Turner i inni a Wschodnia nieco wolniej (a jesienią nawet minimalnie się ochładza). Oczywiście tu i zawsze należy pamiętać, że reanaliza modelem klimatyczny to jednak nie to samo co wartości pochodzące bezpośrednio z obserwacji. Jest to jednak najlepsze czym dysponujemy tam gdzie są luki w danych pomiarowych.

Jak jest zatem z przyrostem lub ubytkiem masy lądolodu Antarktydy i z lodem morskim? Z lądolodem nie najlepiej. Pomimo, że w części Antarktydy Wschodniej większe opady śniegu (o czym więcej niżej) i niezmienna temperatura powodują łącznie przyrost masy lodu, na kontynencie jako całości jest coraz gorzej. Wiemy to z kilku niezależnych metod pomiarowych (pisałem o nich we wpisie o Grenlandii), że lodu na Antarktydzie coraz szybciej ubywa.

Powyższy rysunek pochodzi z Diagnozy Kopenhaskiej 2009 (raportu podsumowującego postęp w badaniach od ostatniego raportu IPCC) i przedstawia wartości szacowanych prędkości zmian masy lądolodu Antarktydy w funkcji czasu. Widać, że nie dość, że ubywa (w tempie zwiększającym światowy poziom morz o ponad pół milimetra rocznie), ale ubywa coraz szybciej.

A lód morski? Lodu morskiego (w sensie powierzchni bo o jego grubości niewiele wiemy) nieco przybywa. Problem w tym, że w przeciwieństwie do Arktyki, na południowej półkuli nie ma praktycznie wieloletniego lodu morskiego (nie mylić z przyczepionymi do lądu barierami lodowymi!).  Wiatry rozpraszają go na wielkich obszarach trzech oceanów i w ciągu roku topnieje on prawie w 100%.  Tak wiec jego powierzchnia jest raczej wskaźnikiem siły wiatrów (jak mocno go rozproszą zanim stopnieje) niż temperatury.

A wiatry zachodnie wokół Antarktydy są od kilkudziesięciu lat średnio coraz silniejsze. Te wiatry to dobrze znane żeglarzom ryczące czterdziestki oraz wyjące pięćdziesiątki. Miarą ich jest wskaźnik meteorologiczny SAM (Southern Annular Mode) czy jak niektórzy wolą AAO (Antarctic Oscillation) (odpowiednik AO czyli  Arctic Oscillation na półkuli północnej).  Wzrost siły cyrkulacji zachodniej wokół Antarktydy wiązany jest najczęściej, chociaż nie jest to pewne, z malejącą koncentracja ozonu w stratosferze. Jeśli to prawda, to można spodziewać się w najbliższych dekadach odwrócenia się tego trendu i słabszych wiatrów.

Dlaczego jest to istotne? Ponieważ coraz większa izolacja termiczna mas powietrza nad Antarktydą przez tę coraz silniejszą cyrkulację zachodnią uważana jest za przyczynę ochładzania się (a przynajmniej wolniejszego ocieplania się) tego kontynentu. I wbrew wspomnianej notce z Wyborczej nie jest to nowa idea. Pisali o tym Thompson i Solomon już w 2002 roku (znów w Science).

Na czym polega zatem nowość wspomnianego artykułu Liu i Curry 2010? Otóż potwierdza on przy pomocy wyników modelowania i metod statystycznych, że AAO jest dominującym czynnikiem determinującym rozkład temperatur w rejonie Antarktydy. Poniżej przedstawiony pierwsza empiryczna funkcja ortogonalna (EOF) związana właśnie z tym indeksem wyliczona z danych historycznych temperatur wody morskiej: po lewej z HadISST, po prawej z  ERSST.  Mówiąc bardziej  popularnie, wykresy pokazują jak zmieniają się temperatury przy wzroście indeksu AAO: rosną w pewnej odległości wokół Antarktydy ale maleją tuż przy niej. Ale o jednostkę używaną na wykresie pytajcie autorów artykułu (stopień? odchylenie standardowe? jednostki umowne?). Natomiast wartości 28% i 29% oznaczają część całkowitej zmienności temperatur jaką da się wyjaśnić przy pomocy tej pierwszej funkcji ortogonalnej (czyli de facto przy pomocy indeksu AAO).

Artykuł pokazuje dalej, że wokół Antarktydy wraz z wzrostem indeksu AAO zwiększają się opady (dokładniej opady odjąć parowanie czyli z angielska  P-E). Taki efekt widziany jest miedzy innymi w danych z pływaków Argo (o których pisałem we wpisie o ogrzewaniu się oceanów). Lżejsza słodsza woda na powierzchni oceanu utrudnia jego pionowe mieszanie izolując termiczne lód morski od cieplejszej wody poniżej. Może to również być jedną z przyczyn dlaczego dotychczas nie ubywa lodu morskiego wokół Antarktydy. Inną może być to, że większość tego dodatkowego opadu to śnieg o wysokim albedo, sprawiający, że lód morski mniej nagrzewa się od promieniowania słonecznego.  Przypominam, że wszystkie trzy wspomniane tu i wyżej czynniki “ratujące” lód morski związane są z wysokimi wartościami indeksu AAO.

Dlatego istotny jest fakt, że wartości tego indeksu mogą spaść w wyniku przybywaniu koncentracji ozonu w stratosferze nad Antarktydą, w miarę zanikania spowodowanej przez nas Dziury Ozonowej. Jej odbudowa przewidywana jest na drugą połowę obecnego stulecia. Przejście AAO do wartości ujemnych spowoduje zatem silniejsze ocieplenie Antarktydy. Co gorsza autorzy artykułu twierdzą, że ich wyniki modelowania klimatu Antarktydy w XXI wieku pokazują, że efekt cieplarniany przewyższy działanie AAO. Poniżej pokazane są wymodelowane (model CCSM3, po lewej z wymuszeniami XX-wiecznymi, po prawej wymuszenia ze scenariusza A1B zmian wymuszeń w XXI wieku) zmiany temperatury – tym razem na pewno w stopniach Celsjusza –  pomiędzy latami 1990-mi a 1950-mi (po lewej) i 2090-mi a 2000-mi (po prawej).

To znaczy jeszcze w tym wieku Antarktyda będzie cieplejsza niezależnie od wartości AAO dzięki działaniu gazów cieplarnianych. Ocean pod spodem może być nawet do 1,5 °C cieplejszy niż obecnie. Opady  śniegu zaczną zamieniać się w opady deszczu nad oceanem wokół Antarktydy. Uważny czytelnik notatki w Wyborczej zauważy, że ten wniosek z artykułu stanowi jej najważniejszy (i względnie najlepiej przedstawiony) punkt.

Czy to jakaś sensacja? Raczej potwierdzenie tego co już podejrzewaliśmy. Ale sprawdzać takie rzeczy zawsze trzeba. Raporty IPCC nie biorą się z wyobraźni ich autorów,  a z przeczytania setek artykułów takich jak Liu i Curry 2010.

[1] Liu J, & Curry JA (2010). Accelerated warming of the Southern Ocean and its impacts on the hydrological cycle and sea ice. Proceedings of the National Academy of Sciences of the United States of America, 107 (34), 14987-92 PMID: 20713736

[2] Przypominam, że poziom istotności jest prawdopodobieństwem, że trend jest “istotnie” (tzn. nie tylko w wyniku błędu statystycznego) różny od zera (dopisek: i oczywiście nie ma przeciwnego znaku). Jak zobaczymy dalej niektórzy stosują tu wartość dopełniającą się do 100% (np. 5% zamiast 95%).

Dopisek z 31.08.2010: Zwrócono mi uwagę, że powyższa definicja poziomu istotności nie jest dokładna, ale nie bardzo widzę jak ją napisać lepiej aby zachować charakter popularnonaukowy. Jeśli ktoś chce wiedzieć więcej na ten temat, radzę przeczytać poniżej komentarze użytkownika ztrewq i/albo następujące hasło angielskojęzycznej Wikipedii: http://en.wikipedia.org/wiki/P-value.

Dopisek z 2.09.2010: Ponieważ podręcznik Hans von Storch and Francis W. Zwiers “Statistical analysis in climatic research” podaje definicję praktycznie identyczna z moją, dodaję powyżej jedynie drobne wyjaśnienie w nawiasie (od początku chodziło mi o prawdopodobieństwo, że zmienna na wartość po swojej stronie wartości zero ale nie wiedziałem jak to krótko wyrazić).

Dopisek 5.09.2010: Po dogłębnym przejrzeniu literatury widzę że moja definicja istotności (significance) jest poprawna. Nie jest ona jednak oparta na koncepcji wartości-p (p-value) i testowaniu hipotezy zerowej (null hypothesis), a po prostu na zakresach ufności (confidence intervals). Identycznie jak ja definiują ją von Storch i Zwiers w swoim podręczniku dla klimatologów. Wcześniej jako (lepszą) alternatywę dla p-wartości i hipotez zerowych proponował ją Gill w 1999 roku w artykule “The insignificance of null hypothesis significance testing”, a idea pochodzi chyba z Gardner i Altman 1986 “Confidence intervals rather thanp-values: estimation rather than confidence testing” (to znaczy nic wcześniejszego nie znalazłem).

Autorzy ci (i wielu innych – patrz komentarze poniżej) uważają wartości-p za bardzo ułomny test czegokolwiek. Zakresy ufności w przeciwieństwie do wartości-p dają jakąś sensowna informację (prawdopodobieństwo że uzyskaliśmy daną wartość zamiast innej, na przykład zera nie jedynie w wyniku ślepego losu). W ogólnym przypadku wartość-p nie daje rzeczywiście tej wiedzy. Ale żeby było śmieszniej w prostym przypadku tu omawianym (prawdopodobieństwo że trend różni się od zera) oba podejścia są tożsame czyli ztrewq i doskonaleszare nie mieli racji podwójnie czepiając się mojej powyższej definicji nie dość, ze moja jest w ogólności lepsza to akurat w tym przypadku dają one te same wartości istotności). A jeśli co do tej równoważności nie wierzycie mi to posłuchajcie Gilla z w/w artykułu:

“In one sense confidence intervals and null hypothesis significance tests present the same information: a linear regression coefficient with a 1-α confidence interval bounded away from zero is functionally identical to a null hypothesis significance test rejecting as p≤α the hypothesis that the coefficient equals zero.”

Określenie “functionally identical” oznacza ni mniej ni więcej, że to w obu podejściach otrzymamy samą wartość istotności. A przecież to coś,  co ma dla regresji liniowej wartość identyczna z wartością-p to dokładnie moja definicja istotności z przypisu [2]!

Hits: 36

Subscribe
Notify of
guest

This site uses Akismet to reduce spam. Learn how your comment data is processed.

101 Comments
Inline Feedbacks
View all comments
zosiasamosia
zosiasamosia
9 years ago

@arctic
“To już druga żółta kartka dla Pana/Pani bo zakładam na podstawie powyższego, że jest Pan/Pani tym samym metrologiem, którego już raz ostrzegałem.”
Nie wiem o co chodzi. Jedno wiem na pewno. Nie jestem tym wyimaginowanym “tym samym metrologiem”, ale prawda jest, ze razi mnie Panski poziom wiedzy, jako fizyka doswiadczalnego, w zakresie interpretacji wynikow pomiarow.

globalnysmietnik
9 years ago

I niech nikt mi tu nie wyskakuje z twierdzeniami, że nie istnieje nic takiego jak prawdziwa wartość. Ja jestem fizykiem, a nie filozofem i na żadną dekonstrukcję obiektywnej rzeczywistości nie pozwolę

Łomatko – to chyba na odwrót. Obiektywna wartość istnieje w sensie filozoficznym jako “uczony konstrukt” konieczny w wielu dociekaniach matematycznych i logicznych, tutaj we wnioskowaniu statystycznym.

“Fizyczna prawda” przecież jest inna, przynajmniej w dzisiejszym rozumieniu fizyki.
Systematyzowanie błędów pomiaru, o co toczycie tak przyjemną dyskusję, to przecież próba usystematyzowania pewnej właściwości naszego Wszechświata, której imię Chaos.

globalnysmietnik
9 years ago

I słuszne bo jeśli nie ma takowej wartości to co właściwie mierzymy?

Szacujemy wartość “uczonego konstruktu”, który nie istnieje w rzeczywistości, natomiast na jego istnienie wskazuje nam tak ukochane przez filozofów “poznanie rozumowe” i nasza świadomość nie pozwala nam bez niego żyć.

I nie zaprzecza temu nawet istnienie nieoznaczoności Heisenberga. To szczególny przypadek ograniczający ogólność powyższego (bo pomiar jednych wartości zakłóca inne i nie możemy jednocześnie poznać niektórych ich par z dowolną dokładnością), ale mu nie zaprzeczający.

Tu już się zrobiła dyskusja o istocie fizyki i wszechświata, ale z tego, jak zrozumiałem podejście tzw. “szkoły kopenhaskiej” to zaprzecza. Te wartości mogą być nieokreślone i pomiar – oddziaływanie z otoczeniem je właśnie określa. Bez pomiaru one nie istnieją. Nieoznaczoność i chaos nie wynika z ograniczenia technik pomiarowych, ale taka właśnie jest Istota Wszechświata. Nasze myślenie, pojęcia, nawet system matematyczny i “poznanie rozumowe” jest pochodną naszego doświadczenia zmysłowego. Akt pomiaru – czyli oddziaływanie z otoczeniem ma za zadanie przyporządkowanie – nieoznaczonego do końca i chaotycznego świata mikrokosmosu cząstek elementarnych do naszych pojęć fizyczno-matematycznych.

globalnysmietnik
9 years ago

A mam ją – wyszła nawet po polsku. Nie zwróciłem uwagi na ten fragment jako coś ważnego – odebrałem jako nieudowodnione do końca własne zdanie autora. W każdym razie mam zajęcie na wieczór – przemyślenie tego rozdziału jeszcze raz.

ztrewq
9 years ago

Podkreślenie oryginalne. I słuszne bo jeśli nie ma takowej wartości to co właściwie mierzymy?

Jak mierzysz prędkość wiatru, to co właściwie mierzysz? Jest jakaś “prawdziwa” prędkość wiatru? A co to jest w ogóle wiatr?

ztrewq
9 years ago

Prędkość wiatru w punkcie to średnia prędkość molekuł powietrza w pewnym otoczeniu tego punktu

Aha. Czyli jest to pewna przez nas wymyślona abstrakcja. W rzeczywistości nie ma “wiatru”, jest tylko ruch molekuł powietrza. Każda z nich ma pewną prędkość, a my sobie możemy te prędkości dodawać, dzielić, mnożyć itd., obliczając pewne parametry, z których jeden nazwiemy “średnią prędkością”, a inny, dajmy na to, “wariancją”. (zauważ, że nie czepiam się tego, co to jest “punkt” 🙂 )

Im bardziej złożone systemy, tym bardziej owe przydatne i działające zadziwiająco sprawnie abstrakcje będą oddalone od tego, co można jeszcze bez grymasów nazwać “fizyczną rzeczywistością”.

O ile więc mogę się zgodzić, że pracownicy CERNu próbują mierzyć “rzeczywiste” wartości, o tyle owe “rzeczywiste wartości” w pracy biologa lub — jak mi się wydaje — klimatologa są raczej, jak to ujmuje Terry Pratchett, “przydatnymi kłamstwami”.

zosiasamosia
zosiasamosia
9 years ago

@arctic
“W przeciwieństwie do poprzedniego „metrologa” jakiego tu mieliśmy to coś twierdzi, że niepewności typu A i B to nie to samo co błąd przypadkowy i systematyczny…”
Byc moze Pan nie czytal: http://physics.nist.gov/cuu/Uncertainty/.
Byc moze niep. a zostala zawezona w stosunku do bledu przypadkowego, a zakres okreslony przez niep. b zostal, w stosunku do bledow systematycznego przyrzadu i metody,
rozszerzony. W znacznej czesci pomiarow jednak, moim zdaniem, to do tego samego sie sprowadza.

“W przeciwieństwie do zosisamosi (i mnie) a zgodnie z poglądami zqtrew’a i globalnegosmietnika to coś uważa, że „prawdziwa wartość” to pojęcie idealistyczne ”
Napisalam: “Prawda jest, ze istnieje prawdziwa wartosc wielkoscie mierzonej, ale i prawda jest, ze jej wartosci dokladnie nie mozna wyznaczyc.”. Jedna uwaga, zakladam, mowa jest o wielkosci mierzonej, a więc posiadajacej jednostke miary. Niestety, kazda jednostka miary okreslona jest z okreslona niedokladnoscia. Prawdziwe jest wiec Pana okreslenie :”„prawdziwa
wartość” to pojęcie idealistyczne “. Przykladowo: jest wzorzec masy kg, ale jego masa po pierwsze nie wynosi 1kg, a po drugie masa tego wzorca zmienia sie w czasie.

“Czyli nie udało się tymi ideami zarazić praktycznie nikogo oprócz metrologów. Myślę, że to całe szczęście, że naukowcy mają jeszcze swój własny rozum i nie idą owczym pędem za modą narzucaną przez inżynierów.”
Z tym sie chyba zgodzimy, ze firmowaly to:
BIPM Bureau International des Poids et Mesures
IEC International Electrotechnical Commission
IFCC International Federation of Clinical Chemistry
ISO International Organization for Standardization
IUPAC International Union of Pure and Applied Chemistry
IUPAP International Union of Pure and Applied Physics
OIML International Organization of Legal Metrology.
Jezeli IUPAP to firmowalo, to jak Pan mysli, po co?
W tej grupie inzynierowie to chyba jednak tylko IEC.
Nie wiem czy Pan pamieta bitwe fizykow z elektrykami: cgs kontra uklad giorgiego. Wyszedl SI nie cgs.
Gdyby Pan pracowal w fizycznym laboratorium akredytowanym, to by Pan te zasady stosowal.

zosiasamosia
zosiasamosia
9 years ago

“Zresztą chyba dobitnie wykazałem, że nie jestem wyjątkiem i w nauce praktycznie nikt tych standardów ISO nie stosuje. Naprawdę nie pamiętam aby w którymkolwiek z tysięcy artykułów jakie czytałem chociażby padły proponowane przez ISO nazwy.”
To jest artyk. z powodu ktorego w tej sprawie sie kiedys pojawilam.
“Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850
P. Brohan, J. J. Kennedy, I. Harris, S. F. B. Tett & P. D. Jones
Accepted version: December 19th 2005”
To z kolei kluczowy akapit z ktorym od dawna nie potrafie sie zgodzic.
“Measurement error (ob) The random error in a single thermometer reading is about
0.2◦C (1 σ) [Folland et al., 2001]; the monthly average will be based on at least two readings a day throughout the month, giving 60 or more values contributing to the mean. So the error in the monthly average will be at most 0.2/√60 = 0.03◦C and this will be uncorrelated with the value for any other station or the value for any other month.”
Wszystko wlasnie przez pomieszanie z poplataniem niepewnosci a(blad przypadkowy) i niepewnosci b.
Wynik – prawie 100 krotne zanizenie niepewnosci

zosiasamosia
zosiasamosia
9 years ago

“Naukowcy starają się go zidentyfikować i odjąć od wyniku, a metrolodzy go „gaussują” i powiększają niepewność.”
Nic bledniejszego, wszyscy, powtarzam wszyscy, ktorzy cos mierza, po uzyskaniu surowego wyniku pomiary dodaja do niego poprawki, tak aby uzyskac poprawiony wynik pomiaru.
Dokladnie, tak to wszyscy robia jak “naukowcy.Tu nie ma zadnej roznicy miedzy uczniem w technikum wykonujacym pomiary w lab. szkolnym (w kazdym razie jesli chodzi o Polske) a Panem.

“nas naukowców jest to przecież zerowy błąd systematyczny”
Nie istniej cos takiego, albowiem nie ma przyrzadu pomiarowego dokladnie mierzacego dowolna wielkosc. Powiem wiecej niew znam wielkosci, ktorej jednostka wyznaczona by byla z zerowm bledem, a Pan zna? W zyciu zmierzyl Pan cos dokladnie?

“Przejrzalem Brohana i innych. Przecież, kawałek, który cytujesz wyrwałeś z kontekstu. To tylko część błędu”
“że jest tu więcej nieporozumienia terminologicznego, niż rzeczywistej różnicy metodologicznej, ale różnica w podejściu „filozoficznym” pozostaje.”
Doktrynalna roznica polega na tym, ze to 0,2 (pomijajac, ze wielokrotnie za malo) to niepewnosc b (blad systematyczy) termometru, a nie niepewnosc a.
Przeciez w ciagu miesiaca temperatury Tmax i Tmin sie zmieniaja, a roznice miedzy nimi w ciagu doby osiagaja wartosci kilkunastu stopni.
Zalozmy przypadek hipotetyczny. Codziennie w ciagu miesiaca: Tmax=15C, Tmin=5C, Tsr=10C. Pytam, czy blad tej sredniej miesiecznej wynosi 0,03C?
Nie wierze, ze dopuszcza Pan , nawet przez chwile, aby niepewnosc (blad) sredniej wynosil tylko 0,03C

ztrewq
9 years ago

Jeśli prędkość wiatru to dla Ciebie abstrakcja to dla mnie pingwin to totalna i niewyobrażalna abstrakcja.

Yep. Właśnie tak. A zwłaszcza pingwin jako gatunek. A zwłaszcza jak chcemy się dowiedzieć jaka jest, bo ja wiem, np. “prawdziwa”regulacja genów pingwina. Bo nie ma naprawdę czegoś takiego: w każdej komórce pingwina regulacja genów będzie
trochę inna. W każdym pingwinie będzie trochę inna. W każdym momencie będzie trochę inna. Nie będzie żadnej “prawdziwej”, będą najwyżej nasze, ludzkie średnie i uogólnienia.

To nie oznacza, że niczego nie dowiemy się o pingwinach studiując regulację ich genów. Ale nie istnieje jakaś “prawdziwa” wartość ekspresji hemoglobiny pingwinów — w tym sensie, w jakim jak istnieje prawdziwa wartość stałej grawitacji, taka sama w Londynie i w Sidney.

Ano tylko to, że ta abstrakcyjna prędkość wiatru może przy pomocy siły jaka na nią wywrze, zrzucić Ci na głowę całkiem nieabstrakcyjną dachówkę. A ponieważ fizyka jest takie rzeczy w stanie obliczyć z całkiem dobrą dokładnością, to ja bym się z tych abstrakcji nie śmiał.

Nie rozumiem, dlaczego określenie “abstrakcja” albo “model” jest dla Ciebie tak negatywne? Napisałem, że to są użyteczne i świetnie działające abstrakcje. Poddające się falsyfikacji, metodzie naukowej i w ogóle. Potrafiące całkiem nieźle się bronić.

Cytując Sokala trafiasz trochę obok tego, o czym ja piszę. Dla mnie grawitacja jest jak najbardziej rzeczywista w możliwie najsilniejszym sensie tego słowa. Nie uważam też, żeby sam fakt, że coś jest modelem / uproszczeniem stawiało to coś na równi ze wszystkimi innymi modelami czy uproszczeniami.

ztrewq
9 years ago

A szczerze mówiąc ciekaw jestem co Ty, jako specjalista od statystyki sądzisz o tej zalecanej przez ISO homogenizacji błędu statystycznego i systematycznego?

Nie mam pojęcia; statystyczne podręczniki, teksty i prace z których korzystam milczą w tej sprawie. Pobieżny ogląd materiałów dowodowych ([1], [2], [3]) skłania mnie ku stanowisku, że w opozycji “błąd systematyczny” vs. “type b uncertainty” chodzi o spór terminologiczny.

Jednak jako osoba zajmująca się raczej “type a uncertainty” (“method of evaluation of uncertainty by the statistical analysis of series of observations”) nie zamierzam bronić tego stanowiska zbyt intensywnie.

zosiasamosia
zosiasamosia
9 years ago

“Wiem już, że żadnym naukowcem Pan/Pani nie jest więc proszę przynajmniej mi nie mówić co my robimy, bo to akurat wiem.”
Ad rem.
Pytalam, czy w zyciu zmierzyl Pan cos dokladnie.
Moze, zna Pan wielkosc w ukladzie SI, ktora mierzona jest dokladnie?
Jako Naukowiec, moze Pan, chyba, odpowiedziec.

“A co do błędu termometru to czy jest to typ A czy B to jeśli ma rozkład normalny wokół średniej to można dodawać jego wariancje z kolejnych niezależnych pomiarów, a stąd już łatwo udowodnić, że dla n pomiarów o niepewności sigma, niepewność średniej to sigma/sqrt(n). C.b.d.o.”
Dziekuje, a wracajac do pytania.
Rozumiem, ze jezeli zmierze temperatura w pokoju termometrem o bledzie 1K (aby zachowac Panski system), ktorego blad charakteryzuje sie rozkladem normalnym, 60 razy w ciagu godziny, to wyznacze srednia temperature z bledem 0,13K.
Czy dobrze zrozumialam?

ztrewq
9 years ago

Tylko nadal nie wiem czemu sądzisz, że wielkości fizyczne nie mają prawdziwych wartości

Stała grawitacji ma prawdziwą wartość. Cząstka gazu w atmosferze ma — o ile moge to powiedzieć — prawdziwą prędkość, pęd czy co tam jeszcze.

Natomiast nie ma “prawdziwej” wartości, dajmy na to, prędkości wiatru w Tatrach wczoraj po południu.

Nawet zakładając, że miałbyś dane na temat prędkości każdej cząstki gazu w całej atmosferze w każdym czasie, owa “prawdziwa” prędkość zależałaby od tego, jak obrałbyś “otoczenie” ze swojej definicji prędkości wiatru. Do jakiej wysokości npm (albo powyżej poziomu gruntu, ale jak go mierzyć?) mowa jeszcze o “wietrze w Tatrach”? Jak dokładnie definiujemy obszar Tatr? Od kiedy jest “po południu”? Wliczać flatulencję owiec (niewątpliwie też ruch cząstek gazu), czy nie wliczać?

Pojęcia “wiatr”, “Tatry”, “po południu” są dla nas intuicyjnie proste do zrozumienia, ale ciężko o idealnie ścisłą definicję.

“Wiatr w Tatrach” to więc użyteczna abstrakcja, której możemy przypisać jakąś przydatną wartość, i która w jakiś tam sposób przystaje do tego, co my, ludzie, odbieramy jako “rzeczywistość”. Schody zaczynają się tam, gdzie takich abstrakcji nie potrafimy zweryfikować przy pomocy naocznych obserwacji (tam, gdzie nie grozi nam żadna zrzucona wiatrem cegłówka).

Ale to jeszcze nie wszystko.

Załóżmy teraz na chwilę, że mamy ścisłą definicję obszaru Tatr, wiatru i czasu. Wiemy dokładnie, które cząstki mamy wliczyć do średniej, i po jakim czasie całkować. Mamy wszystkie dane, możemy sobie policzyć średnią.

I co, czy ta wartość jest realna? W wypadku tak ścisłego zdefiniowania pojęć, jest “prawdziwa” w tym sensie, że jest prawdziwą średnią z iluśtam prawdziwych wartości. Ale jest “nierzeczywista” w sensie, że zależy od naszego subiektywnego wyboru tego, co właściwie należy liczyć.

Liczyć możemy wszystko; zamiast średniej arytmetycznej, możemy policzyć średnią, ważoną, geometryczną albo medianę. Albo dodać prędkości, podzielić przez liczbę beknięć owieczek na hali i pomnożyć przez pi; to też będzie równie “prawdziwa” wartość. Tyle, że mało użyteczna.

Liczy się więc użyteczność pewnej wartości.

A teraz zmieniam temat na małe przypierdzielanki do statystycznych detali:

jeśli ma rozkład normalny wokół średniej to można dodawać jego wariancje z kolejnych niezależnych pomiarów

Wariancje przy założeniu niezależności zmiennych losowych zawsze można dodawać niezależnie od rozkładu; dlatego, że dla każdego rozkładu posiadającego wariancję, wariancja sumy jest równa sumie wariancji i kowariancji, a kowariancja jest równa zeru dla niezależnych zmiennych losowych.

stąd już łatwo udowodnić, że dla n pomiarów o niepewności sigma, niepewność średniej to sigma/sqrt(n).

Yep. A normalność do tego nie jest potrzebna. Wystarczy istnienie wariancji i niezależność zmiennych losowych:

$latex Var( \frac{\sum_i y_i}{n}) = \frac{1}{n} \sum_i Var( y_i ) = \frac{\sigma^2}{n}$

Ale, jak zwykle, nie mamy σ², mamy s² (czyli estymator wariancji w populacji oparty o próbkę), a to nie to samo, choćby dlatego, że o ile s² jest nieobciążonym estymatorem σ², to s jest obciążonym, systematycznie zaniżającym estymatorem σ (bo pierwiastek nie jest funkcją liniową).

Tak czy siak, istotne jest tutaj założenie o niezależności zmiennych losowych (kolejnych pomiarów) — a nie w ich normalności; i jeśli dobrze rozumiem, to tutaj właśnie tkwi pies pogrzebany:

The possibility of evaluation of uncertainty components by methods that differ from the statistical analysis of a series
of observations (type-B evaluation) is a fundamentally important aspect of general metrology as presented in the Guide. It
makes it possible to go beyond the traditional statistical approach (type-A evaluation) and find the values of uncertainty com-
ponents for which the required statistical information is difficult or impossible to obtain. Examples of such uncertainty com-
ponents include those associated with the measurement means (of an established type), deviations of influencing factors from
their nominal values (within specified limits), and many others that appear in specific measurements, such as systematic effects.(…)
In essence, evaluation of the components of type-B uncertainty is similar to that employed in domestic practice to find
the standard deviations of unexcluded systematic errors (USE) specified in the form of limits.

(Kadis, 2000).

whiteskies
whiteskies
9 years ago

@ztrewq
A takie wielkości jak gęstość jakiejś substancji? Maja prawdziwa wartość czy nie?
A temperatura jako miara energii wewnętrznej, dowolnego układu termodynamicznego, a nie banalnego gazu ze średnia energia kinetyczną? A pęd fotonu który jest w pewnym sensie falą, co dotyczy zresztą każdej cząstki?
Wydaje mi się że Twoje pojęcie “prawdziwej” czy “istniejącej” wartości wielkości fizycznej związane jest z tym ze niektóre definicje czy pojęcia bliższe niż inne…

@wszyscy
Wyobraź sobie np. bardzo mały termometr (5 mikrometrów??) i pomiary temperatury powietrza w pokoju. Chuchasz, dmuchasz, nad Twoja głowa unoszą się prądy konwekcyjne… Czego temperaturę mierzysz w pokoju? Jakie błędy systematyczne i przypadkowe popełniasz? Co mierzysz dokładnie?
Błąd możesz próbować ocenić dopiero gdy rozumiesz pomiar i jego kontekst. Czy znaczy to jak sugeruje ztrewq że nie istnieją “prawdziwe” wartości pewnych wielkości fizycznych, czy tylko to ze nie ma pomiarów idealnych i wyrwanych z kontekstu?

zosia
zosia
9 years ago

@arctic
Jaki jest wplyw wody to wystarczy zmierzyc temperature wynikajaca z tzw.sprzezenia zwrotnego, kierunkowym termometrem radiacyjnym.
Ja zmierzylam dzisiaj ok. 9. Wyniki <-50C – przy braku chmur, -4C – chmury srednie.
Moze tez zmierzysz i porownamy
"Ponieważ zosiasamosia wystraszyła się zasadzki i zniknęła.."
"A teraz czekam kiedy Pan/Pani wpadnie w moją pułapkę…"
Co do strachu. Zaczales sie bawic "chakiera", wiec musialam sie przygotowac.
Wszyscy ktorzy tu wchodza winni rowniez zachowac ostroznosc.
Te grozby, czekam kiedy wpadniesz w zasadzke, nie byly czcza gadanina.
Bledow dalej nie potrafisz liczyc.
"Et tu, Brute?" – piekne.

pohjois
pohjois
8 years ago

Trafiłem tutaj podążając za linkiem z ostatniego komentarza u Jego Doskonałości. I przeglądając dyskusję znalazłem takie Twoje stwierdzenie: “Moja zasadzka leży w słowach „jeśli pomiary są naprawdę niezależne”. Otóż to kiedy są nie jest takie proste. I co ciekawe zależy to też od prędkości zmian mierzonej wartości (tu: temperatury). Jeśli temperatura przez tę godzinę się nie zmieni i zrobimy 60 pomiarów, to jest to praktycznie jeden pomiar. “.
Zastanawiam się jak mogłeś napisać taką bzdurę – i co miałeś naprawdę na myśli.

Niezależność pomiarów dowolnej wielkości nie zależy od tego czy ta wielkość X jest stała, tylko od właściwości urządzenia pomiarowego. W przeciwnym razie nie mógłbyś nigdy zmierzyć niezależnie żadnej stałej wielkości tym samym urządzeniem…

Niezależność pomiaru temperatury w pokoju za pomocą termometru zależy nie od tego, czy temperatura jest stała tylko od tego jaka jest bezwładność elementu pomiarowego cieplna termometru. Zakładając eksponencjalne wyrównywanie temperatury termometru z otoczeniem, to czas 10 tau (stała czasowa w wykładniku) będzie więcej niż wystarczający do wyrównania temperatury niezależnie od temperatury początkowej i spokojnie można przyjąć, że pomiary rozdzielone o taki czas są niezależne. To oczywiście bardzo zgrubny szacunek, po bezpiecznej stronie.

Lol
Lol
8 years ago

@arctic “Gdyby ktoś podrzucił serię czasową z termometru…”
Prosze bardzo. To sa pomiary rzeczywiste. Jesli mozna to mam pytanie. Ile wynosi wypadkowe odchylenie standardowe: pojedynczego pomiaru, a ile odchylenie
sredniej?

Tmin
18,2 21,0 25,5 24,1 17,9 21,8 20,7 20,8 20,3 20,9 21,0 22,5 21,5 20,9 20,2 20,6 17,3 17,9 19,3 19,1
18,3 19,9 18,8 18,4 18,6 18,1 14,8 15,7 20,1 12,5 1,2

Tmax
33,2 31,2 38,2 37,5 35,7 37,5 36,0 36,7 36,3 35,2 31,3 33,0 32,0 31,6 35,0 33,6 32,6 30,6 29,7 29,8 30,2 30,7 30,5 28,5 28,6 30,1 28,3 26,8 26,8 29,2 26,1
Problem z formatowaniem.
Pojedynczy wynik z rozdzielczoscia 0,1.

pohjois
pohjois
8 years ago

OK już wiem na czym polega nieporozumienie.
Oczywiście masz rację w tym co piszesz. Tzn. ja w zwrocie “zależną od prędkości zmian mierzonej wartości” zrozumiałem jako zależną od zmian “prawdziwej wartości” – tzn. takiej zmierzonej idealnym termometrem. No i to było bardzo dziwne stwierdzenie i zaprotestowałem.

Natomiast należało to odczytać jako “zależną od prędkości zmian wartości pokazywanych przez termometr”.
Niewątpliwie to ma sens.