Często słyszymy, że naukowcy lubią dobierać sobie te tematy, które im pasują. Piszą więc o Arktyce, gdzie temperatury są coraz większe, a lodu morskiego jest coraz mniej. Natomiast przemilczają Antarktydę, gdzie jest dokładnie na odwrót. Ale czy naprawdę? Przyjrzyjmy się zatem temu co dzieje się na Antarktydzie.
Pretekstem niech będzie nowy artykuł naukowy (znów z nielubianego przeze mnie PNAS): Liu i Curry 2010 [1]. O artykule tym napisała nawet Gazeta Wyborcza, chociaż autor notatki o nim chyba niezbyt uważnie go czytał (a może nie znał jego tła). Ale o tym niżej. O Antarktydzie rzeczywiście do niedawna sądzono, że większość jej się oziębia. Uważano też że przybywa na niej masy lądolodu (tak pisał jeszcze w 1972 Jacobs w czasopiśmie Science). Ponieważ obszary polarne powinny się ogrzewać szybciej niż przeciętnie cała Ziemia, wyglądało to na problem dla klimatologii. Słowem kluczowym jest tu jednak “do niedawna” bo nasza wiedza o tych problemach ostatnio znacznie się zwiększyła. W dodatku to “niedawno” to już dobrych parę lat. Przede wszystkim są części Antarktydy, które ogrzewają się i to szybciej niż przeciętna dla naszej planety (dokładnie tak jak przewiduje teoria). Jest to przede wszystkim “najbardziej wystająca” część Antarktydy, czyli Półwysep Antarktyczny. Powyższy rysunek z artykułu Vaughan i inni 2001 (też z Science) przedstawia wartości trendów zmian temperatury na dekadę czyli 10 lat (wraz z niepewnościami i poziomem istotności [2] trendu) dla stacji pomiarowych na Półwyspie Antarktycznym (podana jest także ilość lat pomiarów). Widać, że mimo dużych błędów statystycznych, mierzony wzrost temperatury powietrza jest znacznie szybszy niż średnia dla całej Ziemi (czyli w ostatnich dekadach ok. 1,5 C/stulecie). Ten szybki wzrost temperatury jest przyczyną głośnego w mediach (a nawet filmach fabularnych) rozpadu barier lodowych wokół Półwyspu, a zarazem jest on spodziewanym skutek znanej od dziesięcioleci “polarnej akceleracji” ocieplenia, czyli dodatnich sprzężeń zwrotnych (patrz wpis “Czy rozumiemy ocieplanie się Arktyki?“).
Czy jednak podobnie ociepla się reszta Antarktydy. Otóż nie. Do niedawna sądzono nawet, że wnętrze kontynentu się oziębia. Dopiero od około 5 lat (a nie od roku jak napisano we wspomnianej notatce z Wyborczej) wiemy, że wnętrze to się także ociepla, jednak znacznie wolniej niż większość planety.
W artykule Turnera i innych z marca 2006 roku (też Science) porównano dane z sondowań atmosfery balonami meteorologicznymi na stacjach polarnych. Wskazywały one (jak widać powyżej), że praktycznie na wszystkich stacjach, z których mamy dane zanotowano ocieplenie w okresie od 1971 ro 2003 r. Słupki oznaczają wartość średnioroczna i dla czterech pór roku zaczynając od jesieni (czyli okresu marzec-maj bo to półkula południowa). Kolory słupków oznaczają poziom istotności (Turner stosuje odwrotną terminologię niż Vaughan, tzn 1% u niego to szansa 99% że trend jest istotnie niezerowy).
Dolna część wykresu to wyliczony średni profil zmiany temperatury (stopnie na 10 lat) w funkcji wysokości nad powierzchnia morza – wyrażoną jak przystało na meteorologów wartością ciśnienia powietrza (średnio ok. 1013 hPa to powierzchnia morza a wartość zero to szczyt atmosfery). Wykres ten wskazuje na ocieplanie się nie tylko w pobliżu powierzchni lodu ale w całej troposferze.
Jedynie w stratosferze, która nawiasem mówiąc w obszarach polarnych zaczyna się niżej niż w naszych szerokościach, zanotowano ocieplenie. I w dodatku dokładnie wiemy dlaczego. To też nasza robota ale w tym wypadku nie chodzi o gazy cieplarniane. W stratosferze silnym czynnikiem grzejącym jest absorpcja ultrafioletu przez molekuły ozonu. A ponieważ pod koniec okresu, z którego posiadamy dane koncentracja ozonu zaczęła ponownie rosnąć po zakazaniu używania freonów, stratosfera też zaczęła się ogrzewać (i to jedynie w rejonach polarnych ale tam zmiany koncentracji ozonu są największe – słynna Dziura Ozonowa; gdzie indziej dominuje oziębianie stratosfery – efekt uboczny efektu cieplarnianego, o którym tu jeszcze napiszę).
Wspomniany w notatce z Wyborczej artykuł Steiga i innych z 2009 r. (tym razem Nature) zastosował model klimatyczny aby uzupełnić dziury w pomiarach (mamy dane jedynie z kilku stacji pomiarowych na kontynencie większym niż Europa). Wynika z niego, że Zachodnia Antarktyda (czyli ta od strony Półwyspu Antarktycznego) ogrzewa się szybciej niż wynika z pracy Turner i inni a Wschodnia nieco wolniej (a jesienią nawet minimalnie się ochładza). Oczywiście tu i zawsze należy pamiętać, że reanaliza modelem klimatyczny to jednak nie to samo co wartości pochodzące bezpośrednio z obserwacji. Jest to jednak najlepsze czym dysponujemy tam gdzie są luki w danych pomiarowych.
Jak jest zatem z przyrostem lub ubytkiem masy lądolodu Antarktydy i z lodem morskim? Z lądolodem nie najlepiej. Pomimo, że w części Antarktydy Wschodniej większe opady śniegu (o czym więcej niżej) i niezmienna temperatura powodują łącznie przyrost masy lodu, na kontynencie jako całości jest coraz gorzej. Wiemy to z kilku niezależnych metod pomiarowych (pisałem o nich we wpisie o Grenlandii), że lodu na Antarktydzie coraz szybciej ubywa.
Powyższy rysunek pochodzi z Diagnozy Kopenhaskiej 2009 (raportu podsumowującego postęp w badaniach od ostatniego raportu IPCC) i przedstawia wartości szacowanych prędkości zmian masy lądolodu Antarktydy w funkcji czasu. Widać, że nie dość, że ubywa (w tempie zwiększającym światowy poziom morz o ponad pół milimetra rocznie), ale ubywa coraz szybciej.
A lód morski? Lodu morskiego (w sensie powierzchni bo o jego grubości niewiele wiemy) nieco przybywa. Problem w tym, że w przeciwieństwie do Arktyki, na południowej półkuli nie ma praktycznie wieloletniego lodu morskiego (nie mylić z przyczepionymi do lądu barierami lodowymi!). Wiatry rozpraszają go na wielkich obszarach trzech oceanów i w ciągu roku topnieje on prawie w 100%. Tak wiec jego powierzchnia jest raczej wskaźnikiem siły wiatrów (jak mocno go rozproszą zanim stopnieje) niż temperatury.
A wiatry zachodnie wokół Antarktydy są od kilkudziesięciu lat średnio coraz silniejsze. Te wiatry to dobrze znane żeglarzom ryczące czterdziestki oraz wyjące pięćdziesiątki. Miarą ich jest wskaźnik meteorologiczny SAM (Southern Annular Mode) czy jak niektórzy wolą AAO (Antarctic Oscillation) (odpowiednik AO czyli Arctic Oscillation na półkuli północnej). Wzrost siły cyrkulacji zachodniej wokół Antarktydy wiązany jest najczęściej, chociaż nie jest to pewne, z malejącą koncentracja ozonu w stratosferze. Jeśli to prawda, to można spodziewać się w najbliższych dekadach odwrócenia się tego trendu i słabszych wiatrów.
Dlaczego jest to istotne? Ponieważ coraz większa izolacja termiczna mas powietrza nad Antarktydą przez tę coraz silniejszą cyrkulację zachodnią uważana jest za przyczynę ochładzania się (a przynajmniej wolniejszego ocieplania się) tego kontynentu. I wbrew wspomnianej notce z Wyborczej nie jest to nowa idea. Pisali o tym Thompson i Solomon już w 2002 roku (znów w Science).
Na czym polega zatem nowość wspomnianego artykułu Liu i Curry 2010? Otóż potwierdza on przy pomocy wyników modelowania i metod statystycznych, że AAO jest dominującym czynnikiem determinującym rozkład temperatur w rejonie Antarktydy. Poniżej przedstawiony pierwsza empiryczna funkcja ortogonalna (EOF) związana właśnie z tym indeksem wyliczona z danych historycznych temperatur wody morskiej: po lewej z HadISST, po prawej z ERSST. Mówiąc bardziej popularnie, wykresy pokazują jak zmieniają się temperatury przy wzroście indeksu AAO: rosną w pewnej odległości wokół Antarktydy ale maleją tuż przy niej. Ale o jednostkę używaną na wykresie pytajcie autorów artykułu (stopień? odchylenie standardowe? jednostki umowne?). Natomiast wartości 28% i 29% oznaczają część całkowitej zmienności temperatur jaką da się wyjaśnić przy pomocy tej pierwszej funkcji ortogonalnej (czyli de facto przy pomocy indeksu AAO).
Artykuł pokazuje dalej, że wokół Antarktydy wraz z wzrostem indeksu AAO zwiększają się opady (dokładniej opady odjąć parowanie czyli z angielska P-E). Taki efekt widziany jest miedzy innymi w danych z pływaków Argo (o których pisałem we wpisie o ogrzewaniu się oceanów). Lżejsza słodsza woda na powierzchni oceanu utrudnia jego pionowe mieszanie izolując termiczne lód morski od cieplejszej wody poniżej. Może to również być jedną z przyczyn dlaczego dotychczas nie ubywa lodu morskiego wokół Antarktydy. Inną może być to, że większość tego dodatkowego opadu to śnieg o wysokim albedo, sprawiający, że lód morski mniej nagrzewa się od promieniowania słonecznego. Przypominam, że wszystkie trzy wspomniane tu i wyżej czynniki “ratujące” lód morski związane są z wysokimi wartościami indeksu AAO.
Dlatego istotny jest fakt, że wartości tego indeksu mogą spaść w wyniku przybywaniu koncentracji ozonu w stratosferze nad Antarktydą, w miarę zanikania spowodowanej przez nas Dziury Ozonowej. Jej odbudowa przewidywana jest na drugą połowę obecnego stulecia. Przejście AAO do wartości ujemnych spowoduje zatem silniejsze ocieplenie Antarktydy. Co gorsza autorzy artykułu twierdzą, że ich wyniki modelowania klimatu Antarktydy w XXI wieku pokazują, że efekt cieplarniany przewyższy działanie AAO. Poniżej pokazane są wymodelowane (model CCSM3, po lewej z wymuszeniami XX-wiecznymi, po prawej wymuszenia ze scenariusza A1B zmian wymuszeń w XXI wieku) zmiany temperatury – tym razem na pewno w stopniach Celsjusza – pomiędzy latami 1990-mi a 1950-mi (po lewej) i 2090-mi a 2000-mi (po prawej).
To znaczy jeszcze w tym wieku Antarktyda będzie cieplejsza niezależnie od wartości AAO dzięki działaniu gazów cieplarnianych. Ocean pod spodem może być nawet do 1,5 °C cieplejszy niż obecnie. Opady śniegu zaczną zamieniać się w opady deszczu nad oceanem wokół Antarktydy. Uważny czytelnik notatki w Wyborczej zauważy, że ten wniosek z artykułu stanowi jej najważniejszy (i względnie najlepiej przedstawiony) punkt.
Czy to jakaś sensacja? Raczej potwierdzenie tego co już podejrzewaliśmy. Ale sprawdzać takie rzeczy zawsze trzeba. Raporty IPCC nie biorą się z wyobraźni ich autorów, a z przeczytania setek artykułów takich jak Liu i Curry 2010.
[1] Liu J, & Curry JA (2010). Accelerated warming of the Southern Ocean and its impacts on the hydrological cycle and sea ice. Proceedings of the National Academy of Sciences of the United States of America, 107 (34), 14987-92 PMID: 20713736
[2] Przypominam, że poziom istotności jest prawdopodobieństwem, że trend jest “istotnie” (tzn. nie tylko w wyniku błędu statystycznego) różny od zera (dopisek: i oczywiście nie ma przeciwnego znaku). Jak zobaczymy dalej niektórzy stosują tu wartość dopełniającą się do 100% (np. 5% zamiast 95%).
Dopisek z 31.08.2010: Zwrócono mi uwagę, że powyższa definicja poziomu istotności nie jest dokładna, ale nie bardzo widzę jak ją napisać lepiej aby zachować charakter popularnonaukowy. Jeśli ktoś chce wiedzieć więcej na ten temat, radzę przeczytać poniżej komentarze użytkownika ztrewq i/albo następujące hasło angielskojęzycznej Wikipedii: http://en.wikipedia.org/wiki/P-value.
Dopisek z 2.09.2010: Ponieważ podręcznik Hans von Storch and Francis W. Zwiers “Statistical analysis in climatic research” podaje definicję praktycznie identyczna z moją, dodaję powyżej jedynie drobne wyjaśnienie w nawiasie (od początku chodziło mi o prawdopodobieństwo, że zmienna na wartość po swojej stronie wartości zero ale nie wiedziałem jak to krótko wyrazić).
Dopisek 5.09.2010: Po dogłębnym przejrzeniu literatury widzę że moja definicja istotności (significance) jest poprawna. Nie jest ona jednak oparta na koncepcji wartości-p (p-value) i testowaniu hipotezy zerowej (null hypothesis), a po prostu na zakresach ufności (confidence intervals). Identycznie jak ja definiują ją von Storch i Zwiers w swoim podręczniku dla klimatologów. Wcześniej jako (lepszą) alternatywę dla p-wartości i hipotez zerowych proponował ją Gill w 1999 roku w artykule “The insignificance of null hypothesis significance testing”, a idea pochodzi chyba z Gardner i Altman 1986 “Confidence intervals rather thanp-values: estimation rather than confidence testing” (to znaczy nic wcześniejszego nie znalazłem).
Autorzy ci (i wielu innych – patrz komentarze poniżej) uważają wartości-p za bardzo ułomny test czegokolwiek. Zakresy ufności w przeciwieństwie do wartości-p dają jakąś sensowna informację (prawdopodobieństwo że uzyskaliśmy daną wartość zamiast innej, na przykład zera nie jedynie w wyniku ślepego losu). W ogólnym przypadku wartość-p nie daje rzeczywiście tej wiedzy. Ale żeby było śmieszniej w prostym przypadku tu omawianym (prawdopodobieństwo że trend różni się od zera) oba podejścia są tożsame czyli ztrewq i doskonaleszare nie mieli racji podwójnie czepiając się mojej powyższej definicji nie dość, ze moja jest w ogólności lepsza to akurat w tym przypadku dają one te same wartości istotności). A jeśli co do tej równoważności nie wierzycie mi to posłuchajcie Gilla z w/w artykułu:
“In one sense confidence intervals and null hypothesis significance tests present the same information: a linear regression coefficient with a 1-α confidence interval bounded away from zero is functionally identical to a null hypothesis significance test rejecting as p≤α the hypothesis that the coefficient equals zero.”
Określenie “functionally identical” oznacza ni mniej ni więcej, że to w obu podejściach otrzymamy samą wartość istotności. A przecież to coś, co ma dla regresji liniowej wartość identyczna z wartością-p to dokładnie moja definicja istotności z przypisu [2]!
Hits: 354
@arctic
“To już druga żółta kartka dla Pana/Pani bo zakładam na podstawie powyższego, że jest Pan/Pani tym samym metrologiem, którego już raz ostrzegałem.”
Nie wiem o co chodzi. Jedno wiem na pewno. Nie jestem tym wyimaginowanym “tym samym metrologiem”, ale prawda jest, ze razi mnie Panski poziom wiedzy, jako fizyka doswiadczalnego, w zakresie interpretacji wynikow pomiarow.
Naprawdę mam uwierzyć, że wszyscy metrolodzy mają następujące cechy:
a) nie czytają załączonych linków ale i tak wiedza lepiej
b) obrażają rozmówców i osoby trzecie już od trzeciego wpisu w danym wątku
c) zmieniają login gdy tylko ich komentarz zostanie uznany za spam.
d) używają anonimowych serwerów proxy, zmieniając numery IP kilka razy dziennie.
Zadanie: Jakie jest prawdopodobieństwo prawdziwości takiej hipotezy zerowej, jeśli dwaj pierwsi metrolodzy na tym blogu wykazują obie wyżej wymienione cechy?
Wskazówka: cechy te należy traktować jako niezależne.
Uwaga: cechy c) i d) są dopiskami – wynikają z przejrzenia wpisów “metrologicznych”
I niech nikt mi tu nie wyskakuje z twierdzeniami, że nie istnieje nic takiego jak prawdziwa wartość. Ja jestem fizykiem, a nie filozofem i na żadną dekonstrukcję obiektywnej rzeczywistości nie pozwolę
Łomatko – to chyba na odwrót. Obiektywna wartość istnieje w sensie filozoficznym jako “uczony konstrukt” konieczny w wielu dociekaniach matematycznych i logicznych, tutaj we wnioskowaniu statystycznym.
“Fizyczna prawda” przecież jest inna, przynajmniej w dzisiejszym rozumieniu fizyki.
Systematyzowanie błędów pomiaru, o co toczycie tak przyjemną dyskusję, to przecież próba usystematyzowania pewnej właściwości naszego Wszechświata, której imię Chaos.
@globalnysmietnik
Czyli dobrze wyczułem Twoje przekonania. Dla mnie jednak jeśli odrzucimy istnienie obiektywnej rzeczywistości, czyli także prawdziwych (nawet jeśli nie znanych) wartości, to nauka nie ma w ogóle sensu.
To oczywiście filozofia. Zgoda. Ale to moim zdaniem fundament filozofii nauki.
Śmieszne, ale w jednym ze źródeł jakie znalazłem szukając jak ustalić wartość sigmy dla pojedynczego pomiaru (jest to tam w rozdzialiku “Estimating Experimental Uncertainty for a Single Measurement” i nie zaprzecza temu co o tym napisałem) znalazłem ciekawy fragment pasujący jak ulał do dyskusji o istnieniu lub nie prawdziwych wartości:
“When we make a measurement, we generally assume that some exact or true value exists based on how we define what is being measured. While we may never know this true value exactly, we attempt to find this ideal quantity to the best of our ability with the time and resources available. ”
Podkreślenie oryginalne. I słuszne bo jeśli nie ma takowej wartości to co właściwie mierzymy? I nie zaprzecza temu nawet istnienie nieoznaczoności Heisenberga. To szczególny przypadek ograniczający ogólność powyższego (bo pomiar jednych wartości zakłóca inne i nie możemy jednocześnie poznać niektórych ich par z dowolną dokładnością), ale mu nie zaprzeczający.
To źródło to następująca strona: http://www.physics.unc.edu/~deardorf/uncertainty/UNCguide.html
I słuszne bo jeśli nie ma takowej wartości to co właściwie mierzymy?
Szacujemy wartość “uczonego konstruktu”, który nie istnieje w rzeczywistości, natomiast na jego istnienie wskazuje nam tak ukochane przez filozofów “poznanie rozumowe” i nasza świadomość nie pozwala nam bez niego żyć.
I nie zaprzecza temu nawet istnienie nieoznaczoności Heisenberga. To szczególny przypadek ograniczający ogólność powyższego (bo pomiar jednych wartości zakłóca inne i nie możemy jednocześnie poznać niektórych ich par z dowolną dokładnością), ale mu nie zaprzeczający.
Tu już się zrobiła dyskusja o istocie fizyki i wszechświata, ale z tego, jak zrozumiałem podejście tzw. “szkoły kopenhaskiej” to zaprzecza. Te wartości mogą być nieokreślone i pomiar – oddziaływanie z otoczeniem je właśnie określa. Bez pomiaru one nie istnieją. Nieoznaczoność i chaos nie wynika z ograniczenia technik pomiarowych, ale taka właśnie jest Istota Wszechświata. Nasze myślenie, pojęcia, nawet system matematyczny i “poznanie rozumowe” jest pochodną naszego doświadczenia zmysłowego. Akt pomiaru – czyli oddziaływanie z otoczeniem ma za zadanie przyporządkowanie – nieoznaczonego do końca i chaotycznego świata mikrokosmosu cząstek elementarnych do naszych pojęć fizyczno-matematycznych.
@globalnysmietnik
Szkoła kopenhaska nigdy nie miała sensu i zatrzymała rozwój teorii kwantów na kilkadziesiąt lat. Dopiero prace nad komputerem kwantowym ruszyły niedawno tę dziedzinę z miejsca. Polecam w tej kwestii “The trouble with physics” Smolina (głównie o teorii strun ale jest tam i o tym rozdziałek).
W bardziej współczesnym podejściu dekoherencyjnym nie ma tego problemu z pomiarem i obserwatorem.
A mam ją – wyszła nawet po polsku. Nie zwróciłem uwagi na ten fragment jako coś ważnego – odebrałem jako nieudowodnione do końca własne zdanie autora. W każdym razie mam zajęcie na wieczór – przemyślenie tego rozdziału jeszcze raz.
Nie, dekoherencja to obecnie mainstream.
Polecam
http://en.wikipedia.org/wiki/Quantum_decoherence
oraz na przykład
http://plato.stanford.edu/entries/qm-decoherence/
Jak mierzysz prędkość wiatru, to co właściwie mierzysz? Jest jakaś “prawdziwa” prędkość wiatru? A co to jest w ogóle wiatr?
@ztrewq
Et tu, Brute?
Prędkość wiatru w punkcie to średnia prędkość molekuł powietrza w pewnym otoczeniu tego punktu [0].
Podobnie zresztą jak temperatura [1], która to wielkość ma sens jedynie w pewnym otoczeniu bo dla gazu w samym punkcie nie ma zazwyczaj żadnej molekuły.
Czy da się ją zmierzyć? A czemu nie? Oczywiście z pewnym błędem. Jednak stwierdzenie, że w nie da się dobrze określić tej wielkości prowadzi na manowce. Bo jeśli nie da się zmierzyć prędkości wiatru to pewnie też nie da się zmierzyć ciśnienia atmosferycznego (to koncepcyjnie prawie to samo). A co z gęstością gazu? Przecież nie jesteśmy w stanie zważyć każdej molekuły? A i objętość to pojecie niepewne gdy nie wiemy dokładnie gdzie są molekuły (albo ścianki naczynia zawierającego gaz, które też składa się w końcu z molekuł).
Na tej zasadzie łatwo dowieść, że wszelki pomiar fizyczny nie ma sensu. Nawet biolog nie powinien jednak tak ludziom w głowach mącić (nie wspominając już, że sam nie powinien wierzyć w takie rzeczy).
A szczerze mówiąc ciekaw jestem co Ty, jako specjalista od statystyki sądzisz o tej zalecanej przez ISO homogenizacji błędu statystycznego i systematycznego?
[0] Dla uproszczenia zakładam, że wszystkie mają tę samą masę, ale jeśli nie mają (jak w przypadku powietrza, które jest mieszaniną gazów) to trzeba wektorowo dodawać prędkości pomnożone przez masy molekuł i podzielić to przez całkowitą masę. Inaczej nie będzie to ta prędkość, która przemnożona przez masę stanowi pęd i której zmiana w jednostce czasu pomnożona przez masę równa jest przyłożonej do gazu wypadkowej sile. Dodałem ten i następny przypis bo wiem, że gdybym tego nie zrobił to ktoś by się zaraz przyczepił i przypisywał nieuctwo.
[1] Z tym, że prędkość gazu to suma wektorowa a temperatura to skalarna suma kwadratów prędkości molekuł razy pewna stała.
Do “Zosi”
Skasowałem już dwa razy Pana/Pani najnowszy komentarz. Obrażanie ludzi tutaj nie przejdzie. Jeśli ma Pan/Pani cokolwiek merytorycznego do powiedzenia to proszę. Ale bez wycieczek osobistych. Proszę przeczytać sekcję “O blogu”.
Jeszcze o niepewnościach typu A i B jak je definiuje ISO. Dopadłem w sieci tego cennego produktu. Co prawda w przestarzałej wersji z 1995 roku, wprowadzonej jako standard… saudyjski i z rosyjskiego serwera. Najlepszy dowód, że tego lepiej w ogóle nie tykać jak się nie jest inżynierem, którego laboratorium stać na zakup aktualnej wersji za kilkaset franków szwajcarskich. Ale jak kto odważny, to jest to dostępne tutaj:
http://www.temperatures.ru/pdf/GUM.pdf
Parę wniosków po pobieżnym przejrzeniu:
1) To coś zakłada, że zasadniczo wszystkie rozkłady są gaussowskie (tzn jeden “błąd standardowy” oznacza przedział zaufania 67% itd.). Już to kończy właściwie sens dyskusji o tym z punktu widzenia naukowego.
2) W przeciwieństwie do poprzedniego “metrologa” jakiego tu mieliśmy to coś twierdzi, że niepewności typu A i B to nie to samo co błąd przypadkowy i systematyczny (sekcja 3.3.3). O ile zgodziłbym się w przypadku niepewności typu B to nie wiem czym odróżnia się “typ A” od klasycznego błędu przypadkowego.
3) W przeciwieństwie do zosisamosi (i mnie) a zgodnie z poglądami zqtrew’a i globalnegosmietnika to coś uważa, że “prawdziwa wartość” to pojęcie idealistyczne (sekcje D 3.1 do D 3.5).
Dwa przykłady krytyki tego czegoś to
http://www.accreditation.jp/council/image/1_5.pdf
(między innymi tej gassowskości; autor proponuje aby jako standardowa metodę wyznaczania niepewności używa metod Monte Carlo, co ma sens [1] ale nie wydam paruset franków aby się przekonać czy to przyjęto w aktualnej wersji z 2008 roku) oraz
http://cdsweb.cern.ch/record/319329/files/9611016.pdf
którego autor uważa całe to podejście za bayesowskie i niezgodne z konwencjonalną statystyką” oraz … proponuje własna teorię tłumaczącą dlaczego tak można.
[1] W przypadku artykułu Wu i innych z poprzedniego wpisu od razu pomyślałem, że to jedyna metoda wyznaczenia ‘”sigmy”, ale sam artykuł milczy na temat metody określenia niepewności.
Polecam jeszcze ten dokument:
http://www.physics.unc.edu/~deardorf/uncertainty/AAPT.S03.ppt
Bardzo sensowny w części zalecającej ujednolicenie opisu i oznaczeń błędów i zabawny zarazem, bo wyraźnie pokazuje, że tego standardu ISO nikt w znanych mi naukach nie przestrzega. A przeczytałem (a przynajmniej uważnie przejrzałem) w ostatnich latach parę tysięcy artykułów od fizyki po geochemie i biologię, wiec mam niezły przegląd.
Uff. Świat jest jeszcze normalny. Poszukałem ile artykułów w bazie ISI (tzw. “lista filadelfijska” plus trochę preceedingów) używa w tytule lub abstrakcie określenia “type b uncertainty” a ile “systematic error” (czyli sprawdziłem te dwa terminy, przed myleniem których przestrzega ISO). Oto wynik:
1) systematic error: łącznie 3712, w tym roku 184
2) type b uncertainty: łącznie 37, w tym roku 3
Nie widać też trendu do przechodzenia z pierwszego na drugie. Wręcz odwrotnie, fala jakby już się odbiła: trzy ostatnie lata to szczyty popularności “systematic error” a dla “type B uncertainty” najlepszym rokiem był 2006 (7 przypadków).
W dodatku to drugie określenie to prawie wyłącznie czasopisma Metrologia oraz Measurement (oraz konferencje z “measurement” w nazwie). Najnowszy artykuł wymieniający to pojecie w abstrakcie to:
Szymaniec K, Park SE, Marra G, et al. “Title: First accuracy evaluation of the NPL-CsF2 primary frequency standard”, 2010, METROLOGIA, 47, 4, 363-376
Czyli nie udało się tymi ideami zarazić praktycznie nikogo oprócz metrologów. Myślę, że to całe szczęście, że naukowcy mają jeszcze swój własny rozum i nie idą owczym pędem za modą narzucaną przez inżynierów.
Aha. Czyli jest to pewna przez nas wymyślona abstrakcja. W rzeczywistości nie ma “wiatru”, jest tylko ruch molekuł powietrza. Każda z nich ma pewną prędkość, a my sobie możemy te prędkości dodawać, dzielić, mnożyć itd., obliczając pewne parametry, z których jeden nazwiemy “średnią prędkością”, a inny, dajmy na to, “wariancją”. (zauważ, że nie czepiam się tego, co to jest “punkt” 🙂 )
Im bardziej złożone systemy, tym bardziej owe przydatne i działające zadziwiająco sprawnie abstrakcje będą oddalone od tego, co można jeszcze bez grymasów nazwać “fizyczną rzeczywistością”.
O ile więc mogę się zgodzić, że pracownicy CERNu próbują mierzyć “rzeczywiste” wartości, o tyle owe “rzeczywiste wartości” w pracy biologa lub — jak mi się wydaje — klimatologa są raczej, jak to ujmuje Terry Pratchett, “przydatnymi kłamstwami”.
@ztrewq
Abstrakcja. Owszem. Ale nie bardziej niż energia, pęd czy temperatura. Ale to nie znaczy, że te “abstrakcje” nie maja prawdziwych wartości. Zresztą te wartości mierzymy przy pomocy liczb, czyli innych abstrakcji. I co z tego?
Jeśli prędkość wiatru to dla Ciebie abstrakcja to dla mnie pingwin to totalna i niewyobrażalna abstrakcja. Bo gdyby się tak czepiać definicji tego niezwykle skomplikowanego układu tak jak Ty czepiasz się pojęć fizycznych to wyszło by na to, że żadne zwierze nie istnieje.
Ale to byłby dopiero obłęd, nieprawdaż?
Jeszcze @zqtrew
Dodam, że w tej debacie, którą toczono już nieraz na rożnych forach jestem po tej samej stronie co Sokal, autor “Modnych bzdur’.
Otóż Sokal zaproponował tym, którzy nie wierzą w rzeczywistość grawitacji (a to jest dopiero abstrakcja!) aby przyszli do niego do domu i wyszli przez okno. A mieszka na siódmym piętrze.
Ja nie będę wobec Ciebie taki okrutny Ale pomyśl, że ta abstrakcyjna prędkość wiatru pomnożona przez równie abstrakcyjną masę powietrza daje jeszcze bardziej abstrakcyjny pęd. A zmiana tego pędu w jednostce totalnie abstrakcyjnego czasu (to jest dopiero matka wszystkich abstrakcji!) to siła. Jak z tego wynika totalnie abstrakcyjna siła. Zapytasz może i co z tego?
Ano tylko to, że ta abstrakcyjna prędkość wiatru może przy pomocy siły jaka na nią wywrze, zrzucić Ci na głowę całkiem nieabstrakcyjną dachówkę. A ponieważ fizyka jest takie rzeczy w stanie obliczyć z całkiem dobrą dokładnością, to ja bym się z tych abstrakcji nie śmiał.
@arctic
“W przeciwieństwie do poprzedniego „metrologa” jakiego tu mieliśmy to coś twierdzi, że niepewności typu A i B to nie to samo co błąd przypadkowy i systematyczny…”
Byc moze Pan nie czytal: http://physics.nist.gov/cuu/Uncertainty/.
Byc moze niep. a zostala zawezona w stosunku do bledu przypadkowego, a zakres okreslony przez niep. b zostal, w stosunku do bledow systematycznego przyrzadu i metody,
rozszerzony. W znacznej czesci pomiarow jednak, moim zdaniem, to do tego samego sie sprowadza.
“W przeciwieństwie do zosisamosi (i mnie) a zgodnie z poglądami zqtrew’a i globalnegosmietnika to coś uważa, że „prawdziwa wartość” to pojęcie idealistyczne ”
Napisalam: “Prawda jest, ze istnieje prawdziwa wartosc wielkoscie mierzonej, ale i prawda jest, ze jej wartosci dokladnie nie mozna wyznaczyc.”. Jedna uwaga, zakladam, mowa jest o wielkosci mierzonej, a więc posiadajacej jednostke miary. Niestety, kazda jednostka miary okreslona jest z okreslona niedokladnoscia. Prawdziwe jest wiec Pana okreslenie :”„prawdziwa
wartość” to pojęcie idealistyczne “. Przykladowo: jest wzorzec masy kg, ale jego masa po pierwsze nie wynosi 1kg, a po drugie masa tego wzorca zmienia sie w czasie.
“Czyli nie udało się tymi ideami zarazić praktycznie nikogo oprócz metrologów. Myślę, że to całe szczęście, że naukowcy mają jeszcze swój własny rozum i nie idą owczym pędem za modą narzucaną przez inżynierów.”
Z tym sie chyba zgodzimy, ze firmowaly to:
BIPM Bureau International des Poids et Mesures
IEC International Electrotechnical Commission
IFCC International Federation of Clinical Chemistry
ISO International Organization for Standardization
IUPAC International Union of Pure and Applied Chemistry
IUPAP International Union of Pure and Applied Physics
OIML International Organization of Legal Metrology.
Jezeli IUPAP to firmowalo, to jak Pan mysli, po co?
W tej grupie inzynierowie to chyba jednak tylko IEC.
Nie wiem czy Pan pamieta bitwe fizykow z elektrykami: cgs kontra uklad giorgiego. Wyszedl SI nie cgs.
Gdyby Pan pracowal w fizycznym laboratorium akredytowanym, to by Pan te zasady stosowal.
@zosiasamosia
Na szczęście w takowym nie pracuję. Jest to jeden z powodów, dla których nie zgodzę się na wprowadzenie w kierowanym przeze mnie zespole żadnego standardu ISO (zresztą na szczęście nikt nas nie zmusza).
Drugim jest to, że często mam kalendarz na niewłaściwym miesiącu lub nawet z niewłaściwego roku. A audyty ISO tego nie lubią. Pozostałym stu powodów nie chce mi się nawet wyliczać. Powiem jedynie, ze prowadzenie badań naukowych w ogólności nie ma nic wspólnego z powtarzalnymi pomiarami tego samego parametru o dobrze znanym standardzie.
Zresztą chyba dobitnie wykazałem, że nie jestem wyjątkiem i w nauce praktycznie nikt tych standardów ISO nie stosuje. Naprawdę nie pamiętam aby w którymkolwiek z tysięcy artykułów jakie czytałem chociażby padły proponowane przez ISO nazwy.
Dzis przeprowadziłem także test typu “brute force” szukając w katalogu, w którym mam parę gigabajtów artykułów nazwy tego standardu ISO (w treści, nie w nazwach plików). Co otrzymałem? Zero rezultatów.
“Zresztą chyba dobitnie wykazałem, że nie jestem wyjątkiem i w nauce praktycznie nikt tych standardów ISO nie stosuje. Naprawdę nie pamiętam aby w którymkolwiek z tysięcy artykułów jakie czytałem chociażby padły proponowane przez ISO nazwy.”
To jest artyk. z powodu ktorego w tej sprawie sie kiedys pojawilam.
“Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850
P. Brohan, J. J. Kennedy, I. Harris, S. F. B. Tett & P. D. Jones
Accepted version: December 19th 2005”
To z kolei kluczowy akapit z ktorym od dawna nie potrafie sie zgodzic.
“Measurement error (ob) The random error in a single thermometer reading is about
0.2◦C (1 σ) [Folland et al., 2001]; the monthly average will be based on at least two readings a day throughout the month, giving 60 or more values contributing to the mean. So the error in the monthly average will be at most 0.2/√60 = 0.03◦C and this will be uncorrelated with the value for any other station or the value for any other month.”
Wszystko wlasnie przez pomieszanie z poplataniem niepewnosci a(blad przypadkowy) i niepewnosci b.
Wynik – prawie 100 krotne zanizenie niepewnosci
@zosiasamosia
Nie jestem taki przekonany, że oni to zrobili źle. Jeśli interesują nas anomalie a nie bezwzględne temperatury i jeśli założymy, że błąd systematyczny (tu używam tego pojęcia na pewno prawidłowo, w sensie różnicy miedzy wartością zmierzoną a prawdziwą, a nie w sensie wartości bezwzględnej niepewności) nie ma trendu (bo go już odjęliśmy podczas analizy), to oni wtedy maja rację. Niepewność sprowadza się w takim wypadku do błędu statystycznego. Ale przyznaję, że tego artykułu dziś rano nie czytałem ponownie (to 21 stron).
@zosiasamosia
Przejrzalem Brohana i innych. Przecież, kawałek, który cytujesz wyrwałeś z kontekstu. To tylko część błędu, którą oni nazywają “normal error” i ja bym do tej części podszedł dokładnie tak jak oni. Błąd statystyczny średniej zmniejsza się z ilościa pomiarów dokładnie tak jak tam napisano. Jednak są tam podane także inne źródła niepewności:
“[34] For each station, the observational, homogeneity
adjustment, and normal uncertainties are independent; so estimates of each can be combined in quadrature to give an estimate of the total uncertainty for each station.”
No wlaśnie…
Myślę, że najważniejszy punkt, w którym myślenie “metrologiczne” i “naukowe” się rozchodzi to błąd systematyczny. Naukowcy starają się go zidentyfikować i odjąć od wyniku, a metrolodzy go “gaussują” i powiększają niepewność. Z tym, że ta ostatnia procedura ma sens tylko dla niepewności typu B nie zmieniającego średnio wartości mierzonej, a to dla nas naukowców jest to przecież zerowy błąd systematyczny! Myślę, że jest tu więcej nieporozumienia terminologicznego, niż rzeczywistej różnicy metodologicznej, ale różnica w podejściu “filozoficznym” pozostaje.
“Naukowcy starają się go zidentyfikować i odjąć od wyniku, a metrolodzy go „gaussują” i powiększają niepewność.”
Nic bledniejszego, wszyscy, powtarzam wszyscy, ktorzy cos mierza, po uzyskaniu surowego wyniku pomiary dodaja do niego poprawki, tak aby uzyskac poprawiony wynik pomiaru.
Dokladnie, tak to wszyscy robia jak “naukowcy.Tu nie ma zadnej roznicy miedzy uczniem w technikum wykonujacym pomiary w lab. szkolnym (w kazdym razie jesli chodzi o Polske) a Panem.
“nas naukowców jest to przecież zerowy błąd systematyczny”
Nie istniej cos takiego, albowiem nie ma przyrzadu pomiarowego dokladnie mierzacego dowolna wielkosc. Powiem wiecej niew znam wielkosci, ktorej jednostka wyznaczona by byla z zerowm bledem, a Pan zna? W zyciu zmierzyl Pan cos dokladnie?
“Przejrzalem Brohana i innych. Przecież, kawałek, który cytujesz wyrwałeś z kontekstu. To tylko część błędu”
“że jest tu więcej nieporozumienia terminologicznego, niż rzeczywistej różnicy metodologicznej, ale różnica w podejściu „filozoficznym” pozostaje.”
Doktrynalna roznica polega na tym, ze to 0,2 (pomijajac, ze wielokrotnie za malo) to niepewnosc b (blad systematyczy) termometru, a nie niepewnosc a.
Przeciez w ciagu miesiaca temperatury Tmax i Tmin sie zmieniaja, a roznice miedzy nimi w ciagu doby osiagaja wartosci kilkunastu stopni.
Zalozmy przypadek hipotetyczny. Codziennie w ciagu miesiaca: Tmax=15C, Tmin=5C, Tsr=10C. Pytam, czy blad tej sredniej miesiecznej wynosi 0,03C?
Nie wierze, ze dopuszcza Pan , nawet przez chwile, aby niepewnosc (blad) sredniej wynosil tylko 0,03C
Yep. Właśnie tak. A zwłaszcza pingwin jako gatunek. A zwłaszcza jak chcemy się dowiedzieć jaka jest, bo ja wiem, np. “prawdziwa”regulacja genów pingwina. Bo nie ma naprawdę czegoś takiego: w każdej komórce pingwina regulacja genów będzie
trochę inna. W każdym pingwinie będzie trochę inna. W każdym momencie będzie trochę inna. Nie będzie żadnej “prawdziwej”, będą najwyżej nasze, ludzkie średnie i uogólnienia.
To nie oznacza, że niczego nie dowiemy się o pingwinach studiując regulację ich genów. Ale nie istnieje jakaś “prawdziwa” wartość ekspresji hemoglobiny pingwinów — w tym sensie, w jakim jak istnieje prawdziwa wartość stałej grawitacji, taka sama w Londynie i w Sidney.
Nie rozumiem, dlaczego określenie “abstrakcja” albo “model” jest dla Ciebie tak negatywne? Napisałem, że to są użyteczne i świetnie działające abstrakcje. Poddające się falsyfikacji, metodzie naukowej i w ogóle. Potrafiące całkiem nieźle się bronić.
Cytując Sokala trafiasz trochę obok tego, o czym ja piszę. Dla mnie grawitacja jest jak najbardziej rzeczywista w możliwie najsilniejszym sensie tego słowa. Nie uważam też, żeby sam fakt, że coś jest modelem / uproszczeniem stawiało to coś na równi ze wszystkimi innymi modelami czy uproszczeniami.
Nie mam pojęcia; statystyczne podręczniki, teksty i prace z których korzystam milczą w tej sprawie. Pobieżny ogląd materiałów dowodowych ([1], [2], [3]) skłania mnie ku stanowisku, że w opozycji “błąd systematyczny” vs. “type b uncertainty” chodzi o spór terminologiczny.
Jednak jako osoba zajmująca się raczej “type a uncertainty” (“method of evaluation of uncertainty by the statistical analysis of series of observations”) nie zamierzam bronić tego stanowiska zbyt intensywnie.
@zqtrw
Co do abstrakcji to się już chyba rozumiemy. Tylko nadal nie wiem czemu sądzisz, że wielkości fizyczne nie mają prawdziwych wartości, nawet jeśli strasznie trudno je zmierzyć (znów z zastrzeżeniem nieoznaczoności Heisenberga, tego że być może przestrzeń jest skwantowana itp).
Co do niepewności typu B to nie jest błąd systematyczny (co nawet ISO przyznaje). Skoro ta niepewność ma u nich rozkład wokół wartości zmierzonej, i to zwykle rozkład normalny to dla mnie żaden błąd systematyczny. Błąd systematyczny nie jest plus minus. To raczej różnica między wartością zmierzona a prawdziwą (przy czym może to być funkcja jakichś zmiennych).
@zosiasamosia
Wiem już, że żadnym naukowcem Pan/Pani nie jest więc proszę przynajmniej mi nie mówić co my robimy, bo to akurat wiem.
A co do błędu termometru to czy jest to typ A czy B to jeśli ma rozkład normalny wokół średniej to można dodawać jego wariancje z kolejnych niezależnych pomiarów, a stąd już łatwo udowodnić, że dla n pomiarów o niepewności sigma, niepewność średniej to sigma/sqrt(n). C.b.d.o.
“Wiem już, że żadnym naukowcem Pan/Pani nie jest więc proszę przynajmniej mi nie mówić co my robimy, bo to akurat wiem.”
Ad rem.
Pytalam, czy w zyciu zmierzyl Pan cos dokladnie.
Moze, zna Pan wielkosc w ukladzie SI, ktora mierzona jest dokladnie?
Jako Naukowiec, moze Pan, chyba, odpowiedziec.
“A co do błędu termometru to czy jest to typ A czy B to jeśli ma rozkład normalny wokół średniej to można dodawać jego wariancje z kolejnych niezależnych pomiarów, a stąd już łatwo udowodnić, że dla n pomiarów o niepewności sigma, niepewność średniej to sigma/sqrt(n). C.b.d.o.”
Dziekuje, a wracajac do pytania.
Rozumiem, ze jezeli zmierze temperatura w pokoju termometrem o bledzie 1K (aby zachowac Panski system), ktorego blad charakteryzuje sie rozkladem normalnym, 60 razy w ciagu godziny, to wyznacze srednia temperature z bledem 0,13K.
Czy dobrze zrozumialam?
Stała grawitacji ma prawdziwą wartość. Cząstka gazu w atmosferze ma — o ile moge to powiedzieć — prawdziwą prędkość, pęd czy co tam jeszcze.
Natomiast nie ma “prawdziwej” wartości, dajmy na to, prędkości wiatru w Tatrach wczoraj po południu.
Nawet zakładając, że miałbyś dane na temat prędkości każdej cząstki gazu w całej atmosferze w każdym czasie, owa “prawdziwa” prędkość zależałaby od tego, jak obrałbyś “otoczenie” ze swojej definicji prędkości wiatru. Do jakiej wysokości npm (albo powyżej poziomu gruntu, ale jak go mierzyć?) mowa jeszcze o “wietrze w Tatrach”? Jak dokładnie definiujemy obszar Tatr? Od kiedy jest “po południu”? Wliczać flatulencję owiec (niewątpliwie też ruch cząstek gazu), czy nie wliczać?
Pojęcia “wiatr”, “Tatry”, “po południu” są dla nas intuicyjnie proste do zrozumienia, ale ciężko o idealnie ścisłą definicję.
“Wiatr w Tatrach” to więc użyteczna abstrakcja, której możemy przypisać jakąś przydatną wartość, i która w jakiś tam sposób przystaje do tego, co my, ludzie, odbieramy jako “rzeczywistość”. Schody zaczynają się tam, gdzie takich abstrakcji nie potrafimy zweryfikować przy pomocy naocznych obserwacji (tam, gdzie nie grozi nam żadna zrzucona wiatrem cegłówka).
Ale to jeszcze nie wszystko.
Załóżmy teraz na chwilę, że mamy ścisłą definicję obszaru Tatr, wiatru i czasu. Wiemy dokładnie, które cząstki mamy wliczyć do średniej, i po jakim czasie całkować. Mamy wszystkie dane, możemy sobie policzyć średnią.
I co, czy ta wartość jest realna? W wypadku tak ścisłego zdefiniowania pojęć, jest “prawdziwa” w tym sensie, że jest prawdziwą średnią z iluśtam prawdziwych wartości. Ale jest “nierzeczywista” w sensie, że zależy od naszego subiektywnego wyboru tego, co właściwie należy liczyć.
Liczyć możemy wszystko; zamiast średniej arytmetycznej, możemy policzyć średnią, ważoną, geometryczną albo medianę. Albo dodać prędkości, podzielić przez liczbę beknięć owieczek na hali i pomnożyć przez pi; to też będzie równie “prawdziwa” wartość. Tyle, że mało użyteczna.
Liczy się więc użyteczność pewnej wartości.
A teraz zmieniam temat na małe przypierdzielanki do statystycznych detali:
Wariancje przy założeniu niezależności zmiennych losowych zawsze można dodawać niezależnie od rozkładu; dlatego, że dla każdego rozkładu posiadającego wariancję, wariancja sumy jest równa sumie wariancji i kowariancji, a kowariancja jest równa zeru dla niezależnych zmiennych losowych.
Yep. A normalność do tego nie jest potrzebna. Wystarczy istnienie wariancji i niezależność zmiennych losowych:
$latex Var( \frac{\sum_i y_i}{n}) = \frac{1}{n} \sum_i Var( y_i ) = \frac{\sigma^2}{n}$
Ale, jak zwykle, nie mamy σ², mamy s² (czyli estymator wariancji w populacji oparty o próbkę), a to nie to samo, choćby dlatego, że o ile s² jest nieobciążonym estymatorem σ², to s jest obciążonym, systematycznie zaniżającym estymatorem σ (bo pierwiastek nie jest funkcją liniową).
Tak czy siak, istotne jest tutaj założenie o niezależności zmiennych losowych (kolejnych pomiarów) — a nie w ich normalności; i jeśli dobrze rozumiem, to tutaj właśnie tkwi pies pogrzebany:
(Kadis, 2000).
@zqtrew
“Wczoraj w Tatrach” to rzeczywiście za mało precyzyjne aby było jednoznaczne. Ale wczoraj o godzinie 17:00 na pozycji 49°13′55″N 19°58′55″E i wysokości 1997 m nad poziomem morza to już co innego. I to niezależnie od tego czy mamy tam jakieś pomiary czy nie (akurat mamy bo to 10 m nad szczytem Kasprowego).
Jakoś nie mogę pogodzić naukowego światopoglądu z przekonaniem, że jak nikt jej nie mierzy to wartość nie istnieje. Dlatego też od czasów studenckich nie wierzyłem w interpretację kopenhaską kwantów i historia pokazała, że miałem rację.
Co do niezależności i normalności to oczywiście masz rację. Wiedziałem to już gdy pisałem. Ale sam też piszesz, że rozkład musi posiadać wariancję, a ponieważ w artykule zakładają, że jest on normalny więc i to założenie jest spełnione. Chodziło mi tylko o to ale nie chciało mi się dużo pisać. Ale cóż. I tak musiałem.
@zosiasamosia
Gdzie ja rzekomo twierdziłem, że mierzyłem coś dokładnie? Pan/Pani za to nie rozumie jak naukowcy podchodzą do błędu systematycznego. A widać to już w dość marnie napisanej polskiej definicji w Wikipedii:
http://pl.wikipedia.org/wiki/B%C5%82%C4%85d_systematyczny
a jeszcze lepiej w angielskojęzycznej
http://en.wikipedia.org/wiki/Systematic_error
Odpowiadając na Pana/Pani pytanie. Jeśli pomiary są naprawdę niezależne a rozkład jest normalny to odpowiedź brzmi: tak. Oczywiście. Czy Pan/Pani nie rozumie jak wygląda rozkład normalny? Czy też nie potrafi Pan/Pani zrozumieć jak liczy się niepewność dla średniej?
Zresztą zqtrew już na to odpowiedział pisząc, że wystarczy aby rozkład miał wariancję i aby pomiary były niezależne. Co jak wyżej napisałem jest szczerą prawdą. Dokładnie tyle trzeba aby wyprowadzić ten wzór z pierwiastkiem z liczby n w mianowniku.
@zosiasamosia
A teraz czekam kiedy Pan/Pani wpadnie w moją pułapkę…
@ztrewq
A takie wielkości jak gęstość jakiejś substancji? Maja prawdziwa wartość czy nie?
A temperatura jako miara energii wewnętrznej, dowolnego układu termodynamicznego, a nie banalnego gazu ze średnia energia kinetyczną? A pęd fotonu który jest w pewnym sensie falą, co dotyczy zresztą każdej cząstki?
Wydaje mi się że Twoje pojęcie “prawdziwej” czy “istniejącej” wartości wielkości fizycznej związane jest z tym ze niektóre definicje czy pojęcia bliższe niż inne…
@wszyscy
Wyobraź sobie np. bardzo mały termometr (5 mikrometrów??) i pomiary temperatury powietrza w pokoju. Chuchasz, dmuchasz, nad Twoja głowa unoszą się prądy konwekcyjne… Czego temperaturę mierzysz w pokoju? Jakie błędy systematyczne i przypadkowe popełniasz? Co mierzysz dokładnie?
Błąd możesz próbować ocenić dopiero gdy rozumiesz pomiar i jego kontekst. Czy znaczy to jak sugeruje ztrewq że nie istnieją “prawdziwe” wartości pewnych wielkości fizycznych, czy tylko to ze nie ma pomiarów idealnych i wyrwanych z kontekstu?
@whiteskies
Cieszę się, że się tu pojawiłeś. Już myślałem, że twój brak to jakaś cicha krytyka.
I cieszę się z Twego głosu rozsądku. Jednak nie tylko ja wierzę w obiektywne istnienie Wszechświata.
Ponieważ zosiasamosia wystraszyła się zasadzki i zniknęła, wytłumaczę o co mi chodziło.
Pytanie brzmiało:
“Rozumiem, ze jezeli zmierze temperatura w pokoju termometrem o bledzie 1K (aby zachowac Panski system), ktorego blad charakteryzuje sie rozkladem normalnym, 60 razy w ciagu godziny, to wyznacze srednia temperature z bledem 0,13K.”
Odpowiedziałem:
“Jeśli pomiary są naprawdę niezależne a rozkład jest normalny to odpowiedź brzmi: tak. ”
i czekałem kiedy zosiasamosia na to naskoczy. Nie doczekałem się.
Moja zasadzka leży w słowach “jeśli pomiary są naprawdę niezależne”. Otóż to kiedy są nie jest takie proste. I co ciekawe zależy to też od prędkości zmian mierzonej wartości (tu: temperatury). Jeśli temperatura przez tę godzinę się nie zmieni i zrobimy 60 pomiarów, to jest to praktycznie jeden pomiar. Tzn. warunek niezależności nie jest moim zdaniem absolutnie spełniony. Więc kiedy jest spełniony? Kiedy mamy na tyle dużą zmienność wartości w mierzonym okresie, że możemy sądzić, że rozkład błędów jest przypadkowy (warunkiem koniecznym ku temu jest miedzy innymi to aby niektóre prawdziwe wartości były poniżej a niektóre powyżej wartości zmierzonej – przy wielokrotnym pomiarze tej samej wartości to na pewno nie jest spełnione). Dlatego mogą istnieć warunki przy których pomiary co minute są niezależne, ale wymaga to szybkich i dużych zmian temperatury (np. temperatura powietrza podczas letniej burzy). Sądzę, że jest na to jakieś kryterium matematyczne (i to zapewne niejedno) ale jakościowo to chyba dość oczywiste.
@arctic
Jaki jest wplyw wody to wystarczy zmierzyc temperature wynikajaca z tzw.sprzezenia zwrotnego, kierunkowym termometrem radiacyjnym.
Ja zmierzylam dzisiaj ok. 9. Wyniki <-50C – przy braku chmur, -4C – chmury srednie.
Moze tez zmierzysz i porownamy
"Ponieważ zosiasamosia wystraszyła się zasadzki i zniknęła.."
"A teraz czekam kiedy Pan/Pani wpadnie w moją pułapkę…"
Co do strachu. Zaczales sie bawic "chakiera", wiec musialam sie przygotowac.
Wszyscy ktorzy tu wchodza winni rowniez zachowac ostroznosc.
Te grozby, czekam kiedy wpadniesz w zasadzke, nie byly czcza gadanina.
Bledow dalej nie potrafisz liczyc.
"Et tu, Brute?" – piekne.
@zosia
Zasadzka była typu intelektualnego, nie hakerskiego. Ale widać każdy innych mierzy swoim poziomem.
Czytam teraz artykuł dokładnie o użyciu testów istotności w klimatologii. Artykuł [1] jest tu (ale płatny):
http://journals.ametsoc.org/doi/pdf/10.1175/2010JCLI3746.1
Za to bezpłatne jest jego omówienie w Skeptical Science:
http://www.skepticalscience.com/How-significance-tests-are-misused-in-climate-science.html
Czytam z rozbawieniem, bo wnioski są ciekawe. Trzy czwarte sprawdzonych przez autora artykułów popełnia błąd,o który mnie oskarżył ztrewq. Ale nie to jest istotne ale fakt, że pozostałe 25% najwyraźniej też robia to bez sensownego celu:
“Furthermore, many papers contain somewhat neutral statements such as `this correlation is highly signicant (p < 0:01).' Such a statement could be read at face value, namely that the correlation was subjected to a signicance test and a p-value of less than 0.01 was found. In such a neutral reading, the statement is also quite meaningless, as will be shown below.”
I dalej:
“It can be argued that the signicance test more accurately should be named the insignicance test, as it may be a reasonable test for insignicance. […] Clearly if Fisher had called his test the insignicance test, then it would probably not be used very much. Marketing plays an important role in science.”
I jeszcze zakończenia artykułu:
“A so-called `signicant correlation’ is meaningless in any practical sense; such a statement is a category error. Signicance tests of a single experiment alone cannot be used to provide quantitative evidence to support a physical relation.”
[1] M. H. P. Ambaum, 2010: Significance tests in climate science. J. Climate, 23, 5927-5932. doi:10.1175/2010jcli3746.1
W w/w artykule zacytowano jeszcze kilka ciekawych wcześniejszych prac, o których nie słyszałem. Między innymi Hunter 1997, któremu należy się nagroda za tytuł: “Needed: a ban on significance test“. Pierwsze zdanie też ma niezłe: “The significance test as currently used is a disaster“.
Ale jeszcze ciekawszy jest Nicholls 2000 “The insignificance of significance testing“, BAMS, 81, 981-986, gdyż skierowany jest wprost do nas, geofizyków. Nichols zwraca uwagę na zależność istotności od wielkości próbki. Mianowicie mniejsze korelacje są “istotne” gdy jest dużo danych a większe nieistotne gdy danych jest mniej. A przecież szukamy związku fizycznego a nie testujemy ile mamy danych.
W dodatku w badaniach eksploracyjnych (czyli prawie wszystkich w naszej dziedzinie) zarówno nasza hipoteza jak i hipoteza zerowa ustalana jest już na podstawie zebranych danych, czyli nie a priori jak wymaga metodologia testu istotności. Jak zauważa Nicholls, Madden i Julian w swym słynnym artykule o eponimicznym zjawisku (1971) jeszcze rozumieli ten problem ale potem to już chyba nikt.
Co więc Nicholls proponuje w zastępstwie? Z radością stwierdzam, że przedziały istotności, czyli moja intuicja była tu jak najbardziej trafna. Przedziały istotności mówią nam o tym co dla nas istotne, czyli o prawdopodobieństwie, że prawdziwa wartość mierzonej wartości mieści się w jego granicach, a nie o prawdopodobieństwie czegoś w przypadku gdy arbitralnie dobrana hipoteza zerowa jest prawdziwa (podczas gdy wymyślając ją mamy dobre podstawy do wątpienia w jej prawdziwość), czyli zamiast wartości nie mającej wiele wspólnego z tym co nas interesuje.
Wracając do samego artykułu Liu & Curry 2010, niektórzy są co do jego wyników znacznie bardziej sceptyczni niż ja (i nie mówię tu bynajmniej o denialistach). Np. były modelarz klimatyczny William Connolleyna swoim blogu nie zostawia na mim suchej nitki, głównie z powodu użycia danych z czasów gdy tych danych prawie nie było a pominięcia całej ostatniej dekady dobrych danych:
http://scienceblogs.com/stoat/2010/08/accelerated_warming_of_the_sou.php
Connolley słusznie uważa, że przy takiej “niezhomogenizowanej” serii czasowej nie ma co stosować analizy EOF (Empirical Orthogonal Functions). W dodatku jego zdaniem jest ona w ogóle zbędna w tym artykule.
Czy ma rację? Tak. Czy jest nadmiernie krytyczny? Tak. Nikt nie jest idealny. Ale szkoda, że Judith Curry nie postarała się bardziej w swoim ostatnim chyba artykule przed opuszczeniem nauki i zajęciem się… właściwie czym? Chyba szerzeniem wątpliwości w mózgach polityków:
http://doskonaleszare.blox.pl/2010/11/O-klimacie-w-amerykanskim-Kongresie.html
Wygląda na to, że Judith Curry opuściła naukę jedynie w sensie metaforycznym, tzn. przejścia na Ciemną Stronę, nie w sensie porzucenia uniwersytetu. No cóż, to chyba jeszcze gorzej.
A propos małej znajomości metod statystycznych i bardziej ogólnie numerycznych w niektórych naukach, polecam to:
http://technologie.gazeta.pl/internet/1,104530,8776183,Epokowe_odkrycie_amerykanskiego_lekarza.html
W skrócie: Pewien medyk odkrył na nowo… chyba najczęściej używaną metodę całkowania numerycznego, metodę trapezów:
http://pl.wikipedia.org/wiki/Ca%C5%82kowanie_numeryczne#Metoda_trapez.C3.B3w
Wracam do statystyki. Czytam podręcznik “Statistics with confidence” (2-gie wydanie) pod redakcją Altmana, Machina, Bryanta i Gardnera. Jak sam tytuł wskazuje, jest to pochwała zakresów ufności (confidence) zamiast testów istotności (significance).
Na stronie 22 wyraźnie piszą to co wydawało mi się intuicyjnie oczywiste od początku: odrzucenie hipotezy zerowej z p<0.05 testem obustronnym (two-sided hypothesis test) jest równoważne temu, że wartość związaną z hipotezą zerową (zazwyczaj zero) leży poza zakresem ufności 95% (czyli 100% - 5%).
Ktoś mi tu twierdził, że to nieprawda.
Dodam, że sam się zgodzę, ze nie musi być to prawdą w ogólnym wypadku ale w używanych w praktyce przypadkach rozróżnienia średniej wartości dwóch eksperymentów albo sprawdzenia czy trend jest różny od danej wartości (zwykle zera), wynika to z symetrii używanych wzorów
Trafiłem tutaj podążając za linkiem z ostatniego komentarza u Jego Doskonałości. I przeglądając dyskusję znalazłem takie Twoje stwierdzenie: “Moja zasadzka leży w słowach „jeśli pomiary są naprawdę niezależne”. Otóż to kiedy są nie jest takie proste. I co ciekawe zależy to też od prędkości zmian mierzonej wartości (tu: temperatury). Jeśli temperatura przez tę godzinę się nie zmieni i zrobimy 60 pomiarów, to jest to praktycznie jeden pomiar. “.
Zastanawiam się jak mogłeś napisać taką bzdurę – i co miałeś naprawdę na myśli.
Niezależność pomiarów dowolnej wielkości nie zależy od tego czy ta wielkość X jest stała, tylko od właściwości urządzenia pomiarowego. W przeciwnym razie nie mógłbyś nigdy zmierzyć niezależnie żadnej stałej wielkości tym samym urządzeniem…
Niezależność pomiaru temperatury w pokoju za pomocą termometru zależy nie od tego, czy temperatura jest stała tylko od tego jaka jest bezwładność elementu pomiarowego cieplna termometru. Zakładając eksponencjalne wyrównywanie temperatury termometru z otoczeniem, to czas 10 tau (stała czasowa w wykładniku) będzie więcej niż wystarczający do wyrównania temperatury niezależnie od temperatury początkowej i spokojnie można przyjąć, że pomiary rozdzielone o taki czas są niezależne. To oczywiście bardzo zgrubny szacunek, po bezpiecznej stronie.
@pohjois
Bzdura? Nie. To się nazywa fachowo długością dekorelacji (w tym wypadku czasem dekorelacji), porównaj http://en.wikipedia.org/wiki/Decorrelation
Ma to związek z pojęciem ilości stopni swobody (w sensie statystycznym, nie fizycznym). Po prostu powtarzanie pomiarów częściej niż skala autokorelacji (czy to czasowa czy przestrzenna) po prostu nie ma sensu. I nie jest to własność li tylko przyrządu pomiarowego. Znacznie częściej samego środowiska. Dziwię się, że o tym nie słyszałeś.
Śmieszne ale dopiero wczoraj czytałem (z dużym opóźnieniem) artykuł Purkey i Johnson 2010 o ociepleniu głębokiego oceanu (chcę o tym napisać). Autorzy dokładali starań aby nie popełnić tego właśnie błędu. Oceniają skalę długości dekorelacji na ok. 163 km i piszą, że używali jedynie przekrojów pomiarowych przez ocean o długości ponad 2000 km. Czemu? “We chose the 2000-km section-length criterion based on an examination of decorrelation-length scale estimates versus section length (not shown). For sections longer than 2000 km the decorrelation-length scale estimates asymptotically approach a common value. The criterion chosen ensures the sections used for the decorrelation-length scale estimatesample this length scale roughly a dozen times or more.“. No bo 2000/163 > 12.
Tak więc może powinienem był napisać, że pomiary temperatury mają autokorelację o pewnej długości (czasowej). Może mówienie, że są one niezależne nie jest równie precyzyjne ale o to przecież właśnie chodzi przy badaniu skali autokorelacji.
O tym dokładnie jest np. ten artykuł (chodzi o autokorelacje przestrzenna ale z czasową jest identycznie):
http://www.esajournals.org/doi/abs/10.1890/09-1359.1
Gdyby ktoś podrzucił serię czasową z termometru (np. godzinną) to zobaczylibyśmy jaką ma skalę czasową dekorelacji. I jestem pewny, że jest ona większa od bezwładności termometru.
@arctic “Gdyby ktoś podrzucił serię czasową z termometru…”
Prosze bardzo. To sa pomiary rzeczywiste. Jesli mozna to mam pytanie. Ile wynosi wypadkowe odchylenie standardowe: pojedynczego pomiaru, a ile odchylenie
sredniej?
Tmin
18,2 21,0 25,5 24,1 17,9 21,8 20,7 20,8 20,3 20,9 21,0 22,5 21,5 20,9 20,2 20,6 17,3 17,9 19,3 19,1
18,3 19,9 18,8 18,4 18,6 18,1 14,8 15,7 20,1 12,5 1,2
Tmax
33,2 31,2 38,2 37,5 35,7 37,5 36,0 36,7 36,3 35,2 31,3 33,0 32,0 31,6 35,0 33,6 32,6 30,6 29,7 29,8 30,2 30,7 30,5 28,5 28,6 30,1 28,3 26,8 26,8 29,2 26,1
Problem z formatowaniem.
Pojedynczy wynik z rozdzielczoscia 0,1.
Trochę nie o to mi chodziło. Nie o dzienne temperatury maksymalne i minimalne ale jak w wątku wyżej po prostu serię danych z jakiegoś “szybkiego” termometru trzymanego w pokoju, na przykład próbkowanie co sekundę. Właściwie sam sobie mógłbym zrobić taką ale nie chce mi się organizować “eksperymentu” tylko w tym celu. Myślałem, ze ktoś ma gotową np. z testowania jakiegoś przyrządu.
PS. I oczywiście nie z dokładnością 0,1 stopnia (bo przez godzinę nic się nie zmieni) ale co najmniej 0,01 K albo i lepiej.
PPS. I oczywiście nie na stronę ale e-mailem (jest na głównej stronie blogu) bo to będzie duży plik. Z góry dzięki.
A nawiasem mówiąc podręcznik “Statistical Analysis in Climate Research” von Storcha i Zwiersa mówi o tym w rozdziale 17.1 pt. Decorrelation time. Okazuje się, że ojcem tego konceptu w nauce o klimacie jest Trenberth (tak, ten sam często tu wspominany), z tym że Trenberth nazywał to ‘persistence time scale’.
OK już wiem na czym polega nieporozumienie.
Oczywiście masz rację w tym co piszesz. Tzn. ja w zwrocie “zależną od prędkości zmian mierzonej wartości” zrozumiałem jako zależną od zmian “prawdziwej wartości” – tzn. takiej zmierzonej idealnym termometrem. No i to było bardzo dziwne stwierdzenie i zaprotestowałem.
Natomiast należało to odczytać jako “zależną od prędkości zmian wartości pokazywanych przez termometr”.
Niewątpliwie to ma sens.
W takim razie cieszę się z consensusu.
A “eksperyment” pokojowy chodzi mi po głowie bo myślę, że wiem jaką skalę dekorelacji wykrylibyśmy na zewnątrz (“na dworze” czy jak wolą Krakowiacy “na polu”). Byłaby to zapewne skala czasowa dużych wirów turbulentnych. Natomiast nie jestem pewny jakie zjawisko dominowało by w zamkniętym pomieszczeniu.
Znalazłem bardzo ładny rysunek na temat używania hipotez zerowych 😉
Oj, denialiści przestaną już chyba lubić lód wokół Antarktydy:
co zresztą obiecywałem im od pewnego czasu.