Gdy Ziemia była młoda, powiedzmy 4 miliardy lat temu (czyli w późnym hadeiku), Słonce świeciło o 25-30% słabiej niż obecnie. Wiemy to z astrofizycznych modeli ewolucji gwiazd i, o ile wiem, nikt temu wynikowi nie zaprzecza (to ciekawe, ale raczej nigdy nie było astrofizyko-denialistów, a od śmierci Hoyle’a nie ma już też chyba kosmologo-denialistów). Przy stałej słonecznej mniejszej o te 25-30% i dzisiejszym składzie atmosfery mielibyśmy średnio globalnie temperatury poniżej zera (obliczenie z samego prawa Stefana Boltzmanna – patrz wcześniejszy wpis – bez uwzględnienia sprzężeń zwrotnych dodatnich związanych np. ze zmianą średniej koncentracji pary wodnej z temperaturą, daje w jako wynik obniżenie temperatury o 21-26 K).
Dlaczego więc na młodej Ziemi były niezamarznięte oceany, o czym świadczy coraz więcej dowodów geologicznych? Cztery miliardy lat temu to ponad 500 mln lat po powstaniu Ziemi, zatem wnętrze planety miało dość czasu, aby dojść do równowagi termicznej między radioaktywnością produkującą ciepło a strumieniem ciepła płynącym do powierzchni. Czyli nie ma co liczyć na pierwotne ciepło z czasów akrecji (powstania) planety [1]. W istocie są już dowody na ciekłą wodę nawet 100 mln lat po akrecji, gdy rzeczywiście to pierwotne ciepło mogło mieć jeszcze znaczenie. Później była epoka Wielkiego Bombardowania, która również mogła pomóc w ogrzewaniu Ziemia, ale na pewno nie tłumaczy to dlaczego przez pierwsze dwa miliardy istnienia planety nie mieliśmy epok lodowych (co “gorsza”, według pewnych ciągle nieco kontrowersyjnych badań, temperatura oceanu, między 3.5 a 3.2 mld lat temu, mogła wynosić średnio nawet 70 ± 15 °C)
Co więc może tłumaczyć takie temperatury? Na pewno nie ciśnienie atmosferyczne, nawet jeśli wówczas było wyższe. Różnice ciśnień na różnych wysokościach mają związek z różnicami temperatur miedzy tymi wysokościami, ale w żaden sposób nie są w stanie wyjaśnić samych wartości temperatury (jeszcze do tego wrócę w jednym z najbliższych wpisów). Zatem co zostaje?
To proste. Pisałem o tym już w pierwszych wpisach na tym blogu. Zostają gazy cieplarniane i zmiany albedo Ziemi. Gazy cieplarniane zwiększają grubość optyczną atmosfery w zakresie “długofalowym” (bliskiej podczerwieni) powodując zwiększenie jego ilości wypromieniowywanej przez powierzchnię Ziemi, koniecznej, aby nasza planeta wyemitowała ze szczytu atmosfery tyle samo ile zabsorbowała w zakresie “krótkofalowym” (głownie widzialnym), w którym świeci Słońce. Ponieważ ilość promieniowania wyemitowanego wiąże się bezpośrednio z temperaturą (prawo Stefana-Boltzmanna) powoduje to ogrzanie powierzchni planety i dolnych warstw atmosfery (o mechanizmach tego ostatniego też jeszcze napiszę). Na dzisiejszej Ziemi efekt cieplarniany sprawia, że jest ona cieplejsza o ok. 33 °C.
Z kolei albedo (procent energii słonecznej odbity w kosmos przez atmosferę, chmury, roślinność, ziemię, wodę, śnieg i lód – a zatem nie zabsorbowanej przez nie) decyduje o tym ile energii zostanie zabsorbowane. Przypominam, że energia zabsorbowana i wyemitowana muszą być w dłuższym okresie w równowadze. W krótszym nie muszą – mówię o okresach zmiany temperatury Ziemi. I właśnie te 0.6 – 0.9 W/m2 o jakie obecnie się różnią te dwa strumienie (o tym też już pisałem) jest chyba najbardziej bezpośrednim dowodem na trwające globalne ocieplenie [2].
Zatem, według znanych nam praw fizyki młoda Ziemia, musiała mieć w atmosferze więcej gazów cieplarnianych i/lub mieć mniejsze albedo (absorbować więcej energii słonecznej), aby przy słabszym o 25-30% Słońcu zapewnić temperatury zgodne z obserwacjami geologicznymi (tzn. brak zlodowaceń). Diabeł jednak zawsze tkwi w szczegółach. A szczegóły to skład ówczesnej atmosfery, wpływający na oba te parametry.
Już w 1972 roku Sagan (tak, sam Carl Sagan, słynny popularyzator nauki) i Mullen zaproponowali, w artykule opublikowanym w Science, hipotezę wczesnej silnie redukującej (to termin chemiczny, którego nie będę tu tłumaczył głębiej niż jako przeciwieństwo “utleniającej”) atmosfery Ziemi zawierającej gazy cieplarniane takie jak amoniak (NH3) i metan (CH4). Amoniak jest bardzo silnym gazem cieplarnianym i wystarczałoby go zaledwie 10 ppm (części na milion), aby “uratować” młodą Ziemię przed zamarznięciem. Jednak wkrótce zaczęły się wątpliwości. Już 7 lat po tym artykule (nie była to wówczas dziedzina intensywnie badana), w roku 1979, Kuhn i Atreya wykazali, że słoneczne promieniowanie ultrafioletowe rozłożyłoby taką ilość amoniaku w ciągu zaledwie 10 lat zmieniając amoniak w niewpływający na temperaturę Ziemi azot i wodór. Od tego czasu konsensus przesunął się w stronę dużych koncentracji CO2 jako możliwej przyczynie ciepłej młodej Ziemi. Jednak dwutlenek węgla nie jest tak skutecznym gazem cieplarnianym jak amoniak czy metan i potrzeba go, nawet jeśli uwzględnić sprzężenie zwrotne dodatnie związane z parą wodną, ok. 70 razy więcej niż było w atmosferze zanim zaczęliśmy ją “doprawiać” dwutlenkiem węgla czyli około 20,000 ppm (0.2 atmosfery). Poniższy rysunek z pracy [3] ilustruje ten problem.
Porównany jest na nim efekt efektu cieplarnianego 10 ppm (czyli 10-5 atmosfery) amoniaku i dzisiejszych koncentracji atmosferycznych CO2 i H2O, a także pokazana jest “efektywna” temperatura, wynikającą z prawa Stefana-Boltzmanna (czyli całkowity brak efektu cieplarnianego) w funkcji czasu, czyli w istocie stopniowo rosnącej jasności Słońca. Widoczne jest jak dużo brakuje współczesnym koncentracjom CO2 do rozmrożenia planety nawet “zaledwie” 2 miliardy lat temu.
Oczywiście, że dawniej dwutlenku węgla było zazwyczaj więcej niż w ostatnich kilkunastu milionach lat – świadczą o tym paleorekonstrukcje, dokonywane różnymi metodami (chyba temat na osobny wpis), ale czy wystarczająco dużo? Są tu wątpliwości. Rekonstrukcje oparte o badania składu kopalnych gleb (“paleozoli“) dawały górne ograniczenie koncentracji CO2 ledwie wystarczające do utrzymania średniej temperatury Ziemi powyżej zera (a wiemy, że mogła być znacznie wyższa). Ostatnio ukazał się w Nature artykuł Rosinga i innych [4] ograniczający od góry koncentrację dwutlenku węgla jeszcze bardziej. Ilustruje to rysunek z towarzyszącemu mu artykułu samego Kastinga [5] (to wielkie nazwisko w dziedzinie badania składu wczesnej atmosfery ziemskiej)
Znowu oś pozioma (nad rysunkiem) to czas i zarazem jasność słoneczna (pod rysunkiem). Jednak w tym wypadku oś pionowa to koncentracja dwutlenku węgla (a dokładniej ciśnienie parcjalne wyrażone w atmosferach). Krzywe pokazują jaka musiałaby być w historii Ziemi, aby utrzymać jej średnią temperaturę powyżej zera (273 K) i na dzisiejszej wartości (288 K). Niebieskie i czerwone znaki to wcześniejsze ograniczenia koncentracji CO2, wynikające z badania kopalnych gleb. Zielony “ogranicznik” to wynik z nowego artykułu Rosinga i innych. Widać, że, jeśli mają oni racje, to samym dwutlenkiem węgla (i parą wodną) nie wytłumaczymy temperatur wczesnej Ziemi, najprawdopodobniej zresztą wyższych niż obecne.
Zatem warto napisać na jakiej podstawie Rosing i inni zaproponowali to ograniczenie, mimo że nie jest to proste.
Wygląda to naprawdę skomplikowanie. Jest to wykres koncentracji, a dokładniej znów ciśnień parcjalnych wodoru (na osi pionowej) i dwutlenku węgla (na poziomej). W dodatku wyrażonych jako logarytmy dziesiętne (czyli 0 oznacza jedną atmosferę, -1 jedną dziesiątą, -2 jedna setną itp). Autorzy artykułu spróbowali określić, jaki obszar na tym wykresie odpowiada znanym warunkom dla okresu miedzy 3.5 a 3.2 mld lat temu. Już wtedy występowała metanogeneza (produkcja metanu) ograniczająca koncentracje wodoru oraz, jak wiemy z badań ówczesnych skał, “współżyły” wówczas dwie formy minerałów z tlenkami żelaza: magnetyt i syderyt. W danej temperaturze i dla zależnej od koncentracji wodoru (kontrolującej jak silnie redukcyjne jest morze) współwystępowanie tych dwóch minerałów możliwe jest tylko w określonym przedziale koncentracji CO2. Dla temperatur miedzy 15 a 35 °C jest to obszar zaznaczony na zielono. Dla porównania: jasnoszary pas pionowy to koncentracje dwutlenku węgla ,wynikające z badań “paleozoli”, a ciemnoszary to jego ilość potrzebna do utrzymania Ziemi w założonym zakresie temperatur.
Wiem przypadkiem, że ten wynik już jest atakowany i to z dwóch powodów. Po pierwsze, te koncentracje H2 i CO2 tak naprawdę da się określić tam, gdzie powstawały minerały – czyli na dnie morza. Przeniesienie tych wartości do atmosfery jest dużym źródłem niepewności. Po drugie, założone przez autorów temperatury 15-35 °C, mogą być mniejsze niż te, które wówczas naprawdę występowały (sami Rosing i inni cytują wartości o kilkadziesiąt stopni wyższe, o których wyżej pisałem). A wyższe temperatury mogą “pozwolić” na znacznie wyższe koncentracje dwutlenku węgla – widać to z powyższego wykresu: wzrost temperatury o 20 stopni pozwala na ten sam skład osadzanych minerałów, przy koncentracji CO2 o rząd (czyli około 10 razy) wyższej.
Mimo tych trudności Rosinga i innych, wygląda na to, że samym dwutlenkiem węgla jednak trudno będzie wyjaśnić ówczesne temperatury Ziemi. Sami autorzy artykułu proponują zatem “ruszyć” drugi parametr kontrolujący temperaturę Ziemi: jej albedo. Ich argumentacja jest następująca. Na młodej Ziemi było mniej kontynentów, a woda ma mniejsze albedo niż ląd. W dodatku nie było wówczas roślinności produkującej związki, z których tworzą się jądra koncentracji chmur, więc chmur było też mniej, co dodatkowo obniżało albedo. Dla mnie jednak jest to gorzej niż gdybanie. Nikt nie wie ile wówczas było kontynentów (sami autorzy to przyznają), a argument “aerozolowy” jest nader słaby. Przecież przy braku roślinności kontynenty były znacznie bardziej podatne na erozję wiatrową, a pył to też aerozol. W dodatku, większy niż dziś wulkanizm powinien być źródłem olbrzymiej ilości dodatkowych jąder kondensacji.
Wiec jeśli nie albedo i nie dwutlenek węgla, to co? Okazuje się, że jednak wracamy do amoniaku. Ostatni raz gdy go widzieliśmy zagrożony był przez słoneczny ultrafiolet. Tuż po śmierci Carla Sagana, w roku 1997, ukazał się w Science jego pośmiertny artykuł, napisany z Christopherem Chybą (uważny czytelnik zauważy, że tego pana też już dziś widzieliśmy). Ideą tej pracy było spostrzeżenie, że w atmosferze azotowo-metanowej, podobnie jak dziś dzieje się na Tytanie, księżycu Saturna, powinna wytworzyć się warstwa ochronnej mgiełki związków organicznych chroniąca amoniak przed promieniowaniem UV. Szybko jednak zestrzelono ten pomysł, zauważając, że tego rodzaju mgła zwiększa albedo planety, czyli w istocie ją chłodzi. W dodatku absorbuje ona promieniowanie widzialne, co ogrzewa atmosferę, ale w jej wyższych warstwach (jak współcześnie ozon). Sumaryczny efekt takiej mgiełki powodowałby na powierzchni Ziemi raczej ochłodzenie niż ogrzanie.
I w tym miejscu pojawia się artykuł Wolfa i Toona w najnowszym Science [6]. Autorzy Ci znaleźli błąd w opisanej powyżej argumentacji “strącającej” pomysł Sagana i Chyby. Mianowicie do szacowanie grubości optycznej związków organicznych posłużono się obliczeniami własności kropelek kulistych (czyli teorią Mie, ale jeśli ktoś nie wie o co chodzi to nie szkodzi). Tymczasem okazuje się, że aerozol tego typu występuje w postaci “fraktalnych” kłaczków (czyli im bardziej im się będziemy przyglądać tym więcej kłaczkowych szczegółów zobaczymy – coś jak w płatkach śniegu). A to zupełnie zmienia ich właściwości optyczne. W dodatku od niedawna potrafimy je liczyć nie tylko dla kulek (co umożliwiło przeprowadzenie obliczeń przedstawionych w artykule). Bardzo ciekawy ich wynik przedstawiam poniżej.
Otóż efektywna grubość optyczna (zdefiniowana jako łączy efekt absorpcji i rozpraszania do tyłu) warstwy takiego “fraktalnego” aerozolu jest w ultrafiolecie o rząd wyższa niż w przypadku kulistych cząstek (używanych w dawniejszych obliczeń). Natomiast w zakresie widzialnym jest ona kilkakrotnie niższa. Łącznie oznacza to, że warstwa taka jest w stanie skutecznie ochronić amoniak przed rozkładem przez promieniowanie UV, zarazem będąc na tyle przezroczysta dla promieniowania widzialnego, aby nie oziębić znacząco Ziemi. Czyli pomysł Sagana wydaje się uratowany. Metan i amoniak mogły ogrzać skutecznie Ziemię. W dodatku jak pisze Chyla w towarzyszącym pracy Wolfa i Toona artykule [3], tego rodzaju mgiełka może być źródłem związków potrzebnych do powstania życia. Mamy więc dwa problemy (paradoks słabego Słońca i powstanie życia) rozwiązane za jednym zamachem?
No, niezupełnie. Abstrahując od powstania życia (bo to skomplikowany problem, na którym słabo się znam), widzę jeszcze wiele problemów. Nie wiemy nawet czy naprawdę wczesna atmosfera była silnie redukująca. Nie mamy tak naprawdę zielonego pojęcia czy albedo Ziemi było wówczas większe czy mniejsze niż obecnie (gdybym miał się zakładać wybrałbym wbrew Rosingowi raczej wartości większe niż obecnie). Ale jesteśmy z pewnością po powstaniu opisanych powyżej artykułów bliżej rozwiązania tego problemu. Mamy teraz aż nadmiar kandydatów do ogrzania wczesnej Ziemi. Wydaje się, że rozwiązaniem naszego “paradoksu” była jakaś kombinacja podwyższonych koncentracji dwutlenku węgla, metanu i amoniaku (nie wykluczając także zmian albedo). A przecież lepiej jest mieć za dużo możliwości niż za mało.
Czy więc problem jest do końca rozwiązany? Oczywiście nie. Ale słowo “paradoks” można już chyba w tym wypadku schować do lamusa.
[1] Lord Kelvin, który nie mógł jeszcze wiedzieć o promieniotwórczości, obliczył wiek Ziemi na 100 mln lat – czyli tyle właśnie potrzebowała by ona aby się ochłodzić gdyby nie było wewnątrz niej źródła ciepła. Nawet jeśli pomylił się, to, pisząc o czasie ponad 500 mln lat po akrecji, daję mu pięciokrotny margines błędu (czyli więcej niż on sam sobie dał). Nawiasem mówiąc promieniotwórczość Ziemi musiała być wtedy wielokrotnie większa niż obecnie (wybuchy supernowych, które wytworzyły te pierwiastki były wówczas prawie 10 razy “niedawniejsze” niż obecnie), ale i tak geolodzy uważają, że już wówczas strumień energii geotermicznej nie był istotnym elementem budżetu energetycznego planety – czyli możemy go spokojnie zaniedbać.
[2] Nie należy tego braku równowagi promienistej (świadczącego o globalnej zmianie temperatury, a w istocie będącego jego przyczyną) mylić z różnicą strumieni długofalowych skierowanego w górę przy powierzchni Ziemi i na szczycie atmosfery (świadczącej o istnieniu efektu cieplarnianego i czasami nawet używanej jako jego miara). Efekt cieplarniany powoduje, że Ziemia jest cieplejsza niż byłaby, gdyby w atmosferze nie było gazów cieplarnianych, ale nie powoduje on automatycznie nieustającego zwiększania się temperatury. Natomiast zwiększanie koncentracji gazów cieplarnianych, czyli przyrost efektu cieplarnianego, jest przyczyną obserwowanego obecnie braku równowagi radiacyjnej i co za tym idzie zwiększania się średnich globalnych temperatur. Niby to oczywiste, ale nawet poważni ludzie wpadają tu czasem w pułapkę.
[3] Chyba, C. (2010). Countering the Early Faint Sun Science, 328 (5983), 1238-1239 DOI: 10.1126/science.1189196
[4] Rosing, M., Bird, D., Sleep, N., & Bjerrum, C. (2010). No climate paradox under the faint early Sun Nature, 464 (7289), 744-747 DOI: 10.1038/nature08955
[5] Kasting, J. (2010). Early Earth: Faint young Sun redux Nature, 464 (7289), 687-689 DOI: 10.1038/464687a
[6] Wolf ET, & Toon OB (2010). Fractal organic hazes provided an ultraviolet shield for early Earth. Science (New York, N.Y.), 328 (5983), 1266-8 PMID: 20522772
Korekty: poprawiłem “kwasowe” na “redukujące”, bo to ostatnie jest na pewno prawdą, a nie wiem w jakich postaciach jonowych w redukującym morzu występować będzie wodór.
Hits: 320
Fred Hoyle jest nieśmiertelny wśród kreatynów, powołujących się nieustannie na jego argument o Boeingu 747 na złomowisku oraz wyliczanie prawdopodobieństwa powstania życia (przy przyjęciu założeń kompletnie wziętych z sufitu).
Ale też pewnie należała mu się Nagroda Nobla za teorię wytwarzania pierwiastków przez supernowe. Zmarnował sobie szanse właśnie tymi swoimi “dziwnymi” teoriami.
“Wiemy to z astrofizycznych modeli ewolucji gwiazd i, o ile wiem, nikt temu wynikowi nie zaprzecza (to ciekawe, ale raczej nigdy nie było astrofizyko-denialistów, a od śmierci Hoyle’a nie ma już też chyba kosmologo-denialistów).”
Haha! Naiwny 😉
http://www.thesunisiron.com/
No rzeczywiście są. Powinienem był się tego spodziewać. W końcu nie istnieje chyba żadne ważne prawo fizyczne, któremu ktoś nie próbuje zaprzeczyć.
Ale nadal uważam, że “astrofizykosceptycy” są mniej liczni i gorzej zorganizowani niż ich klimatyczni odpowiednicy.
Dorzuciłbym jeszcze elektryczny model wszechświata, który – jako że nie jestem nawet fizykiem, a co dopiero astro – ma dla mnie jeszcze mniej sensu niż te powszechnie uznawane hipotezy o Big Bangu i reszcie.
Co do Nobla zaś – to jest imo trochę śliska nagroda, Jasne – wielka, prestiżowa etc, ale czasami nie stroniąca od kontrowersji. Nikt jednak nie powiedział, że musi być sprawiedliwa 🙂
Wracając do tematu notki, to przypomniała mi się inna świeża rekonstrukcja poziomów CO2 z paleozoli:
http://epswww.unm.edu/facstaff/zsharp/homepage/hompage-v6_website/files/Download/breecker%20pnas.pdf
i komentarz Royera (ten od rekonstrukcji paleobotanicznych):
http://droyer.web.wesleyan.edu/climate_sensitivity_PNAS_commentary.pdf
Dobra wiadomość jest taka, że znika konflikt pomiędzy rekonstrukcjami CO2 pozyskanymi różnymi metodami. A co do złej:
Comparison of projected future [CO2]atm (2) with results from the recalibrated CO2 paleobarometer (Fig. 2B) indicate atmospheric CO2 may reach levels similar to those prevailing during the vegetated Earth’s hottest greenhouse episodes by A.D. 2100.
The abrupt increase in [CO2]atm during the Early Permian is similar in magnitude to that possible for the next century in the absence of CO2 mitigation (Fig. 2B). Given that the Early Permian CO2 increase may have caused the termination of the Late Paleozoic Ice Age (7, 8, Fig. 2D), the only known icehouse-greenhouse transition on a vegetated Earth, the effects that unmitigated CO2 increases may have on future climate warrant careful consideration.
Dzięki za ciekawe artykuły. Jakoś PNAS-a nie śledzę tak uważnie jak Nature czy Science i mi to umknęło.
Jeśli Breecker, Sharp i McFadden mają rację, że wartości koncentracji CO2 uzyskane z paleozoli trzeba “podzielić przez 2 lub więcej” to patrząc na drugi rysunek w moim wpisie widać, że oszacowanie CO2 Rosinga i innych staje się jeszcze bardziej wiarygodne, gdy czerwone i niebieskie “ograniczniki” nieco obniżymy. A Rosing i inni wyników z tego nowego artykułu nie zdążyli uwzględnić bo złożyli artykuł do druku zapewne długo przed ukazaniem się tamtego i pewnie ich autorzy nie znają się osobiście (sprawdziłem, nie cytują go ani jako “in print” ani “submitted”).
Już wiem czemu nie lubię czytać spisu treści kolejnych numerów PNAS. Tam nigdy nie wiadomo w jakiej dziedzinie pojawią się artykuły związane z klimatologią a nawet szerzej z naukami o Ziemi. Podział na nauki wg. którego zbudowany jest ten spis treści to mieszanina przestarzałego XIX wiecznego podziału nauki (fizyka, chemia, geologia, biologia) i jakiegoś New Age (np. sustainability science – wtf?), a nauki o Ziemi (geoscience) nie istnieją w ogóle. Artykuły o klimacie mogą trafić do geologii, nauki o środowisku, fizyki stosowanej a nawet tej nieszczęsnej “nauki o zrównoważonym rozwoju” (z całym szacunkiem dla bukowegolasa, ale takiego działu nauki moim zdaniem nie ma).
Hej, z ciekawości zajrzałem do PNAS, żeby sprawdzić cóż takiego kryje się pod hasłem “sustainability science” 🙂 Jak na moje oko, to tematy z ostatnich numerów pasują do tego działu, są to bowiem teksty prezentujące rozwiązania z różnych dziedzin, które obejmuje “sustainable development”, jest to np. ochrona przyrody, zmniejszanie ubóstwa czy odnawialne źródła energii. Zgadzam się, że robienie z tego “science” jest na wyrost i jak dla mnie jest niepotrzebne (choć np. w UK są studia na ten temat i można mieć chyba nawet z PhD z sustainability). Ale taki dział tematyczny w PNAS jest potrzebny, bo, jak mi się wydaje, celem nauki nie powinna być jedynie analiza problemu, lecz także zaproponowanie praktycznych rozwiązań.
Częściowo się z Tobą zgadzam. To znaczy nowoczesny podział nauki jest raczej wokół badanych zagadnień (np. właśnie “geoscience” czyli nauki o Ziemi czy ekologia) a nie metod (fizyka, chemia, biologia). Czyli nauka o zrównoważonym rozwoju jest OK. Tylko to co pod tym hasłem jest w PNAS powinno się raczej nazywać “nonsustainability science”.
Np. artykuł, o którym być może zrobię mały wpis, który twierdzi, że w roku 2300 tropiki nie będą się nadawały do zamieszkania. Co tu jest “zrównoważone”?
Ale jak dla mnie to jednak powinien być artykuł z dziedziny “nauki o ziemi / klimatologia”.
Jeżeli masz na myśli tekst z numeru 21, to, z tego, co mogę wyczytać ze abstractu, to rzeczywiście jest on we niewłaściwym miejscu. Zajmowanie się pesymistycznymi scenariuszami to zdecydowanie nie jest obszar “sustainability” 🙂 Autorzy mogliby natomiast przedstawić co zrobić, żeby w 2300 roku w tropikach jednak dało się mieszkać, co można zrobić, by stężenie CO2 spadło poniżej 350 ppm, jak ograniczyć zaludnienie, jak zapewnić dla wszystkich dostęp do żywności, czystej wody itd. Tego typu tematy to właśnie domena “sustainability”.
Tak, właśnie o ten. Przed chwila skończyłem o nim wpis. Ale wyszedł trochę dłuższy niż “krótki”.
W najnowszym (lipcowym) Nature Geoscience jest krótki materiał o dokładnie tych samych niedawnych artykułach na temat paradoksu słabego słońca:
http://www.nature.com/ngeo/journal/v3/n7/full/ngeo911.html
(niestety dostępny tylko w prenumeracie).
Dodatkową informacja jest tam, cytowany za zeszłorocznym artykułem właśnie z Nature Geoscience (Goldblatt i inni 2009) fakt iż większa koncentracja azotu na młodej Ziemi mogła wpłynąć na zwiększenie absorpcji innych gazów atmosferycznych poprzez poszerzenie ciśnieniowe ich linii absorpcyjnych. Jest to możliwe właśnie przez logarytmiczną (czyli nie-liniową) zależność zdolności absorpcyjnych takich linii od koncentracji gazów cieplarnianych (poszerzenie linii jest jak zamiana jej na np. dwie o połowę mniej absorbujące gdyż 2 log(0.5 a) nie jest równe log(a)).
Niestety, “najlepszy polski uniwersytet” nie prenumeruje “Nature Geosciences” z powodu “niskiego zainteresowania kadry naukowej”.
Nieźle to świadczy o naszych geografach i geologach. O geofizykach nie wspominam, bo jest ich w sumie 10 zatrudnionych (lito + atmo oraz planetologia razem) i ich zainteresowanie niewiele znaczy…..
A nie możesz z grantu zaprenumerować? Możesz nawet zrobić bibliotece prezent. Tzn. wersja papierowa dla nich a dostęp elektroniczny na Twoje nazwisko. Bo niestety nie da się prenumerować tylko elektronicznie (wydawnictwo Nature jest dość konserwatywne).
A o tym artykule z “podwojonym” azotem jeszcze napisze gdy wreszcie dojdę do pionowej struktury atmosfery. W tym artykule jest odpowiedź na pytanie, które ktoś mi tu już zadał…
Uniwersytet liczy się za 50tys odbiorców, a z biblioteki korzysta mnóstwo innych osób. Cena prenumeraty jest odpowiednia (ci nie znaczy proporcjonalnie) wyższa niż w prenumeracie indywidualnej, a copyright nie pozwala na to co proponujesz, mimo ze to powszechna praktyka w Polsce. Poza tym nie chce precedensów, walczę o to żeby tak podstawowe czasopismo znalazło się jednak na liście prenumerowanej przez jedna z największych bibliotek naukowych w Polsce.
Czyli nie macie lokalnych filii bilbiotek “instytutowych”. Formalnie tego oczywiście załatwić się nie da ale nikt mi nie wmówi że nie masz prawa dawać swojego egzemplarza innym osobom do czytania. Ostatnio wypełniałem formularz jako prenumerator właśnie Nature i Nature Geoscience. Jedno z pytań brzmiało: “Ile osób czyta Twój egzemplarz?”. I nie sądzę aby był to podstęp dla nasłania na mnie Interpolu.
Mamy, ale katalog (elektroniczny) jest wspolny, uzytkownicy sa wspolni i biblioteka dziala jako calosc. Nota bene w sytuacjach potrzeby korzystam z kilku bibliotek naukowych za granica do ktorych mam dostep. Piszac o Nature Geosciences chcialem tylko zwrocic uwage jak dzialaja nauki o Ziemi na “najlepszym uniwersytecie w Polsce” i jak sa oderwane (w swojej masie, nie dotyczy wszystkich osob czy grup naukowych) od nauki swiatowej.
czegos mi tutaj brakuje, a mianowicie wpływu średniej temperatury wszechświata, w czasie, gdy wszechświat był te 4 mld lat młodszy i, odpowiednio, miał mniejszy promień ( oraz większa gęstość i temperaturę). istnieją szacunki, że średnia temperatura była wówczas przynajmniej o jeden Kelvin wyższa, od rejestrowanej obecnie (2,73 K , tj. promieniowanie tła).
A więc, było wówczas we wszechświecie ogólnie bardziej gorąco i być może właśnie o te 25-30 procent.
Wszechświat był wtedy nieco gęstszy i promieniowanie tła było nieco cieplejsze. To prawda. Jednak te 25-30% to już gorzej. Tzn 25-30% czego? Promieniowania tła. To jednak bardzo mały strumień energii w porównaniu z tym co Ziemia dostaje ze Słońca. Od Słońca dostajemy średnio kolo 240 W/m2 (stała słoneczna podzielona na 4 bo Słońce to źródło punktowe i pomnożona przez 0,7 bo 30% energii jest odbijane przez atmosferę, chmury i powierzchnię).
A jaki strumień energii dostajemy od promieniowania tła? Można to wyliczyć z prawa Strefana-Boltzmana. Promieniowanie tła to promieniowanie termiczne pozostające w równowadze z ciałami mającymi temperaturę ok. 2,7 K. Czyli musi to być 3 * 10-6 W/m2, inaczej 0,000003 W/m2. Zwiększenie tego nie tylko o 25-30%, a nawet tysiąc razy nie wpłynie zauważalnie na bilans energetyczny Ziemi.