Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Naukowcy sprawdzili wiarygodność modeli klimatycznych na przestrzeni ostatnich 50 lat

Rekomendowane odpowiedzi

Modele klimatyczne to użyteczne narzędzie do lepszego zrozumienia i prognozowania przyszłych zmian klimatu. Klimatolodzy używają ich od początku lat 70., zatem minęło już wystarczająco dużo czasu, by dokonać retrospektywnego porównania i przekonać się, czy sprawdziły się prognozy, jakie przy użyciu modeli były tworzone przed dziesiątkami lat. W Geophysical Research Letters ukazał się właśnie artykuł, w którym Zeke Hausfather z Uniwersytetu Kalifornijskiego w Berkeley oraz jego koledzy z MIT i NASA opisują wyniki swoich badań nad skutecznością modeli klimatycznych.

Dwa główne czynniki decydujące o prawidłowym bądź nie działaniu modeli klimatycznych to stopień naszego zrozumienia fizyki klimatu oraz umiejętność prognozowania przyszłej emisji CO2. Nawet najlepszy model komputerowy nie przewidzi prawidłowo rozwoju sytuacji, jeśli dostarczymy mu niewłaściwych danych o przyszłej emisji gazów cieplarnianych, a z drugiej strony jeśli będziemy korzystali z modelu, w którym zaimplementowano błędne mechanizmy dotyczące zjawisk fizycznych, to nawet dokładnie przewidzenie poziomu emisji nie pozwoli na uzyskanie właściwych wyników.

Hausfather i jego zespół wzięli pod lupę 17 prognoz klimatycznych, wykonanych za pomocą 14 modeli, które powstały pomiędzy rokiem 1970 a 2001. Zarysowywane przez nie scenariusze porównano z rzeczywistym rozwojem sytuacji do roku 2017.

Okazało się, że większość modeli prawidłowo przewidywała przyszły wzrost średniej temperatury na Ziemi. Z 17 prognoz w przypadku 10 nie zauważono statystycznej różnicy pomiędzy prognozami a rzeczywistym rozwojem sytuacji. Gorzej wypadła część modeli, które powstały przed rokiem 1990. Siedem starszych prognoz błędnie przewidziało rozwój sytuacji przewidując większe lub mniejsze ocieplenie niż było w rzeczywistości, a błędy sięgały nawet 0,1 stopnia Celsjusza. Bliższa analiza wykazała, że w przypadku 5 tych prognoz błąd nie tkwił w samych modelach, a w przewidywaniach naukowców dotyczących poziomu wymuszeń klimatycznych. Wymuszenia klimatyczne, to wpływające na klimat zjawiska pochodzące z zewnątrz systemu limatycznego (atmosfery, hydrosfery, kriosfery i biosfery). Należą do nich np. zmiany aktywności Słońca, orbity Ziemi, zapylenia atmosfery itp.

Na przykład model z 1988 roku stworzony w NASA przez grupę Jamesa Hansena przewidywał, że jeśli zanieczyszczenie powietrza będzie będzie postępowało tak, jak w czasie tworzenia prognozy, to obecnie średnia temperatura na Ziemi będzie o 0,3 stopnia wyższa, niż jest w rzeczywistości. Hausfather i jego zespół odkryli, że przyczyną błędu nie jest samo działanie modelu, ale fakt, że naukowcy nieprawidłowo przewidzieli przyszły poziom zanieczyszczenia. Na przykład przeszacowali emisję metanu, a nie przewidzieli gwałtownego spadku emisji freonów, do jakiego doszło po wejściu w życie Protokołu Montrealskiego.

Gdy do modeli, za pomocą których stworzono wspomnianych 7 błędnych prognoz wprowadzono prawidłowe dane dotyczące zanieczyszczenia atmosfery, okazało się, że 5 z nich pokazuje prawidłowe dane, zatem błędy tkwią w 2 z 17 prognoz.

Naukowcy zauważyli dwie istotne rzeczy. Po pierwsze zaskoczyła ich jakość najstarszych modeli klimatycznych, które nadspodziewanie dobrze poradziły sobie z prognozami. Po drugie zaś, stwierdzili, że nowsze modele są doskonalsze.

Klimatolodzy wiedzą nie od dzisiaj, że ich modele działają, jednak każda ich weryfikacja jest pożądana. To miło wiedzieć, że opinia o modelach się potwierdza, skomentował specjalista od modelowania klimatu Piers Forster z brytyjskiego University of Leeds. Uczony zastrzegł przy tym, że nawet w najnowocześniejszych modelach klimatycznych istnieje pewien poziom niepewności, jednak wiemy na tyle dużo, że możemy ufać modelom.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To czego nie podano to fakt że wybrano 14 najlepszych modeli z około 10tyś. Więc ich zgodność może być tylko wynikiem przypadku a nie wynikiem jakości modelu fizycznego. Za 20 lat co najmniej kilka tych modeli będzie zweryfikowanych negatywnie.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Sądząc po obrazku, to jeszcze kapkę powiększyć odchylenie i nowe modele w ogóle nie będą potrzebne - wszystkie odczyty i tak się zmieszczą w "marginesie" błędu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, Mariusz Błoński napisał:

A skąd informacja o istnieniu 10 000 różnych modeli?

Czytałem o tym kilka lat temu i taki był rząd wielkości. Na prawie 50 lat badań i ilość wpompowanych środków - nie jest to wielkość nieprawdopodobna. Ale niechby byłoby to tylko 100 modeli - wciąż mówimy o wyborze tych najlepszych pod kątem dopasowania do danych historycznych. Z czasem większość z nich przestanie się zgadzać, jak stało się to z resztą.

Jedyny realistyczny model klimatyczny to symulacja pogody w skali globalnej powtarzana tysiące razy, uwzględniająca dokładną fizykę atmosfery, lód i wodę. Każde inne podejście musi być mniejszą lub większą bajeczką, bo "omija" fizykę zjawiska i staje się prymitywną ekstrapolacją danych i założeń.
 

66k trafień w google scholar. Przy czym model nie musi być całkowicie nowym programem komputerowym, to jest program + tuning magicznych parametrów.

Edytowane przez peceed

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tutaj są kryteria, według których wybrano do przeglądu te, a nie inne modele:

We conducted a literature search to identify papers published prior to the early-1990s that include climate model outputs containing both a time-series of projected future GMST (with a 146minimum of two points in time) and future forcings (including both a publication date and future projected atmospheric CO2concentrations, at a minimum). Eleven papers with fourteen distinct projections were identified that fit these criteria.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 godziny temu, peceed napisał:

To czego nie podano to fakt że wybrano 14 najlepszych modeli z około 10tyś. Więc ich zgodność może być tylko wynikiem przypadku a nie wynikiem jakości modelu fizycznego.

I bardzo dobrze, że wybrano najlepsze modele, dlaczego mieliby wybierac słabe, robione przez domorosłych "fahofców"? Dobry model to logiczny i racjonalny model z odpowiednim poziomem szczegółowości, który nie bierze się z sufitu. Także spośród tych kilkunastu wybrańców można by wybrać te najbardziej prawdopodobne, najbardziej szczegółowe. O przypadku można byłoby mówić tylko wtedy, gdyby tworzono modele zupełnie arbitralnie na podstawie astrologii czy jakichś zabobonów.

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, Mariusz Błoński napisał:

Tutaj są kryteria, według których wybrano do przeglądu te, a nie inne modele:

 

Odwołuję co pisałem - jakie modelowanie komputerow :/

Przeczytałem sobie całą pracę - straszne gówno. Klasyczny przykład w którym praca pokazuje coś innego niż twierdzi że pokazuje :/

Ostrzeżeniem powinien być już format pliku w którym powstało owo dzieło.

Ale ważne że kolejny klimatyczny news poszedł...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dopasowanie modeli do faktycznych obserwacji temperatury:

797174281_2019-12-0520_45_22-inp_Hausfather_ha08910q_pdf.thumb.png.df61b5a86c3fecf9b816382b2e432df3.png

Pierwszy wykres przedstawia zmiany temperatury w czasie. Najlepszą średnią prognozę daje model Mitchella (między 1970 a 2000) oraz pierwszy model Hansena et al. (1981-2017).

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
19 godzin temu, Antylogik napisał:

Najlepszą średnią prognozę daje model Mitchella (między 1970 a 2000)

Jasne, z bajkowym ECS  2.37.

Jedyne czym są te ćwiczenia to zabawy w tworzenie rosnących rodzin krzywych i wybranie tej która najlepiej pasuje do danych.

22 godziny temu, Antylogik napisał:

Dobry model to logiczny i racjonalny model z odpowiednim poziomem szczegółowości, który nie bierze się z sufitu.

Można parametryzować krzywe na bardzo wiele sposobów, dobierając współczynniki. Wciąż jest to dosyć naiwna ekstrapolacja danych.

Dopiero gdy osiągnie się modelowanie klimatu przez symulowanie pogody, będzie można mówić o "fizycznym" modelu.

Z 5 lat temu wymyśliłem inne podejście - użycie istniejących zapisów pogodowych do oszacowania wpływu wzrostu temperatury pod wpływem CO2. Otóż dzielimy ziemię na małe komórki i w każdej z nich szacujemy jak zwiększenie CO2 zwiększa temperaturę, traktując inne czynniki jako stałe. Reguła przekory sprawia, że ignorowanie potencjalnych sprzężeń zwrotnych da nam górne ograniczenie na nierównowagową czułość klimatu, tzn. wszystkie nieuwzględnione różnice w zmianie dynamiki atmosfery (poziom pogody) statystycznie zmniejszają przyrost temperatury. W już mokrych komórkach przyrost CO2 nie dużego znaczenia, bo bazą od której należy badać przyrost jest istniejąca tak czy inaczej para w powietrzu. Dlatego jedynie suche komórki zaobserwują pełne dogrzanie. Z takiej analizy wychodzi, że nie ma możliwości uzyskania większej nierównowagowej czułości klimatycznej niż w suchym modelu, czyli około 1.3 stopnia, a dokładne obliczenia mogą tylko obniżyć tę wartość. Nazywanie zwiększenia CO2 w powietrzu wymuszeniem jest nadużyciem semantycznym niezgodnym z fizyką zjawisk. Zwiększenie CO2 nie zwiększy istotnie ilości pary wodnej, bo ta w pierwszym rzędzie zależy bezpośrednio od pogody i nasłonecznienia, a gdy już się pojawia to wpływ przyrostu CO2 na przyrost jej ilości szybko maleje będąc na wstępie i tak drugorzędowym efektem.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gdyby ode mnie zależało, to takie osoby jak ta wyżej wycinałbym od razu z forum. Jedynym jej celem jest krytyka dla krytyki, pseudoracjonalny sceptycyzm do niczego nie prowadzący, posługująca się głównie erystyką. Dowodem na to jest chociażby fakt, że wg niej format .pdf (w którym został zapisany artykuł) powinien stanowić ostrzeżenie. Ale przed czym już nie napisze.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
52 minuty temu, Astro napisał:

Miłego dnia.

Tego nigdy za dużo :), chociaż  jak to często bywa, przesyłka pomyliła adresata:

58 minut temu, Antylogik napisał:

Gdyby ode mnie zależało, to takie osoby jak ta wyżej wycinałbym od razu z forum. (…) Dowodem na to jest chociażby fakt, że wg niej format .pdf (w którym został zapisany artykuł)powinien stanowić ostrzeżenie.

 

W dniu 5.12.2019 o 18:58, peceed napisał:

Ostrzeżeniem powinien być już format pliku w którym powstało owo dzieło.

 

Edytowane przez 3grosze

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 6.12.2019 o 19:21, Astro napisał:

Mógłby kolega wytłumaczyć w czym bajkowość takiej czułości klimatu?

Jest za wysoka. Mój twardy limit to 2.0 ( z zastrzeżeniem że nie ma on charakteru uniwersalnego bo równowagowa czułość klimatu zmienia się wraz z... aktualnym klimatem).

W dniu 6.12.2019 o 19:26, Antylogik napisał:

Gdyby ode mnie zależało, to takie osoby jak ta wyżej wycinałbym od razu z forum.

Kolega się teraz użala nad sobą? Może Facebook jeszcze potrzebuje moderatorów...

W dniu 6.12.2019 o 19:21, Astro napisał:

Wiesz zapewne, że zwyczajne prognozowanie pogody na dwa tygodnie jest zwykle o kant stołu. Wiesz dlaczego? Szukamy trendów jesli o klimat chodzi (w nieco dłuższej skali).

To że symulacje pogodowe są chaotyczne akurat nie ma znaczenia gdy chcemy probabilistycznie wypróbkować możliwe scenariusze. Znacznie gorszym problemem jest niezupełność modeli, mogą istnieć mechanizmy które redukują wpływ CO2 do praktycznie zera i one nie są w żadnym wypadku wykluczone! Fiksacja na CO2 jest szkodliwa z naukowego punktu widzenia.

W dniu 6.12.2019 o 19:21, Astro napisał:

Nazywa się to nawet metodą naukową. Bo nie wiemy 

Uprawianie nauki sprowadzono do bezmyślnego kopiowania kilku tricków stosowanych kiedyś przez osoby wybitne, w nadziei że osiągnie się podobne rezultaty:/

Co do klimatologii jest ona bardzo szczególnym przykładem spatologizowanej nauki, której finansowanie nie zależy od jakości wyników tylko stopnia wzbudzanego strachu. Więc zgodnie z logiką najwięcej pary idzie właśnie w taką działalność.

A tymczasem poziom wody w interglacjałach bywał wiele metrów większy od obecnego przy znacznie niższym poziomie CO2.

W dniu 6.12.2019 o 19:26, Antylogik napisał:

Dowodem na to jest chociażby fakt, że wg niej format .pdf (w którym został zapisany artykuł) powinien stanowić ostrzeżenie. Ale przed czym już nie napisze.

Przed niekompetencją. I nie chodzi o pdf.

W dniu 6.12.2019 o 19:21, Astro napisał:

Pięknie, ale masz dość OBSERWACJI do rozpoczęcia tasku? Nie sądzę.

Ja się tym już nie zajmuję i nie zajmę z przyczyn zdrowotnych. Ale ilość dostępnych danych jak najbardziej wystarcza. To jest słabe upierać się, że nie jesteśmy w stanie policzyć prawidłowo wzrostu temperatury z powodu zwiększenia CO2 w skali tygodnia, a jednocześnie twierdzili że modele klimatyczne mają wartość. Natomiast wnioski o niemożliwości osiągnięcia większej czułości klimatycznej niż dla modelu suchego są jak najbardziej prawdziwe, bo wynikają z prostych ograniczeń fizycznych. Chodzi o to, że nie istnieje dodatnie silne sprzężenie zwrotne z powodu pary wodnej na skutek zwiększenia ilości CO2. Słabiej dotyczy to innych gazów cieplarnianych których widmo nie jest tak dobrze przykryte przez parę wodną. Woda ma kluczowe znaczenie w innym miejscu, przez formowanie lodu i zmianę albedo Ziemi.

W dniu 6.12.2019 o 19:21, Astro napisał:

Tak właśnie dziś robimy; trochę superkomputerów przegrzewa się od tego.

Te cudowne modele komputerowe są praktycznie bez wyjątku niestabilne numerycznie. Więc niezależnie od tego jak bardzo się przegrzewają, nie liczą tego co wydaje się, że liczą, ich twórcom. Oczywiście dalej można poprawiać parametry i uzyskiwać zgodność z danymi historycznymi, tylko fizyka w tym zanika.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Astro napisał:

Słusznie! WSKAŻ je!!! :D

No chyba podałem bardzo ważny mechanizm - traktowanie jako bazy do liczenia podwojeń samego CO2 nie uwzględniającego pary wodnej z jej wariacją. To prawie tak, jabyśmy nazwali cześć CO2 gazem A a część gazem B i traktowali przyrosty gazu jako część B, potem traktując przyrosty temperatury od nich niezależnie.

 

2 godziny temu, Astro napisał:

Mógłbyś wskazać o jaki to naukowy punkt chodzi, bo myślimy zapewne o kilku...

Dochodzenie do Bayesowskiej prawdy.

2 godziny temu, Astro napisał:

Skoro zajmowałeś się tym to wiesz doskonale, że to stwierdzenie jest fajne w kontekście popkultury, ale chyba tutaj powinniśmy używać innego języka; nie sądzisz?

Te które raczyły udostępnić swoje kody źródłowe.

2 godziny temu, Astro napisał:

a z pewnością zgodzisz się, że niższy poziom CO2 z pewnością się temu przyczyni. Nieprawdaż?

Absolutnie nie. Ostatnia katastrofa jakiej świat potrzebuje to obniżenie ilości CO2. A związku ze zdrowiem nie widzę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
9 minut temu, peceed napisał:

Dochodzenie do Bayesowskiej prawdy.

Pustosłowie, wyuczone frazesy , mówienie ogólnikami.

W dniu 9.12.2019 o 19:15, peceed napisał:

Przed niekompetencją. I nie chodzi o pdf.

Skoro nie potrafisz otworzyć artykułu w formacie pdf, co ja bez trudu zrobiłem, to raczej to świadczy o twojej niekompetencji. Jeżeli jednak twierdzisz, że nie chodzi o pdf, i jak zwykle nie napisałeś, o jaki format chodzi, to znaczy, że nie wiesz o czym mówisz. A skoro nie wiesz nie wiesz o czym mówisz, to znaczy, że się kompromitujesz. Skoro się skompromitowałeś, to powinieneś mieć świadomość, że nikt już nie będzie traktował cię poważnie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
22 godziny temu, Antylogik napisał:

Skoro nie potrafisz otworzyć artykułu w formacie pdf, co ja bez trudu zrobiłem...

 Gratuluję dedukcji na poziomie kawałów o milicjantach połączonej ze znakomitym zrozumieniem czytanego tekstu.

To miło że ludzie jeszcze stosują znaczące pseudonimy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Światowe oceany pochłaniają około 25% antropogenicznej emisji dwutlenku węgla, z czego sam Ocean Południowy pochłania aż 40% – czyli nawet 4 miliardy ton – co czyni go najważniejszym regionem spowalniającym globalne ocieplanie. Modele klimatyczne przewidują, że zmiana klimatu powinna spowodować zmniejszenie zdolności Oceanu Południowego do pochłaniania węgla z atmosfery. Jednak dane obserwacyjne temu przeczą. W ostatnich dekadach takie zjawisko nie zaszło. Léa Olivier i F. Alexander Haumann z Instytutu Alfreda Wegenera wyjaśnili na łamach Nature Climate Change, dlaczego nie zachodzą zjawiska przewidziane przez modele.
      Rola, jaką odgrywa Ocean Południowy w spowalnianiu ocieplenia klimatu jest ściśle związana z cyrkulacją oceaniczną w regionie. Zależy od tego, jak wiele wody z głębin wynurzy się na powierzchnię i ponownie zanurzy. W trakcie tego procesu dochodzi do uwolnienia CO2 z wód oceanicznych, pochłonięcia CO2 i jego transportu w głębokie partie oceanu. To, ile dwutlenku węgla pochłonie Ocean Południowy zależy od tego, ile tego gazu wydostanie się wraz z wodą z głębin oceanicznych. Im więcej przetransportuje woda z głębi, tym mniej pochłoną wody powierzchniowe.
      Woda wydobywająca się z oceanicznych głębin jest bardzo stara. Nie było jej na powierzchni od setek i tysięcy lat. Przez ten czas akumulowała ona naturalny dwutlenek węgla. Gdy powraca na powierzchnię, uwalnia go do atmosfery. Jednocześnie takie powracające wody zmniejszają zdolność wód powierzchniowych do absorbowania CO2. Modele klimatyczne mówią, że coraz silniejsze wiatry zachodnie, które zyskują na sile z powodu globalnego ocieplenia, będą powodowały, że coraz więcej wody z głębin będzie wydobywało się na powierzchnię. W dłuższym terminie powinno to zmniejszyć zdolność Oceanu Południowego do absorbowania CO2 z atmosfery. Jednak, wbrew modelom, w ostatnich dekadach nie odnotowano, by Ocean Południowy pochłaniał mniej dwutlenku węgla niż wcześniej. Pomimo tego, że siła wiatrów zachodnich rzeczywiście wzrosła.
      Głębokie wody oceaniczne na Oceanie Południowym znajdują się poniżej 200 metrów pod powierzchnią. Są bardziej słone, bogatsze w składniki odżywcze i cieplejsze od wód powierzchniowych. Zawierają też dużą ilość CO2, który jest przechowywany w głębokich partiach oceanu od bardzo dawna, pochodzi sprzed epoki przemysłowej. Z kolei wody powierzchniowe są mniej słone, chłodniejsze i zawierają mniej dwutlenku węgla. Dzięki różnicy w gęstości obu warstw wody z głębi nie mogą łatwo wydostać się na powierzchnię.
      Na potrzeby badań uczeni wykorzystali dane biogeochemiczne dotyczące właściwości wód Oceanu Południowego, zebrane przez liczne ekspedycje naukowe w latach 1972–2021. Przyjrzeli się długoterminowym anomaliom, zmianom we wzorcach cyrkulacji i właściwościach wody. Brali przy tym pod uwagę wyłącznie te procesy, które powiązane są z mieszaniem się obu warstw wody, a nie – na przykład – procesy biologiczne.
      Zauważyli, że od lat 90. XX wieku różnica pomiędzy obiema masami wody się zwiększyła. Wody powierzchniowe stały się mniej słone w wyniku napływu do Oceanu Południowego olbrzymiej ilości słodkiej wody z roztapiających się lodowców, lodu morskiego i zwiększonych opadów. Ta zwiększona różnica we właściwościach obu warstw powoduje, że wody powierzchniowe stanowią jeszcze trudniejszą do pokonania barierę dla wód z głębin. To jednak nie wszystko.
      „Odświeżone” przez słodką wodę wody powierzchniowe spowodowały, że nie doszło do osłabienia zdolności Oceanu Południowego do pochłaniania CO2. Sytuacja może jednak ulec zmianie, gdy różnica pomiędzy obiema warstwami wody stanie się mniejsza. Okazuje się, że takie ryzyko istnieje. Z badań Olivier i Haumanna wynika bowiem, że od lat 90. górna granica głębokich warstw wody przybliżyła się do powierzchni o 40 metrów. A im bliżej powierzchni się znajdzie, tym bardziej obie warstwy wody będą podatne na mieszanie przez coraz silniejsze wiatry zachodnie.
      Nie można zresztą wykluczyć, że proces ten już się rozpoczął, na co wskazują wyniki badań opublikowane przed 4 miesiącami w PNAS. Jeśli tak, to w najbliższych latach możemy być świadkami procesu utraty przez Ocean Południowy części zdolności do pochłaniania dwutlenku węgla. Potrzebujemy więcej danych, by stwierdzić, czy rzeczywiście dochodzi do uwalniania większej ilości CO2 z głębokich partii oceanu. Szczególnie przydatne będą dane z miesięcy zimowych, gdy ma miejsce mieszanie się wód, mówi profesor Haumann i przypomina, że Instytut Wegenera będzie prowadził tego typu badania w ramach międzynarodowego programu Antarctica InSync, którego celem jest koordynacja badań w Antarktyce i na Oceanie Południowym.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Niskie średnie temperatury na Ziemi, które umożliwiły uformowanie się pokryw lodowych na biegunach, są czymś rzadkim w historii naszej planety. Nowe badania, przeprowadzone przez zespół pod kierunkiem naukowców z University of Leeds, dowodzą, że aby takie warunki klimatyczne się pojawiły, musi dojść do zbiegu wielu złożonych procesów. Uczeni badali, dlaczego Ziemia przez zdecydowaną większość swojej historii była znacznie cieplejsza niż obecnie i nie istniały na niej pokrywy lodowe na biegunach.
      Dotychczas proponowano wiele hipotez, które miały wyjaśnić pojawianie się glacjałów na Ziemi. Mówiono o zmniejszonym wulkanizmie, zwiększonym pochłanianiu atmosferycznego węgla przez roślinność czy też o reakcji dwutlenku węgla ze skałami. Ciepłe warunki klimatyczne farenozoiku zostały przerwane przez dwa długotrwałe okresy ochłodzenia, w tym obecny, trwający od około 34 milionów lat. Te chłodniejsze okresy zbiegają się z niższą zawartością CO2 w atmosferze, jednak nie jest jasne, dlaczego poziom CO2 spada, piszą naukowcy na łamach Science Advances.
      Na potrzeby badań stworzyli nowy długoterminowy „Earth Evolution Model”. Jego powstanie było możliwe dzięki ostatnim postępom w technikach obliczeniowych. Model pokazał, że wspomniane ochłodzenia spowodowane były nie pojedynczym procesem, a ich zbiegiem. To wyjaśnia, dlaczego okresy chłodne są znacznie rzadsze od okresów ciepłych.
      Wiemy teraz, że powodem, dla którego żyjemy na Ziemi z pokrywami lodowymi na biegunach, a nie na planecie wolnej od lodu, jest przypadkowy zbieg bardzo małej aktywności wulkanicznej i bardzo rozproszonych kontynentów z wysokimi górami, które powodują duże opady i w ten sposób zwiększają usuwanie węgla z atmosfery. Bardzo ważnym wnioskiem z naszych badań jest stwierdzenie, że naturalny mechanizm klimatyczny Ziemi wydaje się faworyzować istnienie gorącego świata z wysokim stężeniem CO2 i brakiem pokryw lodowych, a nie obecny świat z niskim stężeniem CO2, pokryty częściowo lodem, mówi główny autor badań, Andrew S. Meredith. To prawdopodobnie preferencja systemu klimatycznego Ziemi ku gorącemu klimatowi uchroniła naszą planetę przed katastrofalnym całkowitym zamienieniem naszej planety w lodową pustynię. Dzięki niej życie mogło przetrwać.
      Drugi z głównych autorów badań, profesor Benjamin Mills zauważa, że z badań płyną bardzo ważne wnioski. "Nie powinniśmy spodziewać się, że Ziemia zawsze powróci do chłodniejszego okresu, jaki charakteryzował epokę przedprzemysłową. Obecna Ziemia, z jej pokrywami lodowymi jest czymś nietypowym w historii planety. Jednak ludzkość zależy od tego stanu. Powinniśmy zrobić wszystko, by go zachować i powinniśmy być ostrożni, czyniąc założenia, że zatrzymując emisję powrócimy do stanu sprzed globalnego ocieplenia. W swojej długiej historii klimat Ziemi był przeważnie gorący. Jednak w czasie historii człowieka był chłodny.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Podczas czwartej kampanii prowadzonej w ramach finansowanego przez Komisję Europejską projektu „Beyond EPICA – Oldest Ice” międzynarodowy zespół naukowy skompletował rdzeń lodowy o długości 2800 metrów, sięgając do podłoża skalnego Antarktydy. Tym samym – po raz pierwszy w historii – zdobyto próbki lodu, w których znajdują się niezwykle ważne informacje dotyczące historii ziemskiego klimatu i atmosfery starsze niż 800 tysięcy lat. Rdzeń zawiera zapis historii klimatu w ciągu ostatnich 1,2 miliona lat, a być może jeszcze dłużej.
      Wiercenia prowadzono w odległym miejscu zwanym Little Dome C. W projekt zaangażowanych było 12 instytucji naukowych z 10 krajów Europy. Pozyskali oni dziewiczy lód, z którego można będzie wydobyć uwięzione bąbelki powietrza, odczytać informacje o temperaturach i składzie atmosfery na w ciągu wielu tysiącleci.
      To historyczny moment dla badań nad klimatem i środowiskiem. To najdłuższy nieprzerwany zapis danych klimatycznych zamkniętych w rdzeniu lodowym. Może on dostarczyć nowych informacji na temat cyklu węglowego i jego związku z temperaturami na planecie, mówi profesor Carlo Barbante z Uniwersytetu Ca'Foscari w Wenecji. Wstępne badania wydobytego rdzenia wskazują, że  rdzeń zawiera zapis o wysokiej rozdzielczości. W 1 metrze skompresowanego lodu może być zapisana historia klimatu obejmująca maksymalnie 13 tysięcy lat.
      Odpowiednią lokalizację do wierceń wybraliśmy wykorzystując najnowocześniejsze techniki badania lodu falami radiowymi oraz modele płynięcia lodu. Szczególnie imponujący jest fakt, że wykorzystane przez nas technologie wykazały, że na głębokości od 2426 do 2490 metrów powinien znajdować się zapis obejmujący okres od 800 tysięcy do 1,2 miliona lat temu. I tak właśnie było, cieszy się jeden z czołowych ekspertów w tej dziedzinie, profesor Frank Wilhelms z Uniwersytetu w Göttingen i Instytutu Alfreda Wegenera. Ostatnie 210 metrów rdzenia, znajdujące się poniżej lodu zawierającego zapis sprzed ponad 1,2 miliona lat, to stary lód, silnie zdeformowany, który prawdopodobnie uległ wymieszaniu lub ponownemu zamrożeniu. To lód nieznanego pochodzenia. Jego szczegółowe badania pozwolą nam zweryfikować teorie dotyczące zachowania ponownie zamarzającego lodu pod lądolodem Antarktydy i umożliwią lepsze zbadania historii lądolodu Antarktyki Wschodniej, dodaje uczony.
      Rdzenie wydobyte podczas „Beyond Epica – Oldest Ice” zostaną przewiezione do Europy na pokładzie lodołamacza Laura Bassi. Podczas transportu będą przechowywane w temperaturze -50 stopni Celsjusza, co jest poważnym wyzwaniem technologicznym i logistycznym. Konieczne było stworzenie wyspecjalizowanych kontenerów i odpowiednie wykorzystanie morskich i powietrznych środków transportowych.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W 2023 roku średnia temperatura była niemal o 1,5 stopnia wyższa od średniej sprzed rewolucji przemysłowej. Jednak naukowcy próbujący wyjaśnić ten wzrost, mają kłopoty z określeniem jego przyczyn. Gdy bowiem biorą pod uwagę emisję gazów cieplarnianych, zjawisko El Niño czy wpływ erupcji wulkanicznych, wciąż niewyjaśnione pozostaje około 0,2 stopnia wzrostu. Uczeni z Instytutu Badań Polarnych i Morskich im. Alfreda Wegenera (AWI) zaproponowali na łamach Science wyjaśnienie tego zjawiska. Według nich te brakujące 0,2 stopnia to skutek zmniejszającego się albedo – zdolności do odbijania światła – Ziemi.
      Uczeni z AWI, we współpracy ze specjalistami od modelowania klimatu z European Centre for Medium-Range Weather Forecasts (ECMWF), przeanalizowali dane satelitarne z NASA oraz ponownie przyjrzeli się danym ECMWF. Niektóre z nich pochodziły nawet z roku 1940. Na ich podstawie sprawdzili jak przez ostatnie dziesięciolecia zmieniał się globalny budżet energetyczny oraz pokrywa chmur na różnych wysokościach. Zarówno w danych NASA, jak i ECMWF, rok 2023 wyróżniał się jako ten o najniższym albedo planetarnym. Od lat obserwujemy niewielki spadek albedo. Ale dane pokazują, że w 2023 roku albedo było najniższe od co najmniej roku 1940, mówi doktor Thomas Rackow.
      Zmniejszanie się albedo Ziemi naukowcy obserwują od lat 70. Częściowo za zjawisko to odpowiadało zmniejszanie się pokrywy lodowej oraz ilości lodu pływającego w Arktyce. Mniej śniegu i lodu oznacza, że mniej promieniowania słonecznego jest odbijane przez Ziemię. Od 2016 roku efekt ten został wzmocniony przez zmniejszanie się zasięgu lodu pływającego w Antarktyce. Jednak nasze analizy pokazywały, że spadek albedo w regionach polarnych odpowiada jedynie za 15% całkowitego spadku albedo, dodaje doktor Helge Goessling. Albedo zmniejszyło się też jednak w innych regionach planety i gdy naukowcy wprowadzili dane do modeli budżetu energetycznego stwierdzili, że gdyby nie spadek albedo od grudnia 2020, to średni temperatury w roku 2023 byłyby o 0,23 stopnie Celsjusza niższe.
      Na zmniejszenie albedo wpłynął przede wszystkim zanik nisko położonych chmur z północnych średnich szerokości geograficznych i z tropików. Szczególnie silnie zjawisko to zaznaczyło się na Atlantyku, co wyjaśniałoby, dlaczego był on tak niezwykle gorący. Pokrywa chmur na średnich i dużych wysokościach nie uległa zmianie lub zmieniła się nieznacznie.
      Chmury na wszystkich wysokościach odbijają światło słoneczne, przyczyniając się do ochłodzenia planety. Jednak te, które znajdują się w wysokich, chłodnych warstwach atmosfery, tworzą rodzaj otuliny, który zapobiega ucieczce w przestrzeń kosmiczną ciepła wypromieniowywanego przez Ziemię. Zatem utrata chmur położonych niżej oznacza, że tracimy część efektu chłodzącego, wpływ ocieplający chmur pozostaje.
      Rodzi się więc pytanie, dlaczego niżej położone chmury zanikły. Częściowo przyczyną może być mniejsza antropogeniczna emisja aerozoli, szczególnie z powodu narzucenia bardziej restrykcyjnych norm na paliwo używane przez statki. Aerozole z jednej strony biorą udział w tworzeniu się chmur, z drugiej zaś – same odbijają promieniowanie słoneczne. Jednak badacze uważają, że czystsze powietrze to nie wszystko i mamy do czynienia z bardziej niepokojącym zjawiskiem.
      Ich zdaniem to sama zwiększająca się temperatura powoduje, że na mniejszych wysokościach formuje się mniej chmur. Jeśli zaś znaczna część spadku albedo to – jak pokazują niektóre modele klimatyczne – skutek sprzężenia zwrotnego pomiędzy globalnym ociepleniem a nisko położonymi chmurami, to w przyszłości powinniśmy spodziewać się jeszcze bardziej intensywnego ocieplenia. Średnia temperatura na Ziemi może przekroczyć granicę wzrostu o 1,5 stopnia Celsjusza w porównaniu z epoką przedprzemysłową wcześniej, niż sądziliśmy, dodaje Goessling.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Ponad 35 milionów lat temu w Ziemię uderzyły dwie wielkie asteroidy, ale nie doprowadziły one do długotrwałych zmian klimatu, stwierdzili naukowcy z University College London. Skały miały średnicę wielu kilometrów (5–8 oraz 3–5 km) i spadły na planetę w odstępie około 25 tysięcy lat. Po jednej został 100-kilometrowy krater Popigai na Syberii, pozostałością po drugim z uderzeń jest krater w Chesapeake Bay w USA o średnicy 40–85 kilometrów. To 4. i 5. pod względem wielkości kratery uderzeniowe na Ziemi.
      Na łamach Communications Earth & Environment uczone z Londynu – Bridget S. Wade i Natalie K. Y. Cheng – opublikowały właśnie artykuł, w którym informują, że w ciągu 150 tysięcy lat po uderzeniu asteroid nie stwierdziły długotrwałych zmian klimatu. Śladów takich zmian szukały w izotopach muszli stworzeń morskich, które żyły w tamtym czasie. Stosunek poszczególnych izotopów wskazuje, jak ciepłe były oceany, gdy zwierzę żyło.
      Po uderzeniach nie doszło do żadnej zmiany. Spodziewałyśmy się, że stosunki izotopów zmienią się w jedną lub drugą stronę, wskazując na cieplejsze lub chłodniejsze wody, ale tak się nie stało.[...] Jednak nasze badania nie mogły wychwycić zmian w krótszych przedziałach czasu, gdyż pobierane próbki dzieliło 11 tysięcy lat. Tak więc w skali ludzkiej takie uderzenia mogłyby być katastrofami. Mogły spowodować potężne fale uderzeniowe, tsunami, wielkie pożary, mogły wzbić w powietrze olbrzymie ilości pyłów, które blokowałyby promienie słoneczne. Nawet badania, w czasie których modelowano uderzenie asteroidy Chicxulub – która zabiła dinozaury – pokazały, że po jej uderzeniu zmiana klimatu trwała mniej niż 25 tysięcy lat, stwierdza profesor Wade.
      Uczone badały skamieniałości z okresu od 35,9 do 35,5 milionów lat temu. O ile po upadku asteroid nie doszło do żadnych długotrwałych zmian klimatu, to zauważyły zmiany w izotopach wskazujące, że około 100 000 lat przed pierwszym uderzeniem wody powierzchniowe oceanów ociepliły się o 2 stopnie Celsjusza, a wody głębinowe ochłodziły o 1 stopień.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...