Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Naukowcy sprawdzili wiarygodność modeli klimatycznych na przestrzeni ostatnich 50 lat

Rekomendowane odpowiedzi

Modele klimatyczne to użyteczne narzędzie do lepszego zrozumienia i prognozowania przyszłych zmian klimatu. Klimatolodzy używają ich od początku lat 70., zatem minęło już wystarczająco dużo czasu, by dokonać retrospektywnego porównania i przekonać się, czy sprawdziły się prognozy, jakie przy użyciu modeli były tworzone przed dziesiątkami lat. W Geophysical Research Letters ukazał się właśnie artykuł, w którym Zeke Hausfather z Uniwersytetu Kalifornijskiego w Berkeley oraz jego koledzy z MIT i NASA opisują wyniki swoich badań nad skutecznością modeli klimatycznych.

Dwa główne czynniki decydujące o prawidłowym bądź nie działaniu modeli klimatycznych to stopień naszego zrozumienia fizyki klimatu oraz umiejętność prognozowania przyszłej emisji CO2. Nawet najlepszy model komputerowy nie przewidzi prawidłowo rozwoju sytuacji, jeśli dostarczymy mu niewłaściwych danych o przyszłej emisji gazów cieplarnianych, a z drugiej strony jeśli będziemy korzystali z modelu, w którym zaimplementowano błędne mechanizmy dotyczące zjawisk fizycznych, to nawet dokładnie przewidzenie poziomu emisji nie pozwoli na uzyskanie właściwych wyników.

Hausfather i jego zespół wzięli pod lupę 17 prognoz klimatycznych, wykonanych za pomocą 14 modeli, które powstały pomiędzy rokiem 1970 a 2001. Zarysowywane przez nie scenariusze porównano z rzeczywistym rozwojem sytuacji do roku 2017.

Okazało się, że większość modeli prawidłowo przewidywała przyszły wzrost średniej temperatury na Ziemi. Z 17 prognoz w przypadku 10 nie zauważono statystycznej różnicy pomiędzy prognozami a rzeczywistym rozwojem sytuacji. Gorzej wypadła część modeli, które powstały przed rokiem 1990. Siedem starszych prognoz błędnie przewidziało rozwój sytuacji przewidując większe lub mniejsze ocieplenie niż było w rzeczywistości, a błędy sięgały nawet 0,1 stopnia Celsjusza. Bliższa analiza wykazała, że w przypadku 5 tych prognoz błąd nie tkwił w samych modelach, a w przewidywaniach naukowców dotyczących poziomu wymuszeń klimatycznych. Wymuszenia klimatyczne, to wpływające na klimat zjawiska pochodzące z zewnątrz systemu limatycznego (atmosfery, hydrosfery, kriosfery i biosfery). Należą do nich np. zmiany aktywności Słońca, orbity Ziemi, zapylenia atmosfery itp.

Na przykład model z 1988 roku stworzony w NASA przez grupę Jamesa Hansena przewidywał, że jeśli zanieczyszczenie powietrza będzie będzie postępowało tak, jak w czasie tworzenia prognozy, to obecnie średnia temperatura na Ziemi będzie o 0,3 stopnia wyższa, niż jest w rzeczywistości. Hausfather i jego zespół odkryli, że przyczyną błędu nie jest samo działanie modelu, ale fakt, że naukowcy nieprawidłowo przewidzieli przyszły poziom zanieczyszczenia. Na przykład przeszacowali emisję metanu, a nie przewidzieli gwałtownego spadku emisji freonów, do jakiego doszło po wejściu w życie Protokołu Montrealskiego.

Gdy do modeli, za pomocą których stworzono wspomnianych 7 błędnych prognoz wprowadzono prawidłowe dane dotyczące zanieczyszczenia atmosfery, okazało się, że 5 z nich pokazuje prawidłowe dane, zatem błędy tkwią w 2 z 17 prognoz.

Naukowcy zauważyli dwie istotne rzeczy. Po pierwsze zaskoczyła ich jakość najstarszych modeli klimatycznych, które nadspodziewanie dobrze poradziły sobie z prognozami. Po drugie zaś, stwierdzili, że nowsze modele są doskonalsze.

Klimatolodzy wiedzą nie od dzisiaj, że ich modele działają, jednak każda ich weryfikacja jest pożądana. To miło wiedzieć, że opinia o modelach się potwierdza, skomentował specjalista od modelowania klimatu Piers Forster z brytyjskiego University of Leeds. Uczony zastrzegł przy tym, że nawet w najnowocześniejszych modelach klimatycznych istnieje pewien poziom niepewności, jednak wiemy na tyle dużo, że możemy ufać modelom.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To czego nie podano to fakt że wybrano 14 najlepszych modeli z około 10tyś. Więc ich zgodność może być tylko wynikiem przypadku a nie wynikiem jakości modelu fizycznego. Za 20 lat co najmniej kilka tych modeli będzie zweryfikowanych negatywnie.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Sądząc po obrazku, to jeszcze kapkę powiększyć odchylenie i nowe modele w ogóle nie będą potrzebne - wszystkie odczyty i tak się zmieszczą w "marginesie" błędu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, Mariusz Błoński napisał:

A skąd informacja o istnieniu 10 000 różnych modeli?

Czytałem o tym kilka lat temu i taki był rząd wielkości. Na prawie 50 lat badań i ilość wpompowanych środków - nie jest to wielkość nieprawdopodobna. Ale niechby byłoby to tylko 100 modeli - wciąż mówimy o wyborze tych najlepszych pod kątem dopasowania do danych historycznych. Z czasem większość z nich przestanie się zgadzać, jak stało się to z resztą.

Jedyny realistyczny model klimatyczny to symulacja pogody w skali globalnej powtarzana tysiące razy, uwzględniająca dokładną fizykę atmosfery, lód i wodę. Każde inne podejście musi być mniejszą lub większą bajeczką, bo "omija" fizykę zjawiska i staje się prymitywną ekstrapolacją danych i założeń.
 

66k trafień w google scholar. Przy czym model nie musi być całkowicie nowym programem komputerowym, to jest program + tuning magicznych parametrów.

Edytowane przez peceed

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tutaj są kryteria, według których wybrano do przeglądu te, a nie inne modele:

We conducted a literature search to identify papers published prior to the early-1990s that include climate model outputs containing both a time-series of projected future GMST (with a 146minimum of two points in time) and future forcings (including both a publication date and future projected atmospheric CO2concentrations, at a minimum). Eleven papers with fourteen distinct projections were identified that fit these criteria.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 godziny temu, peceed napisał:

To czego nie podano to fakt że wybrano 14 najlepszych modeli z około 10tyś. Więc ich zgodność może być tylko wynikiem przypadku a nie wynikiem jakości modelu fizycznego.

I bardzo dobrze, że wybrano najlepsze modele, dlaczego mieliby wybierac słabe, robione przez domorosłych "fahofców"? Dobry model to logiczny i racjonalny model z odpowiednim poziomem szczegółowości, który nie bierze się z sufitu. Także spośród tych kilkunastu wybrańców można by wybrać te najbardziej prawdopodobne, najbardziej szczegółowe. O przypadku można byłoby mówić tylko wtedy, gdyby tworzono modele zupełnie arbitralnie na podstawie astrologii czy jakichś zabobonów.

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, Mariusz Błoński napisał:

Tutaj są kryteria, według których wybrano do przeglądu te, a nie inne modele:

 

Odwołuję co pisałem - jakie modelowanie komputerow :/

Przeczytałem sobie całą pracę - straszne gówno. Klasyczny przykład w którym praca pokazuje coś innego niż twierdzi że pokazuje :/

Ostrzeżeniem powinien być już format pliku w którym powstało owo dzieło.

Ale ważne że kolejny klimatyczny news poszedł...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dopasowanie modeli do faktycznych obserwacji temperatury:

797174281_2019-12-0520_45_22-inp_Hausfather_ha08910q_pdf.thumb.png.df61b5a86c3fecf9b816382b2e432df3.png

Pierwszy wykres przedstawia zmiany temperatury w czasie. Najlepszą średnią prognozę daje model Mitchella (między 1970 a 2000) oraz pierwszy model Hansena et al. (1981-2017).

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
19 godzin temu, Antylogik napisał:

Najlepszą średnią prognozę daje model Mitchella (między 1970 a 2000)

Jasne, z bajkowym ECS  2.37.

Jedyne czym są te ćwiczenia to zabawy w tworzenie rosnących rodzin krzywych i wybranie tej która najlepiej pasuje do danych.

22 godziny temu, Antylogik napisał:

Dobry model to logiczny i racjonalny model z odpowiednim poziomem szczegółowości, który nie bierze się z sufitu.

Można parametryzować krzywe na bardzo wiele sposobów, dobierając współczynniki. Wciąż jest to dosyć naiwna ekstrapolacja danych.

Dopiero gdy osiągnie się modelowanie klimatu przez symulowanie pogody, będzie można mówić o "fizycznym" modelu.

Z 5 lat temu wymyśliłem inne podejście - użycie istniejących zapisów pogodowych do oszacowania wpływu wzrostu temperatury pod wpływem CO2. Otóż dzielimy ziemię na małe komórki i w każdej z nich szacujemy jak zwiększenie CO2 zwiększa temperaturę, traktując inne czynniki jako stałe. Reguła przekory sprawia, że ignorowanie potencjalnych sprzężeń zwrotnych da nam górne ograniczenie na nierównowagową czułość klimatu, tzn. wszystkie nieuwzględnione różnice w zmianie dynamiki atmosfery (poziom pogody) statystycznie zmniejszają przyrost temperatury. W już mokrych komórkach przyrost CO2 nie dużego znaczenia, bo bazą od której należy badać przyrost jest istniejąca tak czy inaczej para w powietrzu. Dlatego jedynie suche komórki zaobserwują pełne dogrzanie. Z takiej analizy wychodzi, że nie ma możliwości uzyskania większej nierównowagowej czułości klimatycznej niż w suchym modelu, czyli około 1.3 stopnia, a dokładne obliczenia mogą tylko obniżyć tę wartość. Nazywanie zwiększenia CO2 w powietrzu wymuszeniem jest nadużyciem semantycznym niezgodnym z fizyką zjawisk. Zwiększenie CO2 nie zwiększy istotnie ilości pary wodnej, bo ta w pierwszym rzędzie zależy bezpośrednio od pogody i nasłonecznienia, a gdy już się pojawia to wpływ przyrostu CO2 na przyrost jej ilości szybko maleje będąc na wstępie i tak drugorzędowym efektem.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gdyby ode mnie zależało, to takie osoby jak ta wyżej wycinałbym od razu z forum. Jedynym jej celem jest krytyka dla krytyki, pseudoracjonalny sceptycyzm do niczego nie prowadzący, posługująca się głównie erystyką. Dowodem na to jest chociażby fakt, że wg niej format .pdf (w którym został zapisany artykuł) powinien stanowić ostrzeżenie. Ale przed czym już nie napisze.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
52 minuty temu, Astro napisał:

Miłego dnia.

Tego nigdy za dużo :), chociaż  jak to często bywa, przesyłka pomyliła adresata:

58 minut temu, Antylogik napisał:

Gdyby ode mnie zależało, to takie osoby jak ta wyżej wycinałbym od razu z forum. (…) Dowodem na to jest chociażby fakt, że wg niej format .pdf (w którym został zapisany artykuł)powinien stanowić ostrzeżenie.

 

W dniu 5.12.2019 o 18:58, peceed napisał:

Ostrzeżeniem powinien być już format pliku w którym powstało owo dzieło.

 

Edytowane przez 3grosze

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 6.12.2019 o 19:21, Astro napisał:

Mógłby kolega wytłumaczyć w czym bajkowość takiej czułości klimatu?

Jest za wysoka. Mój twardy limit to 2.0 ( z zastrzeżeniem że nie ma on charakteru uniwersalnego bo równowagowa czułość klimatu zmienia się wraz z... aktualnym klimatem).

W dniu 6.12.2019 o 19:26, Antylogik napisał:

Gdyby ode mnie zależało, to takie osoby jak ta wyżej wycinałbym od razu z forum.

Kolega się teraz użala nad sobą? Może Facebook jeszcze potrzebuje moderatorów...

W dniu 6.12.2019 o 19:21, Astro napisał:

Wiesz zapewne, że zwyczajne prognozowanie pogody na dwa tygodnie jest zwykle o kant stołu. Wiesz dlaczego? Szukamy trendów jesli o klimat chodzi (w nieco dłuższej skali).

To że symulacje pogodowe są chaotyczne akurat nie ma znaczenia gdy chcemy probabilistycznie wypróbkować możliwe scenariusze. Znacznie gorszym problemem jest niezupełność modeli, mogą istnieć mechanizmy które redukują wpływ CO2 do praktycznie zera i one nie są w żadnym wypadku wykluczone! Fiksacja na CO2 jest szkodliwa z naukowego punktu widzenia.

W dniu 6.12.2019 o 19:21, Astro napisał:

Nazywa się to nawet metodą naukową. Bo nie wiemy 

Uprawianie nauki sprowadzono do bezmyślnego kopiowania kilku tricków stosowanych kiedyś przez osoby wybitne, w nadziei że osiągnie się podobne rezultaty:/

Co do klimatologii jest ona bardzo szczególnym przykładem spatologizowanej nauki, której finansowanie nie zależy od jakości wyników tylko stopnia wzbudzanego strachu. Więc zgodnie z logiką najwięcej pary idzie właśnie w taką działalność.

A tymczasem poziom wody w interglacjałach bywał wiele metrów większy od obecnego przy znacznie niższym poziomie CO2.

W dniu 6.12.2019 o 19:26, Antylogik napisał:

Dowodem na to jest chociażby fakt, że wg niej format .pdf (w którym został zapisany artykuł) powinien stanowić ostrzeżenie. Ale przed czym już nie napisze.

Przed niekompetencją. I nie chodzi o pdf.

W dniu 6.12.2019 o 19:21, Astro napisał:

Pięknie, ale masz dość OBSERWACJI do rozpoczęcia tasku? Nie sądzę.

Ja się tym już nie zajmuję i nie zajmę z przyczyn zdrowotnych. Ale ilość dostępnych danych jak najbardziej wystarcza. To jest słabe upierać się, że nie jesteśmy w stanie policzyć prawidłowo wzrostu temperatury z powodu zwiększenia CO2 w skali tygodnia, a jednocześnie twierdzili że modele klimatyczne mają wartość. Natomiast wnioski o niemożliwości osiągnięcia większej czułości klimatycznej niż dla modelu suchego są jak najbardziej prawdziwe, bo wynikają z prostych ograniczeń fizycznych. Chodzi o to, że nie istnieje dodatnie silne sprzężenie zwrotne z powodu pary wodnej na skutek zwiększenia ilości CO2. Słabiej dotyczy to innych gazów cieplarnianych których widmo nie jest tak dobrze przykryte przez parę wodną. Woda ma kluczowe znaczenie w innym miejscu, przez formowanie lodu i zmianę albedo Ziemi.

W dniu 6.12.2019 o 19:21, Astro napisał:

Tak właśnie dziś robimy; trochę superkomputerów przegrzewa się od tego.

Te cudowne modele komputerowe są praktycznie bez wyjątku niestabilne numerycznie. Więc niezależnie od tego jak bardzo się przegrzewają, nie liczą tego co wydaje się, że liczą, ich twórcom. Oczywiście dalej można poprawiać parametry i uzyskiwać zgodność z danymi historycznymi, tylko fizyka w tym zanika.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Astro napisał:

Słusznie! WSKAŻ je!!! :D

No chyba podałem bardzo ważny mechanizm - traktowanie jako bazy do liczenia podwojeń samego CO2 nie uwzględniającego pary wodnej z jej wariacją. To prawie tak, jabyśmy nazwali cześć CO2 gazem A a część gazem B i traktowali przyrosty gazu jako część B, potem traktując przyrosty temperatury od nich niezależnie.

 

2 godziny temu, Astro napisał:

Mógłbyś wskazać o jaki to naukowy punkt chodzi, bo myślimy zapewne o kilku...

Dochodzenie do Bayesowskiej prawdy.

2 godziny temu, Astro napisał:

Skoro zajmowałeś się tym to wiesz doskonale, że to stwierdzenie jest fajne w kontekście popkultury, ale chyba tutaj powinniśmy używać innego języka; nie sądzisz?

Te które raczyły udostępnić swoje kody źródłowe.

2 godziny temu, Astro napisał:

a z pewnością zgodzisz się, że niższy poziom CO2 z pewnością się temu przyczyni. Nieprawdaż?

Absolutnie nie. Ostatnia katastrofa jakiej świat potrzebuje to obniżenie ilości CO2. A związku ze zdrowiem nie widzę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
9 minut temu, peceed napisał:

Dochodzenie do Bayesowskiej prawdy.

Pustosłowie, wyuczone frazesy , mówienie ogólnikami.

W dniu 9.12.2019 o 19:15, peceed napisał:

Przed niekompetencją. I nie chodzi o pdf.

Skoro nie potrafisz otworzyć artykułu w formacie pdf, co ja bez trudu zrobiłem, to raczej to świadczy o twojej niekompetencji. Jeżeli jednak twierdzisz, że nie chodzi o pdf, i jak zwykle nie napisałeś, o jaki format chodzi, to znaczy, że nie wiesz o czym mówisz. A skoro nie wiesz nie wiesz o czym mówisz, to znaczy, że się kompromitujesz. Skoro się skompromitowałeś, to powinieneś mieć świadomość, że nikt już nie będzie traktował cię poważnie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
22 godziny temu, Antylogik napisał:

Skoro nie potrafisz otworzyć artykułu w formacie pdf, co ja bez trudu zrobiłem...

 Gratuluję dedukcji na poziomie kawałów o milicjantach połączonej ze znakomitym zrozumieniem czytanego tekstu.

To miło że ludzie jeszcze stosują znaczące pseudonimy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      W 2023 roku średnia temperatura była niemal o 1,5 stopnia wyższa od średniej sprzed rewolucji przemysłowej. Jednak naukowcy próbujący wyjaśnić ten wzrost, mają kłopoty z określeniem jego przyczyn. Gdy bowiem biorą pod uwagę emisję gazów cieplarnianych, zjawisko El Niño czy wpływ erupcji wulkanicznych, wciąż niewyjaśnione pozostaje około 0,2 stopnia wzrostu. Uczeni z Instytutu Badań Polarnych i Morskich im. Alfreda Wegenera (AWI) zaproponowali na łamach Science wyjaśnienie tego zjawiska. Według nich te brakujące 0,2 stopnia to skutek zmniejszającego się albedo – zdolności do odbijania światła – Ziemi.
      Uczeni z AWI, we współpracy ze specjalistami od modelowania klimatu z European Centre for Medium-Range Weather Forecasts (ECMWF), przeanalizowali dane satelitarne z NASA oraz ponownie przyjrzeli się danym ECMWF. Niektóre z nich pochodziły nawet z roku 1940. Na ich podstawie sprawdzili jak przez ostatnie dziesięciolecia zmieniał się globalny budżet energetyczny oraz pokrywa chmur na różnych wysokościach. Zarówno w danych NASA, jak i ECMWF, rok 2023 wyróżniał się jako ten o najniższym albedo planetarnym. Od lat obserwujemy niewielki spadek albedo. Ale dane pokazują, że w 2023 roku albedo było najniższe od co najmniej roku 1940, mówi doktor Thomas Rackow.
      Zmniejszanie się albedo Ziemi naukowcy obserwują od lat 70. Częściowo za zjawisko to odpowiadało zmniejszanie się pokrywy lodowej oraz ilości lodu pływającego w Arktyce. Mniej śniegu i lodu oznacza, że mniej promieniowania słonecznego jest odbijane przez Ziemię. Od 2016 roku efekt ten został wzmocniony przez zmniejszanie się zasięgu lodu pływającego w Antarktyce. Jednak nasze analizy pokazywały, że spadek albedo w regionach polarnych odpowiada jedynie za 15% całkowitego spadku albedo, dodaje doktor Helge Goessling. Albedo zmniejszyło się też jednak w innych regionach planety i gdy naukowcy wprowadzili dane do modeli budżetu energetycznego stwierdzili, że gdyby nie spadek albedo od grudnia 2020, to średni temperatury w roku 2023 byłyby o 0,23 stopnie Celsjusza niższe.
      Na zmniejszenie albedo wpłynął przede wszystkim zanik nisko położonych chmur z północnych średnich szerokości geograficznych i z tropików. Szczególnie silnie zjawisko to zaznaczyło się na Atlantyku, co wyjaśniałoby, dlaczego był on tak niezwykle gorący. Pokrywa chmur na średnich i dużych wysokościach nie uległa zmianie lub zmieniła się nieznacznie.
      Chmury na wszystkich wysokościach odbijają światło słoneczne, przyczyniając się do ochłodzenia planety. Jednak te, które znajdują się w wysokich, chłodnych warstwach atmosfery, tworzą rodzaj otuliny, który zapobiega ucieczce w przestrzeń kosmiczną ciepła wypromieniowywanego przez Ziemię. Zatem utrata chmur położonych niżej oznacza, że tracimy część efektu chłodzącego, wpływ ocieplający chmur pozostaje.
      Rodzi się więc pytanie, dlaczego niżej położone chmury zanikły. Częściowo przyczyną może być mniejsza antropogeniczna emisja aerozoli, szczególnie z powodu narzucenia bardziej restrykcyjnych norm na paliwo używane przez statki. Aerozole z jednej strony biorą udział w tworzeniu się chmur, z drugiej zaś – same odbijają promieniowanie słoneczne. Jednak badacze uważają, że czystsze powietrze to nie wszystko i mamy do czynienia z bardziej niepokojącym zjawiskiem.
      Ich zdaniem to sama zwiększająca się temperatura powoduje, że na mniejszych wysokościach formuje się mniej chmur. Jeśli zaś znaczna część spadku albedo to – jak pokazują niektóre modele klimatyczne – skutek sprzężenia zwrotnego pomiędzy globalnym ociepleniem a nisko położonymi chmurami, to w przyszłości powinniśmy spodziewać się jeszcze bardziej intensywnego ocieplenia. Średnia temperatura na Ziemi może przekroczyć granicę wzrostu o 1,5 stopnia Celsjusza w porównaniu z epoką przedprzemysłową wcześniej, niż sądziliśmy, dodaje Goessling.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Ponad 35 milionów lat temu w Ziemię uderzyły dwie wielkie asteroidy, ale nie doprowadziły one do długotrwałych zmian klimatu, stwierdzili naukowcy z University College London. Skały miały średnicę wielu kilometrów (5–8 oraz 3–5 km) i spadły na planetę w odstępie około 25 tysięcy lat. Po jednej został 100-kilometrowy krater Popigai na Syberii, pozostałością po drugim z uderzeń jest krater w Chesapeake Bay w USA o średnicy 40–85 kilometrów. To 4. i 5. pod względem wielkości kratery uderzeniowe na Ziemi.
      Na łamach Communications Earth & Environment uczone z Londynu – Bridget S. Wade i Natalie K. Y. Cheng – opublikowały właśnie artykuł, w którym informują, że w ciągu 150 tysięcy lat po uderzeniu asteroid nie stwierdziły długotrwałych zmian klimatu. Śladów takich zmian szukały w izotopach muszli stworzeń morskich, które żyły w tamtym czasie. Stosunek poszczególnych izotopów wskazuje, jak ciepłe były oceany, gdy zwierzę żyło.
      Po uderzeniach nie doszło do żadnej zmiany. Spodziewałyśmy się, że stosunki izotopów zmienią się w jedną lub drugą stronę, wskazując na cieplejsze lub chłodniejsze wody, ale tak się nie stało.[...] Jednak nasze badania nie mogły wychwycić zmian w krótszych przedziałach czasu, gdyż pobierane próbki dzieliło 11 tysięcy lat. Tak więc w skali ludzkiej takie uderzenia mogłyby być katastrofami. Mogły spowodować potężne fale uderzeniowe, tsunami, wielkie pożary, mogły wzbić w powietrze olbrzymie ilości pyłów, które blokowałyby promienie słoneczne. Nawet badania, w czasie których modelowano uderzenie asteroidy Chicxulub – która zabiła dinozaury – pokazały, że po jej uderzeniu zmiana klimatu trwała mniej niż 25 tysięcy lat, stwierdza profesor Wade.
      Uczone badały skamieniałości z okresu od 35,9 do 35,5 milionów lat temu. O ile po upadku asteroid nie doszło do żadnych długotrwałych zmian klimatu, to zauważyły zmiany w izotopach wskazujące, że około 100 000 lat przed pierwszym uderzeniem wody powierzchniowe oceanów ociepliły się o 2 stopnie Celsjusza, a wody głębinowe ochłodziły o 1 stopień.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Nowa krzywa globalnych temperatur wskazuje, że w fanerozoiku średnie temperatury na Ziemi zmieniały się bardziej niż przypuszczano. Naukowcy z University of Arizona i Smithsonian Institution przeprowadzili badania, w ramach których zrekonstruowali temperatury w ciągu ostatnich 485 milionów lat. To okres, w którym życie na naszej planecie zróżnicowało się, podbiło lądy i przetrwało liczne okresy wymierania.
      Fanerozoik rozpoczyna się eksplozją kambryjską sprzed około 540 milionów lat i trwa do dzisiaj. Naukowcy w swoich badaniach ograniczyli się do 485 milionów lat, ze względu na niedostateczną ilość starszych danych geologicznych. Trudno jest znaleźć tak stare skały, w których zachował się zapis o panujących temperaturach. Nie mamy ich zbyt wielu nawet dla 485 milionów lat temu. To ogranicza nasze cofanie się w czasie, mówi profesor Jessica Tierney z Arizony.
      Uczeni wykorzystali asymilację danych, w trakcie której połączyli zapis geologiczny z modelami klimatycznymi. Badania pozwoliły im lepiej zrozumieć, czego możemy spodziewać się w przyszłości. Jeśli badasz ostatnich kilka milionów lat, to nie znajdziesz niczego, co może być analogią dla zjawisk, jakich spodziewamy się w roku 2100 czy 2500. Trzeba cofnąć się znacznie dalej, gdy Ziemia była naprawdę gorąca. Tylko tak możemy zrozumieć zmiany, jakie mogą zajść w przyszłości, wyjaśnia Scott Wing, kurator zbiorów paleobotaniki w Smithsonian National Museum of Natural History.
      Nowa krzywa temperatury pokazuje, że w tym czasie średnie temperatury na Ziemi zmieniały się w zakresie od 11,1 do 36,1 stopnia Celsjusza, a okresy wzrostu temperatur były najczęściej skorelowane ze zwiększoną emisją dwutlenku węgla do atmosfery. To jasno pokazuje, że dwutlenek węgla jest głównym czynnikiem kontrolującym temperatury na Ziemi. Gdy jest go mało, temperatury są niskie, gdy jest go dużo, na Ziemi jest gorąco, dodaje Tierney.
      Badania pokazały też, że obecnie średnia temperatura jest niższa niż średnia dla większości fanerozoiku. Jednocześnie jednak antropogeniczne emisje CO2 powodują znacznie szybszy wzrost temperatury niż w jakimkolwiek momencie z ostatnich 485 milionów lat. To stwarza duże zagrożenie dla wielu gatunków roślin i zwierząt. Niektóre okresy szybkich zmian klimatycznych wiązały się z masowym wymieraniem.
      Badacze zauważają, że ocieplenie klimatu może być też niebezpieczne dla ludzi. Nasz gatunek doświadczył w swojej historii zmian średnich temperatur o około 5 stopni Celsjusza. To niewiele, jak na 25-stopniową zmianę w ciągu ostatnich 485 milionów lat. Wyewoluowaliśmy w chłodnym okresie, który nie jest typowy dla większości geologicznej historii. Zmieniamy klimat w sposób, który wykracza poza to, czego doświadczyliśmy. Planeta była i może być cieplejsza, ale ludzie i zwierzęta nie zaadaptują się do tak szybkich zmian, dodaje Tierney.
      Projekt zbadania temperatur w fanerozoiku rozpoczął się w 2018 roku, gdy pracownicy Smithsonian National Museum postanowili zaprezentować zwiedzającym krzywą temperatur z całego eonu. Badacze wykorzystali pięć różnych chemicznych wskaźników temperatury zachowanych w skamieniałym materiale organicznym. Na ich podstawie oszacowali temperaturę w 150 000 krótkich okresach czasu. Jednocześnie współpracujący z nimi naukowcy z University of Bristol – na podstawie rozkładu kontynentów i składu atmosfery – stworzyli ponad 850 symulacji temperatur w badanym czasie. Następnie autorzy badań połączyli oba zestawy danych, tworząc najbardziej precyzyjną krzywą temperatur dla ostatnich 485 milionów lat.
      Dodatkową korzyścią z badań jest stwierdzenie, że czułość klimatu – czyli przewidywana zmiana średniej temperatury na Ziemi przy dwukrotnej zmianie stężenia CO2 – jest stała. Dwutlenek węgla i temperatury są nie tylko blisko powiązane, ale są powiązane w ten sam sposób przez 485 milionów lat. Nie zauważyliśmy, by czułość klimatu zmieniała się w zależności od tego, czy jest zimno czy gorąco, dodaje Tierney.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Imperium tybetańskie istniało w latach 618–877 i w szczytowym okresie swojej potęgi konkurowało o wpływy w Azji Środkowej z Chinami dynastii Tang i kalifatem Abbasydów. Upadło w ciągu zaledwie kilku dekad. Naukowcy szukający przyczyn jego rozpadu zwracali dotychczas uwagę przede wszystkim na czynniki społeczno-polityczne, jak konflikty pomiędzy bon, rdzenną religią Tybetu, a buddyzmem. Autorzy najnowszej pracy uważają, że zmiany klimatyczne przyspieszyły upadek państwa.
      Około 618 roku niewielka społeczność zamieszkująca środkowy bieg rzeki Yarlung Tsangpo zakończyła proces jednoczenia większości Tybetu. Powstało państwo, które z powodzeniem konkurowało i walczyło z Chinami dynastii Tang, sięgnęło północnych Indii, Pamiru i Hindukuszu, rzucając wyzwanie Abbasydom. Imperium kontrolowało międzynarodowe szlaki handlowe, a u szczytu potęgi, w 763 roku, jego wojska zdobyły Chang'an, stolicę Chin.
      Imperium obejmuje wówczas 4,6 miliona kilometrów kwadratowych i mieszka w nim 10 milionów ludzi. Jednak już na początku IX wieku państwo przeżywa poważne kłopoty. Rozpada się w ciągu kilku dziesięcioleci. Z chińskich źródeł dowiadujemy się, że przyczyną była rywalizacja pomiędzy generałami dowodzącymi pogranicznymi armiami. Wiemy też, że doszło do napięć pomiędzy wyznawcami buddyzmu, a tradycyjnej religii bon. Były one na tyle poważne, że w 843 buddyzm został zakazany. Przyjmuje się, że rozpad imperium nastąpił w 877 roku, do roku 889 na terenie Tybetu istniało wiele mniej lub bardziej niezależnych organizmów politycznych.
      Naukowcy z Chin i Kanady wykorzystali osady z jezior z zachodniej części Wyżyny Tybetańskiej i stwierdzili, że pomiędzy VII a IX wiekiem doszło do tak znacznych zmian klimatycznych, iż odegrały one kluczową rolę w upadku imperium tybetańskiego. Okres potęgi imperium, lata ok. 600 do 800, zbiega się bowiem z niezwykle ciepłym i wilgotnym okresem. Natomiast czas, gdy imperium upadało (800-877) był okresem poważnych susz. W osadach z jezior widać, że w tym czasie okrzemki typowe dla planktonu występującego w całej kolumnie wody zostały zastąpione przez okrzemki strefy dennej (bentalu). Świadczy to o wysychaniu jezior.
      Poważne susze w połączeniu ze zmniejszeniem zdolności targanego konfliktami społeczeństwa do dostosowania się do nowej rzeczywistości, mogły prowadzić do szybkiego spadku plonów, co z kolei napędzało konflikty i przyspieszyło upadek imperium. Chociaż upadek tego silnego imperium tłumaczy się często przyczynami religijnymi i politycznymi, nasze analizy pokazują, że pogarszające się warunki klimatyczne mogły upadek ten przyspieszyć, stwierdzają autorzy badań.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Podczas Zimnej Wojny US Army założyła na Grenlandii tajną bazę Camp Century. Wykonany tam odwiert o głębokości 1390 metrów sięgnął pod pokrywę lodową, pozwalając na pobranie 3,6-metrowego rdzenia gleby i skał. Rdzeń trafił do zamrażarki i zapomniano o nim. Został przypadkowo odkryty w 2017 roku. Okazało się, że w pobranej próbce znajdują się liście i mchy pochodzące z czasów, gdy ten region Grenlandii był wolny od lodu. Kiedy jednak to było? Najnowsze badania dały zaskakującą odpowiedź na to pytanie.
      Jeszcze do niedawna sądzono, że Grenlandia w znacznej mierze pokryta jest lodem od wielu milionów lat. Przed dwoma laty, używając rdzenia z Camp Century, naukowcy wykazali, że prawdopodobnie nie było tam lodu mniej niż milion lat temu. Inni naukowcy, pracujący na środkowej Grenlandii, wykazali, że lód ustąpił tam co najmniej raz w ciągu ostatniego 1,1 miliona lat. Jednak dotychczas nie było wiadomo, kiedy miało to miejsce.
      Naukowcy z University of Vermont, zbadali rdzeń z Camp Century wykorzystując zaawansowane techniki luminescencji oraz analizy rzadkich izotopów. Ich badania wykazały, że badane osady zostały naniesione przez płynącą wodę do wolnego od lodu środowiska w okresie interglacjalnym znanym jako Marine Isotope Stage 11. Miał on miejsce pomiędzy 424 a 374 tysiące lat temu. Badania te dowodzą, że w tym czasie znaczne obszary Grenlandii były wolne od lodu, a w wyniku ich roztapiania się poziom oceanów podniósł się o co najmniej 1,5 metra.
      To pierwszy niezaprzeczalny dowód, że większa część pokrywy lodowej Grenlandii zniknęła, gdy zrobiło się cieplej, mówi współautor badań Paul Bierman. Przeszłość Grenlandii, zachowana w 3,6-metrowym rdzeniu sugeruje, że Ziemię czeka gorąca, wilgotna i w dużej mierze wolna od lodu przyszłość, chyba że znacząco zmniejszymy stężenie dwutlenku węgla w atmosferze, dodaje uczony.
      Wyniki badań pokazują, że Grenlandia jest bardziej wrażliwa na zmiany klimatu niż dotychczas sądzono. Jako że znajduje się na niej wystarczająco dużo lodu, by po jego roztopieniu poziom oceanów wzrósł o 7 metrów, zagrożone są wszystkie kraje mające dostęp do mórz i oceanów.
      Zawsze uważaliśmy, że pokrywa lodowa Grenlandii uformowała się około 2,5 miliona lat temu i była stabilna. Może na obrzeżach dochodziło do topnienia lub też opady śniegu powodowały, że stawała się niego grubsza, ale nigdy nie dochodziło na niej do dramatycznych zmian. Nasze badania pokazują, że zmiany takie zachodziły, dodaje Tammy Rittenour z Utach State University. To właśnie w jej laboratorium, które specjalizuje się w datowaniu luminescencyjnym, sprawdzano, kiedy ostatni raz ziarna minerałów z rdzenia były wystawione na działanie promieniowania słonecznego. Uzyskane tam wyniki skonfrontowano z badaniami izotopów w laboratorium Biermana na University of Vermont. Analizy stosunków izotopów berylu i innych pierwiastków dały odpowiedź na pytanie, jak długo skały były wystawione na działanie promieniowania kosmicznego, a jak długo były przed nim chronione przez warstwę lodu. Dzięki temu naukowcy stwierdzili, że osady pobrane w Camp Century zostały wystawione na działanie promieniowania słonecznego na mniej niż 14 000 lat przed tym, zanim znalazły się pod lodem. To pozwoliło znacząco zawęzić okres, w którym ta część Grenlandii była wolna od lodu.
      Założony w latach 60. XX wieku Camp Century był tajną bazą wojskową ukrytą w tunelach wydrążonych w lodzie. Na powierzchni oficjalnie znajdowała się zaś arktyczna stacja naukowa. Baza wojskowa powstała w ramach Project Iceworm, którego celem było umieszczenie setek rakiet z głowicami atomowymi pod lodem w pobliżu granic Związku Radzieckiego. Na powierzchni prowadzono zaś badania naukowe, niejednokrotnie jedyne w swoim rodzaju. W ich ramach wykonano wspomniany głęboki odwiert. Wojskowi naukowcy zainteresowani byli samym lodem, chcieli m.in. zrozumieć ziemskie epoki lodowe. Dlatego nie przywiązywali uwagi do osadów wydobytych spod lodu. W latach 70. osady te przeniesiono z wojskowego laboratorium na University at Buffalo, gdzie pomogły w lepszym datowaniu epok lodowych. Później nikt się nimi nie interesował. W 1993 roku przekazano je na Uniwersytet w Kopenhadze. Tam o nich zapomniano.
      Camp Century znajduje się 222 kilometry w głąb Grenlandii, ok. 1300 kilometrów od Bieguna Północnego. Teraz wiemy, że zaledwie 400 000 lat temu ten region był wolny od lodu. A to oznacza, że Grenlandia jest bardziej wrażliwa na ocieplenie klimatu. niż przypuszczali naukowcy. Bierman przypomina, że wówczas na morskich wybrzeżach nie było miast. Teraz znajdują się tam duże aglomeracje jak Nowy Jork, Miami, Amsterdam, Mumbaj czy Szanghaj. Kilkumetrowy wzrost poziomu morza to dla nich olbrzymie zagrożenie.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...