Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Naukowcy sprawdzili wiarygodność modeli klimatycznych na przestrzeni ostatnich 50 lat

Recommended Posts

Modele klimatyczne to użyteczne narzędzie do lepszego zrozumienia i prognozowania przyszłych zmian klimatu. Klimatolodzy używają ich od początku lat 70., zatem minęło już wystarczająco dużo czasu, by dokonać retrospektywnego porównania i przekonać się, czy sprawdziły się prognozy, jakie przy użyciu modeli były tworzone przed dziesiątkami lat. W Geophysical Research Letters ukazał się właśnie artykuł, w którym Zeke Hausfather z Uniwersytetu Kalifornijskiego w Berkeley oraz jego koledzy z MIT i NASA opisują wyniki swoich badań nad skutecznością modeli klimatycznych.

Dwa główne czynniki decydujące o prawidłowym bądź nie działaniu modeli klimatycznych to stopień naszego zrozumienia fizyki klimatu oraz umiejętność prognozowania przyszłej emisji CO2. Nawet najlepszy model komputerowy nie przewidzi prawidłowo rozwoju sytuacji, jeśli dostarczymy mu niewłaściwych danych o przyszłej emisji gazów cieplarnianych, a z drugiej strony jeśli będziemy korzystali z modelu, w którym zaimplementowano błędne mechanizmy dotyczące zjawisk fizycznych, to nawet dokładnie przewidzenie poziomu emisji nie pozwoli na uzyskanie właściwych wyników.

Hausfather i jego zespół wzięli pod lupę 17 prognoz klimatycznych, wykonanych za pomocą 14 modeli, które powstały pomiędzy rokiem 1970 a 2001. Zarysowywane przez nie scenariusze porównano z rzeczywistym rozwojem sytuacji do roku 2017.

Okazało się, że większość modeli prawidłowo przewidywała przyszły wzrost średniej temperatury na Ziemi. Z 17 prognoz w przypadku 10 nie zauważono statystycznej różnicy pomiędzy prognozami a rzeczywistym rozwojem sytuacji. Gorzej wypadła część modeli, które powstały przed rokiem 1990. Siedem starszych prognoz błędnie przewidziało rozwój sytuacji przewidując większe lub mniejsze ocieplenie niż było w rzeczywistości, a błędy sięgały nawet 0,1 stopnia Celsjusza. Bliższa analiza wykazała, że w przypadku 5 tych prognoz błąd nie tkwił w samych modelach, a w przewidywaniach naukowców dotyczących poziomu wymuszeń klimatycznych. Wymuszenia klimatyczne, to wpływające na klimat zjawiska pochodzące z zewnątrz systemu limatycznego (atmosfery, hydrosfery, kriosfery i biosfery). Należą do nich np. zmiany aktywności Słońca, orbity Ziemi, zapylenia atmosfery itp.

Na przykład model z 1988 roku stworzony w NASA przez grupę Jamesa Hansena przewidywał, że jeśli zanieczyszczenie powietrza będzie będzie postępowało tak, jak w czasie tworzenia prognozy, to obecnie średnia temperatura na Ziemi będzie o 0,3 stopnia wyższa, niż jest w rzeczywistości. Hausfather i jego zespół odkryli, że przyczyną błędu nie jest samo działanie modelu, ale fakt, że naukowcy nieprawidłowo przewidzieli przyszły poziom zanieczyszczenia. Na przykład przeszacowali emisję metanu, a nie przewidzieli gwałtownego spadku emisji freonów, do jakiego doszło po wejściu w życie Protokołu Montrealskiego.

Gdy do modeli, za pomocą których stworzono wspomnianych 7 błędnych prognoz wprowadzono prawidłowe dane dotyczące zanieczyszczenia atmosfery, okazało się, że 5 z nich pokazuje prawidłowe dane, zatem błędy tkwią w 2 z 17 prognoz.

Naukowcy zauważyli dwie istotne rzeczy. Po pierwsze zaskoczyła ich jakość najstarszych modeli klimatycznych, które nadspodziewanie dobrze poradziły sobie z prognozami. Po drugie zaś, stwierdzili, że nowsze modele są doskonalsze.

Klimatolodzy wiedzą nie od dzisiaj, że ich modele działają, jednak każda ich weryfikacja jest pożądana. To miło wiedzieć, że opinia o modelach się potwierdza, skomentował specjalista od modelowania klimatu Piers Forster z brytyjskiego University of Leeds. Uczony zastrzegł przy tym, że nawet w najnowocześniejszych modelach klimatycznych istnieje pewien poziom niepewności, jednak wiemy na tyle dużo, że możemy ufać modelom.


« powrót do artykułu

Share this post


Link to post
Share on other sites

To czego nie podano to fakt że wybrano 14 najlepszych modeli z około 10tyś. Więc ich zgodność może być tylko wynikiem przypadku a nie wynikiem jakości modelu fizycznego. Za 20 lat co najmniej kilka tych modeli będzie zweryfikowanych negatywnie.

 

Share this post


Link to post
Share on other sites

Sądząc po obrazku, to jeszcze kapkę powiększyć odchylenie i nowe modele w ogóle nie będą potrzebne - wszystkie odczyty i tak się zmieszczą w "marginesie" błędu.

Share this post


Link to post
Share on other sites
Godzinę temu, Mariusz Błoński napisał:

A skąd informacja o istnieniu 10 000 różnych modeli?

Czytałem o tym kilka lat temu i taki był rząd wielkości. Na prawie 50 lat badań i ilość wpompowanych środków - nie jest to wielkość nieprawdopodobna. Ale niechby byłoby to tylko 100 modeli - wciąż mówimy o wyborze tych najlepszych pod kątem dopasowania do danych historycznych. Z czasem większość z nich przestanie się zgadzać, jak stało się to z resztą.

Jedyny realistyczny model klimatyczny to symulacja pogody w skali globalnej powtarzana tysiące razy, uwzględniająca dokładną fizykę atmosfery, lód i wodę. Każde inne podejście musi być mniejszą lub większą bajeczką, bo "omija" fizykę zjawiska i staje się prymitywną ekstrapolacją danych i założeń.
 

66k trafień w google scholar. Przy czym model nie musi być całkowicie nowym programem komputerowym, to jest program + tuning magicznych parametrów.

Edited by peceed

Share this post


Link to post
Share on other sites
23 minuty temu, peceed napisał:

66k trafień w google scholar

Nie oznacza to ilości modeli rzędu 104, bo

24 minuty temu, peceed napisał:

Jedyny realistyczny model klimatyczny to symulacja pogody w skali globalnej powtarzana tysiące razy, uwzględniająca dokładną fizykę atmosfery, lód i wodę.

tak właśnie jest, ale tych realistycznych jednak jest parę i o nich mowa (diabeł tkwi w szczegółach, programistach ;) i przyjmowanych parametrach). Wróżby Wiedzącej Baby Jangi nie uwzględniamy jako modelu.

Share this post


Link to post
Share on other sites

Tutaj są kryteria, według których wybrano do przeglądu te, a nie inne modele:

We conducted a literature search to identify papers published prior to the early-1990s that include climate model outputs containing both a time-series of projected future GMST (with a 146minimum of two points in time) and future forcings (including both a publication date and future projected atmospheric CO2concentrations, at a minimum). Eleven papers with fourteen distinct projections were identified that fit these criteria.

Share this post


Link to post
Share on other sites
3 godziny temu, peceed napisał:

To czego nie podano to fakt że wybrano 14 najlepszych modeli z około 10tyś. Więc ich zgodność może być tylko wynikiem przypadku a nie wynikiem jakości modelu fizycznego.

I bardzo dobrze, że wybrano najlepsze modele, dlaczego mieliby wybierac słabe, robione przez domorosłych "fahofców"? Dobry model to logiczny i racjonalny model z odpowiednim poziomem szczegółowości, który nie bierze się z sufitu. Także spośród tych kilkunastu wybrańców można by wybrać te najbardziej prawdopodobne, najbardziej szczegółowe. O przypadku można byłoby mówić tylko wtedy, gdyby tworzono modele zupełnie arbitralnie na podstawie astrologii czy jakichś zabobonów.

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites
Godzinę temu, Mariusz Błoński napisał:

Tutaj są kryteria, według których wybrano do przeglądu te, a nie inne modele:

 

Odwołuję co pisałem - jakie modelowanie komputerow :/

Przeczytałem sobie całą pracę - straszne gówno. Klasyczny przykład w którym praca pokazuje coś innego niż twierdzi że pokazuje :/

Ostrzeżeniem powinien być już format pliku w którym powstało owo dzieło.

Ale ważne że kolejny klimatyczny news poszedł...

Share this post


Link to post
Share on other sites

Dopasowanie modeli do faktycznych obserwacji temperatury:

797174281_2019-12-0520_45_22-inp_Hausfather_ha08910q_pdf.thumb.png.df61b5a86c3fecf9b816382b2e432df3.png

Pierwszy wykres przedstawia zmiany temperatury w czasie. Najlepszą średnią prognozę daje model Mitchella (między 1970 a 2000) oraz pierwszy model Hansena et al. (1981-2017).

 

Share this post


Link to post
Share on other sites
19 godzin temu, Antylogik napisał:

Najlepszą średnią prognozę daje model Mitchella (między 1970 a 2000)

Jasne, z bajkowym ECS  2.37.

Jedyne czym są te ćwiczenia to zabawy w tworzenie rosnących rodzin krzywych i wybranie tej która najlepiej pasuje do danych.

22 godziny temu, Antylogik napisał:

Dobry model to logiczny i racjonalny model z odpowiednim poziomem szczegółowości, który nie bierze się z sufitu.

Można parametryzować krzywe na bardzo wiele sposobów, dobierając współczynniki. Wciąż jest to dosyć naiwna ekstrapolacja danych.

Dopiero gdy osiągnie się modelowanie klimatu przez symulowanie pogody, będzie można mówić o "fizycznym" modelu.

Z 5 lat temu wymyśliłem inne podejście - użycie istniejących zapisów pogodowych do oszacowania wpływu wzrostu temperatury pod wpływem CO2. Otóż dzielimy ziemię na małe komórki i w każdej z nich szacujemy jak zwiększenie CO2 zwiększa temperaturę, traktując inne czynniki jako stałe. Reguła przekory sprawia, że ignorowanie potencjalnych sprzężeń zwrotnych da nam górne ograniczenie na nierównowagową czułość klimatu, tzn. wszystkie nieuwzględnione różnice w zmianie dynamiki atmosfery (poziom pogody) statystycznie zmniejszają przyrost temperatury. W już mokrych komórkach przyrost CO2 nie dużego znaczenia, bo bazą od której należy badać przyrost jest istniejąca tak czy inaczej para w powietrzu. Dlatego jedynie suche komórki zaobserwują pełne dogrzanie. Z takiej analizy wychodzi, że nie ma możliwości uzyskania większej nierównowagowej czułości klimatycznej niż w suchym modelu, czyli około 1.3 stopnia, a dokładne obliczenia mogą tylko obniżyć tę wartość. Nazywanie zwiększenia CO2 w powietrzu wymuszeniem jest nadużyciem semantycznym niezgodnym z fizyką zjawisk. Zwiększenie CO2 nie zwiększy istotnie ilości pary wodnej, bo ta w pierwszym rzędzie zależy bezpośrednio od pogody i nasłonecznienia, a gdy już się pojawia to wpływ przyrostu CO2 na przyrost jej ilości szybko maleje będąc na wstępie i tak drugorzędowym efektem.

Share this post


Link to post
Share on other sites
Godzinę temu, peceed napisał:

Jasne, z bajkowym ECS  2.37

Mógłby kolega wytłumaczyć w czym bajkowość takiej czułości klimatu? Mikołaj jakiś odwiedził, czy może Rudolf zahaczył czerwonym noskiem?

Godzinę temu, peceed napisał:

Jedyne czym są te ćwiczenia to zabawy w tworzenie rosnących rodzin krzywych i wybranie tej która najlepiej pasuje do danych.

Dokładnie. Nazywa się to nawet metodą naukową. Kolega proponuje ocenianie aparycji wiedzącej baby jangi w kontekście przewidywania zmian klimatycznych? Jeśli aparycycja i mi przypadnie do gustu, to kto wie...

Godzinę temu, peceed napisał:

Można parametryzować krzywe na bardzo wiele sposobów, dobierając współczynniki. Wciąż jest to dosyć naiwna ekstrapolacja danych.

Niekoniecznie. Model klimatyczny to sporo równań fizycznych, parametryzuje się wiele rzeczy (bo NIE WIEMY!), ale nie jest to zabawa w piaskownicy.

Godzinę temu, peceed napisał:

Dopiero gdy osiągnie się modelowanie klimatu przez symulowanie pogody, będzie można mówić o "fizycznym" modelu.

Tak właśnie dziś robimy; trochę superkomputerów przegrzewa się od tego. Wiesz zapewne, że zwyczajne prognozowanie pogody na dwa tygodnie jest zwykle o kant stołu. Wiesz dlaczego? Szukamy trendów jesli o klimat chodzi (w nieco dłuższej skali).

Godzinę temu, peceed napisał:

Z 5 lat temu wymyśliłem inne podejście - użycie istniejących zapisów pogodowych do oszacowania wpływu wzrostu temperatury pod wpływem CO2. Otóż dzielimy ziemię na małe komórki i w każdej z nich szacujemy jak zwiększenie CO2 zwiększa temperaturę, traktując inne czynniki jako stałe.

Pięknie, ale masz dość OBSERWACJI do rozpoczęcia tasku? Nie sądzę.

Share this post


Link to post
Share on other sites

Gdyby ode mnie zależało, to takie osoby jak ta wyżej wycinałbym od razu z forum. Jedynym jej celem jest krytyka dla krytyki, pseudoracjonalny sceptycyzm do niczego nie prowadzący, posługująca się głównie erystyką. Dowodem na to jest chociażby fakt, że wg niej format .pdf (w którym został zapisany artykuł) powinien stanowić ostrzeżenie. Ale przed czym już nie napisze.

  • Confused 1

Share this post


Link to post
Share on other sites

Całe szczęście, od ciebie nie zależy. Miłego dnia.

Share this post


Link to post
Share on other sites
52 minuty temu, Astro napisał:

Miłego dnia.

Tego nigdy za dużo :), chociaż  jak to często bywa, przesyłka pomyliła adresata:

58 minut temu, Antylogik napisał:

Gdyby ode mnie zależało, to takie osoby jak ta wyżej wycinałbym od razu z forum. (…) Dowodem na to jest chociażby fakt, że wg niej format .pdf (w którym został zapisany artykuł)powinien stanowić ostrzeżenie.

 

W dniu 5.12.2019 o 18:58, peceed napisał:

Ostrzeżeniem powinien być już format pliku w którym powstało owo dzieło.

 

Edited by 3grosze

Share this post


Link to post
Share on other sites
W dniu 6.12.2019 o 19:21, Astro napisał:

Mógłby kolega wytłumaczyć w czym bajkowość takiej czułości klimatu?

Jest za wysoka. Mój twardy limit to 2.0 ( z zastrzeżeniem że nie ma on charakteru uniwersalnego bo równowagowa czułość klimatu zmienia się wraz z... aktualnym klimatem).

W dniu 6.12.2019 o 19:26, Antylogik napisał:

Gdyby ode mnie zależało, to takie osoby jak ta wyżej wycinałbym od razu z forum.

Kolega się teraz użala nad sobą? Może Facebook jeszcze potrzebuje moderatorów...

W dniu 6.12.2019 o 19:21, Astro napisał:

Wiesz zapewne, że zwyczajne prognozowanie pogody na dwa tygodnie jest zwykle o kant stołu. Wiesz dlaczego? Szukamy trendów jesli o klimat chodzi (w nieco dłuższej skali).

To że symulacje pogodowe są chaotyczne akurat nie ma znaczenia gdy chcemy probabilistycznie wypróbkować możliwe scenariusze. Znacznie gorszym problemem jest niezupełność modeli, mogą istnieć mechanizmy które redukują wpływ CO2 do praktycznie zera i one nie są w żadnym wypadku wykluczone! Fiksacja na CO2 jest szkodliwa z naukowego punktu widzenia.

W dniu 6.12.2019 o 19:21, Astro napisał:

Nazywa się to nawet metodą naukową. Bo nie wiemy 

Uprawianie nauki sprowadzono do bezmyślnego kopiowania kilku tricków stosowanych kiedyś przez osoby wybitne, w nadziei że osiągnie się podobne rezultaty:/

Co do klimatologii jest ona bardzo szczególnym przykładem spatologizowanej nauki, której finansowanie nie zależy od jakości wyników tylko stopnia wzbudzanego strachu. Więc zgodnie z logiką najwięcej pary idzie właśnie w taką działalność.

A tymczasem poziom wody w interglacjałach bywał wiele metrów większy od obecnego przy znacznie niższym poziomie CO2.

W dniu 6.12.2019 o 19:26, Antylogik napisał:

Dowodem na to jest chociażby fakt, że wg niej format .pdf (w którym został zapisany artykuł) powinien stanowić ostrzeżenie. Ale przed czym już nie napisze.

Przed niekompetencją. I nie chodzi o pdf.

W dniu 6.12.2019 o 19:21, Astro napisał:

Pięknie, ale masz dość OBSERWACJI do rozpoczęcia tasku? Nie sądzę.

Ja się tym już nie zajmuję i nie zajmę z przyczyn zdrowotnych. Ale ilość dostępnych danych jak najbardziej wystarcza. To jest słabe upierać się, że nie jesteśmy w stanie policzyć prawidłowo wzrostu temperatury z powodu zwiększenia CO2 w skali tygodnia, a jednocześnie twierdzili że modele klimatyczne mają wartość. Natomiast wnioski o niemożliwości osiągnięcia większej czułości klimatycznej niż dla modelu suchego są jak najbardziej prawdziwe, bo wynikają z prostych ograniczeń fizycznych. Chodzi o to, że nie istnieje dodatnie silne sprzężenie zwrotne z powodu pary wodnej na skutek zwiększenia ilości CO2. Słabiej dotyczy to innych gazów cieplarnianych których widmo nie jest tak dobrze przykryte przez parę wodną. Woda ma kluczowe znaczenie w innym miejscu, przez formowanie lodu i zmianę albedo Ziemi.

W dniu 6.12.2019 o 19:21, Astro napisał:

Tak właśnie dziś robimy; trochę superkomputerów przegrzewa się od tego.

Te cudowne modele komputerowe są praktycznie bez wyjątku niestabilne numerycznie. Więc niezależnie od tego jak bardzo się przegrzewają, nie liczą tego co wydaje się, że liczą, ich twórcom. Oczywiście dalej można poprawiać parametry i uzyskiwać zgodność z danymi historycznymi, tylko fizyka w tym zanika.

Share this post


Link to post
Share on other sites
22 godziny temu, peceed napisał:

Jest za wysoka. Mój twardy limit to 2.0

Szacun, ale doświadczenie podpowiada, że ten twardy niekoniecznie musi być twardy, a głębsze doświadczenie nawet sugeruje, że twardość bywa względna. ;)

22 godziny temu, peceed napisał:

Znacznie gorszym problemem jest niezupełność modeli, mogą istnieć mechanizmy które redukują wpływ CO2 do praktycznie zera i one nie są w żadnym wypadku wykluczone!

Słusznie! WSKAŻ je!!! :D

22 godziny temu, peceed napisał:

Fiksacja na CO2 jest szkodliwa z naukowego punktu widzenia.

Mógłbyś wskazać o jaki to naukowy punkt chodzi, bo myślimy zapewne o kilku...

22 godziny temu, peceed napisał:

Ja się tym już nie zajmuję i nie zajmę z przyczyn zdrowotnych.

Zdrowia życzę, a z pewnością zgodzisz się, że niższy poziom CO2 z pewnością się temu przyczyni. Nieprawdaż?

22 godziny temu, peceed napisał:

Te cudowne modele komputerowe są praktycznie bez wyjątku niestabilne numerycznie.

Skoro zajmowałeś się tym to wiesz doskonale, że to stwierdzenie jest fajne w kontekście popkultury, ale chyba tutaj powinniśmy używać innego języka; nie sądzisz?

Itp.

P.S. Zdrowia życzę szczerze, bez jakichkolwiek symulacji komputerowych.

Share this post


Link to post
Share on other sites
2 godziny temu, Astro napisał:

Słusznie! WSKAŻ je!!! :D

No chyba podałem bardzo ważny mechanizm - traktowanie jako bazy do liczenia podwojeń samego CO2 nie uwzględniającego pary wodnej z jej wariacją. To prawie tak, jabyśmy nazwali cześć CO2 gazem A a część gazem B i traktowali przyrosty gazu jako część B, potem traktując przyrosty temperatury od nich niezależnie.

 

2 godziny temu, Astro napisał:

Mógłbyś wskazać o jaki to naukowy punkt chodzi, bo myślimy zapewne o kilku...

Dochodzenie do Bayesowskiej prawdy.

2 godziny temu, Astro napisał:

Skoro zajmowałeś się tym to wiesz doskonale, że to stwierdzenie jest fajne w kontekście popkultury, ale chyba tutaj powinniśmy używać innego języka; nie sądzisz?

Te które raczyły udostępnić swoje kody źródłowe.

2 godziny temu, Astro napisał:

a z pewnością zgodzisz się, że niższy poziom CO2 z pewnością się temu przyczyni. Nieprawdaż?

Absolutnie nie. Ostatnia katastrofa jakiej świat potrzebuje to obniżenie ilości CO2. A związku ze zdrowiem nie widzę.

Share this post


Link to post
Share on other sites
9 minut temu, peceed napisał:

Dochodzenie do Bayesowskiej prawdy.

Pustosłowie, wyuczone frazesy , mówienie ogólnikami.

W dniu 9.12.2019 o 19:15, peceed napisał:

Przed niekompetencją. I nie chodzi o pdf.

Skoro nie potrafisz otworzyć artykułu w formacie pdf, co ja bez trudu zrobiłem, to raczej to świadczy o twojej niekompetencji. Jeżeli jednak twierdzisz, że nie chodzi o pdf, i jak zwykle nie napisałeś, o jaki format chodzi, to znaczy, że nie wiesz o czym mówisz. A skoro nie wiesz nie wiesz o czym mówisz, to znaczy, że się kompromitujesz. Skoro się skompromitowałeś, to powinieneś mieć świadomość, że nikt już nie będzie traktował cię poważnie.

Share this post


Link to post
Share on other sites
22 godziny temu, Antylogik napisał:

Skoro nie potrafisz otworzyć artykułu w formacie pdf, co ja bez trudu zrobiłem...

 Gratuluję dedukcji na poziomie kawałów o milicjantach połączonej ze znakomitym zrozumieniem czytanego tekstu.

To miło że ludzie jeszcze stosują znaczące pseudonimy.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Niedźwiedzie polarne umierają z głodu. Jeśli obecny trend globalnego ocieplenia będzie kontynuowany, do roku 2100 wyginą niemal wszystkie populacje tych zwierząt. Jak donoszą autorzy badań opublikowanych właśnie w Nature Climate Change, niektóre populacje niedźwiedzi polarnych już teraz skazane są na zagładę. Tam, gdzie mieszkają, znacząco zmniejszyła się liczba dni z taką pokrywą lodową na oceanie, by zwierzęta mogły polować na foki. Wydłużył się więc okres postu i zwierzęta umierają z głodu.
      Czas pomiędzy ponownym pojawieniem się lodu wydłuża się. A to oznacza dłuższy post, mówi Steven Amstrup, główny naukowiec organizacji Polar Bears International.
      Amstrup kierował badaniami, które wykazały, że w ciągu najbliższych 80 lat aż 12 z 13 badanych populacji zostanie zdziesiątkowanych przez globalne ocieplenie. Dla 6 innych populacji brak jest odpowiedniej liczby danych.
      Do roku 2100 narodziny młodych niedźwiedzi będą niemożliwe lub niezwykle utrudnione we wszystkich populacjach z wyjątkiem – być może – populacji zamieszkującej Wyspę Królowej Elżbiety, mówi Amstrup.
      Rozważany przez naukowców scenariusz zakłada, że do roku 2100 średnie temperatury na Ziemi zwiększą się o 3,3 stopnia w porównaniu z okresem sprzed rewolucji przemysłowej. Dotychczas ogrzaliśmy Ziemię o około 1 stopień Celsjusza, a już wiąże się to z pojawieniem się fal upałów, susz i innymi gwałtownymi zjawiskami atmosferycznymi.
      Nawet jeśli uda się zatrzymać globalne ocieplenie na poziomie 2,4 stopnia Celsjusza to i tylko oddali to chwilę załamania się populacji niedźwiedzi polarnych. To większe zmiany, niż to, czego niedźwiedzie doświadczyły w ciągu ostatniego miliona lat swojej ewolucji, mówi Amstrup.
      Problemem nie są same rosnące temperatury, a to, co ze sobą niosą oraz niezdolność niedźwiedzi do dostosowania się do tak szybkich zmian. Jeśli w jakiś magiczny sposób morska pokrywa lodowa zostałaby utrzymana na dotychczasowym poziomie, niedźwiedzie polarne mogłyby sobie poradzić, stwierdza uczony. Problem w tym, że ich habitat się po prostu roztapia, dodaje.
      Obecnie połowa lądowej megafauny jest zagrożona wyginięciem. Jednak tylko niedźwiedzie polarne są zagrożone głównie z powodu zmian klimatycznych. Taki stan nie potrwa jednak długo. Autorzy raportu ostrzegają, że w najbliższych dekadach zmiany klimatu mogą zagrozić kolejnym gatunkom wielkich ssaków.
      Amstrup i jego zespół badali szanse niedźwiedzi polarnych korzystając z dwóch rodzajów danych. Pierwszy z nich to informacje, jak długo w poszczególnych regionach trwa czas przymusowego postu, gdy morski lód jest na tyle skąpy, że niedźwiedzie nie mogą polować. Okazuje się, że w niektórych regionach stan taki trwa nawet ponad pół roku. Drugi zestaw danych to prognozy dotyczące zmian zasięgu lodu morskiego.
      Szacując jak chude i jak grube mogą być niedźwiedzie polarne oraz modelując ich zużycie energii, byliśmy w stanie obliczyć, jak długo niedźwiedzie mogą pościć zanim odsetek przeżycia młodych i dorosłych zacznie spadać, mówi profesor Peter Molnar z University of Toronto. Z badań nad niedźwiedziami wiemy, że na przykład samiec z populacji West Hudson Bay, który w momencie rozpoczęcia postu ma 80% normalnej wagi ciała, może przetrwać 125 dni zamiast normalnych 200 dni. W jeszcze gorszej sytuacji są młode, szczególnie, gdy ich matka pościła zbyt długo i nie jest w stanie zapewnić im mleka odpowiedniej jakości. Najbardziej wytrzymałe na długotrwały post są samice, które nie posiadają młodych.
      Naukowcy mówią, że obecna klasyfikacja niedźwiedzi polarnych, które Międzynarodowa Unia Ochrony Przyrody (IUCN) uznaje za gatunek narażony – a nie zagrożony czy krytycznie zagrożony – nie oddaje powagi sytuacji. IUCN bierze bowiem pod uwagę głównie takie zagrożenia jak kłusownictwo czy wkraczanie człowieka na tereny zajęta przez dany gatunek. Tymczasem niedźwiedziom zagrażają zmiany klimatu, a nie możemy wybudować płotu, by chronić ocean przed wzrostem temperatury, mówi Amstrup.
      Pomyślmy o tym w ten sposób: jeśli zepchniemy Cię z dachu 100-piętrowego budynku, to czy należy uznać, że Twój poziom zagrożenia życia jest tylko "narażony" dopóki nie miniesz 10. piętra czy też będziesz „zagrożony” przez całą drogę w dół?, wyjaśnia Amstrup. W przypadku niedźwiedzi polarnych nie istnieje żaden Plan B. Jedynym sposobem ochrony ich habitatu jest zatrzymanie globalnego ocieplenia, dodaje uczony.
      Szczegóły badań zostały zaprezentowane w artykule Fasting season length sets temporal limits for global polar bear persistence

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Badanie Oceanu Południowego nigdy nie było łatwe. To nieprzyjazne, niebezpieczne i odległe wody, do których docierali najbardziej uparci podróżnicy. Jednak okolice te sprawiają problemy nie tylko tym, którzy chcą prowadzić badania na miejscu. Nawet dla modeli klimatycznych Ocean Południowy jest wyzwaniem. Nie zachowuje się bowiem tak, jak modele przewidują. Jest zimniejszy i mniej słony niż wynika z modeli, mówi Craid Rye z Wydziału Ziemi, Atmosfery i Nauk Planetarnych MIT.
      W ciągu ostatnich dekad, wraz z postępującym globalnym ociepleniem, wody Oceanu Południowego stawały się coraz chłodniejsze, dzięki czemu każdej zimy zwiększa się zasięg lodu morskiego. Postępują więc procesy, które są przeciwieństwem tego, co przewidują modele. Rye jest głównym autorem artykułu zaakceptowanego właśnie do publikacji w Geophysical Research Letters, w którym uczeni próbują wyjaśnić rozbieżność między rzeczywistością a modeli. To wielka zagadka klimatologii, mówi profesor John Marshall, pod opiekun naukowy Rye.
      Jak zauważa uczony, obecnie wykorzystuje się około 30 modeli klimatycznych, a ich przewidywania nie zgadzają się z obserwacjami tego, co dzieje się na Oceanie Południowym. Marshall, Rey i pozostali autorzy – naukowcy z NASA, Columbia University i University of Exeter – próbują odpowiedzieć na pytanie, jak to możliwe, że Ocean Południowy ochładza się w ocieplającym się świecie.
      Już w 2016 roku Marshall badał tę kwestię i opublikował w Climate Dynamics artykuł, w którym stwierdzał, że zachodnie wiatry, wiejące od strony Antarktydy, a dodatkowo wzmacniane przez dziurę ozonową, mogą odpowiadać za część ochłodzenia wód oceanu. W konkluzji artykułu pisał wówczas, że musi istnieć jeszcze jakiś dodatkowy mechanizm.
      Teraz dowiadujemy się, że tym czymś może być woda z topniejących lodowców.
      Naukowcy wykorzystali metodę używaną do testowania modeli matematycznych, gdy do modelu wprowadza się znane dane z przeszłości i sprawdza, czy uzyskane wyniki pokrywały się z rzeczywistością. Tego typu eksperymenty mogą np. służyć sprawdzeniu, czy w modelu klimatycznym nie brakuje jakiegoś czynnika. Do modelu dodaj się np. znane informacje o opadach, temperaturach czy wiatrach z danego okresu i sprawdza, czy dobrze obliczył on to, co nastąpiło w rzeczywistości.
      W tym przypadku naukowcy postanowili do modelu GISS dodać słodką wodę z topniejących lodowców Antarktydy. Na podstawie obserwacji lodu szelfowego oraz lodu znajdującego się na lądzie, oszacowali, że w epoce przedprzemysłowej każdego roku do Oceanu Południowego trafiało 750 gigaton wody z topniejącego lodu. Gdy dodali do modelu taką ilość, okazało się, że dochodzi do ochłodzenia powierzchni oceanu, zmniejszenia jego zasolenia i zwiększenia zasięgu lodu pływającego.
      Model uwzględniający wodę z topniejącej Arktyki wykazał, że – wbrew intuicji – globalne ocieplenie może prowadzić do zwiększania się zasięgu lodu pływającego. Im więcej lodu z Antarktydy topnieje, tym chłodniejsza i mniej zasolona jest powierzchnia oceanu, co w zimie skutkuje zwiększeniem zasięgu lodu. Tak skorygowany model zdał egzamin porównawczy z danymi historycznymi. Teraz naukowcy spróbują wykorzystać go do zbadania trendów w przyszłości.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W odległości zaledwie 900 kilometrów od Bieguna Południowego odkryto pozostałości lasu deszczowego sprzed 90 milionów lat. Analiza znalezionej tam gleby z okresu kredy wykazała obecność korzeni, pyłków i zarodników. To dowodzi, że klimat był wówczas znacznie cieplejszy niż dotychczas sądzono.
      Odkrycia dokonał niemiecko-brytyjski zespół naukowy z Centrum Badań Polarnych i Morskich w Niemczech oraz Imperial College London. Współautorka badań profesor Tina van de Flierdt z Imperial, powiedziała: zachowanie pozostałości po lesie sprzed 90 milionów lat jest czymś wyjątkowym, jednak jeszcze bardziej zaskakujące jest to, czego się dowiadujemy. Nawet w czasie nocy polarnej bagniste lasy deszczowe mogły rosnąc w pobliżu Bieguna Południowego, pokazując nam, ze klimat był wówczas cieplejszy niż sądziliśmy.
      To również sugeruje, że poziom CO2 w atmosferze był w tym okresie wyższy, niż przypuszczano, co może być przyczynkiem do zmian w modelach klimatycznych dla tamtego okresu. Środkowy okres kredy (115–80 milionów lat temu) to okres największego rozkwitu dinozaurów i jednocześnie najgorętszy okres ostatnich 140 milionów lat. Poziom oceanów był wówczas o 170 metrów wyższy niż obecnie, a średnie temperatury w tropikach mogły sięgać 35 stopni Celsjusza.
      Niewiele jednak wiemy o warunkach, jakie wówczas panowały w okolicach bieguna południowego. Teraz naukowcy odkryli tam pozostałości lasu deszczowego, który mógł być podobny do lasów występujących obecnie na Nowej Zelandii. I to mimo faktu, żę przez cztery miesiące w roku panuje na tym terenie mrok. Obecność lasu deszczowego sugeruje że średnie temperatury wynosiły tam około 12 stopni Celsjusza. Mało prawdopodobne, by był tam jakikolwiek lód.
      Pozostałości gleby z tropikalnego lasu pochodzą z osadów pobranych w pobliżu lodowców Pine Island i Thwaites w Zachodniej Antarktyce. Uwagę naukowców przykuła część osadów o nietypowym kolorze. Przeprowadzili więc skanowanie tomografem komputerowym i ujawnili gęstą siec korzeni, które były tak dobrze zachowane, iż można było zobaczyć strukturę poszczególnych komórek. Próbka zawierała też olbrzymią ilość pyłków i zarodników, w tym pierwsze znalezione na tej szerokości geograficznej pozostałości roślin kwitnących.
      Wykonana przez naukowców rekonstrukcja klimatu wykazała, że średnia roczna temperatura na tamtym obszarze wynosiła około 12 stopni Celsjusza, czyli była sporo wyższa niż w Polsce. Z kolei średnia temperatura w miesiącach letnich to około 19 stopni Celsjusza. Temperatura wody w rzekach i bagnach dochodziła do 20 stopni Celsjusza, a ilość opadów dorównywała obecnej ilości opadów w Walii.
      Przed naszymi badaniami uznawano, że w kredzie koncentracja dwutlenku węgla w atmosferze wynosiła około 1000 ppn. Jednak z modeli uwzględniających zdobyte przez nas dane wynika, że taka jak opisywana temperatura na Antarktyce może być osiągnięta przy koncentracji CO2 rzędu 1120–1680 ppm, mówi główny autor badań, doktor Johann Klages z Centrum Badań Morskich i Polarnych.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Na Uniwersytecie w Stuttgarcie uruchomiono najpotężniejszy superkomputer w Europie. Maszyna „Hawk” stanęła w uniwersyteckim Höchstleistungsrechenzentrum (HLRS). Jej maksymalna moc obliczeniowa wynosi 26 petaflopsów, co oznacza, że w czerwcu może znaleźć się w pierwszej dziesiątce najnowszej edycji listy TOP500.
      Obecnie najwyżej notowanym europejskim superkomputerem na liście TOP500 jest szwajcarski Piz Daint o wydajności 21,23 PFlop/s. W pierwszej dziesiątce znajdziemy też niemiecki SuperMUC-NG (19,47 PFlop/s), który uplasował się na 9. pozycji.
      Komputer ze Stuttgartu to maszyna Apollo 9000 System autorstwa Hewlett Packard Enterprise. Zbudowano go z 5632 węzłów, z których każdy składa się z dwóch 64-rdzeniowych procesorów AMD EPYC Rome 7742 taktowanych zegarami o częstotliwości 2,25 GHz. Całość korzysta zatem z 720 896 rdzeni obliczeniowych. Pamięć operacyjna systemu to około 1,44 petabajta. Superkomputer ma do dyspozycji około 25 PB przestrzeni dyskowej. Podczas standardowej pracy komputer wymaga 3,5 MW mocy.
      „Hawk” jest niemal 5-krotnie bardziej wydajny od „Hazel Hen”, wykorzystywany w HLRS superkomputer o mocy 5,64 petaflopsa (35. pozycja na liście TOP500).
      „Hawk” posłuży do badań naukowych i przemysłowych. Za jego pomocą będą m.in. badane metody optymalizacji wydajności energetycznej turbin wiatrowych, silników i elektrowni, prowadzone będą badania nad poprawieniem właściwości aerodynamicznych samolotów i samochodów. Za pomocą superkomputerów modeluje się klimat czy rozprzestrzenianie się epidemii. Superkomputer posłuży też przemysłowi. Już teraz wiemy, że 10% jego czasu obliczeniowego zostanie przeznaczonych na prace związane w digitalizacją przemysłu. Już w tej chwili z usług HLRS korzysta 40 firm.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Uczeni z Arctic Research Center na University of Illinois poinformowali o rekordowo dużym przyroście powierzchni lodu w Arktyce. Niezwykle chłodna zima spowodowała, że w październiku odnotowano najszybsze od 1979 roku tempo zwiększania się powierzchni lodu. Jeszcze w ubiegłym roku notowano rekordowo niskie przyrosty.
      W ciągu ostatnich 10 lat byliśmy świadkami ciągłego zmniejszania się powierzchni zajętej przez lód. W roku bieżącym straty zostały odrobione i obecnie powierzchnia ta jest równa średniej z lat 1979-2000.
      Informacja taka nie robi wrażenia na Billu Champanie z Arctic Climate Center University of Illinois. Mówi on, że to sezonowe wahnięcie, które nie zmienia tendencji spadkowej. Zdaniem naukowca już wkrótce powierzchnia lodu przestanie się zwiększać. Zdaniem Chapmana nie uzyskaliśmy żadnych nowych danych, które świadczą, że nie mamy do czynienia z globalnym ociepleniem.
      Nieco innego zdania jest doktor Patrick Michaels z University of Virginia. Co prawda zwraca on uwagę, że to, co dzieje się w Arktyce jest zgodne z obecnie obowiązującymi modelami klimatycznymi, a więc nie mamy do czynienia z odwróceniem tendencji. Zauważa jednak, iż w ostatnim czasie na półkuli południowej wydarzyło się kilka "dziwnych rzeczy", których nie tłumaczą współczesne teorie. Modele przewidują ocieplanie się wód wokół Antarktydy, dlaczego więc obserwujemy przyrost masy lodu? - pyta. Dodaje, że duże obszary południowego Pacyfiku stają się chłodniejsze, a nie cieplejsze. Obecnie nikt nie potrafi wytłumaczyć, dlaczego tak się dzieje.
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...