Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Naukowcy sprawdzili wiarygodność modeli klimatycznych na przestrzeni ostatnich 50 lat

Recommended Posts

Modele klimatyczne to użyteczne narzędzie do lepszego zrozumienia i prognozowania przyszłych zmian klimatu. Klimatolodzy używają ich od początku lat 70., zatem minęło już wystarczająco dużo czasu, by dokonać retrospektywnego porównania i przekonać się, czy sprawdziły się prognozy, jakie przy użyciu modeli były tworzone przed dziesiątkami lat. W Geophysical Research Letters ukazał się właśnie artykuł, w którym Zeke Hausfather z Uniwersytetu Kalifornijskiego w Berkeley oraz jego koledzy z MIT i NASA opisują wyniki swoich badań nad skutecznością modeli klimatycznych.

Dwa główne czynniki decydujące o prawidłowym bądź nie działaniu modeli klimatycznych to stopień naszego zrozumienia fizyki klimatu oraz umiejętność prognozowania przyszłej emisji CO2. Nawet najlepszy model komputerowy nie przewidzi prawidłowo rozwoju sytuacji, jeśli dostarczymy mu niewłaściwych danych o przyszłej emisji gazów cieplarnianych, a z drugiej strony jeśli będziemy korzystali z modelu, w którym zaimplementowano błędne mechanizmy dotyczące zjawisk fizycznych, to nawet dokładnie przewidzenie poziomu emisji nie pozwoli na uzyskanie właściwych wyników.

Hausfather i jego zespół wzięli pod lupę 17 prognoz klimatycznych, wykonanych za pomocą 14 modeli, które powstały pomiędzy rokiem 1970 a 2001. Zarysowywane przez nie scenariusze porównano z rzeczywistym rozwojem sytuacji do roku 2017.

Okazało się, że większość modeli prawidłowo przewidywała przyszły wzrost średniej temperatury na Ziemi. Z 17 prognoz w przypadku 10 nie zauważono statystycznej różnicy pomiędzy prognozami a rzeczywistym rozwojem sytuacji. Gorzej wypadła część modeli, które powstały przed rokiem 1990. Siedem starszych prognoz błędnie przewidziało rozwój sytuacji przewidując większe lub mniejsze ocieplenie niż było w rzeczywistości, a błędy sięgały nawet 0,1 stopnia Celsjusza. Bliższa analiza wykazała, że w przypadku 5 tych prognoz błąd nie tkwił w samych modelach, a w przewidywaniach naukowców dotyczących poziomu wymuszeń klimatycznych. Wymuszenia klimatyczne, to wpływające na klimat zjawiska pochodzące z zewnątrz systemu limatycznego (atmosfery, hydrosfery, kriosfery i biosfery). Należą do nich np. zmiany aktywności Słońca, orbity Ziemi, zapylenia atmosfery itp.

Na przykład model z 1988 roku stworzony w NASA przez grupę Jamesa Hansena przewidywał, że jeśli zanieczyszczenie powietrza będzie będzie postępowało tak, jak w czasie tworzenia prognozy, to obecnie średnia temperatura na Ziemi będzie o 0,3 stopnia wyższa, niż jest w rzeczywistości. Hausfather i jego zespół odkryli, że przyczyną błędu nie jest samo działanie modelu, ale fakt, że naukowcy nieprawidłowo przewidzieli przyszły poziom zanieczyszczenia. Na przykład przeszacowali emisję metanu, a nie przewidzieli gwałtownego spadku emisji freonów, do jakiego doszło po wejściu w życie Protokołu Montrealskiego.

Gdy do modeli, za pomocą których stworzono wspomnianych 7 błędnych prognoz wprowadzono prawidłowe dane dotyczące zanieczyszczenia atmosfery, okazało się, że 5 z nich pokazuje prawidłowe dane, zatem błędy tkwią w 2 z 17 prognoz.

Naukowcy zauważyli dwie istotne rzeczy. Po pierwsze zaskoczyła ich jakość najstarszych modeli klimatycznych, które nadspodziewanie dobrze poradziły sobie z prognozami. Po drugie zaś, stwierdzili, że nowsze modele są doskonalsze.

Klimatolodzy wiedzą nie od dzisiaj, że ich modele działają, jednak każda ich weryfikacja jest pożądana. To miło wiedzieć, że opinia o modelach się potwierdza, skomentował specjalista od modelowania klimatu Piers Forster z brytyjskiego University of Leeds. Uczony zastrzegł przy tym, że nawet w najnowocześniejszych modelach klimatycznych istnieje pewien poziom niepewności, jednak wiemy na tyle dużo, że możemy ufać modelom.


« powrót do artykułu

Share this post


Link to post
Share on other sites

To czego nie podano to fakt że wybrano 14 najlepszych modeli z około 10tyś. Więc ich zgodność może być tylko wynikiem przypadku a nie wynikiem jakości modelu fizycznego. Za 20 lat co najmniej kilka tych modeli będzie zweryfikowanych negatywnie.

 

Share this post


Link to post
Share on other sites

Sądząc po obrazku, to jeszcze kapkę powiększyć odchylenie i nowe modele w ogóle nie będą potrzebne - wszystkie odczyty i tak się zmieszczą w "marginesie" błędu.

Share this post


Link to post
Share on other sites
Godzinę temu, Mariusz Błoński napisał:

A skąd informacja o istnieniu 10 000 różnych modeli?

Czytałem o tym kilka lat temu i taki był rząd wielkości. Na prawie 50 lat badań i ilość wpompowanych środków - nie jest to wielkość nieprawdopodobna. Ale niechby byłoby to tylko 100 modeli - wciąż mówimy o wyborze tych najlepszych pod kątem dopasowania do danych historycznych. Z czasem większość z nich przestanie się zgadzać, jak stało się to z resztą.

Jedyny realistyczny model klimatyczny to symulacja pogody w skali globalnej powtarzana tysiące razy, uwzględniająca dokładną fizykę atmosfery, lód i wodę. Każde inne podejście musi być mniejszą lub większą bajeczką, bo "omija" fizykę zjawiska i staje się prymitywną ekstrapolacją danych i założeń.
 

66k trafień w google scholar. Przy czym model nie musi być całkowicie nowym programem komputerowym, to jest program + tuning magicznych parametrów.

Edited by peceed

Share this post


Link to post
Share on other sites

Tutaj są kryteria, według których wybrano do przeglądu te, a nie inne modele:

We conducted a literature search to identify papers published prior to the early-1990s that include climate model outputs containing both a time-series of projected future GMST (with a 146minimum of two points in time) and future forcings (including both a publication date and future projected atmospheric CO2concentrations, at a minimum). Eleven papers with fourteen distinct projections were identified that fit these criteria.

Share this post


Link to post
Share on other sites
3 godziny temu, peceed napisał:

To czego nie podano to fakt że wybrano 14 najlepszych modeli z około 10tyś. Więc ich zgodność może być tylko wynikiem przypadku a nie wynikiem jakości modelu fizycznego.

I bardzo dobrze, że wybrano najlepsze modele, dlaczego mieliby wybierac słabe, robione przez domorosłych "fahofców"? Dobry model to logiczny i racjonalny model z odpowiednim poziomem szczegółowości, który nie bierze się z sufitu. Także spośród tych kilkunastu wybrańców można by wybrać te najbardziej prawdopodobne, najbardziej szczegółowe. O przypadku można byłoby mówić tylko wtedy, gdyby tworzono modele zupełnie arbitralnie na podstawie astrologii czy jakichś zabobonów.

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites
Godzinę temu, Mariusz Błoński napisał:

Tutaj są kryteria, według których wybrano do przeglądu te, a nie inne modele:

 

Odwołuję co pisałem - jakie modelowanie komputerow :/

Przeczytałem sobie całą pracę - straszne gówno. Klasyczny przykład w którym praca pokazuje coś innego niż twierdzi że pokazuje :/

Ostrzeżeniem powinien być już format pliku w którym powstało owo dzieło.

Ale ważne że kolejny klimatyczny news poszedł...

Share this post


Link to post
Share on other sites

Dopasowanie modeli do faktycznych obserwacji temperatury:

797174281_2019-12-0520_45_22-inp_Hausfather_ha08910q_pdf.thumb.png.df61b5a86c3fecf9b816382b2e432df3.png

Pierwszy wykres przedstawia zmiany temperatury w czasie. Najlepszą średnią prognozę daje model Mitchella (między 1970 a 2000) oraz pierwszy model Hansena et al. (1981-2017).

 

Share this post


Link to post
Share on other sites
19 godzin temu, Antylogik napisał:

Najlepszą średnią prognozę daje model Mitchella (między 1970 a 2000)

Jasne, z bajkowym ECS  2.37.

Jedyne czym są te ćwiczenia to zabawy w tworzenie rosnących rodzin krzywych i wybranie tej która najlepiej pasuje do danych.

22 godziny temu, Antylogik napisał:

Dobry model to logiczny i racjonalny model z odpowiednim poziomem szczegółowości, który nie bierze się z sufitu.

Można parametryzować krzywe na bardzo wiele sposobów, dobierając współczynniki. Wciąż jest to dosyć naiwna ekstrapolacja danych.

Dopiero gdy osiągnie się modelowanie klimatu przez symulowanie pogody, będzie można mówić o "fizycznym" modelu.

Z 5 lat temu wymyśliłem inne podejście - użycie istniejących zapisów pogodowych do oszacowania wpływu wzrostu temperatury pod wpływem CO2. Otóż dzielimy ziemię na małe komórki i w każdej z nich szacujemy jak zwiększenie CO2 zwiększa temperaturę, traktując inne czynniki jako stałe. Reguła przekory sprawia, że ignorowanie potencjalnych sprzężeń zwrotnych da nam górne ograniczenie na nierównowagową czułość klimatu, tzn. wszystkie nieuwzględnione różnice w zmianie dynamiki atmosfery (poziom pogody) statystycznie zmniejszają przyrost temperatury. W już mokrych komórkach przyrost CO2 nie dużego znaczenia, bo bazą od której należy badać przyrost jest istniejąca tak czy inaczej para w powietrzu. Dlatego jedynie suche komórki zaobserwują pełne dogrzanie. Z takiej analizy wychodzi, że nie ma możliwości uzyskania większej nierównowagowej czułości klimatycznej niż w suchym modelu, czyli około 1.3 stopnia, a dokładne obliczenia mogą tylko obniżyć tę wartość. Nazywanie zwiększenia CO2 w powietrzu wymuszeniem jest nadużyciem semantycznym niezgodnym z fizyką zjawisk. Zwiększenie CO2 nie zwiększy istotnie ilości pary wodnej, bo ta w pierwszym rzędzie zależy bezpośrednio od pogody i nasłonecznienia, a gdy już się pojawia to wpływ przyrostu CO2 na przyrost jej ilości szybko maleje będąc na wstępie i tak drugorzędowym efektem.

Share this post


Link to post
Share on other sites

Gdyby ode mnie zależało, to takie osoby jak ta wyżej wycinałbym od razu z forum. Jedynym jej celem jest krytyka dla krytyki, pseudoracjonalny sceptycyzm do niczego nie prowadzący, posługująca się głównie erystyką. Dowodem na to jest chociażby fakt, że wg niej format .pdf (w którym został zapisany artykuł) powinien stanowić ostrzeżenie. Ale przed czym już nie napisze.

Share this post


Link to post
Share on other sites
52 minuty temu, Astro napisał:

Miłego dnia.

Tego nigdy za dużo :), chociaż  jak to często bywa, przesyłka pomyliła adresata:

58 minut temu, Antylogik napisał:

Gdyby ode mnie zależało, to takie osoby jak ta wyżej wycinałbym od razu z forum. (…) Dowodem na to jest chociażby fakt, że wg niej format .pdf (w którym został zapisany artykuł)powinien stanowić ostrzeżenie.

 

W dniu 5.12.2019 o 18:58, peceed napisał:

Ostrzeżeniem powinien być już format pliku w którym powstało owo dzieło.

 

Edited by 3grosze

Share this post


Link to post
Share on other sites
W dniu 6.12.2019 o 19:21, Astro napisał:

Mógłby kolega wytłumaczyć w czym bajkowość takiej czułości klimatu?

Jest za wysoka. Mój twardy limit to 2.0 ( z zastrzeżeniem że nie ma on charakteru uniwersalnego bo równowagowa czułość klimatu zmienia się wraz z... aktualnym klimatem).

W dniu 6.12.2019 o 19:26, Antylogik napisał:

Gdyby ode mnie zależało, to takie osoby jak ta wyżej wycinałbym od razu z forum.

Kolega się teraz użala nad sobą? Może Facebook jeszcze potrzebuje moderatorów...

W dniu 6.12.2019 o 19:21, Astro napisał:

Wiesz zapewne, że zwyczajne prognozowanie pogody na dwa tygodnie jest zwykle o kant stołu. Wiesz dlaczego? Szukamy trendów jesli o klimat chodzi (w nieco dłuższej skali).

To że symulacje pogodowe są chaotyczne akurat nie ma znaczenia gdy chcemy probabilistycznie wypróbkować możliwe scenariusze. Znacznie gorszym problemem jest niezupełność modeli, mogą istnieć mechanizmy które redukują wpływ CO2 do praktycznie zera i one nie są w żadnym wypadku wykluczone! Fiksacja na CO2 jest szkodliwa z naukowego punktu widzenia.

W dniu 6.12.2019 o 19:21, Astro napisał:

Nazywa się to nawet metodą naukową. Bo nie wiemy 

Uprawianie nauki sprowadzono do bezmyślnego kopiowania kilku tricków stosowanych kiedyś przez osoby wybitne, w nadziei że osiągnie się podobne rezultaty:/

Co do klimatologii jest ona bardzo szczególnym przykładem spatologizowanej nauki, której finansowanie nie zależy od jakości wyników tylko stopnia wzbudzanego strachu. Więc zgodnie z logiką najwięcej pary idzie właśnie w taką działalność.

A tymczasem poziom wody w interglacjałach bywał wiele metrów większy od obecnego przy znacznie niższym poziomie CO2.

W dniu 6.12.2019 o 19:26, Antylogik napisał:

Dowodem na to jest chociażby fakt, że wg niej format .pdf (w którym został zapisany artykuł) powinien stanowić ostrzeżenie. Ale przed czym już nie napisze.

Przed niekompetencją. I nie chodzi o pdf.

W dniu 6.12.2019 o 19:21, Astro napisał:

Pięknie, ale masz dość OBSERWACJI do rozpoczęcia tasku? Nie sądzę.

Ja się tym już nie zajmuję i nie zajmę z przyczyn zdrowotnych. Ale ilość dostępnych danych jak najbardziej wystarcza. To jest słabe upierać się, że nie jesteśmy w stanie policzyć prawidłowo wzrostu temperatury z powodu zwiększenia CO2 w skali tygodnia, a jednocześnie twierdzili że modele klimatyczne mają wartość. Natomiast wnioski o niemożliwości osiągnięcia większej czułości klimatycznej niż dla modelu suchego są jak najbardziej prawdziwe, bo wynikają z prostych ograniczeń fizycznych. Chodzi o to, że nie istnieje dodatnie silne sprzężenie zwrotne z powodu pary wodnej na skutek zwiększenia ilości CO2. Słabiej dotyczy to innych gazów cieplarnianych których widmo nie jest tak dobrze przykryte przez parę wodną. Woda ma kluczowe znaczenie w innym miejscu, przez formowanie lodu i zmianę albedo Ziemi.

W dniu 6.12.2019 o 19:21, Astro napisał:

Tak właśnie dziś robimy; trochę superkomputerów przegrzewa się od tego.

Te cudowne modele komputerowe są praktycznie bez wyjątku niestabilne numerycznie. Więc niezależnie od tego jak bardzo się przegrzewają, nie liczą tego co wydaje się, że liczą, ich twórcom. Oczywiście dalej można poprawiać parametry i uzyskiwać zgodność z danymi historycznymi, tylko fizyka w tym zanika.

Share this post


Link to post
Share on other sites
2 godziny temu, Astro napisał:

Słusznie! WSKAŻ je!!! :D

No chyba podałem bardzo ważny mechanizm - traktowanie jako bazy do liczenia podwojeń samego CO2 nie uwzględniającego pary wodnej z jej wariacją. To prawie tak, jabyśmy nazwali cześć CO2 gazem A a część gazem B i traktowali przyrosty gazu jako część B, potem traktując przyrosty temperatury od nich niezależnie.

 

2 godziny temu, Astro napisał:

Mógłbyś wskazać o jaki to naukowy punkt chodzi, bo myślimy zapewne o kilku...

Dochodzenie do Bayesowskiej prawdy.

2 godziny temu, Astro napisał:

Skoro zajmowałeś się tym to wiesz doskonale, że to stwierdzenie jest fajne w kontekście popkultury, ale chyba tutaj powinniśmy używać innego języka; nie sądzisz?

Te które raczyły udostępnić swoje kody źródłowe.

2 godziny temu, Astro napisał:

a z pewnością zgodzisz się, że niższy poziom CO2 z pewnością się temu przyczyni. Nieprawdaż?

Absolutnie nie. Ostatnia katastrofa jakiej świat potrzebuje to obniżenie ilości CO2. A związku ze zdrowiem nie widzę.

Share this post


Link to post
Share on other sites
9 minut temu, peceed napisał:

Dochodzenie do Bayesowskiej prawdy.

Pustosłowie, wyuczone frazesy , mówienie ogólnikami.

W dniu 9.12.2019 o 19:15, peceed napisał:

Przed niekompetencją. I nie chodzi o pdf.

Skoro nie potrafisz otworzyć artykułu w formacie pdf, co ja bez trudu zrobiłem, to raczej to świadczy o twojej niekompetencji. Jeżeli jednak twierdzisz, że nie chodzi o pdf, i jak zwykle nie napisałeś, o jaki format chodzi, to znaczy, że nie wiesz o czym mówisz. A skoro nie wiesz nie wiesz o czym mówisz, to znaczy, że się kompromitujesz. Skoro się skompromitowałeś, to powinieneś mieć świadomość, że nikt już nie będzie traktował cię poważnie.

Share this post


Link to post
Share on other sites
22 godziny temu, Antylogik napisał:

Skoro nie potrafisz otworzyć artykułu w formacie pdf, co ja bez trudu zrobiłem...

 Gratuluję dedukcji na poziomie kawałów o milicjantach połączonej ze znakomitym zrozumieniem czytanego tekstu.

To miło że ludzie jeszcze stosują znaczące pseudonimy.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Imperium tybetańskie istniało w latach 618–877 i w szczytowym okresie swojej potęgi konkurowało o wpływy w Azji Środkowej z Chinami dynastii Tang i kalifatem Abbasydów. Upadło w ciągu zaledwie kilku dekad. Naukowcy szukający przyczyn jego rozpadu zwracali dotychczas uwagę przede wszystkim na czynniki społeczno-polityczne, jak konflikty pomiędzy bon, rdzenną religią Tybetu, a buddyzmem. Autorzy najnowszej pracy uważają, że zmiany klimatyczne przyspieszyły upadek państwa.
      Około 618 roku niewielka społeczność zamieszkująca środkowy bieg rzeki Yarlung Tsangpo zakończyła proces jednoczenia większości Tybetu. Powstało państwo, które z powodzeniem konkurowało i walczyło z Chinami dynastii Tang, sięgnęło północnych Indii, Pamiru i Hindukuszu, rzucając wyzwanie Abbasydom. Imperium kontrolowało międzynarodowe szlaki handlowe, a u szczytu potęgi, w 763 roku, jego wojska zdobyły Chang'an, stolicę Chin.
      Imperium obejmuje wówczas 4,6 miliona kilometrów kwadratowych i mieszka w nim 10 milionów ludzi. Jednak już na początku IX wieku państwo przeżywa poważne kłopoty. Rozpada się w ciągu kilku dziesięcioleci. Z chińskich źródeł dowiadujemy się, że przyczyną była rywalizacja pomiędzy generałami dowodzącymi pogranicznymi armiami. Wiemy też, że doszło do napięć pomiędzy wyznawcami buddyzmu, a tradycyjnej religii bon. Były one na tyle poważne, że w 843 buddyzm został zakazany. Przyjmuje się, że rozpad imperium nastąpił w 877 roku, do roku 889 na terenie Tybetu istniało wiele mniej lub bardziej niezależnych organizmów politycznych.
      Naukowcy z Chin i Kanady wykorzystali osady z jezior z zachodniej części Wyżyny Tybetańskiej i stwierdzili, że pomiędzy VII a IX wiekiem doszło do tak znacznych zmian klimatycznych, iż odegrały one kluczową rolę w upadku imperium tybetańskiego. Okres potęgi imperium, lata ok. 600 do 800, zbiega się bowiem z niezwykle ciepłym i wilgotnym okresem. Natomiast czas, gdy imperium upadało (800-877) był okresem poważnych susz. W osadach z jezior widać, że w tym czasie okrzemki typowe dla planktonu występującego w całej kolumnie wody zostały zastąpione przez okrzemki strefy dennej (bentalu). Świadczy to o wysychaniu jezior.
      Poważne susze w połączeniu ze zmniejszeniem zdolności targanego konfliktami społeczeństwa do dostosowania się do nowej rzeczywistości, mogły prowadzić do szybkiego spadku plonów, co z kolei napędzało konflikty i przyspieszyło upadek imperium. Chociaż upadek tego silnego imperium tłumaczy się często przyczynami religijnymi i politycznymi, nasze analizy pokazują, że pogarszające się warunki klimatyczne mogły upadek ten przyspieszyć, stwierdzają autorzy badań.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Podczas Zimnej Wojny US Army założyła na Grenlandii tajną bazę Camp Century. Wykonany tam odwiert o głębokości 1390 metrów sięgnął pod pokrywę lodową, pozwalając na pobranie 3,6-metrowego rdzenia gleby i skał. Rdzeń trafił do zamrażarki i zapomniano o nim. Został przypadkowo odkryty w 2017 roku. Okazało się, że w pobranej próbce znajdują się liście i mchy pochodzące z czasów, gdy ten region Grenlandii był wolny od lodu. Kiedy jednak to było? Najnowsze badania dały zaskakującą odpowiedź na to pytanie.
      Jeszcze do niedawna sądzono, że Grenlandia w znacznej mierze pokryta jest lodem od wielu milionów lat. Przed dwoma laty, używając rdzenia z Camp Century, naukowcy wykazali, że prawdopodobnie nie było tam lodu mniej niż milion lat temu. Inni naukowcy, pracujący na środkowej Grenlandii, wykazali, że lód ustąpił tam co najmniej raz w ciągu ostatniego 1,1 miliona lat. Jednak dotychczas nie było wiadomo, kiedy miało to miejsce.
      Naukowcy z University of Vermont, zbadali rdzeń z Camp Century wykorzystując zaawansowane techniki luminescencji oraz analizy rzadkich izotopów. Ich badania wykazały, że badane osady zostały naniesione przez płynącą wodę do wolnego od lodu środowiska w okresie interglacjalnym znanym jako Marine Isotope Stage 11. Miał on miejsce pomiędzy 424 a 374 tysiące lat temu. Badania te dowodzą, że w tym czasie znaczne obszary Grenlandii były wolne od lodu, a w wyniku ich roztapiania się poziom oceanów podniósł się o co najmniej 1,5 metra.
      To pierwszy niezaprzeczalny dowód, że większa część pokrywy lodowej Grenlandii zniknęła, gdy zrobiło się cieplej, mówi współautor badań Paul Bierman. Przeszłość Grenlandii, zachowana w 3,6-metrowym rdzeniu sugeruje, że Ziemię czeka gorąca, wilgotna i w dużej mierze wolna od lodu przyszłość, chyba że znacząco zmniejszymy stężenie dwutlenku węgla w atmosferze, dodaje uczony.
      Wyniki badań pokazują, że Grenlandia jest bardziej wrażliwa na zmiany klimatu niż dotychczas sądzono. Jako że znajduje się na niej wystarczająco dużo lodu, by po jego roztopieniu poziom oceanów wzrósł o 7 metrów, zagrożone są wszystkie kraje mające dostęp do mórz i oceanów.
      Zawsze uważaliśmy, że pokrywa lodowa Grenlandii uformowała się około 2,5 miliona lat temu i była stabilna. Może na obrzeżach dochodziło do topnienia lub też opady śniegu powodowały, że stawała się niego grubsza, ale nigdy nie dochodziło na niej do dramatycznych zmian. Nasze badania pokazują, że zmiany takie zachodziły, dodaje Tammy Rittenour z Utach State University. To właśnie w jej laboratorium, które specjalizuje się w datowaniu luminescencyjnym, sprawdzano, kiedy ostatni raz ziarna minerałów z rdzenia były wystawione na działanie promieniowania słonecznego. Uzyskane tam wyniki skonfrontowano z badaniami izotopów w laboratorium Biermana na University of Vermont. Analizy stosunków izotopów berylu i innych pierwiastków dały odpowiedź na pytanie, jak długo skały były wystawione na działanie promieniowania kosmicznego, a jak długo były przed nim chronione przez warstwę lodu. Dzięki temu naukowcy stwierdzili, że osady pobrane w Camp Century zostały wystawione na działanie promieniowania słonecznego na mniej niż 14 000 lat przed tym, zanim znalazły się pod lodem. To pozwoliło znacząco zawęzić okres, w którym ta część Grenlandii była wolna od lodu.
      Założony w latach 60. XX wieku Camp Century był tajną bazą wojskową ukrytą w tunelach wydrążonych w lodzie. Na powierzchni oficjalnie znajdowała się zaś arktyczna stacja naukowa. Baza wojskowa powstała w ramach Project Iceworm, którego celem było umieszczenie setek rakiet z głowicami atomowymi pod lodem w pobliżu granic Związku Radzieckiego. Na powierzchni prowadzono zaś badania naukowe, niejednokrotnie jedyne w swoim rodzaju. W ich ramach wykonano wspomniany głęboki odwiert. Wojskowi naukowcy zainteresowani byli samym lodem, chcieli m.in. zrozumieć ziemskie epoki lodowe. Dlatego nie przywiązywali uwagi do osadów wydobytych spod lodu. W latach 70. osady te przeniesiono z wojskowego laboratorium na University at Buffalo, gdzie pomogły w lepszym datowaniu epok lodowych. Później nikt się nimi nie interesował. W 1993 roku przekazano je na Uniwersytet w Kopenhadze. Tam o nich zapomniano.
      Camp Century znajduje się 222 kilometry w głąb Grenlandii, ok. 1300 kilometrów od Bieguna Północnego. Teraz wiemy, że zaledwie 400 000 lat temu ten region był wolny od lodu. A to oznacza, że Grenlandia jest bardziej wrażliwa na ocieplenie klimatu. niż przypuszczali naukowcy. Bierman przypomina, że wówczas na morskich wybrzeżach nie było miast. Teraz znajdują się tam duże aglomeracje jak Nowy Jork, Miami, Amsterdam, Mumbaj czy Szanghaj. Kilkumetrowy wzrost poziomu morza to dla nich olbrzymie zagrożenie.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Klimat Ziemi przechodził zmienne koleje losu, od bardzo gorącego po epoki lodowe. Mimo to życie na naszej planecie przetrwało 3,7 miliarda lat. Badacze z MIT potwierdzili właśnie, że Ziemia posiada działający na przestrzeni setek tysięcy lat mechanizm regulacji, dzięki któremu nie dochodzi do katastrofalnych zmian klimatu, które mogłyby zakończyć historię życia.
      Naukowcy od dawna podejrzewali, że cykl węglanowo-krzemianowy odgrywa ważną rolę w ziemskim obiegu węgla. Polega on na wiązaniu atmosferycznego CO2 przez skały. Teraz udało się zdobyć bezpośrednie dowody, że działa on w skali geologicznej jak stabilizator klimatu.
      Nowe dowody opierają się na badaniach danych paleoklimatycznych i zmianach średnich temperatur na Ziemi na przestrzeni ostatnich 66 milionów lat. Naukowcy z MIT przeprowadzili analizy matematyczne, by sprawdzić, czy pojawi się jakiś wzorzec, który wskazywałby na istnienie mechanizmu stabilizującego globalne temperatury w skali geologicznej. I taki wzorzec znaleźli. Pojawia się on na przestrzeni setek tysięcy lat, co jest zgodne ze skalą, w jakiej powinien działać mechanizm stabilizujący wywoływany przez wietrzenie krzemianów.
      Z jednej strony to dobra wiadomość, bo dzięki temu wiemy, że obecne globalne ocieplenie zostanie zniwelowane za pomocą tego mechanizmu. Jednak z drugiej strony, potrwa to setki tysięcy lat, a to zbyt wolno, by rozwiązać nasze obecne problemy, mówi Constantin Arnscheidt z MIT. Jest on, wraz z profesorem Danielem Rothmanem, współautorem badań.
      Naukowcy już wcześniej widzieli pewne oznaki działania mechanizmu stabilizującego. Analizy chemiczne starych skał wskazywały bowiem, że przepływ węgla ze skorupy ziemskiej i do niej jest dość zrównoważony, nawet gdy dochodzi do znacznych zmian temperatur na Ziemi. Modele obliczeniowe wskazywały, że proces wietrzenia krzemianów może w pewnym stopniu stabilizować klimat. Ponadto sam fakt, że życie na Ziemi przetrwało miliardy lat sugerował istnienie jakiegoś wbudowanego, geologicznego, mechanizmu zapobiegającego ekstremalnym zmianom temperatury.
      Mamy planetę, której klimat poddany był wielu dramatycznym zmianom. Dlaczego życie je przetrwało? Jedno z wyjaśnień brzmi, że musi istnieć jakiś mechanizm stabilizujący temperatury w zakresie zdanym dla życia. Jednak dotychczas nikt nie przedstawił dowodów, że taki mechanizm bez przerwy kontroluje klimat naszej planety, wyjaśnia Arnscheidt.
      Rothman i Arnscheidtprzjrzeli się danym dotyczącym zmian temperatury na Ziemi. Informacje na ten temat pochodziły zarówno z analiz składu chemicznego muszli sprzed milionów lat, jak i z badań rdzeni lodowych. Nasze badania były możliwe tylko dzięki temu, że nauka dokonała olbrzymiego postępu w dziedzinie zwiększenia rozdzielczości danych temperaturowych. Dysponujemy więc zapisem z ostatnich 66 milionów lat, w którym poszczególne punkty pomiaru temperatury są oddalone od siebie najwyżej o kilka tysięcy lat, wyjaśniają uczeni.
      Naukowcy wykorzystali stochastyczne równania różniczkowe, które są do poszukiwania wzorców w zestawach wysoce zmiennych danych. Okazało się, że w ten sposób można przewidzieć co się będzie działo z klimatem, jeśli istnieje mechanizm go stabilizujący. To trochę podobne do pędzącego samochodu. Gdy naciśniemy hamulec, upłynie trochę czasu, zanim samochód się zatrzyma. To właśnie nasza skala, w której klimat – w wyniku działania tego mechanizmu – powraca do stanu stabilnego – wyjaśniają uczeni. Gdyby taki mechanizm nie istniał, zmiany temperatury powinny zwiększać się z czasem. Jednak tak się nie dzieje. W pewnym momencie mechanizm stabilizujący jest silniejszy i nie dochodzi do ekstremalnych zmian, zagrażających istnieniu życia na Ziemi. Skala tych zmian – wynosząca setki tysięcy lat – jest zgodna z przewidywaniami dotyczącymi skali działania cyklu węglowo-krzemianowego.
      Co ciekawe, naukowcy nie znaleźli żadnego mechanizmu, który stabilizowałby klimat w skali dłuższej niż milion lat. Zdaniem autorów badań, mieliśmy szczęście, że zmiany w tej skali nie były dotychczas ekstremalnie duże. Są dwie szkoły. Jedni mówią, że to przypadek, zdaniem innych – istnieje mechanizm stabilizujący. Na podstawie danych wykazaliśmy, że prawda prawdopodobnie leży po środku. Innymi słowy, istnieje mechanizm stabilizujący, ale i zwykłe szczęście odegrało rolę pomogło życiu na Ziemi przetrwać miliardy lat, wyjaśnia Arnscheidt.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Naukowcy z Imperial College London i Natural History Museum opublikowali dwie prace, w których opisali wyniki badań nad populacją czterech gatunków brytyjskich trzmieli. W pierwszym z badań pokazali, jak stres środowiskowy historycznie zmieniał kształt skrzydeł zwierząt, w drugim zaś opisali metodę pozyskiwania DNA z kolekcji muzealnych, co pozwoli na badanie historii genetycznej trzmieli.
      Na całym świecie dochodzi do spadku liczby owadów, zagrożonych jest coraz więcej gatunków. Olbrzymią rolę w zanikaniu owadów odgrywają pestycydy i zmiany klimatu. Naszą szczególną uwagę przyciągają znane nam zapylacze, jak pszczoła miodna czy właśnie trzmiele.
      Brytyjscy naukowcy przyjrzeli się owadom przechowywanym w muzealnych zbiorach od 1900 roku. Szczególną uwagę zwracali na symetrię skrzydeł. Ich wysoka asymetria pokazuje bowiem, że zwierzęta zostały poddane wysokiemu stresowi środowiskowemu. Uczeni zauważyli, że od roku 1925 stres wywierany na trzmiele jest coraz większy. Każdy z czterech badanych gatunków wykazywał coraz większą reakcję na stres w drugiej połowie XX wieku. Gdy uczeni przyjrzeli się średniej rocznej temperaturze i poziomowi opadów i porównali te dane z danymi o asymetrii skrzydeł zauważyli, że do większej asymetrii dochodziło w latach cieplejszych i bardziej wilgotnych. Takie warunki zdarzają się coraz częściej, a to oznacza, że warunki środowiskowe są coraz bardziej niekorzystne dla trzmieli.
      Skąd jednak pomysł, by badać okazy z kolekcji? Dotychczas naukowcy badający np. pszczoły miodne, sprawdzali zmiany ich zachowania w różnych warunkach, na przykład odległość, na jaką wysuwają żądła, czy też badali ekspresję genów czy zmiany ilości różnych molekuł w komórkach w reakcji na niekorzystne czynniki. Jednak wiele z tego typu badań wymaga użycia żywych owadów. Możemy zatem dowiedzieć się czegoś o tym, jak obecne warunki środowiskowe wpływają na owady. Brytyjczycy chcieli zaś wiedzieć, jak wyglądało to w przeszłości.
      Dobrym przybliżeniem warunków życia owadów okazał się kształt ich skrzydeł. Im większa między nimi asymetria, w tym bardziej stresowym – zatem niekorzystnym – środowisku żył owad. Dzięki badaniom, które przeprowadziliśmy na trzmielach, z tego, co mówi nam asymetria ich skrzydeł i jak wyglądało to w ubiegłym wieku, możemy teraz przewidywać, że coraz cieplejsze i coraz bardziej wilgotne lata będą wywierały niekorzystne skutki na te owady, mówi doktor Richard Gill z Imperial College London, który specjalizuje się w badaniu wpływu działalności człowieka na trzmiele. Naukowiec uważa, że zmiana symetrii skrzydeł związana jest ze zmianami epigenetycznymi (zmianami ekspresji genów), do których dochodzi pod wpływem czynników środowiskowych. Grupa Gilla nie badała DNA owadów. Zajęła się tym natomiast grupa doktor Seliny Brace, ekspertki od starego DNA z Museum of Natural History.
      Większość z owadów w muzealnych kolekcjach nie była konserwowana z myślą o jak najlepszym zachowaniu DNA. Stąd też trudności w jego pozyskaniu ze zbiorów muzealnych. Przeprowadziliśmy jedno z pierwszych badań, w ramach których w wielu zbiorach muzealnych poszukiwane było DNA przechowywanych tam owadów. Bardzo ważne jest byśmy rozumieli, jak materiał genetyczny się zachował. Zauważyliśmy, że ulega on bardzo szybkiej degradacji, ale z czasem ta degradacja spowalnia i pojawia się stały wzorzec degradacji i fragmentacji materiału genetycznego, wyjaśnia Selina.
      Naukowcy dowiedzieli się więc, jak przebiega proces degradacji DNA owadów przechowywanych w muzeach, a to z kolei pozwoliło im opracować metody rekonstrukcji tego DNA. Dzięki temu już w najbliższej przyszłości można będzie wykorzystać badania DNA muzealnych okazów owadów do lepszego zrozumienia, jak zmiany środowiskowe wpływają na te zwierzęta oraz łączyć wyniki takich badań z wynikami badań morfologicznych dotyczących np. asymetrii skrzydeł.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Ekstrema pogodowe mają negatywny wpływ na ludzkie zdrowie. Nie od dzisiaj wiemy, że np. fale upałów mogą jednorazowo powodować olbrzymią liczbę zgonów. Są one przejawem braku stabilności pogody, a ta kwestia umykała dotychczas uwadze specjalistów. Międzynarodowa grupa ekspertów, która zbadała wpływ krótkoterminowych dużych wahań temperatury na śmiertelność wśród ludzi alarmuje, że zmienność temperatury ma podobny wpływ na śmiertelność, jak zanieczyszczenie powietrza.
      Naukowcy m.in. z Australii, Chin, USA, Estonii, Irlandii czy Japonii zbadali związek pomiędzy zmiennością temperatury a przypadkami zgonów w 750 miastach na całym świecie. Posłużyli się przy tym danymi z lat 2000–2019 i odkryli, że krótkoterminowe zmiany temperatury zabijają około 1,75 miliona osób rocznie. Zauważyli też, że w większości Azji, w Australii oraz Nowej Zelandii odsetek nadmiarowych zgonów spowodowanych niestabilnością temperatur jest wyższy niż światowa mediana. W artykule Global, regional, and national burden of mortality associated with short-term temperature variability from 2000–19: a three-stage modelling study opublikowanym na łamach The Lancet. Planetary Health czytamy, że w latach 2000–2019 liczba nadmiarowych zgonów spowodowanych niestabilnością temperatur rosła w tempie 4,6% na dekadę.
      Największe wzrosty na dekadę zanotowano w Australii i Nowej Zelandii (po 7,3%), Europie (4,4%) i Afryce (3,3%).
      Jako, że z powodu zmienności temperatury umiera średnio 1,75 miliona osób rocznie oznacza to, że czynnik ten odpowiada za 3,4% wszystkich zgonów i powoduje 26 nadmiarowych zgonów na 100 000 osó. Najwyższy odsetek nadmiarowych zgonów z tego powodu odnotowano w Azji (4,7%), Oceanii (3,2%) oraz oby Amerykach (2,7%).
      Opublikowano też listę 20 krajów o największym odsetku nadmiarowych zgonów z powodu zmienności temperatury. W roku 2019 na 1. miejscu listy uplasowała się Arabia Saudyjska (8,0%), następnie był Irak (7,7%) oraz Kuwejt (7,4%). Jedynym krajem EU, który znalazł się wśród tych 20 państw jest Cypr (5,3% nadmiarowych zgonów).

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...