Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

CO2 może zdestabilizować chmury i przyspieszyć ocieplanie klimatu

Rekomendowane odpowiedzi

Przy odpowiednio wysokim stężeniu CO2 w atmosferze może dojść do uruchomienia nieznanego wcześniej mechanizmu, który zwiększy średnią temperaturę powierzchni Ziemi o dodatkowe 8 stopni Celsjusza. Nowo odkryte zjawisko może pozwolić też na wyjaśnienie pewnej zagadki sprzed 50 milionów lat.

Profesor Tapio Schneider z California Institute of Technology opublikował w Nature Geoscience wyniki swoich symulacji komputerowych. Okazało się, że jeśli stężenie CO2 w atmosferze przekroczy 1200 ppm (części na milion), dojdzie do rozpadu stratusów, chmur pokrywających około 20% oceanicznych obszarów subtropikalnych. Stratusy ochładzają planetę, a że są tak bardzo rozpowszechnione, ich wpływ jest znaczny.

Schenider oraz Colleen Kaul i Kyle Pressel z Pacific Northwest National Laboratory przeprowadzili na superkomputerach symulację ruchu stratusów i ich zachowania się przy rosnącym stężeniu CO2. Okazało się, że gdy poziom dwutlenku węgla przekroczył 1200 ppm doszło do rozpadu stratusów, a to z kolei spowodowało ogrzanie się Ziemi o kolejnych 8 stopni Celsjusza. Co więcej, zauważono, że stratusy nie zaczęły ponownie się formować dopóki poziom CO2 nie spadł znacznie poniżej poziomu, w którym się rozpadały.

W bieżącym roku średni poziom CO2 w atmosferze przekroczy 410 ppm, czyli będzie o 130 ppm wyższy od średniego poziomu sprzed epoki przemysłowej. Najwyższy tegoroczny poziom zarejestrowany na Mauna Loa wyniósł 414,27 ppm. Jeśli ludzkość będzie emitowała dwutlenek węgla tak, jak dotychczas, to poziom 1200 ppm zostanie przekroczony po roku 2100.

Już samo zwiększenie koncentracji CO2 do tego poziomu, będzie oznaczało, że średnie temperatury na Ziemi będą o 6 stopni Celsjusza wyższe, niż w epoce przedprzemysłowej. Rozpad stratusów doda do tego jeszcze 8 stopni Celsjusza. Wzrost temperatur o 14 stopni byłby katastrofalny. Przy takiej temperaturze w tropikach nie mogłyby żyć zwierzęta stałocieplne, w tym i ludzie.

Badania Schneidera i jego kolegów pozwalają też na rozwiązanie starej zagadki paleoklimatologicznej. Z danych geologicznych wiemy, że w eocenie, przed około 50 milionami lat, w Arktyce nie było lodu, żyły tam za to krokodyle. Jednak modele klimatyczne wskazują, że taki scenariusz wymaga, by stężenie CO2 przekraczało 4000 ppm. Z badań wiemy zaś, że w tym czasie koncentracja dwutlenku węgla wynosiła poniżej 2000 ppm. Odkrycie, że przy takiej koncentracji doszłoby do rozpadu stratusów i dodatkowego ogrzania powierzchni Ziemi pozwala wyjaśnić te niezgodności.

Profesor Schneider zastrzega, że wspomniane 1200 ppm to zgrubny szacunek, a nie dokładna granica, przy której stratusy zaczynają się rozpadać.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Faktycznie wygląda to nieprzyjemnie. W razie czego mieszkańcy tropików będą się mogli przeprowadzić na Antarktydę, Syberię i Grenlandię z okolicami.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Panowie zapomnieli wytłumaczyć, jak ta teoria tłumaczy historyczną temperaturę Ziemi w Kredzie przy 1700 ppm (4°K więcej niż dzisiaj).
Jestem łaskawy i nie pytam o Jurę (1950 ppm i tylko 2.5°K więcej niż dzisiaj).

Wtedy temperatura jakoś magicznie nie skakała o dodatkowe 8 stopni. Ktoś ostro tnie w coś.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
12 godzin temu, peceed napisał:

Wtedy temperatura jakoś magicznie nie skakała o dodatkowe 8 stopni. Ktoś ostro tnie w coś.

Nie musiała i nie musi "magicznie", bo mogły o mogą być całkowicie niemagiczne czynniki. Artykuł jest o konkretnych symulacjach/modelach, a nie o wszystkich możliwych magicznych i niemagicznych kombinacjach czynników klimatycznych.

A że ktoś (od paru dni) "ostro tnie w coś", to z tym się zgadzam, chociaż nie wiem po co. Ale może to i dobrze - świat może wreszcie zrozumie, że niepotrzebna mu ta cała zgraja naukowych tłuków z superkomputerami - przecież wystarczy jeden peceed z liczydełkiem. Albo i bez. No nie?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 godzin temu, ex nihilo napisał:

Nie musiała i nie musi "magicznie", bo mogły o mogą być całkowicie niemagiczne czynniki. Artykuł jest o konkretnych symulacjach/modelach, a nie o wszystkich możliwych magicznych i niemagicznych kombinacjach czynników klimatycznych.

I tutaj dochodzimy do sedna problemu. Sprzedawania ludziom uproszczonych modeli komputerowych jako rzeczywistości. W sytuacji kiedy można trywialnie stwierdzić że to stwierdzenie nie może być prawdziwe, bo jest sprzeczne z danymi historycznymi. Ale lepiej zrobić newsa bez żadnego reality check, bo wpisuje się w alarmistyczną narrację.
Mamy tutaj "rozwiązanie zagadki sprzed 50 milionów lat" zupełnie ignorujące powstanie kilku kolejnych zagadek, co najmniej tak samo zastanawiających.
Modele komputerowe są użyteczne tak długo, jak dobrze opisują rzeczywistość, jeśli jest rozjazd to raczej się nimi nie chwalimy.  Sprawa jest prosta, wiemy że mieliśmy i temperaturę większą od obecnej o kilka stopni i odpowiednie stężenie dwutlenku węgla. Więc coś nie zadziałało i to przez kilkadziesiąt milionów lat, ciężko nazwać to magiczną kombinacją czynników klimatycznych. 

11 godzin temu, ex nihilo napisał:

przecież wystarczy jeden peceed z liczydełkiem

Jeden człowiek z liczydełkiem może więcej niż małpa z superkomputerem, niezależnie od możliwości tego ostatniego.

W dniu 27.02.2019 o 01:36, KopalniaWiedzy.pl napisał:

Co więcej, zauważono, że stratusy nie zaczęły ponownie się formować dopóki poziom CO2 nie spadł znacznie poniżej poziomu, w którym się rozpadały.

To w ogóle jest zastanawiające, bo pokazuje że w modelu kluczowa jest temperatura a nie sama koncentracja CO2, co tak naprawdę oznacza że model określa silne dodatnie sprzężenie zwrotne jeśli o wzrost temperatury, a nie bezpośrednią zależność od CO2. Czyli już na wejściu mamy ekstremalną zależność od czułości klimatycznej, która jest najprawdopodobniej przeszacowana. Ale zamiast podać wartość krytycznej temperatury pisze się o kolejnej morderczej właściwości dwutlenku węgla (tak, zaraz się dowiem że teraz jest ditlenek). 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, peceed napisał:

Sprzedawania ludziom uproszczonych modeli komputerowych jako rzeczywistości. W sytuacji kiedy można trywialnie stwierdzić że to stwierdzenie nie może być prawdziwe, bo jest sprzeczne z danymi historycznymi. Ale lepiej zrobić newsa bez żadnego reality check, bo wpisuje się w alarmistyczną narrację.

Zatem należy rozumieć, że jesteś lepszy od grupy 1300 niezależnych ekspertów w tym temacie:

Cytat

In its Fifth Assessment Report, the Intergovernmental Panel on Climate Change, a group of 1,300 independent scientific experts from countries all over the world under the auspices of the United Nations, concluded there's a more than 95 percent probability that human activities over the past 50 years have warmed our planet.

Cytat

The panel also concluded there's a better than 95 percent probability that human-produced greenhouse gases such as carbon dioxide, methane and nitrous oxide have caused much of the observed increase in Earth's temperatures over the past 50 years.

https://climate.nasa.gov/causes/

Polecam laikowi, który uważa się za autorytet w temacie klimatu, choćby to krótkie wyjaśnienie, dlaczego naukowcy uważają zgodnie, że człowiek ma wpływ na temperaturę Ziemi skoro podlega ona fluktuacjom na przestrzeni eonów:

https://earthobservatory.nasa.gov/blogs/climateqa/if-earth-has-warmed-and-cooled-throughout-history-what-makes-scientists-think-that-humans-are-causing-global-warming-now/

Cytat

The first piece of evidence that the warming over the past few decades isn’t part of a natural cycle is how fast the change is happening. The biggest temperature swings our planet has experienced in the past million years are the ice ages. Based on a combination of paleoclimate data and models, scientists estimate that when ice ages have ended in the past, it has taken about 5,000 years for the planet to warm between 4 and 7 degrees Celsius. The warming of the past century—0.7 degrees Celsius—is roughly eight times faster than the ice-age-recovery warming on average.

 

Dziwnym przypadkiem gwałtowne przyspieszenie temperatury zaczęło się od chwili gdy narodził się przemysł wydobywczy (w skali świata):

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4761980/

2049767040_2019-12-1920_42_56-OnthecausalstructurebetweenCO2andglobaltemperature.thumb.png.62005e88e089b20c27beebd63a7c2481.png

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
21 godzin temu, Antylogik napisał:

Zatem należy rozumieć, że jesteś lepszy od grupy 1300 niezależnych ekspertów w tym temacie

Jeśli kolega robi sobie prywatne rankingi "komu wierzyć" to powodzenia życzę. Pierwszym krokiem do poważnego uprawiania nauki jest zrozumienie, że ilość ekspertów wypowiadających zgodne opinie na określony temat nie ma żadnego rozstrzygającego znaczenia (zwłaszcza jeśli jakość dyscypliny badawczej jest niska).

A co do cytowanych zdań to zasadniczo mogą być one prawdziwe,  problemem są detale: jaki jest udział człowieka w obserwowanym ociepleniu, co znaczy "dużo".
Przede wszystkim 95% to jest... bardzo mała wartość pewności z naukowego punktu widzenia i została wybrana z przyczyn czysto socjologicznych. W szczególności można się zaśmiać, że jeśli eksperci są prawdziwie "niezależni" i jest ich 1300, to ich indywidualna pewność musi być dramatycznie niska jeśli dała tylko 95%, dla wszelkich praktycznych zastosowań nieodróżnialna od rzutu monetą. 

Za to wybór materiału sugeruje że kolega całkowicie nie zrozumiał moich zastrzeżeń odnośnie "klimatologii". 

21 godzin temu, Antylogik napisał:

 

Rozczulające jest nie tylko liczenie wpływu anomalii temperaturowych na aktywność słoneczną i wulkaniczną (ok, te drugie w wielkich skalach czasowych mogą się pojawić), ale też wliczanie ich w całkowity wkład.

Świadczy to o całkowicie nie bayesowskiej metodyce badawczej, co jest rakiem trawiącym nauki przyrodnicze od 70 lat.

I wbrew temu co napisano w artykule, wyliczone wartości nie dowodzą związku przyczynowo skutkowego między CO2 i ogrzewaniem, (coby było jasne - ja go nie neguję, on wynika z istnienia fizycznego mechanizmu), tylko ograniczają go od góry.

21 godzin temu, Antylogik napisał:

Dziwnym przypadkiem gwałtowne przyspieszenie temperatury zaczęło się od chwili gdy narodził się przemysł wydobywczy (w skali świata):

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4761980/

Naturalną koleją rzeczy przemysł wydobywczy węgla narodził się w czasie małej epoki lodowcowej, co odpaliło rewolucję przemysłową wydzielającą CO2.

21 godzin temu, Antylogik napisał:

The warming of the past century—0.7 degrees Celsius—is roughly eight times faster than the ice-age-recovery warming on average.

To akurat jest zabawne, bo porównuje się średnią z bardzo dużego czasu z krótkim okresem.

Edytowane przez peceed

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, peceed napisał:

To akurat jest zabawne, bo porównuje się średnią z bardzo dużego czasu z krótkim okresem.

Kolega kompromituje się po raz kolejny dowodząc, że nie rozumie na czym polega statystyka albo po prostu nie rozumiejąc tego co czyta. Wyjaśniam: gdy mowa o zmianie temperatury, to chodzi o zmianę w określonym przedziale czasu. Logiczne, że skoro analiza polega na porównaniu zmian w obecnych czasach ze zmianami w okresach przeszłych, to bierze się taką samą skalę czasu, a robi się to w ten sposób, że cały okres globalnego ocieplenia w czasach przeszłych dzieli się na pod-okresy , tak że każdy pod-okres ma taką samą długość jak długość krótkiego okresu dla obecnych czasów. A potem się uśrednia. To jest oczywiste dla kogoś, kto ma pojęcie o nauce i statystyce, a artykuł nie będzie tłumaczył jak dziecku każdego kroku analizy, bo to nie jego temat. Kolega zostawi naukę albo pójdzie na studia albo choć poczyta książki do statystyki, bo to co tu wypisuje to świadczy o jego zerowym poziomie w tej materii, skoro to trzeba mu tłumaczyć.

Stosując brzytwę Okhama, nie będę odpowiadał na inne fragmenty komentarza, bo zwyczajnie jest to niepotrzebne. Jeśli ktoś kompromituje się w podstawach metodologii nauki, a jednocześnie krytykuje ową metodologię, to można się jedynie zaśmiać i pominąć resztę. Po raz drugi widzę, że takie osoby warto byłoby zablokować, bo zwyczajnie zaśmiecają forum, choćby popularno-naukowe, bredniami.

Edytowane przez Antylogik
  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 minuty temu, Antylogik napisał:

Stosując brzytwę Okhama, nie będę odpowiadał na inne fragmenty komentarza, bo zwyczajnie jest to niepotrzebne.

Dziękuję. Aby odpowiadać należy rozumieć na co się odpowiada. Warto też wiedzieć co znaczy to co się samemu wypisuje.

10 minut temu, Antylogik napisał:

Jeśli ktoś kompromituje się w podstawach metodologii nauki, a jednocześnie krytykuje ową metodologię

Z pewnością należy do niej obecnie znajomość definicyjna frazy denialista klimatyczny.

12 minut temu, Antylogik napisał:

Wyjaśniam: gdy mowa o zmianie temperatury, to chodzi o zmianę w określonym przedziale czasu. Logiczne, że skoro analiza polega na porównaniu zmian w obecnych czasach ze zmianami w okresach przeszłych, to bierze się taką samą skalę czasu, a robi się to w ten sposób, że cały okres globalnego ocieplenia w czasach przeszłych dzieli się na pod-okresy , tak że każdy pod-okres ma taką samą długość jak długość krótkiego okresu dla obecnych czasów.

Wzruszające. Proponuję najpierw dowiedzieć się jaka jest rozdzielczość czasowa i niepewność oszacowań historycznych temperatur z czasów zlodowaceń.

17 minut temu, Antylogik napisał:

Po raz drugi widzę, że takie osoby warto byłoby zablokować, bo zwyczajnie zaśmiecają forum, choćby popularno-naukowe, bredniami.

Każdy mierzy innych swoją miarą.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
26 minut temu, peceed napisał:

Proponuję najpierw dowiedzieć się jaka jest rozdzielczość czasowa i niepewność oszacowań historycznych temperatur z czasów zlodowaceń.

O to już jest konkret, może do czegoś dojdziemy. Proszę podaj ową rozdzielczość czasową i niepewność oszacowań, a także wyjaśnij dlaczego zlodowaceń a nie ociepleń. + źródło. Fakty nie demagogia.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 20.12.2019 o 18:20, peceed napisał:

Przede wszystkim 95% to jest... bardzo mała wartość pewności z naukowego punktu widzenia i została wybrana z przyczyn czysto socjologicznych. W szczególności można się zaśmiać, że jeśli eksperci są prawdziwie "niezależni" i jest ich 1300, to ich indywidualna pewność musi być dramatycznie niska jeśli dała tylko 95%, dla wszelkich praktycznych zastosowań nieodróżnialna od rzutu monetą. 

Jeśli modele i dostępne dane nie pozwalają na osiągnięcie pewności > 95%, to czy jedna małpa uzyska taki wynik, czy 1300 małp, 95% pozostanie. Różnica będzie tylko taka, że zwiększy się pewność tego oszacowania. I nic poza tym.

95% pewności to dużo czy mało? Zależy to od skali ryzyka, jaka jest stawka na stole i co jeszcze mamy w kieszeni.
Napisałeś gdzie indziej coś w stylu: "damy sobie radę", "postęp techniczny itd.", "ostatnie 250 lat"... Możliwe, ale po pierwsze jest to raczej niezbyt uprawniona ekstrapolacja z interpolacji (;)),  po drugie, żeby "dać sobie radę", to coś trzeba robić, bo sama nadzieja raczej w tym przypadku nie wystarczy, a po trzecie, jak na razie nie ma żadnych realnych podstaw do takiej nadziei - ani technicznych, ani politycznych, ani mentalnych, biorąc pod uwagę naturę i sposób (?)myślenia 99% Homo (?)sapiens:
https://streamable.com/xxg2z

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
21 godzin temu, ex nihilo napisał:

Możliwe, ale po pierwsze jest to raczej niezbyt uprawniona ekstrapolacja z interpolacji (;))

Nie ma w tym nic nieuprawnionego. Przede wszystkim realistycznie mówimy o wzroście poziomu morza o pesymistycznie 1m w ciągu 100 lat. To niewiele, i można sobie z tym bardzo tanio poradzić. Tam gdzie jest to opłacalne zbudujemy tamy i groble. Inne miasta przeniesiemy. W przypadku tak powolnego procesu można sobie planować to na kilkadziesiąt lat do przodu i odpowiednio wycenić. Pewne rejony zostaną zalane, inne zdrożeją. Miast nie planuje się na setki lat. Katastrofy nie będzie, zwykła adaptacja. Nasze możliwości budowania nowych budynków do tego czasu mogą być kilkadziesiąt razy większe niż obecnie, dzięki robotyce i szeroko rozumianemu "drukowaniu".

9 godzin temu, Astro napisał:

bo to myślenie życzeniowe, a nie naukowe

Nie mówimy o uderzeniu kilometrowej asteroidy, tylko o minimalnym wzroście poziomu morza.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Teleskop Webba wykrył w atmosferze planety K2-18b molekuły zawierające węgiel, w tym metan oraz dwutlenek węgla. Odkrycie to kolejna wskazówka, że K2-18b może być planetą hiaceańską (hycean planet). To termin zaproponowany niedawno przez naukowców z Uniwersytetu w Cambridge na określenie hipotetycznej klasy planet. Pochodzi od połączenia słów „wodór” (hydrogen) i „ocean”. Oznacza potencjalnie nadające się do zamieszkania gorące planety pokryte oceanami, które posiadają bogatą w wodór atmosferę. Zdaniem brytyjskich uczonych mogą być bardziej powszechne niż planety typu ziemskiego.
      Jeśli przyjmiemy, że planety hiaceańskie rzeczywiście istnieją i stanowią nową klasę planet, oznacza to, że ekosfera – czyli obszar wokół gwiazdy, w którym istniejące planety mogą podtrzymać życie – jest większy, niż ekosfera oparta wyłącznie na istnieniu wody w stanie ciekłym.
      K2-18b krąży w ekosferze chłodnego karła K2-18 znajdującego się w odległości 120 lat świetlnych od Ziemi w Gwiazdozbiorze Lwa. Jest ona 8,6 razy bardziej masywna od Ziemi. Rozmiary plasują ją pomiędzy wielkością Ziemi a Neptuna. W Układzie Słonecznym nie istnieje żaden „mini-Neptun”, dlatego słabo rozumiemy takie światy. Jeśli zaś K2-18b jest rzeczywiście planetą hiaceańską, jeśli taki typ planet istnieje, mogą być one dobrym celem poszukiwania życia. Tradycyjnie życia poszukiwaliśmy na mniejszych skalistych planetach, jednak atmosfery większych światów hiaceańskich jest łatwiej badać, mówi Nikku Madhusudhan z Uniwersytetu w Cambridge. Kierował on pracami zespołu, który zaproponował istnienie światów hiaceańskich. Właśnie zresztą na podstawie badań K2-18b.
      Obecność w atmosferze tej planety dużych ilości metanu i dwutlenku węgla przy braku amoniaku wspiera hipotezę, że istnieje tam ocean przykryty bogatą w wodór atmosferę. Jakby tego było mało, wstępne dane przekazane przez Webba mogą wskazywać na obecność w atmosferze siarczku dimetylu (DMS). Na Ziemi związek ten jest wytwarzany wyłącznie przez organizmy żywe, a większość DMS obecnego w atmosferze naszej planety zostało wyemitowane przez fitoplankton. Jednak ewentualne potwierdzenie istnienia tego związku w atmosferze K2-18b wymaga dalszych badań.
      Mimo, że planeta znajduje się w ekosferze, a jej atmosfera zawiera molekuły z węglem, nie oznacza to jeszcze, że może na niej istnieć życie. Promień K2-18b jest o 2,6 razy większy od promienia Ziemi. To oznacza, że jej wnętrze prawdopodobnie stanowi lód poddany wysokiemu ciśnieniu, na jego powierzchni znajduje się ocean, a planetę otacza atmosfera cieńsza niż atmosfera Ziemi. Temperatura oceanu może być zbyt wysoka, by mogło powstać w nim życie. Być może jest na tyle wysoka, że nie ma tam wody w stanie ciekłym.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Naukowcy z Illinois Natural History Survey postanowili sprawdzić, jak w latach 1970–2019 globalne ocieplenie wpłynęło na 201 populacji 104 gatunków ptaków. Przekonali się, że w badanym okresie liczba przychodzących na świat piskląt generalnie spadła, jednak widoczne są duże różnice pomiędzy gatunkami. Globalne ocieplenie wydaje się zagrażać przede wszystkim ptakom migrującym oraz większym ptakom. Wśród gatunków o największym spadku liczby piskląt znajduje się bocian biały.
      Uczeni przyjrzeli się ptakom ze wszystkich kontynentów i stwierdzili, że rosnące temperatury w sezonie lęgowym najbardziej zagroziły bocianowi białemu i błotniakowi łąkowemu, ptakom dużym i migrującym. Wyraźny spadek widać też u orłosępów, które nie migrują, ale są dużymi ptakami. Znacznie mniej piskląt mają też średniej wielkości migrujące rybitwy różowe, małe migrujące oknówki zwyczajne oraz australijski endemit chwoska jasnowąsa, która jest mała i nie migruje.
      Są też gatunki, którym zmiana klimatu najwyraźniej nie przeszkadza i mają więcej piskląt niż wcześniej. To na przykład średniej wielkości migrujący tajfunnik cienkodzioby, krogulec zwyczajny, krętogłów zwyczajny, muchołówka białoszyja czy bursztynka. U innych gatunków, jak u dymówki, liczba młodych rośnie w jednych lokalizacjach, a spada w innych. To pokazuje, że lokalne różnice temperaturowe mogą odgrywać olbrzymią rolę i mieć znaczenie dla przetrwania gatunku.
      Wydaje się jednak, że najbardziej narażone na ryzyko związane z globalnym ociepleniem są duże ptaki migrujące. To wśród nich widać w ciągu ostatnich 5 dekad największe spadki liczby potomstwa. Ponadto rosnące temperatury wywierają niekorzystny wpływ na gatunki osiadłe ważące powyżej 1 kilograma oraz gatunki migrujące o masie ponad 50 gramów. Fakt, że problem dotyka głównie gatunków migrujących sugeruje pojawianie się rozdźwięku pomiędzy terminami migracji a dostępnością pożywienia w krytycznym momencie, gdy ptaki karmią młode. Niekorzystnie mogą też wpływać na nie zmieniające się warunki w miejscach zimowania.
      Przykładem gatunku, który radzi sobie w obliczu zmian klimatu jest zaś bursztynka. Naukowcy przyglądali się populacji z południa Illinois. Bursztynki to małe migrujące ptaki, które gniazdują na bagnach i terenach podmokłych. W badanej przez nas populacji liczba młodych na samicę rośnie gdy rosną lokalne temperatury. Liczba potomstwa w latach cieplejszych zwiększa się, gdyż samice wcześniej składają jaja, co zwiększa szanse na dwa lęgi w sezonie. Bursztynki żywią się owadami, zamieszkują środowiska pełne owadów. Wydaje się, że – przynajmniej dotychczas – zwiększenie lokalnych temperatur nie spowodowało rozdźwięku pomiędzy szczytem dostępności owadów, a szczytem zapotrzebowania na nie wśród bursztynek, mówi współautor badań, Jeff Hoover. Uczony dodaje, że o ile niektóre gatunki mogą bezpośrednio doświadczać skutków zmian klimatu, to zwykle znacznie ma cały szereg czynników i interakcji pomiędzy nimi.
      Ze szczegółami badań można zapoznać się na łamach PNAS. Environmental Sciences.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Badania przeprowadzone za pomocą algorytmów sztucznej inteligencji sugerują, że nie uda się dotrzymać wyznaczonego przez ludzkość celu ograniczenia globalnego ocieplenia do 1,5 stopnia Celsjusza powyżej czasów preindustrialnych. Wątpliwe jest też ograniczenie ocieplenia do poziomu poniżej 2 stopni Celsjusza.
      Noah Diffenbaugh z Uniwersytetu Stanforda i Elizabeth Barnes z Colorado State University wytrenowali sieć neuronową na modelach klimatycznych oraz historycznych danych na temat klimatu. Ich model był w stanie precyzyjnie przewidzieć, jak zwiększała się temperatura w przeszłości, dlatego też naukowcy wykorzystali go do przewidzenia przyszłości. Z modelu wynika, że próg 1,5 stopnia Celsjusza ocieplenia powyżej poziomu preindustrialnego przekroczymy pomiędzy rokiem 2033 a 2035. Zgadza się to z przewidywaniami dokonanymi bardziej tradycyjnymi metodami. Przyjdzie czas, gdy oficjalnie będziemy musieli przyznać, że nie powstrzymamy globalnego ocieplenia na zakładanym poziomie 1,5 stopnia. Ta praca może być pierwszym krokiem w tym kierunku, mówi Kim Cobb z Brown University, który nie był zaangażowany w badania Diffenbaugha i Barnes.
      Przekroczenie poziomu 1,5 stopnia jest przewidywane przez każdy realistyczny scenariusz redukcji emisji. Mówi się jednak o jeszcze jednym celu: powstrzymaniu ocieplenia na poziomie nie wyższym niż 2 stopnie Celsjusza w porównaniu z epoką przedindustrialną. Tutaj przewidywania naukowców znacząco różnią się od przewidywań SI.
      Zdaniem naukowców, możemy zatrzymać globalne ocieplenie na poziomie 2 stopni Celsjusza pod warunkiem, że do połowy wieków państwa wywiążą się ze zobowiązania ograniczenia emisji gazów cieplarnianych do zera. Sztuczna inteligencja nie jest jednak tak optymistycznie nastawiona. Zdaniem algorytmu, przy obecnej emisji poziom ocieplenia o ponad 2 stopnie osiągniemy około roku 2050, a przy znacznym zredukowaniu emisji – około roku 2054. Obliczenia te znacznie odbiegają od szacunków IPCC z 2021 roku, z których wynika, że przy redukcji emisji do poziomu, jaki jest wspomniany przez algorytm sztucznej inteligencji, poziom 2 stopni przekroczymy dopiero w latach 90. obecnego wieku.
      Diffenbaugh i Barnes mówią, że do przewidywania przyszłych zmian klimatu naukowcy wykorzystują różne modele klimatyczne, które rozważają wiele różnych scenariuszy, a eksperci – między innymi na podstawie tego, jak dany model sprawował się w przeszłości czy jak umiał przewidzieć dawne zmiany klimatu, decydują, który scenariusz jest najbardziej prawdopodobny. SI, jak stwierdzają uczeni, bardziej skupia się zaś na obecnym stanie klimatu. Stąd też mogą wynikać różnice pomiędzy stanowiskiem naukowców a sztucznej inteligencji.
      W środowisku naukowym od pewnego czasu coraz częściej słychać głosy, byśmy przestali udawać, że jesteśmy w stanie powstrzymać globalne ocieplenie na poziomie 1,5 stopnia Celsjusza. Wielu naukowców twierdzi jednak, że jest to możliwe, pod warunkiem, że do 2030 roku zmniejszymy emisję gazów cieplarnianych o połowę.
      Sztuczna inteligencja jest więc znacznie bardziej pesymistycznie nastawiona od większości naukowców zarówno odnośnie możliwości powstrzymania globalnego ocieplenia na poziomie 1,5, jak i 2 stopni Celsjusza.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Teleskop Kosmiczny Jamesa Webba (JWST) dostarczył pierwszy w historii pełny profil molekularny i chemiczny atmosfery planety pozasłonecznej. Inne teleskopy przekazywały już wcześniej dane dotyczące pojedynczych składników atmosfer, jednak dzięki Webbowi poznaliśmy wszystkie atomy, molekuły, a nawet aktywne procesy chemiczne obecne w atmosferze odległej planety. Przekazane dane dają nam nawet wgląd w ukształtowanie chmur, dowiedzieliśmy się, że są one pofragmentowane, a nie pokrywają planety nieprzerwaną warstwą.
      Przekazane informacje dotyczą atmosfery planety WASP-39b, na której trenowano instrumenty Webba. To gorący saturn, zatem planeta o masie dorównującej Saturnowi, ale znajdująca się na orbicie bliższej gwiazdy niż Merkury. WASP-39b oddalona jest od Ziemi o około 700 lat świetlnych.
      Natalie Batalha z University of California w Santa Cruz (UC Santa Cruz), która brała udział w koordynacji badań, mówi, że dzięki wykorzystaniu licznych instrumentów Webba działających w podczerwieni udało się zdobyć dane, które dotychczas były dla ludzkości niedostępne. Możliwość uzyskania takich informacji całkowicie zmienia reguły gry, stwierdza uczona.
      Badania zaowocowały przygotowaniem pięciu artykułów naukowych, z których trzy są właśnie publikowane, a dwa recenzowane.
      Jednym z bezprecedensowych odkryć dokonanych przez Webba jest zarejestrowanie obecności dwutlenku siarki, molekuły powstającej w wyniku reakcji chemicznych zapoczątkowywanych przez wysokoenergetyczne światło docierające od gwiazdy macierzystej. Na Ziemi w podobnym procesie powstaje ochronna warstwa ozonowa.
      Po raz pierwszy w historii mamy dowód na reakcję fotochemiczną na egzoplanecie, mówi Shang-Min Tasi z Uniwersytetu Oksfordzkiego, który jest głównym autorem artykułu na temat pochodzenia dwutlenku siarki w atmosferze WASP-39b. Odkrycie to jest niezwykle ważne dla zrozumienia atmosfer egzoplanet. Informacje dostarczone przez Webba zostaną użyte do zbudowania fotochemicznych modeli komputerowych, które pozwolą nam wyjaśnić zjawiska zachodzące w atmosferze egoplanet. To z kolei zwiększy nasze możliwości poszukiwania życia na planetach pozasłonecznych. Planety są zmieniane i modelowane przez promieniowanie ich gwiazd macierzystych. Takie właśnie zmiany umożliwiły powstanie życia na Ziemi, wyjaśnia Batalha.
      WASP-39b znajduje się aż ośmiokrotnie bliżej swojej gwiazdy niż Merkury Słońca. To zaś okazja do zbadania wpływu gwiazd na egzoplanety i lepszego zrozumienia związków pomiędzy gwiazdą a planetą. Specjaliści będą mogli dzięki temu lepiej pojąć zróżnicowanie planet we wszechświecie.
      Poza dwutlenkiem siarki Webb wykrył też obecność sodu, potasu, pary wodnej, dwutlenku węgla oraz tlenku węgla. Nie zarejestrował natomiast oczywistych śladów obecności metanu i siarkowodoru. Jeśli gazy te są obecne w atmosferze, to jest ich niewiele.
      Astrofizyk Hannah Wakeford z University of Bristol w Wielkiej Brytanii, która specjalizuje się w badaniu atmosfer egzoplanet jest zachwycona danymi z Webba. Przewidywaliśmy, co może nam pokazać, ale to, co otrzymaliśmy, jest bardziej precyzyjne, zróżnicowane i piękne niż sądziliśmy, stwierdza.
      Teleskop dostarczył tak szczegółowych informacji, że specjaliści mogą też określać wzajemne stosunki pierwiastków, np. węgla do tlenu czy potasu do tlenu. Tego typu informacje pozwalają zrekonstruować sposób tworzenia się planety z dysku protoplanetarnego otaczającego jej gwiazdę macierzystą.
      Skład atmosfery WASP-39b wskazuje, że w procesie powstawania dochodziło do licznych zderzeń i połączeń z planetozymalami, czyli zalążkami planet. Obfitość siarki w stosunku do tlenu wskazuje prawdopodobnie, że doszło do znaczącej akrecji planetozymali. Dane pokazują też, że tlen występuje w znacznie większej obfitości niż węgiel, a to potencjalnie oznacza, że WASP-39b uformowała się z daleka od gwiazdy, mówi Kazumasa Ohno z UC Santa Cruz.
      Dzięki Webbowi będziemy mogli dokładnie przyjrzeć się atmosferom egzoplanet. To niezwykle ekscytujące, bo całkowicie zmieni naszą wiedzę. I to jedna z najlepszych stron bycia naukowcem, dodaje Laura Flagg z Cornell University.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Przestawienie światowego systemu energetycznego na źródła odnawialne będzie wiązało się z większą emisją węgla do atmosfery, gdyż wytworzenie ogniw fotowoltaicznych, turbin wiatrowych i innych urządzeń wymaga nakładów energetycznych. Jednak im szybciej będzie przebiegał ten proces, tym większe będą spadki emisji, ponieważ więcej energii ze źródeł odnawialnych w systemie oznacza, że źródła te będą w coraz większym stopniu napędzały zmianę. Takie wnioski płyną z badań, których autorzy oszacowali koszt zmiany systemu produkcji energii, liczony nie w dolarach, a w emisji gazów cieplarnianych.
      Wniosek z naszych badań jest taki, że do przebudowania światowej gospodarki potrzebujemy energii i musimy to uwzględnić w szacunkach. W jaki sposób by ten proces nie przebiegał, nie są to wartości pomijalne. Jednak im więcej zainwestujemy w początkowej fazie w zieloną energię, w tym większym stopniu ona sama będzie napędzała zmiany, mówi główny autor badań, doktorant Corey Lesk z Columbia University.
      Naukowcy obliczyli jaka będzie emisja gazów cieplarnianych związana z wydobyciem surowców, wytworzeniem, transportem, budowaniem i innymi czynnościami związanymi z tworzeniem farm słonecznych i wiatrowych oraz ze źródłami geotermalnymi i innymi. Do obliczeń przyjęto scenariusz zakładający, że świat całkowicie przechodzi na bezemisyjną produkcję energii.
      Jedne z wcześniejszych badań pokazują, że przestawienie całej światowej gospodarki (nie tylko systemu energetycznego) na bezemisyjną do roku 2050, kosztowałoby 3,5 biliona dolarów rocznie. Z innych badań wynika, że same tylko Stany Zjednoczone musiałyby w tym czasie zainwestować nawet 14 bilionów dolarów.
      Teraz możemy zapoznać się z badaniami pokazującymi, jak duża emisja CO2 wiązałaby się ze zbudowaniem bezemisyjnego systemu produkcji energii.
      Jeśli proces zmian będzie przebiegał w tym tempie, co obecnie – a zatem gdy pozwolimy na szacowany wzrost średniej globalnej temperatury o 2,7 stopnia Celsjusza do końca wieku – to do roku 2100 procesy związane z budową bezemisyjnego systemu produkcji energii będą wiązały się z emisją 185 miliardów ton CO2 do atmosfery. To dodatkowo tyle, ile obecnie ludzkość emituje w ciągu 5-6 lat. Będzie więc wiązało się to ze znacznym wzrostem emisji. Jeśli jednak tworzylibyśmy tę samą infrastrukturę na tyle szybko, by ograniczyć wzrost średniej temperatury do 2 stopni Celsjusza – a przypomnijmy, że taki cel założono w międzynarodowych porozumieniach – to zmiana struktury gospodarki wiązałaby się z emisją dodatkowych 95 miliardów ton CO2 do roku 2100. Moglibyśmy jednak założyć jeszcze bardziej ambitny cel i ograniczyć wzrost globalnej temperatury do 1,5 stopnia Celsjusza. W takim wypadku wiązałoby się to z wyemitowaniem 20 miliardów ton CO2, a to zaledwie połowa rocznej emisji.
      Autorzy badań zastrzegają, że ich szacunki są prawdopodobnie zbyt niskie. Nie brali bowiem pod uwagę emisji związanych z koniecznością budowy nowych linii przesyłowych, systemów przechowywania energii czy zastąpienia samochodów napędzanych paliwami kopalnymi przez pojazdy elektryczne. Skupili się poza tym tylko na dwutlenku węgla, nie biorąc pod uwagę innych gazów cieplarnianych, jak metan czy tlenek azotu. Zauważają też, że zmiana gospodarki wiąże się nie tylko z problemem emisji, ale też z innymi negatywnymi konsekwencjami, jak konieczność sięgnięcia po rzadziej dotychczas używane minerały, których złoża mogą znajdować się w przyrodniczo cennych czy dziewiczych obszarach, zauważają też, że budowa wielkich farm fotowoltaicznych i wiatrowych wymaga zajęcia dużych obszarów, co będzie wpływało na mieszkających tam ludzi oraz ekosystemy.
      Pokazaliśmy pewne minimum. Koszt maksymalny jest zapewne znacznie większy, mówi Lesk. Dodaje, że badania przyniosły zachęcające wyniki. Pokazują bowiem, że im szybciej i więcej zainwestujemy na początku, tym mniejsze będą koszty. Jeśli jednak wielkie inwestycje nie rozpoczną się w ciągu najbliższych 5–10 lat, stracimy okazję do znacznego obniżenia kosztów.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...