Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Lipiec był najcieplejszym miesiącem w historii pomiarów?

Rekomendowane odpowiedzi

Z danych Copernicus Climate Change Service, serwisu prowadzonego przez Unię Europejską, wynika, że miniony lipiec mógł być najcieplejszym lipcem w historii pomiarów, a to oznacza najcieplejszym miesiącem w ogóle w historii pomiarów.

Stwierdzenie „mógł być” jest tu jak najbardziej na miejscu, gdyż w porównaniu do rekordowego dotychczas lipca 2016 temperatury były wyższe o 0,04 stopnia Celsjusza, czyli różnica mieści się w granicach błędu pomiarowego. Nie można zaprzeczyć, ze tegoroczny lipiec był wyjątkowo ciepły, o około 0,56 stopnia Celsjusza cieplejszy od średniej dla wszystkich lipców z lat 1981–2010. Jednak sami przedstawiciele Copernicus podkreślają, że opierają się wyłącznie na własnym zestawie danych, a gdy w najbliższych tygodniach inne instytucje opublikują swoje dane może dojść do zweryfikowania informacji o najcieplejszym miesiącu w historii pomiarów.

Lipiec jest zwykle najcieplejszym miesiącem w roku w skali globu. Dzieje się tak, gdyż duże masy lądowe znajdujące się na półkuli północnej ogrzewają się szybciej niż oceany z półkuli południowej ulegają schłodzeniu w czasie lata trwającego na półkuli północnej. Odwrotne zjawisko zachodzi, gdy u nas panuje zima, zatem to sezonowe zmiany na półkuli północnej mają największy wpływ na globalną temperaturę.

Niezależnie od ewentualnych minimalnych korekt w górę czy w dół, już teraz możemy stwierdzić, że tegoroczny lipiec znajduje się bardzo blisko granicy 1,2 stopnia Celsjusza wzrostu w porównaniu z okresem przedprzemysłowym. Warto przypomnieć, że zgodnie z Porozumieniem Paryskim ludzkość chce utrzymać wzrost globalnej temperatury na poziomie znacznie niższym niż 2 stopnie Celsjusza. Docelowo powinno być to nie więcej niż 1,5 stopnia Celsjusza. Trzeba tutaj też zauważyć, że IPCC wyznaczając takie cele bierze pod uwagę nie indywidualne miesiące czy lata, a okresy 30-letnie. Zaś w ciągu ostatnich 30 lat średnie temperatury na Ziemi wzrosły o około 1 stopnień Celsjusza w porównaniu do okresu preindustrialnego.

O tym, czy lipiec 2019 był najcieplejszym miesiącem w historii pomiarów dowiemy się już wkrótce, gdy swoje dane opublikują inne instytucje. Szczególnie istotne będą informacje NASA/NOAA i brytyjskiego Met Office.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No tak - trzeba czekać na dane bo przecież trzeba je odpowiednio wymasować przed publikacją...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, Kodak napisał:

No tak - trzeba czekać na dane bo przecież trzeba je odpowiednio wymasować przed publikacją...

Zechcesz doprecyzować, co chciałeś nam przez to powiedzieć?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przepraszam za mało konkretny komentarz. Następnym razem się powstrzymam.

Jestem po prostu sceptyczny jeżeli chodzi o jakiekolwiek oficjalne dane. Ma być przekaz "jest coraz cieplej" więc takie mają być dane. Nie pasują dane to zmienimy metodologię. Podobnie wygląda np. raportowanie inflacji czy bezrobocia w Stanach.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tu jest przykład prezentacji niższych średnich globalnych temperatur czerwca jako "białe" (near average)

Oba wykresy bazują na tych samych danych ale jednak pierwszy z nich (umieszczany na głównej stronie jedyny cytowany) wygląda dramatycznej

 

Edytowane przez Kodak

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Rozmawiamy o konkretach czy czepiamy się? Pokazałem przykład różnej prezentacji tych samych danych powodujący zmianę efektu; nawet nie chodzi o samą biel - tak są dobrane zakresy aby było więcej ciemniejszej czerwieni

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

1. Przeprosiłem w drugim poście za subiektywizm

2. Pokazałem dalej obiektywne spostrzeżenia

a dalej zostaję obrażany. Jestem użytkownikiem tego serwisu od 2014 roku i mam takie samo prawo wypowiadać się na nim jak inni, prawda?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Rozumiem. Nadal nie widzę błędu w swoim rozumowaniu. Wytłumacz mi proszę.

Oba wykresy pokazują tą samą różnicę względem średniej czyli zakładam, że w obszarach poniżej średniej w czerwcu było chłodniej niż w maju, prawda?

Nie jest to żaden dowód na "globalne ochłodzenie" o czym przecież nie rozmawiamy tylko na tendencyjne przedstawianie danych.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Astro bez wycieczek osobistych proszę.

 

@Kodak nie rozumiem, w czym rzecz. To są podobne dane prezentowane w podobny sposób za pomocą różnych kolorów. W pierwszym przypadku jest to prezentacja mniej precyzyjna, pokazująca, w których miejscach planety odchylenie od średniej było większe lub mniejsze, a w których była średnia. W drugim przypadku pokazano to nieco bardziej precyzyjnie, z użyciem cyfr. NOAA udostępnia u siebie obie grafiki. W czym więc rzecz? W tym, że media częściej pokazują pierwszą? Może np. dlatego, że do ludzi lepiej trafią opisy typu "średnia", "powyżej średniej", niż cyfry. Zresztą cyfry też są przytaczane. Najczęściej w artykułach, w których pojawiają się grafiki. A człowiek, który chce samych cyfr bez problemu je znajdzie.
Tutaj (https://data.giss.nasa.gov/gistemp/tabledata_v4/GLB.Ts+dSST.txt) masz na przykład same cyferki z NASA. Myślisz, że chociaż 10% ludzi zadałoby sobie trud, by  spróbować zrozumieć, jak dane te czytać? Właśnie dlatego stosuje się wykresy, mapki i inne takie. I właśnie dlatego w internecie masz tak dużo obrazków, wideo itp. Ludzie wolą obrazki, lepiej je przyswajają, łatwiej za pomocą obrazków jest przekazać informacje.

PS. I oczywiście, że trzeba na dane czekać. Nikt, prócz wąskiej grupy specjalistów, nie byłby w stanie zrozumieć i zinterpretować danych przekazywanych na bieżąco z setek stacji pomiarowych.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Kodak napisał:

Rozumiem. Nadal nie widzę błędu w swoim rozumowaniu. Wytłumacz mi proszę.

Oba wykresy pokazują tą samą różnicę względem średniej czyli zakładam, że w obszarach poniżej średniej w czerwcu było chłodniej niż w maju, prawda?

Nie jest to żaden dowód na "globalne ochłodzenie" o czym przecież nie rozmawiamy tylko na tendencyjne przedstawianie danych.

Na grafice z heatmapą nałożoną na glob masz, jak mówi Astro, różnice lokalne, ale chyba nie w stosunku do tego co było wcześniej tylko w stosunku do średniej dla globu dla danego miesiąca, a na wykresie słupkowym - globalne różnice pomiędzy średnią policzoną dla lat 1850-1900 a obecną średnią dla globu, dla danego miesiąca, dla danego roku - ale jest jeszcze jedna różnica . Wykres słupkowy masz w skali interwałowej, czyli powiedzmy w numerycznej - masz konkretne wartości w liczbach podane, a na  wykresie heatmap masz skalę porządkową zakodowaną w kolorach. Oznacza to że nie możesz podać dokładnych różnic pomiędzy np. near averange a coller than averange co oznacza, jak mówi Mariusz, że heatmapa jest mniej precyzyjna. Krótko mówiąc - nie możesz porównywać tych dwóch wykresów bo sa różne skale oraz inaczej policzone wartości  (inny basline chyba, bo w opisie wykresu z hetamapą nie ma podane w stosunku do jakiej średniej jest ta temp. wyższa lub niższa - więc zakłądam że do średniej dla globu dla danego roku i miesiąca) + inna graficzna reprezentacja. 

Edytowane przez Warai Otoko

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
51 minut temu, Astro napisał:

Nie sądzisz, że przy biegunach powinno być dużo bardziej niebiesko?

Nie wiem, wypowiadam się tylko na podstawie grafik, nie mam teraz czasu na czytanie artykułu - jesli jest tam napisane tak jak mówiłeś to ok (czyli że w stodunku do np. sredniej z poprzedniego roku - skoro czytałeś to powiedz czy tak jest). Na grafikach nie ma danych dla biegunów. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No dobrze. Przyznaję, że nie wiem czym się różni "Departure from Average" od "Percentiles" (chociaż rozumiem różnicę między zakresami liczbowymi a takimi przyjętymi arbitralnie). Przepraszam za niepotrzebny wątek.

Z drugiej strony szkoda, że nie ma regulaminu forum albo chociaż prostej (n)etykiety dla ludzi z przerostem ego.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Kolejny Sheldon ;)

ps. Trochę dziwne, że dla wykresu "percentiles" nie dają legendy i zakresów liczbowych odpowiadającym nazwom; jakby się uprzeć to można by sprawdzić czy co miesiąc stosują takie same zakresy czy może jednak je modyfikują dla maksymalizacji czerwieni...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
21 minut temu, Astro napisał:

To na podstawie grafik i chłopskiego rozumu. Nie sądzisz, że przy biegunach jest zdecydowanie zimniej niż średnia globalna?

Nie ma danych dla biegunów, ale na drugiej grafice z art. który przytoczyłeś jest napisane że średnia jest z okresu 1981 - 2010 - więc w stosunku do średniej z tego okresu jest brane. Także problem rozwiązany. 

11 minut temu, Kodak napisał:

No dobrze. Przyznaję, że nie wiem czym się różni "Departure from Average" od "Percentiles" (chociaż rozumiem różnicę między zakresami liczbowymi a takimi przyjętymi arbitralnie). Przepraszam za niepotrzebny wątek.

 

Nie masz za co przepraszać - na tym własnie polega forum. Podjąłeś temat, inni użytkownicy się nie zgadzali i ostatecznie doszło do konsensu + oczywiście kilka niepotrzebnych i wprowadzających zamieszanie odp. Astro - ale to nie pierwszy raz, także nie zwracaj uwagi ;)

2 minuty temu, Astro napisał:

To do mnie, więc odpowiem. Przerost ego idzie w parze z wiedzą. :P

Nie zawsze to raz, a dwa nie znaczy to, że jest to dobre. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, Astro napisał:

Zajrzyj do linków, które podałem. Wszystko stanie się jasne. :)

P.S. Warai. Gdyby było jak mówisz, to zapewne domyślasz się, że z grubsza od równika w górę i w dół powinno być bardziej niebiesko. Jak widzisz, nie jest. :)

Nie koniecznie, po pierwsze nie robie tego typu założeń, trzymam cię danych, a po drugie - istnieją prady morskie i rózne efekty paradoksalne (jak szybsze ocieplanie skandynawi etc.) także nie czynie tego typu założeń. 

haha, piszesz tak jakbym już dawno nie dopiął swego... ale dobra. Pisałes wczesniej: 

2 godziny temu, Astro napisał:
2 godziny temu, Mariusz Błoński napisał:

W pierwszym przypadku jest to prezentacja mniej precyzyjna

Trochę nie tak. ;)

ale chyba jednak troszkę tak ;P bo skala interwałowa vs porządkowa. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, Astro napisał:

Zostawię to bez komentarza; żeby zostało.

No pewno że zostawisz bo jesteś mistrzem urządzania festiwali gołosłowności, nie raz się już popisałeś i ciągniesz to po prostu dalej.  

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 minut temu, Astro napisał:

Bardziej nie. :)

Oczywiście bo wg Astro "zimniej niż średnia" albo" blisko średniej" to są określenia równie precyzyjne jak wartości podane w stopniach ;P 

13 minut temu, Astro napisał:

ed: czy mógłbym prosić modów o odessanie ze mnie tej pijawki?

Ty jesteś pijawką tego forum, co po prostu staram się pokazywać żeby nie było więcej ofiar. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Panowie - dość. Czy zamiast utarczek słownych ktoś z Szanownych forumowiczów byłby zainteresowany zrecenzowaniem teorii Suspicious0bservers na temat źródeł zmiany klimatu? Mogę ją zebrać później/dzisiaj w krótkim poście. Moim zdaniem trzyma się kupy ale może tym razem myli mnie intuicja.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Radzę sobie z angielskim, dziękuję. Jest link a nie "znajdź sobie".

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zauważyłem. Niesamowite, że potrafisz dokładnie opisać wygląd skrótu internetowego a nie potrafisz wytłumaczyć różnicy w wykresach "Departure from Average" i "Percentiles".

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zapraszam do lektury ciekawego, rzeczowego wpisu na blogu meteomodel, a odnoszącego się do scenariuszy zmian klimatycznych dla Polski:

https://blog.meteomodel.pl/co-dalej-z-tym-klimatem/

Wnioski są nieco przerażające. Wg. najbardziej prawdopodobnego scenariusza, od końca lat 30-tych, dojdzie w Polsce do skokowego wzrostu temperatury, zwłaszcza latem. Końcówka wieku, w tym wcale nie najbardziej radykalnym modelu,, to niezły piekarnik. Częste będą miesiące letnie ze średnimi temperaturami wynoszącymi 37 st. C! Oznacza to, że w najchłodniejszej porze doby, temperatura nie będzie spadać poniżej 30, a w najgorętszym ok. 47 st. C w cieniu. W Polsce, temperatury z Pakistanu są trudne do wyobrażenia. 

Jedyny pozytyw jaki można znaleźć dla zmian klimatycznych dla Polski, jest wyrażony w tym artykule:

https://forsal.pl/artykuly/1424152,polskie-rolnictwo-moze-skorzystac-na-ociepleniu-klimatu.html

Pod jednym warunkiem. Pojemność retencyjna w Polsce to ledwie 6% rocznego odpływu wód. Ponad dwa razy mniej niż średnio na Zachodzie. Dostępność wody jest u nas trzy razy mniejsza niż na Zachodzie Europy. Spotkałem się z twierdzeniem, że na poziomie Egiptu. To musimy zmienić.  To chyba największe wyzwanie dla Polski, odnośnie zmian klimatycznych. 

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
10 minut temu, Astro napisał:

No tak; i wierzysz, że zdążymy? :D
Toż z pięcioma metrami tamy są problemy przez dziesięć lat. :)

Nie chcę robić za pesymistę, bo bycie realistą mi wystarczy. ;)

Rząd coś robi:

https://www.wnp.pl/budownictwo/program-rozwoju-retencji-w-ostatniej-fazie-uzgodnieniowej,349307_1_0_0.html

Wg. planów do 2027 r. pojemność retencyjna ma wzrosnąć do 15,5%. Zobaczymy, mam nadzieje, że się uda, a nadzieja przecież umiera ostatnia..;)

Ciężko będzie jednak odwrócić zniszczenia przeprowadzone nieco bezmyślną melioracją odpływową  w okresie PRL, czego przykładem jest choćby Polesie Lubelskie:

https://dzikiezycie.pl/archiwum/2007/sierpien-2007/torfowiska-polesia-czy-grozi-nam-kolejna-katastrofa

Niż Polski nigdy nie był przesadnie wilgotny. Ale rekompensowane było to przez liczne bagniska i puszczański charakter wielu jego regionów, zwłaszcza istniejących pradawnych puszczach, wypełniających dawne pustki osadnicze. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Zmiany klimatu spowodują, że obszary nadające się do uprawy żywności oraz do produkcji drewna przesuną się na północ. W ten sposób dwa kluczowe zasoby – pożywienie i drewno – będą konkurowały o ziemię uprawną. Naukowcy z University of Cambridge zwracają uwagę na pomijany aspekt zmian klimatu. W miarę, jak tereny nadające się do produkcji żywności przesuwają się ku północy, w coraz większym stopniu będą konkurowały z terenami, na których rosną lasy.
      Na Ziemi istnieje ograniczona ilość miejsca nadająca się do produkcji żywności i drewna. W miarę zmian klimatu rolnictwo zmuszone jest przesuwać się ku północy, a to zwiększy presję na tereny wykorzystywane do produkcji drewna, mówi doktor Oscar Mordon, jeden ze współautorów badań. Musimy myśleć na 50 lat naprzód, gdy jeśli chcemy mieć w przyszłości drewno, musimy sadzić drzewa. Drzewa, które zostaną wycięte pod koniec bieżącego wieku, już są zasadzone, dodaje doktor Chris Bousfield.
      Obecne prognozy mówią, że do roku 2050 w związku z rosnącą liczbą ludności zapotrzebowanie na żywność zwiększy się 2-krotnie. Podobnie wzrośnie zapotrzebowanie na drewno, które jest wykorzystywane w produkcji papieru, mebli czy budownictwie. Zmiany klimatu spowodują, że do końca wieku ponad 1/4 terenów – około 340 milionów hektarów – zajmowanych przez uprawy lasów będzie nadawała się na upraw żywności. Obecnie większość lasów wykorzystywanych do produkcji drewna znajduje się USA, Kanadzie, Chinach i Rosji. Z przeprowadzonych na University of Cambridge badań wynika, że w 2100 roku aż 90% terenów leśnych, nadających się też do produkcji żywności, będzie znajdowało się w tych właśnie krajach. Szczególnie widoczne będzie to w Rosji. Obszary zajmowane obecnie przez lasy będą nadawały się do produkcji ziemniaków, soi oraz pszenicy.
      Największym zagrożeniem spowodowanym przez rosnącą konkurencję pomiędzy produkcją żywności a produkcją drewna jest ryzyko, że ludzie przeniosą produkcję drewna na pozostałe jeszcze nietknięte tereny pierwotnych lasów na północy i w tropikach. To ostatnie regiony globalnej bioróżnorodności, dodaje profesor David Edwards. Rozpoczęcie wycinki tych lasów nie tylko zniszczy bioróżnorodność, ale spowoduje też uwolnienie olbrzymich ilości węgla do atmosfery.
      Z powodu globalnego ocieplenia coraz częstsze i większe pożary niszczą kolejne obszary leśne, z których pozyskujemy drewno. Zmiana klimatu powoduje też, że rozprzestrzeniają się szkodniki niszczące lasy. Jednocześnie wiele obszarów staje się powoli niezdatnymi do produkcji żywności.
      Przemysł drzewny już teraz boryka się z problemami powodowanymi przez zmiany klimatyczne. Wkrótce dojdzie do tego presja ze strony rolnictwa, co spowoduje kolejne problemy. Oczywiście zapewnienie dostępu do drewna nie wydaje się tak pilne, jak zapewnienie dostępu do żywności. Jednak musimy pamiętać, że drewno jest równie obecne w naszym codziennym życiu i potrzebujemy strategii, dzięki której w przyszłości będziemy mieli odpowiednie ilości i żywności, i drewna, stwierdzają naukowcy.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Atlantycka Niña to chłodna faza naturalnego wzorca klimatycznego. Podobnie jak znacznie bardziej znany wzorzec zachodzącej na Pacyfiku oscylacji południowej (ENSO), na którą składają się fazy El Niño, La Niña i faza neutralna, także na Atlantyku co kilka lat mamy fazę zimną i gorącą. Temperatura powierzchni oceanu we wschodniej części równikowego Oceanu Atlantyckiego wykazuje zaskakujący, nieintuicyjny cykl. Wody w tamtym regionie najcieplejsze są wiosną, a najzimniejsze w lipcu i sierpniu.
      Do tego ochłodzenia w lecie dochodzi w wyniku działalności wiatru. Gdy na półkuli północnej jest lato, równikowy pas opadów, pod wpływem silniejszego nagrzewania przez słońce, przemieszcza się na północ, co powoduje wciąganie nad równikowy Atlantyk powietrza z południowego-wschodu. Wiejące wówczas pasaty są tak silne, że przemieszczają gorące wody powierzchniowe z równika i pojawia się zjawisko upwellingu, podnoszenia się chłodnych wód głębinowych.
      Dlatego w miesiącach letnich na równikowych obszarach Atlantyku może pojawiać się zimna woda. Co kilka lat – w wyniku naturalnej zmienności – ten chłodny obszar jest albo cieplejszy, albo chłodniejszy od własnej średniej średniej. Specjaliści mówią wówczas o Atlantyckim Niño lub Niña. Zjawisko nie jest ściśle zdefiniowane, ale przyjmuje się, że jeśli 3-miesięczna średnia temperatura powierzchni przez co najmniej 2 kolejne sezony jest o 0,5 stopnia Celsjusza wyższa od średniej długoterminowej, to mamy do czynienia z Atlantyckim Niño, jeśli jest o 0,5 stopnia C niższa, jest to Atlantycka Niña.
      W bieżącym roku w lutym i marcu we wschodniej części równikowego Atlantyku mieliśmy do czynienia z ekstremalnie wysokimi temperaturami wód powierzchniowych. Przekraczały 30 stopni Celsjusza i były najwyższe od 1982 roku. Obecnie zaś, od maja, naukowy obserwują rekordowe ochładzanie się tego obszaru. Temperatura wód spadła nawet ponad 1 stopień Celsjusza. I co najbardziej zaskakujące, ochładzanie to ma miejsce w obliczu słabnących pasatów. A to one powodują upwelling, zatem im są słabsze, tym słabsze powinno być zjawisko podnoszenia się chłodnych wód z głębin. Innymi słowy naukowcy obserwują wyjątkowo szybko rozwijającą się Atlantycką Niñę w sytuacji, która nie sprzyja jej rozwojowi.
      Jak już wspomnieliśmy, o poszczególnych fazach Atlantyckich Niños mówimy przy odchyleniu rzędu 0,5 stopnia Celsjusza od średniej. Wbrew pozorom, jest do duża różnica. Te pół stopnia ma olbrzymi wpływ na poziom opadów w Afryce i Ameryce Południowej. Na przykład w fazie Niño mamy do czynienia ze zmniejszeniem opadów w Sahelu, zwiększeniem w Zatoce Gwinejskiej i zmianami wzorca opadów w północno-wschodniej części Ameryki Południowej. Ze zmianami Niños wiążą się też zmiany wzorca huraganów. Już jakiś czas temu amerykańska NOAA przewidywała, że w bieżącym roku intensywność huraganów będzie powyżej średniej. Prognozę taką opracowano na podstawie warunków panujących w równikowych obszarach Pacyfiku oraz tropikalnych regionach Północnego Atlantyku. Teraz eksperci będą z zainteresowaniem monitorowali, czy Atlantycka Niña wpłynie huragany. 

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Międzynarodowy zespół naukowy wykorzystał pobrane w pobliży Fidżi koralowce, które żyły w ciągu 627 lat i – w połączeniu z innymi danymi – odtworzył zmienność temperatury i klimatu Pacyfiku od 1370 roku. Badania pokazały, w jaki sposób zmiany powodowane przez człowieka wpływają na naturalną długoterminową zmienność klimatyczną na Pacyfiku.
      Naukowcy stwierdzili, że w latach 1380–1553 temperatura oceanu w pobliżu Fidżi była bardzo wysoka, porównywalna z temperaturą z końca XX i początku XXI wieku. Połączenie tych danych z innymi danymi z lokalnych koralowców wykazały, że obserwowany od 1920 roku wzrost temperatury Pacyfiku – za których w głównej mierze odpowiada działalność człowieka – stanowi znaczące odchylenie od wzorców naturalnej zmienności obserwowanych w poprzednich wiekach. Okazało się tez, że obecna temperatura oceanu jest najwyższa od 653 lat.
      Zmiany temperatury oceanów wpływają na wzrost koralowców, można więc je wykorzystać do rekonstrukcji temperatury. Użycie 627-letniego zapisu to bezprecedensowe osiągnięcie, dzięki którym możliwe było wykonanie najdłuższej z dotychczasowych rekonstrukcji temperatury powierzchni oceanu. Została ona wykonana na podstawie badań stosunku strontu do wapnia w koralowcu Diploastrea heliopora.
      Uczeni z Meksyku, Wielkiej Brytanii, Australii, Niemiec i Francji użyli danych koralowców do odtworzenia Pacyficznej Oscylacji Międzydekadalnej (IPO). To wielkoskalowe zjawisko, które wpływa na zmienność klimatu na całym oceanie.
      Ta nowa, długoterminowa rekonstrukcja pozwala na odróżnienie sygnału obecnej zmiany klimatu od naturalnej zmienności Pacyfiku. Lepsze zrozumienie przeszłości pozwoli nam na lepsze przewidywanie przyszłości. Pokazuje też, że obecne ogrzewanie się Pacyfiku spowodowane jest zmianą klimatu, a nie naturalnymi zmianami, mówi doktor Ariaan Purich z Monash University.
      Wyniki badań ukazały się niecały tydzień po tym, jak w Nature opublikowano artykuł, którego autorzy poinformowali, że Wielka Rafa Koralowa jest zagrożona przez najcieplejsze od 400 lat wody oceanów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Na łamach Science Advances opisano rewolucyjny scenariusz terraformowania Marsa i ogrzania jego powierzchni. Pomysł, przedstawiony przez naukowców z University of Chicago, Northwestern University oraz University of Central Florida, polega na uwolnieniu do atmosfery odpowiednio przygotowanych cząstek pyłu, które ogrzałyby Czerwoną Planetę o ponad 50 stopni Fahrenheita (ok. 28 stopni Celsjusza). Opisana metoda może być 5000 razy bardziej efektywna, niż dotychczas proponowane.
      Średnia temperatura na powierzchni Marsa wynosi -60 stopni Celsjusza, jej podniesienie o 28 stopni byłoby olbrzymią zmianą, pozwalającą na istnienie mikroorganizmów i wody w stanie ciekłym na dużych obszarach planety.
      Tym, co wyróżnia nową metodę jest wykorzystanie materiałów łatwo dostępnych ma Marsie. Wcześniej proponowane sposoby albo zakładały import materiałów z Ziemi, albo prowadzenie na Czerwonej Planecie działalności górniczej i wydobywanie rzadkich minerałów.
      Podniesienie temperatury planety trwałoby wiele dekad. Nie spowodowałoby, oczywiście, że przebywający na Marsie ludzie mogliby pozbyć się skafandrów czy oddychać tamtejszą atmosferą. Jednak położyłoby podwaliny, pod taki rozwój wydarzeń. Pozwoliłoby na istnienie wody w stanie ciekłym, istnienie mikroorganizmów oraz uprawę roślin, które stopniowo uwalniałyby tlen do atmosfery.
      Podstawowym krokiem na drodze ku uczynieniu Marsa bardziej zdatnym do życia, jest podniesienie temperatury. Można zrobić to samo, co ludzie niechcący zrobili na Ziemi, wypuścić do atmosfery materiał, który zwiększy naturalny efekt cieplarniany, utrzymując energię Słońca przy powierzchni planety. Problem w tym, że – niezależnie czym byłby taki materiał – potrzebne są jego gigantyczne ilości. Dotychczasowe propozycje zakładały albo przywożenie gazów z Ziemi, albo wydobywanie na Marsie potrzebnych materiałów. Jedno i drugie jest niezwykle kosztowne i trudne do zrealizowania. Autorzy najnowszych badań zastanawiali się, czy można do ogrzania Marsa wykorzystać jakiś obecny na miejscu łatwo dostępny materiał.
      Z dotychczasowych badań wiemy, że marsjański pył jest pełen żelaza i aluminium. Cząstki tego pyłu nie są w stanie ogrzać planety. Ich skład i rozmiary są takie, że po uwolnieniu do atmosfery doprowadziłyby do schłodzenia powierzchni Marsa.
      Naukowcy wysunęli hipotezę, że gdyby pył ten miał inny kształt, być może zwiększałby, a nie zmniejszał, efekt cieplarniany.
      Stworzyli więc cząstki o kształcie pręcików i rozmiarach komercyjnie dostępnego brokatu. Są one w stanie zatrzymywać uciekającą energię cieplną i rozpraszają światło słoneczne w stronę powierzchni planety.
      Sposób, w jaki światło wchodzi w interakcje z obiektami wielkości mniejszej niż długość fali, to fascynujące zagadnienie. Dodatkowo można tak przygotować nanocząstki, że pojawią się efekty optyczne wykraczające poza to, czego możemy spodziewać się po samych tylko rozmiarach cząstek. Uważamy, że możliwe jest zaprojektowanie nanocząstek o jeszcze większe efektywności, a nawet takich, których właściwości optyczne zmieniają się dynamicznie, mówi współautor badań, Ansari Mohseni.
      A profesor Edwin Kite dodaje, że zaproponowana metoda wciąż będzie wymagała użycia milionów ton materiału, ale to i tak 5000 razy mniej, niż zakładały wcześniejsze propozycje. To zaś oznacza, że jest ona tańsza i łatwiejsza w użyciu. Ogrzanie Marsa do tego stopnia, by na jego powierzchni istniała ciekła woda, nie jest więc tak trudne, jak dotychczas sądzono, dodaje Kite.
      Z obliczeń wynika, że gdyby wspomniane cząstki były stale uwalniane w tempie 30 litrów na sekundę, to z czasem średnia temperatura na powierzchni Marsa mogłaby wzrosnąć o 28 stopni Celsjusza, a pierwsze efekty takich działań byłyby widoczne już w ciągu kilku miesięcy. Efekt cieplarniany można by też odwrócić. Wystarczyłoby zaprzestać uwalniania cząstek, a w ciągu kilku lat sytuacja wróciłaby do normy.
      Autorzy propozycji mówią, że potrzebnych jest jeszcze wiele badań. Nie wiemy na przykład dokładnie, w jakim tempie uwolnione cząstki krążyłyby w atmosferze. Ponadto na Marsie występuje woda i chmury. W miarę ogrzewania atmosfery mogłoby dochodzić do kondensacji pary wodnej na uwolnionych cząstkach i ich opadania wraz z deszczem. Klimatyczne sprzężenia zwrotne są bardzo trudne do modelowania. Żeby zaimplementować naszą metodę musielibyśmy mieć więcej danych z Marsa i Ziemi. Musielibyśmy też pracować powoli i mieć pewność, że skutki naszych działań są odwracalne, dopiero wtedy moglibyśmy zyskać pewność, że to zadziała, ostrzega Kite. Ponadto, jak podkreśla uczony, badacze skupili się na aspektach związanych z podniesieniem temperatury do poziomu użytecznego dla istnienia mikroorganizmów i potencjalnej uprawy roślin, a nie na stworzeniu atmosfery, w której ludzie będą mogli oddychać.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      UWAGA: artykuł opisujący te badania został wycofany z Nature w związku z podejrzeniami o manipulowanie danymi.
      Naukowcy z University of Rochester poinformowali o osiągnięciu nadprzewodnictwa w temperaturze pokojowej. Nadprzewodnictwo to stan, w którym ładunek elektryczny może podróżować przez materiał nie napotykając żadnych oporów. Dotychczas udawało się je osiągnąć albo w niezwykle niskich temperaturach, albo przy gigantycznym ciśnieniu. Gdyby odkrycie się potwierdziło, moglibyśmy realnie myśleć o bezstratnym przesyłaniu energii, niezwykle wydajnych silnikach elektrycznych, lewitujących pociągach czy tanich magnesach do rezonansu magnetycznego i fuzji jądrowej. Jednak w mamy tutaj nie jedną, a dwie łyżki dziegciu.
      O nadprzewodnictwie wysokotemperaturowym mówi się, gdy zjawisko to zachodzi w temperaturze wyższej niż -196,2 stopni Celsjusza. Dotychczas najwyższą temperaturą, w jakiej obserwowano nadprzewodnictwo przy standardowym ciśnieniu na poziomie morza jest -140 stopni C. Naukowcy z Rochester zaobserwowali nadprzewodnictwo do temperatury 20,6 stopni Celsjusza. Tutaj jednak dochodzimy do pierwszego „ale“. Zjawisko zaobserwowano bowiem przy ciśnieniu 1 gigapaskala (GPa). To około 10 000 razy więcej niż ciśnienie na poziomie morza. Mimo to mamy tutaj do czynienia z olbrzymim postępem. Jeszcze w 2021 roku wszystko, co udało się osiągnąć to nadprzewodnictwo w temperaturze do 13,85 stopni Celsjusza przy ciśnieniu 267 GPa.
      Drugim problemem jest fakt, że niedawno ta sama grupa naukowa wycofała opublikowany już w Nature artykuł o osiągnięciu wysokotemperaturowego nadprzewodnictwa. Powodem był użycie niestandardowej metody redukcji danych, która została skrytykowana przez środowisko naukowe. Artykuł został poprawiony i obecnie jest sprawdzany przez recenzentów Nature.
      Profesor Paul Chig Wu Chu, który w latach 80. prowadził przełomowe prace na polu nadprzewodnictwa, ostrożnie podchodzi do wyników z Rochester, ale chwali sam sposób przeprowadzenia eksperymentu. Jeśli wyniki okażą się prawdziwe, to zdecydowanie mamy tutaj do czynienia ze znaczącym postępem, dodaje uczony.
      Z kolei James Walsh, profesor chemii z University of Massachusetts przypomina, że prowadzenie eksperymentów naukowych w warunkach wysokiego ciśnienia jest bardzo trudne, rodzi to dodatkowe problemy, które nie występują w innych eksperymentach. Stąd też mogą wynikać kontrowersje wokół wcześniejszej pracy grupy z University of Rochester.
      Ranga Dias, który stoi na czele zespołu badawczego z Rochester zdaje sobie sprawę, że od czasu publikacji poprzedniego artykułu jego zespół jest poddawany bardziej surowej ocenie. Dlatego też prowadzona jest polityka otwartych drzwi. "Każdy może przyjść do naszego laboratorium i obserwować, jak dokonujemy pomiarów. Udostępniliśmy recenzentom wszystkie dane", dodaje. Uczony dodaje, że podczas ponownego zbierania danych na potrzeby poprawionego artykułu współpracowali z przedstawicielami Argonne National Laboratory oraz Brookhaven National Laboratory. Dokonywaliśmy pomiarów w obecności publiczności, zapewnia.
      Materiał, w którym zaobserwowano nadprzewodnictwo w temperaturze ponad 20 stopni Celsjusza, to wodorek lutetu domieszkowany azotem. Profesor Eva Zurek ze State University of New York mówi, że potrzebne jest niezależne potwierdzenie wyników grupy Diasa. Jeśli jednak okaże się, że są one prawdziwe, uczona uważa, że opracowanie nadprzewodnika ze wzbogaconego azotem wodorku lutetu pracującego w temperaturze pokojowej lub opracowanie technologii nadprzewodzących pracujących przy umiarkowanym ciśnieniu powinno być stosunkowo proste.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...