Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Tropikalny Atlantyk ochładza się wyjątkowo szybko

Recommended Posts

Atlantycka Niña to chłodna faza naturalnego wzorca klimatycznego. Podobnie jak znacznie bardziej znany wzorzec zachodzącej na Pacyfiku oscylacji południowej (ENSO), na którą składają się fazy El Niño, La Niña i faza neutralna, także na Atlantyku co kilka lat mamy fazę zimną i gorącą. Temperatura powierzchni oceanu we wschodniej części równikowego Oceanu Atlantyckiego wykazuje zaskakujący, nieintuicyjny cykl. Wody w tamtym regionie najcieplejsze są wiosną, a najzimniejsze w lipcu i sierpniu.

Do tego ochłodzenia w lecie dochodzi w wyniku działalności wiatru. Gdy na półkuli północnej jest lato, równikowy pas opadów, pod wpływem silniejszego nagrzewania przez słońce, przemieszcza się na północ, co powoduje wciąganie nad równikowy Atlantyk powietrza z południowego-wschodu. Wiejące wówczas pasaty są tak silne, że przemieszczają gorące wody powierzchniowe z równika i pojawia się zjawisko upwellingu, podnoszenia się chłodnych wód głębinowych.

Dlatego w miesiącach letnich na równikowych obszarach Atlantyku może pojawiać się zimna woda. Co kilka lat – w wyniku naturalnej zmienności – ten chłodny obszar jest albo cieplejszy, albo chłodniejszy od własnej średniej średniej. Specjaliści mówią wówczas o Atlantyckim Niño lub Niña. Zjawisko nie jest ściśle zdefiniowane, ale przyjmuje się, że jeśli 3-miesięczna średnia temperatura powierzchni przez co najmniej 2 kolejne sezony jest o 0,5 stopnia Celsjusza wyższa od średniej długoterminowej, to mamy do czynienia z Atlantyckim Niño, jeśli jest o 0,5 stopnia C niższa, jest to Atlantycka Niña.

W bieżącym roku w lutym i marcu we wschodniej części równikowego Atlantyku mieliśmy do czynienia z ekstremalnie wysokimi temperaturami wód powierzchniowych. Przekraczały 30 stopni Celsjusza i były najwyższe od 1982 roku. Obecnie zaś, od maja, naukowy obserwują rekordowe ochładzanie się tego obszaru. Temperatura wód spadła nawet ponad 1 stopień Celsjusza. I co najbardziej zaskakujące, ochładzanie to ma miejsce w obliczu słabnących pasatów. A to one powodują upwelling, zatem im są słabsze, tym słabsze powinno być zjawisko podnoszenia się chłodnych wód z głębin. Innymi słowy naukowcy obserwują wyjątkowo szybko rozwijającą się Atlantycką Niñę w sytuacji, która nie sprzyja jej rozwojowi.

Jak już wspomnieliśmy, o poszczególnych fazach Atlantyckich Niños mówimy przy odchyleniu rzędu 0,5 stopnia Celsjusza od średniej. Wbrew pozorom, jest do duża różnica. Te pół stopnia ma olbrzymi wpływ na poziom opadów w Afryce i Ameryce Południowej. Na przykład w fazie Niño mamy do czynienia ze zmniejszeniem opadów w Sahelu, zwiększeniem w Zatoce Gwinejskiej i zmianami wzorca opadów w północno-wschodniej części Ameryki Południowej. Ze zmianami Niños wiążą się też zmiany wzorca huraganów. Już jakiś czas temu amerykańska NOAA przewidywała, że w bieżącym roku intensywność huraganów będzie powyżej średniej. Prognozę taką opracowano na podstawie warunków panujących w równikowych obszarach Pacyfiku oraz tropikalnych regionach Północnego Atlantyku. Teraz eksperci będą z zainteresowaniem monitorowali, czy Atlantycka Niña wpłynie huragany. 


« powrót do artykułu

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Międzynarodowy zespół naukowy wykorzystał pobrane w pobliży Fidżi koralowce, które żyły w ciągu 627 lat i – w połączeniu z innymi danymi – odtworzył zmienność temperatury i klimatu Pacyfiku od 1370 roku. Badania pokazały, w jaki sposób zmiany powodowane przez człowieka wpływają na naturalną długoterminową zmienność klimatyczną na Pacyfiku.
      Naukowcy stwierdzili, że w latach 1380–1553 temperatura oceanu w pobliżu Fidżi była bardzo wysoka, porównywalna z temperaturą z końca XX i początku XXI wieku. Połączenie tych danych z innymi danymi z lokalnych koralowców wykazały, że obserwowany od 1920 roku wzrost temperatury Pacyfiku – za których w głównej mierze odpowiada działalność człowieka – stanowi znaczące odchylenie od wzorców naturalnej zmienności obserwowanych w poprzednich wiekach. Okazało się tez, że obecna temperatura oceanu jest najwyższa od 653 lat.
      Zmiany temperatury oceanów wpływają na wzrost koralowców, można więc je wykorzystać do rekonstrukcji temperatury. Użycie 627-letniego zapisu to bezprecedensowe osiągnięcie, dzięki którym możliwe było wykonanie najdłuższej z dotychczasowych rekonstrukcji temperatury powierzchni oceanu. Została ona wykonana na podstawie badań stosunku strontu do wapnia w koralowcu Diploastrea heliopora.
      Uczeni z Meksyku, Wielkiej Brytanii, Australii, Niemiec i Francji użyli danych koralowców do odtworzenia Pacyficznej Oscylacji Międzydekadalnej (IPO). To wielkoskalowe zjawisko, które wpływa na zmienność klimatu na całym oceanie.
      Ta nowa, długoterminowa rekonstrukcja pozwala na odróżnienie sygnału obecnej zmiany klimatu od naturalnej zmienności Pacyfiku. Lepsze zrozumienie przeszłości pozwoli nam na lepsze przewidywanie przyszłości. Pokazuje też, że obecne ogrzewanie się Pacyfiku spowodowane jest zmianą klimatu, a nie naturalnymi zmianami, mówi doktor Ariaan Purich z Monash University.
      Wyniki badań ukazały się niecały tydzień po tym, jak w Nature opublikowano artykuł, którego autorzy poinformowali, że Wielka Rafa Koralowa jest zagrożona przez najcieplejsze od 400 lat wody oceanów.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Na łamach Science Advances opisano rewolucyjny scenariusz terraformowania Marsa i ogrzania jego powierzchni. Pomysł, przedstawiony przez naukowców z University of Chicago, Northwestern University oraz University of Central Florida, polega na uwolnieniu do atmosfery odpowiednio przygotowanych cząstek pyłu, które ogrzałyby Czerwoną Planetę o ponad 50 stopni Fahrenheita (ok. 28 stopni Celsjusza). Opisana metoda może być 5000 razy bardziej efektywna, niż dotychczas proponowane.
      Średnia temperatura na powierzchni Marsa wynosi -60 stopni Celsjusza, jej podniesienie o 28 stopni byłoby olbrzymią zmianą, pozwalającą na istnienie mikroorganizmów i wody w stanie ciekłym na dużych obszarach planety.
      Tym, co wyróżnia nową metodę jest wykorzystanie materiałów łatwo dostępnych ma Marsie. Wcześniej proponowane sposoby albo zakładały import materiałów z Ziemi, albo prowadzenie na Czerwonej Planecie działalności górniczej i wydobywanie rzadkich minerałów.
      Podniesienie temperatury planety trwałoby wiele dekad. Nie spowodowałoby, oczywiście, że przebywający na Marsie ludzie mogliby pozbyć się skafandrów czy oddychać tamtejszą atmosferą. Jednak położyłoby podwaliny, pod taki rozwój wydarzeń. Pozwoliłoby na istnienie wody w stanie ciekłym, istnienie mikroorganizmów oraz uprawę roślin, które stopniowo uwalniałyby tlen do atmosfery.
      Podstawowym krokiem na drodze ku uczynieniu Marsa bardziej zdatnym do życia, jest podniesienie temperatury. Można zrobić to samo, co ludzie niechcący zrobili na Ziemi, wypuścić do atmosfery materiał, który zwiększy naturalny efekt cieplarniany, utrzymując energię Słońca przy powierzchni planety. Problem w tym, że – niezależnie czym byłby taki materiał – potrzebne są jego gigantyczne ilości. Dotychczasowe propozycje zakładały albo przywożenie gazów z Ziemi, albo wydobywanie na Marsie potrzebnych materiałów. Jedno i drugie jest niezwykle kosztowne i trudne do zrealizowania. Autorzy najnowszych badań zastanawiali się, czy można do ogrzania Marsa wykorzystać jakiś obecny na miejscu łatwo dostępny materiał.
      Z dotychczasowych badań wiemy, że marsjański pył jest pełen żelaza i aluminium. Cząstki tego pyłu nie są w stanie ogrzać planety. Ich skład i rozmiary są takie, że po uwolnieniu do atmosfery doprowadziłyby do schłodzenia powierzchni Marsa.
      Naukowcy wysunęli hipotezę, że gdyby pył ten miał inny kształt, być może zwiększałby, a nie zmniejszał, efekt cieplarniany.
      Stworzyli więc cząstki o kształcie pręcików i rozmiarach komercyjnie dostępnego brokatu. Są one w stanie zatrzymywać uciekającą energię cieplną i rozpraszają światło słoneczne w stronę powierzchni planety.
      Sposób, w jaki światło wchodzi w interakcje z obiektami wielkości mniejszej niż długość fali, to fascynujące zagadnienie. Dodatkowo można tak przygotować nanocząstki, że pojawią się efekty optyczne wykraczające poza to, czego możemy spodziewać się po samych tylko rozmiarach cząstek. Uważamy, że możliwe jest zaprojektowanie nanocząstek o jeszcze większe efektywności, a nawet takich, których właściwości optyczne zmieniają się dynamicznie, mówi współautor badań, Ansari Mohseni.
      A profesor Edwin Kite dodaje, że zaproponowana metoda wciąż będzie wymagała użycia milionów ton materiału, ale to i tak 5000 razy mniej, niż zakładały wcześniejsze propozycje. To zaś oznacza, że jest ona tańsza i łatwiejsza w użyciu. Ogrzanie Marsa do tego stopnia, by na jego powierzchni istniała ciekła woda, nie jest więc tak trudne, jak dotychczas sądzono, dodaje Kite.
      Z obliczeń wynika, że gdyby wspomniane cząstki były stale uwalniane w tempie 30 litrów na sekundę, to z czasem średnia temperatura na powierzchni Marsa mogłaby wzrosnąć o 28 stopni Celsjusza, a pierwsze efekty takich działań byłyby widoczne już w ciągu kilku miesięcy. Efekt cieplarniany można by też odwrócić. Wystarczyłoby zaprzestać uwalniania cząstek, a w ciągu kilku lat sytuacja wróciłaby do normy.
      Autorzy propozycji mówią, że potrzebnych jest jeszcze wiele badań. Nie wiemy na przykład dokładnie, w jakim tempie uwolnione cząstki krążyłyby w atmosferze. Ponadto na Marsie występuje woda i chmury. W miarę ogrzewania atmosfery mogłoby dochodzić do kondensacji pary wodnej na uwolnionych cząstkach i ich opadania wraz z deszczem. Klimatyczne sprzężenia zwrotne są bardzo trudne do modelowania. Żeby zaimplementować naszą metodę musielibyśmy mieć więcej danych z Marsa i Ziemi. Musielibyśmy też pracować powoli i mieć pewność, że skutki naszych działań są odwracalne, dopiero wtedy moglibyśmy zyskać pewność, że to zadziała, ostrzega Kite. Ponadto, jak podkreśla uczony, badacze skupili się na aspektach związanych z podniesieniem temperatury do poziomu użytecznego dla istnienia mikroorganizmów i potencjalnej uprawy roślin, a nie na stworzeniu atmosfery, w której ludzie będą mogli oddychać.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      UWAGA: artykuł opisujący te badania został wycofany z Nature w związku z podejrzeniami o manipulowanie danymi.
      Naukowcy z University of Rochester poinformowali o osiągnięciu nadprzewodnictwa w temperaturze pokojowej. Nadprzewodnictwo to stan, w którym ładunek elektryczny może podróżować przez materiał nie napotykając żadnych oporów. Dotychczas udawało się je osiągnąć albo w niezwykle niskich temperaturach, albo przy gigantycznym ciśnieniu. Gdyby odkrycie się potwierdziło, moglibyśmy realnie myśleć o bezstratnym przesyłaniu energii, niezwykle wydajnych silnikach elektrycznych, lewitujących pociągach czy tanich magnesach do rezonansu magnetycznego i fuzji jądrowej. Jednak w mamy tutaj nie jedną, a dwie łyżki dziegciu.
      O nadprzewodnictwie wysokotemperaturowym mówi się, gdy zjawisko to zachodzi w temperaturze wyższej niż -196,2 stopni Celsjusza. Dotychczas najwyższą temperaturą, w jakiej obserwowano nadprzewodnictwo przy standardowym ciśnieniu na poziomie morza jest -140 stopni C. Naukowcy z Rochester zaobserwowali nadprzewodnictwo do temperatury 20,6 stopni Celsjusza. Tutaj jednak dochodzimy do pierwszego „ale“. Zjawisko zaobserwowano bowiem przy ciśnieniu 1 gigapaskala (GPa). To około 10 000 razy więcej niż ciśnienie na poziomie morza. Mimo to mamy tutaj do czynienia z olbrzymim postępem. Jeszcze w 2021 roku wszystko, co udało się osiągnąć to nadprzewodnictwo w temperaturze do 13,85 stopni Celsjusza przy ciśnieniu 267 GPa.
      Drugim problemem jest fakt, że niedawno ta sama grupa naukowa wycofała opublikowany już w Nature artykuł o osiągnięciu wysokotemperaturowego nadprzewodnictwa. Powodem był użycie niestandardowej metody redukcji danych, która została skrytykowana przez środowisko naukowe. Artykuł został poprawiony i obecnie jest sprawdzany przez recenzentów Nature.
      Profesor Paul Chig Wu Chu, który w latach 80. prowadził przełomowe prace na polu nadprzewodnictwa, ostrożnie podchodzi do wyników z Rochester, ale chwali sam sposób przeprowadzenia eksperymentu. Jeśli wyniki okażą się prawdziwe, to zdecydowanie mamy tutaj do czynienia ze znaczącym postępem, dodaje uczony.
      Z kolei James Walsh, profesor chemii z University of Massachusetts przypomina, że prowadzenie eksperymentów naukowych w warunkach wysokiego ciśnienia jest bardzo trudne, rodzi to dodatkowe problemy, które nie występują w innych eksperymentach. Stąd też mogą wynikać kontrowersje wokół wcześniejszej pracy grupy z University of Rochester.
      Ranga Dias, który stoi na czele zespołu badawczego z Rochester zdaje sobie sprawę, że od czasu publikacji poprzedniego artykułu jego zespół jest poddawany bardziej surowej ocenie. Dlatego też prowadzona jest polityka otwartych drzwi. "Każdy może przyjść do naszego laboratorium i obserwować, jak dokonujemy pomiarów. Udostępniliśmy recenzentom wszystkie dane", dodaje. Uczony dodaje, że podczas ponownego zbierania danych na potrzeby poprawionego artykułu współpracowali z przedstawicielami Argonne National Laboratory oraz Brookhaven National Laboratory. Dokonywaliśmy pomiarów w obecności publiczności, zapewnia.
      Materiał, w którym zaobserwowano nadprzewodnictwo w temperaturze ponad 20 stopni Celsjusza, to wodorek lutetu domieszkowany azotem. Profesor Eva Zurek ze State University of New York mówi, że potrzebne jest niezależne potwierdzenie wyników grupy Diasa. Jeśli jednak okaże się, że są one prawdziwe, uczona uważa, że opracowanie nadprzewodnika ze wzbogaconego azotem wodorku lutetu pracującego w temperaturze pokojowej lub opracowanie technologii nadprzewodzących pracujących przy umiarkowanym ciśnieniu powinno być stosunkowo proste.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Wody na Księżycu jest znacznie mniej, niż dotychczas sądzono, informuje Norbert Schörghofer z Planetary Science Institute w Arizonie, współautor badań, których wyniki opublikowano na łamach Science Advances. Obliczenia przeprowadzone przez Schörghofera i Ralucę Rufu z Southwest Research Insitute w Kolorado, mają olbrzymie znaczenie nie tylko dla zrozumienia historii Księżyca, ale również dla założenia stałej bazy na Srebrnym Globie. Bazy, która ma wspierać załogowe wyprawy na Marsa. Kevin Cannon, geolog z Colorado School of Mines, który prowadzi spis obiecujących miejsc do lądowania i prac górniczych na Księżycu, już zaczął aktualizować ją w oparciu o wyliczenia Schörghofera i Rufu.
      Woda na Księżycu, w postaci lodu, znajduje się w stale zacienionych obszarach księżycowych kraterów. Tylko tam ma szansę przetrwać. Te stale zacienione obszary to jedne z najchłodniejszych miejsc w Układzie Słonecznym. Na wodę możemy liczyć przede wszystkim w głębokich kraterach znajdujących się w pobliżu biegunów. Tam bowiem kąt padania promieni słonecznych wynosi zaledwie 1,5 stopnia. Jednak nie zawsze tak było. Przed miliardami lat oś Księżyca była nachylona pod zupełnie innym kątem, różniącym się od obecnego może nawet o 77 stopni. Taka orientacja wystawiała zaś bieguny na działanie Słońca, eliminując wszelkie zacienione obszary, a co za tym idzie, odparowując znajdujący się tam lód.
      Wiemy, że Księżyc powstał przed około 4,5 miliardami lat w wyniku uderzenia w tworzącą się Ziemię planety wielkości Marsa. Od tego czasu migruje on coraz dalej od nasze planety. Początkowo znajdował się pod przemożnym wpływem sił pływowych Ziemi, obecnie większą rolę odgrywają siły pływowe Słońca i ta właśnie zmiana doprowadziła do zmiany orientacji osi Księżyca. Zasadnicze pytanie brzmi, kiedy do niej doszło. Jeśli wcześniej, to na Księżycu powinno być więcej lodu, jeśli zaś później, lodu będzie mniej.
      Dopiero w 2022 roku astronomowie z Obserwatorium Paryskiego rozwiązali stary problem niezgodności danych geochemicznych z fizycznym modelem oddziaływania sił pływowych. Schörghofer i Rufu skorzystali z pracy Francuzów i utworzyli udoskonalony model pokazujący zmiany osi Księżyca w czasie. To zaś pozwoliło mi stwierdzić, ile lodu może istnieć w obecnych stale zacienionych obszarach.
      Z ich obliczeń wynika, że najstarsze stale zacienione obszary utworzyły się nie więcej niż 3,94 miliarda lat temu. Są zatem znacznie młodsze, niż dotychczas sądzono, a to oznacza, że wody na Księżycu jest znacznie mniej. Nie możemy się już spodziewać, że istnieją tam warstwy czystego lodu o grubości od dziesiątków to setek metrów, mówi Schörghofer.
      Uczony dodaje jednak, że nie należy podchodzić do tych badań wyłącznie pesymistycznie. Dostarczają one bowiem dokładniejszych danych na temat miejsc, w których powinien znajdować się lód. Ponadto z wcześniejszych badań, które Schörghofer prowadził wraz z Paulem Hayne z University of Colorado i Odedem Aharonsonem z izraelskiego Instytut Weizmanna, wynika, że stale zacienionych obszarów jest więcej niż sądzono, a lód może znajdować się nawet w takich, które liczą sobie zaledwie 900 milionów lat. Wnioski płynące z badań są więc takie, że lodu na Księżycu jest znacznie mniej, ale jest on w większej liczbie miejsc.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Naukowcy z Instytutu Fizyki UJ pracują nad prototypowym wykrywaczem z działem neutronowym, który będzie rozpoznawać potencjalnie niebezpieczne zatopione materiały. Dzięki niemu możliwe będzie określenie składu podejrzanych substancji, znajdujących się pod wodą, w sposób zdalny, zatem i bezpieczny dla nurków oraz naukowców. Zespół prowadzony przez doktora Michała Silarskiego i profesora Pawła Moskala dowiódł, że za pomocą działa neutronowego można określić skład zatopionych substancji i stworzył koncepcję detektora, który eliminuje zakłócenia powstające podczas odczytu w wodzie.
      Nowe urządzenie dostarczy informacji na temat podejrzanych substancji, dzięki czemu, zanim zbliżą się do niej ludzie, będzie wiadomo, z czym mamy do czynienia, a zatem i jak należy postępować. Urządzenie ma być nie większe niż walizka. Może być ono zamontowane na podwodnej, zdalnie sterowanej sondzie, zdolnej do pracy również na większych głębokościach. Ważne jest jedynie, by taka sonda znalazła się blisko badanego przedmiotu, tak aby z możliwie minimalnej odległości skierować na niego wiązkę neutronów. To pozwoli rozpoznać pierwiastki wchodzące w skład zatopionych substancji, również tych, które są zamknięte w pojemnikach. Naszą metodą możemy wykryć na przykład węgiel, wodór, tlen, azot, siarkę, chlor, a także gazy bojowe zawierające arsen – mówi doktor Silarski.
      Wspomniane działo neutronowe zderza jony deuteru z trytem. Dzięki temu emituje neutrony, które przenikają przez zanurzony obiekt i wzbudzają atomy w badanych substancjach. Atomy te emitują kwanty gamma, które rejestruje detektor opracowany na UJ. Jako że każdy z pierwiastków ma swój charakterystyczny odczyt kwantów gamma, możliwe jest określenie składu substancji znajdującej się w zatopionym pojemniku. Wyeliminowanie zakłóceń generowanych przez wodę jest możliwe dzięki zastosowaniu specjalnych rur wypełnionych powietrzem. To przez nie kierowana jest wiązka neutronów. Jakość odczytu zależy więc od tego, jak blisko uda się podpłynąć do badanego pojemnika.
      Badanie trwa około 10 sekund, a do poprawnego odczytu wystarczy, by urządzenie znalazło się o kilkadziesiąt centymetrów od substancji. Nie musi mieć z nią bezpośredniego kontaktu. Nasza metoda w zasadzie pozwoli zidentyfikować każdą substancję z katalogu tych, które uznaje się za niebezpieczne i które zalegają na dnie zbiorników wodnych – zapewnia doktor Silarski.
      Badania tego typu są niezwykle ważne. Chociażby po to, by określić, jakie środki bojowe zatopiono w Bałtyku. O problemie tym można przeczytać w wywiadzie, którego udzielił nam doktor Tomasz Kijewski z PAN.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...