Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Rekordowo mała dziura ozonowa dzięki wysokim temperaturom w stratosferze

Rekomendowane odpowiedzi

Niezwykłe wzorce pogodowe w górnych warstwach atmosfery nad Antarktyką znacząco zmniejszyły utratę ozonu powodując, że w ostatnim czasie dziura ozonowa była najmniejsza od czasu rozpoczęcia jej obserwowania w roku 1982, poinformowali naukowcy z NOAA i NASA.

Największą tegoroczną powierzchnię dziura ozonowa osiągnęła 8 września, kiedy to obejmowała 16,4 miliona kilometrów kwadratowych. Później skurczyła się do 10 milionów km2 i tak już pozostało. Zwykle dziura ozonowa rozrasta się do niemal 21 milionów kilometrów kwadratowych i utrzymuje taką wielkość jeszcze na początku października.

To świetna wiadomość dla ozonu na półkuli południowej. Musimy jednak pamiętać, że to, co obserwujemy, to skutek wyższych temperatur w stratosferze, a nie oznaka szybkiego odradzania się ozonu, mówi Paul Newman z Goddard Space Flight Center.
Dziura ozonowa formuje się nad Antarktyką późną zimą, gdy wskutek promieniowania słonecznego w atmosferze rozpoczynają się reakcje pozbawiające ją ozonu. W reakcjach tych biorą udział wyemitowane przez człowieka aktywne formy związków chloru i bromu. Reakcja odpowiedzialne za niszczenie ozonu zachodzą na powierzchni chmur tworzących się w zimnych warstwach stratosfery. Gdy jest cieplej, formuje się mniej chmur, które są ponadto nietrwałe, dzięki czemu proces niszczenia ozonu jest mniej intensywny.

Dziura ozonowa jest monitorowana za pomocą satelitów i balonów stratosferycznych. W tym roku podczas pomiarów ozonu nad Biegunem Południowym nie znaleziono żadnej części atmosfery, która byłaby całkowicie pozbawiona ozonu, mówi Bryan Johnson z Earth System Research Laboratory.

W bieżącym roku po raz trzeci od niemal 40 lat zdarzyło się tak, że wyższe temperatury w stratosferze ograniczyły rozmiary dziury ozonowej. Dwa podobne takie wydarzenia miały miejsce w roku 1988 i 2002. To rzadki przypadek, który wciąż staramy się zrozumieć. Gdyby nie było tego ocieplenia, prawdopodobnie obserwowalibyśmy typową dziurę ozonową, mówi Susan Strahan z Universities Space Research Association. Naukowcy dotychczas nie znaleźli żadnego związku pomiędzy tymi trzema wydarzeniami, a zmianami klimatu.

Warstwa ozonowa nad Antarktyką zaczęła powoli zmniejszać się w latach 70., a na początku lat 80. zaczęto rejestrować duże ubytki ozonu. W 1985 roku naukowcy z British Antarctic Survey odkryli dziurę ozonową, którą potwierdził później satelita NASA.

W 1987 roku podpisano Protokół montrealski, który wszedł w życie w roku 1989. W jego ramach państwa zobowiązały się stopniowo ograniczać, a w końcu zaprzestać produkcji substancji niszczących warstwę ozonową. Protokół ten okazał się najbardziej skuteczną globalną umową w historii. Podpisało go 196 państw oraz Unia Europejska. Szczyt produkcji związków niszczących warstwę ozonową przypadł na rok 2000. Wtedy też dziura ozonowa była największa i sięgnęła niemal 30 milionów km2. Od tamtej pory się zmniejsza. Naukowcy oceniają, że do roku 2070 poziom ozonu nad Antarktyką powinien powrócić do poziomu z roku 1980.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czyli reasumując w zasadzie nic się nie zmieniło, skoro to tylko kwestia niskich i wyższych temperatur.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Punktem wyjścia dla szacowania poziomu antropogenicznego ocieplenia jest zwykle rok 1850, kiedy na wystarczająco dużą skalę prowadzono wiarygodne pomiary temperatury. Jednak w roku 1850 rewolucja przemysłowa trwała od dawna, więc przyjmując ten rok jako podstawę dla pomiarów, trudno jest mówić o wpływie człowieka na temperatury na Ziemi od czasów preindustrialnych. Andrew Jarvis z Lancaster University i Piers Forster z University of Leeds, wykorzystali rdzenie lodowe z Antarktyki do opracowania nowej osi referencyjnej temperatur w czasach przedprzemysłowych.
      Uczeni przeanalizowali bąbelki powietrza zamknięte w rdzeniach lodowych i w ten sposób określili stężenie dwutlenku węgla w latach 13–1700. Następnie, zakładając liniową zależność pomiędzy koncentracją CO2 a temperaturami, obliczyli średnie temperatury panujące na Ziemi.
      Z pracy opublikowanej na łamach Nature Geoscience dowiadujemy się, że od okresu przed 1700 roku do roku 2023 ludzie podnieśli średnią temperaturę na planecie o 1,49 (±0,11) stopnia Celsjusza. Dodatkową zaletą wykorzystanej metody jest niezależna weryfikacja obecnych szacunków. Z badań Jarvisa i Forstera wynika, że od roku 1850 wzrost temperatury wyniósł 1,31 stopnia Celsjusza. Dokładnie zgadza się to z dotychczasowymi ustaleniami, ale badania z rdzeni lodowych są obarczone mniejszym marginesem błędu.
      Niektórzy eksperci uważają, że nowa metoda, chociaż sprawdza się teraz, może nie być przydatna w przyszłości. Nie wiemy bowiem, czy w nadchodzących dekadach liniowa zależność pomiędzy stężeniem dwutlenku węgla a temperaturą się utrzyma. Ich metoda bazuje na korelacji stężenia CO2 z antropogenicznym ociepleniem klimatu. Ta widoczna w przeszłości silna korelacja może być czystym przypadkiem i, w zależności od tego jak będą się układały proporcje CO2 i innych czynników w przyszłości, może się ona nie utrzymać, stwierdza Joeri Rogelj z Imperial College London.
      Richard Betts z Met Office chwali nową metodę, zauważa, że może dostarczać ona lepszych danych na temat przeszłości, ale nie widzi potrzeby zmiany punktu odniesienia dla badań nad ociepleniem klimatu.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Atlantycka Niña to chłodna faza naturalnego wzorca klimatycznego. Podobnie jak znacznie bardziej znany wzorzec zachodzącej na Pacyfiku oscylacji południowej (ENSO), na którą składają się fazy El Niño, La Niña i faza neutralna, także na Atlantyku co kilka lat mamy fazę zimną i gorącą. Temperatura powierzchni oceanu we wschodniej części równikowego Oceanu Atlantyckiego wykazuje zaskakujący, nieintuicyjny cykl. Wody w tamtym regionie najcieplejsze są wiosną, a najzimniejsze w lipcu i sierpniu.
      Do tego ochłodzenia w lecie dochodzi w wyniku działalności wiatru. Gdy na półkuli północnej jest lato, równikowy pas opadów, pod wpływem silniejszego nagrzewania przez słońce, przemieszcza się na północ, co powoduje wciąganie nad równikowy Atlantyk powietrza z południowego-wschodu. Wiejące wówczas pasaty są tak silne, że przemieszczają gorące wody powierzchniowe z równika i pojawia się zjawisko upwellingu, podnoszenia się chłodnych wód głębinowych.
      Dlatego w miesiącach letnich na równikowych obszarach Atlantyku może pojawiać się zimna woda. Co kilka lat – w wyniku naturalnej zmienności – ten chłodny obszar jest albo cieplejszy, albo chłodniejszy od własnej średniej średniej. Specjaliści mówią wówczas o Atlantyckim Niño lub Niña. Zjawisko nie jest ściśle zdefiniowane, ale przyjmuje się, że jeśli 3-miesięczna średnia temperatura powierzchni przez co najmniej 2 kolejne sezony jest o 0,5 stopnia Celsjusza wyższa od średniej długoterminowej, to mamy do czynienia z Atlantyckim Niño, jeśli jest o 0,5 stopnia C niższa, jest to Atlantycka Niña.
      W bieżącym roku w lutym i marcu we wschodniej części równikowego Atlantyku mieliśmy do czynienia z ekstremalnie wysokimi temperaturami wód powierzchniowych. Przekraczały 30 stopni Celsjusza i były najwyższe od 1982 roku. Obecnie zaś, od maja, naukowy obserwują rekordowe ochładzanie się tego obszaru. Temperatura wód spadła nawet ponad 1 stopień Celsjusza. I co najbardziej zaskakujące, ochładzanie to ma miejsce w obliczu słabnących pasatów. A to one powodują upwelling, zatem im są słabsze, tym słabsze powinno być zjawisko podnoszenia się chłodnych wód z głębin. Innymi słowy naukowcy obserwują wyjątkowo szybko rozwijającą się Atlantycką Niñę w sytuacji, która nie sprzyja jej rozwojowi.
      Jak już wspomnieliśmy, o poszczególnych fazach Atlantyckich Niños mówimy przy odchyleniu rzędu 0,5 stopnia Celsjusza od średniej. Wbrew pozorom, jest do duża różnica. Te pół stopnia ma olbrzymi wpływ na poziom opadów w Afryce i Ameryce Południowej. Na przykład w fazie Niño mamy do czynienia ze zmniejszeniem opadów w Sahelu, zwiększeniem w Zatoce Gwinejskiej i zmianami wzorca opadów w północno-wschodniej części Ameryki Południowej. Ze zmianami Niños wiążą się też zmiany wzorca huraganów. Już jakiś czas temu amerykańska NOAA przewidywała, że w bieżącym roku intensywność huraganów będzie powyżej średniej. Prognozę taką opracowano na podstawie warunków panujących w równikowych obszarach Pacyfiku oraz tropikalnych regionach Północnego Atlantyku. Teraz eksperci będą z zainteresowaniem monitorowali, czy Atlantycka Niña wpłynie huragany. 

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Międzynarodowy zespół naukowy wykorzystał pobrane w pobliży Fidżi koralowce, które żyły w ciągu 627 lat i – w połączeniu z innymi danymi – odtworzył zmienność temperatury i klimatu Pacyfiku od 1370 roku. Badania pokazały, w jaki sposób zmiany powodowane przez człowieka wpływają na naturalną długoterminową zmienność klimatyczną na Pacyfiku.
      Naukowcy stwierdzili, że w latach 1380–1553 temperatura oceanu w pobliżu Fidżi była bardzo wysoka, porównywalna z temperaturą z końca XX i początku XXI wieku. Połączenie tych danych z innymi danymi z lokalnych koralowców wykazały, że obserwowany od 1920 roku wzrost temperatury Pacyfiku – za których w głównej mierze odpowiada działalność człowieka – stanowi znaczące odchylenie od wzorców naturalnej zmienności obserwowanych w poprzednich wiekach. Okazało się tez, że obecna temperatura oceanu jest najwyższa od 653 lat.
      Zmiany temperatury oceanów wpływają na wzrost koralowców, można więc je wykorzystać do rekonstrukcji temperatury. Użycie 627-letniego zapisu to bezprecedensowe osiągnięcie, dzięki którym możliwe było wykonanie najdłuższej z dotychczasowych rekonstrukcji temperatury powierzchni oceanu. Została ona wykonana na podstawie badań stosunku strontu do wapnia w koralowcu Diploastrea heliopora.
      Uczeni z Meksyku, Wielkiej Brytanii, Australii, Niemiec i Francji użyli danych koralowców do odtworzenia Pacyficznej Oscylacji Międzydekadalnej (IPO). To wielkoskalowe zjawisko, które wpływa na zmienność klimatu na całym oceanie.
      Ta nowa, długoterminowa rekonstrukcja pozwala na odróżnienie sygnału obecnej zmiany klimatu od naturalnej zmienności Pacyfiku. Lepsze zrozumienie przeszłości pozwoli nam na lepsze przewidywanie przyszłości. Pokazuje też, że obecne ogrzewanie się Pacyfiku spowodowane jest zmianą klimatu, a nie naturalnymi zmianami, mówi doktor Ariaan Purich z Monash University.
      Wyniki badań ukazały się niecały tydzień po tym, jak w Nature opublikowano artykuł, którego autorzy poinformowali, że Wielka Rafa Koralowa jest zagrożona przez najcieplejsze od 400 lat wody oceanów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Na łamach Science Advances opisano rewolucyjny scenariusz terraformowania Marsa i ogrzania jego powierzchni. Pomysł, przedstawiony przez naukowców z University of Chicago, Northwestern University oraz University of Central Florida, polega na uwolnieniu do atmosfery odpowiednio przygotowanych cząstek pyłu, które ogrzałyby Czerwoną Planetę o ponad 50 stopni Fahrenheita (ok. 28 stopni Celsjusza). Opisana metoda może być 5000 razy bardziej efektywna, niż dotychczas proponowane.
      Średnia temperatura na powierzchni Marsa wynosi -60 stopni Celsjusza, jej podniesienie o 28 stopni byłoby olbrzymią zmianą, pozwalającą na istnienie mikroorganizmów i wody w stanie ciekłym na dużych obszarach planety.
      Tym, co wyróżnia nową metodę jest wykorzystanie materiałów łatwo dostępnych ma Marsie. Wcześniej proponowane sposoby albo zakładały import materiałów z Ziemi, albo prowadzenie na Czerwonej Planecie działalności górniczej i wydobywanie rzadkich minerałów.
      Podniesienie temperatury planety trwałoby wiele dekad. Nie spowodowałoby, oczywiście, że przebywający na Marsie ludzie mogliby pozbyć się skafandrów czy oddychać tamtejszą atmosferą. Jednak położyłoby podwaliny, pod taki rozwój wydarzeń. Pozwoliłoby na istnienie wody w stanie ciekłym, istnienie mikroorganizmów oraz uprawę roślin, które stopniowo uwalniałyby tlen do atmosfery.
      Podstawowym krokiem na drodze ku uczynieniu Marsa bardziej zdatnym do życia, jest podniesienie temperatury. Można zrobić to samo, co ludzie niechcący zrobili na Ziemi, wypuścić do atmosfery materiał, który zwiększy naturalny efekt cieplarniany, utrzymując energię Słońca przy powierzchni planety. Problem w tym, że – niezależnie czym byłby taki materiał – potrzebne są jego gigantyczne ilości. Dotychczasowe propozycje zakładały albo przywożenie gazów z Ziemi, albo wydobywanie na Marsie potrzebnych materiałów. Jedno i drugie jest niezwykle kosztowne i trudne do zrealizowania. Autorzy najnowszych badań zastanawiali się, czy można do ogrzania Marsa wykorzystać jakiś obecny na miejscu łatwo dostępny materiał.
      Z dotychczasowych badań wiemy, że marsjański pył jest pełen żelaza i aluminium. Cząstki tego pyłu nie są w stanie ogrzać planety. Ich skład i rozmiary są takie, że po uwolnieniu do atmosfery doprowadziłyby do schłodzenia powierzchni Marsa.
      Naukowcy wysunęli hipotezę, że gdyby pył ten miał inny kształt, być może zwiększałby, a nie zmniejszał, efekt cieplarniany.
      Stworzyli więc cząstki o kształcie pręcików i rozmiarach komercyjnie dostępnego brokatu. Są one w stanie zatrzymywać uciekającą energię cieplną i rozpraszają światło słoneczne w stronę powierzchni planety.
      Sposób, w jaki światło wchodzi w interakcje z obiektami wielkości mniejszej niż długość fali, to fascynujące zagadnienie. Dodatkowo można tak przygotować nanocząstki, że pojawią się efekty optyczne wykraczające poza to, czego możemy spodziewać się po samych tylko rozmiarach cząstek. Uważamy, że możliwe jest zaprojektowanie nanocząstek o jeszcze większe efektywności, a nawet takich, których właściwości optyczne zmieniają się dynamicznie, mówi współautor badań, Ansari Mohseni.
      A profesor Edwin Kite dodaje, że zaproponowana metoda wciąż będzie wymagała użycia milionów ton materiału, ale to i tak 5000 razy mniej, niż zakładały wcześniejsze propozycje. To zaś oznacza, że jest ona tańsza i łatwiejsza w użyciu. Ogrzanie Marsa do tego stopnia, by na jego powierzchni istniała ciekła woda, nie jest więc tak trudne, jak dotychczas sądzono, dodaje Kite.
      Z obliczeń wynika, że gdyby wspomniane cząstki były stale uwalniane w tempie 30 litrów na sekundę, to z czasem średnia temperatura na powierzchni Marsa mogłaby wzrosnąć o 28 stopni Celsjusza, a pierwsze efekty takich działań byłyby widoczne już w ciągu kilku miesięcy. Efekt cieplarniany można by też odwrócić. Wystarczyłoby zaprzestać uwalniania cząstek, a w ciągu kilku lat sytuacja wróciłaby do normy.
      Autorzy propozycji mówią, że potrzebnych jest jeszcze wiele badań. Nie wiemy na przykład dokładnie, w jakim tempie uwolnione cząstki krążyłyby w atmosferze. Ponadto na Marsie występuje woda i chmury. W miarę ogrzewania atmosfery mogłoby dochodzić do kondensacji pary wodnej na uwolnionych cząstkach i ich opadania wraz z deszczem. Klimatyczne sprzężenia zwrotne są bardzo trudne do modelowania. Żeby zaimplementować naszą metodę musielibyśmy mieć więcej danych z Marsa i Ziemi. Musielibyśmy też pracować powoli i mieć pewność, że skutki naszych działań są odwracalne, dopiero wtedy moglibyśmy zyskać pewność, że to zadziała, ostrzega Kite. Ponadto, jak podkreśla uczony, badacze skupili się na aspektach związanych z podniesieniem temperatury do poziomu użytecznego dla istnienia mikroorganizmów i potencjalnej uprawy roślin, a nie na stworzeniu atmosfery, w której ludzie będą mogli oddychać.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      UWAGA: artykuł opisujący te badania został wycofany z Nature w związku z podejrzeniami o manipulowanie danymi.
      Naukowcy z University of Rochester poinformowali o osiągnięciu nadprzewodnictwa w temperaturze pokojowej. Nadprzewodnictwo to stan, w którym ładunek elektryczny może podróżować przez materiał nie napotykając żadnych oporów. Dotychczas udawało się je osiągnąć albo w niezwykle niskich temperaturach, albo przy gigantycznym ciśnieniu. Gdyby odkrycie się potwierdziło, moglibyśmy realnie myśleć o bezstratnym przesyłaniu energii, niezwykle wydajnych silnikach elektrycznych, lewitujących pociągach czy tanich magnesach do rezonansu magnetycznego i fuzji jądrowej. Jednak w mamy tutaj nie jedną, a dwie łyżki dziegciu.
      O nadprzewodnictwie wysokotemperaturowym mówi się, gdy zjawisko to zachodzi w temperaturze wyższej niż -196,2 stopni Celsjusza. Dotychczas najwyższą temperaturą, w jakiej obserwowano nadprzewodnictwo przy standardowym ciśnieniu na poziomie morza jest -140 stopni C. Naukowcy z Rochester zaobserwowali nadprzewodnictwo do temperatury 20,6 stopni Celsjusza. Tutaj jednak dochodzimy do pierwszego „ale“. Zjawisko zaobserwowano bowiem przy ciśnieniu 1 gigapaskala (GPa). To około 10 000 razy więcej niż ciśnienie na poziomie morza. Mimo to mamy tutaj do czynienia z olbrzymim postępem. Jeszcze w 2021 roku wszystko, co udało się osiągnąć to nadprzewodnictwo w temperaturze do 13,85 stopni Celsjusza przy ciśnieniu 267 GPa.
      Drugim problemem jest fakt, że niedawno ta sama grupa naukowa wycofała opublikowany już w Nature artykuł o osiągnięciu wysokotemperaturowego nadprzewodnictwa. Powodem był użycie niestandardowej metody redukcji danych, która została skrytykowana przez środowisko naukowe. Artykuł został poprawiony i obecnie jest sprawdzany przez recenzentów Nature.
      Profesor Paul Chig Wu Chu, który w latach 80. prowadził przełomowe prace na polu nadprzewodnictwa, ostrożnie podchodzi do wyników z Rochester, ale chwali sam sposób przeprowadzenia eksperymentu. Jeśli wyniki okażą się prawdziwe, to zdecydowanie mamy tutaj do czynienia ze znaczącym postępem, dodaje uczony.
      Z kolei James Walsh, profesor chemii z University of Massachusetts przypomina, że prowadzenie eksperymentów naukowych w warunkach wysokiego ciśnienia jest bardzo trudne, rodzi to dodatkowe problemy, które nie występują w innych eksperymentach. Stąd też mogą wynikać kontrowersje wokół wcześniejszej pracy grupy z University of Rochester.
      Ranga Dias, który stoi na czele zespołu badawczego z Rochester zdaje sobie sprawę, że od czasu publikacji poprzedniego artykułu jego zespół jest poddawany bardziej surowej ocenie. Dlatego też prowadzona jest polityka otwartych drzwi. "Każdy może przyjść do naszego laboratorium i obserwować, jak dokonujemy pomiarów. Udostępniliśmy recenzentom wszystkie dane", dodaje. Uczony dodaje, że podczas ponownego zbierania danych na potrzeby poprawionego artykułu współpracowali z przedstawicielami Argonne National Laboratory oraz Brookhaven National Laboratory. Dokonywaliśmy pomiarów w obecności publiczności, zapewnia.
      Materiał, w którym zaobserwowano nadprzewodnictwo w temperaturze ponad 20 stopni Celsjusza, to wodorek lutetu domieszkowany azotem. Profesor Eva Zurek ze State University of New York mówi, że potrzebne jest niezależne potwierdzenie wyników grupy Diasa. Jeśli jednak okaże się, że są one prawdziwe, uczona uważa, że opracowanie nadprzewodnika ze wzbogaconego azotem wodorku lutetu pracującego w temperaturze pokojowej lub opracowanie technologii nadprzewodzących pracujących przy umiarkowanym ciśnieniu powinno być stosunkowo proste.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...