Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Zmiany klimatu zagrażają... badaniom astronomicznym

Rekomendowane odpowiedzi

Zmiany klimatu niosą ze sobą wiele różnych zagrożeń. Jedną są bardziej oczywiste, inne mniej. Do kategorii tych drugich należą z pewnością zagrożenia dla... badań astronomicznych. Naukowcy z Uniwersytetu w Bernie, Politechniki Federalnej w Zurichu, Europejskiego Obserwatorium Południowego oraz Uniwersytetu w Reading przeprowadzili analizy wpływu zmian klimatycznych na badania prowadzone przez osiem najważniejszych naziemnych teleskopów. Wynika z nich, że musimy spodziewać się pogorszenia warunków do badań, a co za tym idzie, skrócenia czasu obserwacyjnego dla jednych z najcenniejszych instrumentów badawczych dostępnych nauce.

Miejsca, w których zostaną wybudowane teleskopy przyszłej generacji są wybierane na dekady zanim urządzenia te rozpoczną swoje obserwacje. Później teleskopy takie pracują przez około 30 lat. Jest zatem niezwykle ważne, by móc określić, z wyprzedzeniem wynoszącym wiele dekad, móc określić, jak będą zmieniały się warunki w miejscu planowanej budowy. Tymczasem obecnie wyboru miejsc dokonuje się na podstawie pomiarów zbyt krótkich, by mogły one dać odpowiedź na pytanie o długookresowe zmiany klimatu.

Jakość naziemnych obserwacji astronomicznych w dużej mierze zależy od klimatu. Supernowoczesne potężne teleskopy zwykle umieszcza się na dużych wysokościach, by skorzystać z dobrej przejrzystości atmosfery oraz szuka się miejsc o niskiej temperaturze i niskiej zawartości pary wodnej.

Astrofizyk Caroline Haslebacher z Uniwersytetu w Bernie i jej koledzy zwracają uwagę, że zwykle przy wyszukiwaniu takiego miejsca bierze się pod uwagę ostatnich 5 lat. To zbyt mało. Uczeni postanowili więc zmierzyć się z tym problemem i przeprowadzili analizę, która miała na celu sprawdzić, jak w miejscach, w których znajdują się najważniejsze obecnie teleskopy – na Hawajach, w Chile, na Wyspach Kanaryjskich, w Australii, RPA i Meksyku – będzie zmieniał się klimat. Okazało się, że do roku 2050 wszędzie tam dojdzie do zwiększenia temperatury, wilgotności właściwej oraz zawartości wody opadowej w atmosferze.

Czynniki te zmniejszą jakość obserwacji i prawdopodobnie doprowadzą do mniej intensywnego wykorzystania urządzeń z powodu złych warunków obserwacyjnych. Na przykład zwiększenie temperatury i wilgotności właściwej może zwiększyć kondensację pary wodnej na urządzeniach oraz będzie miało negatywny wpływ na systemy chłodzenia wewnątrz kopuł teleskopów. Z kolei zwiększenie zawartości wody opadowej będzie wiązało się z większą absorpcją światła, szczególnie podczerwonego, przez atmosferę, a więc mniej światła będzie docierało do teleskopów.

Problemy szczególnie dotkną obserwatoriów projektowanych z myślą o pracy w szczególnych warunkach. Na przykład Paranal Observatory w Chile może pracować, gdy temperatura powietrza przy powierzchni nie przekracza 16 stopni Celsjusza, a Teleskop Williama Herschela na Wyspach Kanaryjskich nie może pracować, jeśli temperatura jego lustra wynosi 2 stopnie Celsjusza lub mniej powyżej punktu rosy.

Przeprowadzona analiza nie wykazała za to zmian wilgotności względnej, pokrywy chmur czy turbulencji atmosferycznych. Autorzy badań zastrzegają jednak, że turbulencje jest szczególnie trudno przewidzieć, a w związku ze zmianami temperatury i prądów powietrznych należy się ich spodziewać.

Antropogeniczne zmiany klimatu powinny być brane pod uwagę przy wybieraniu miejsc budowy teleskopów przyszłej generacji, podsumowuje Haslebacher.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      NASA zaprezentowała pierwsze zdjęcia pełnowymiarowego prototypu sześciu teleskopów, które w przyszłej dekadzie rozpoczną pracę w kosmicznym wykrywaczu fal grawitacyjnych. Budowane przez ekspertów z NASA teleskopy to niezwykle ważne elementy misji LISA (Laser Interferometer Space Antenna), przygotowywanej przez Europejską Agencję Kosmiczną (ESA).
      W skład misji LISA będą wchodziły trzy pojazdy kosmiczne, a na pokładzie każdego z nich znajdą się po dwa teleskopy NASA. W 2015 roku ESA wystrzeliła misję LISA Pathfinder, która przetestowała technologie potrzebne do stworzenia misji LISA. Kosmiczny wykrywacz fal grawitacyjnych ma rozpocząć pracę w 2035 roku.
      LISA będzie składała się z trzech satelitów, tworzących w przestrzeni kosmicznej trójkąt równoboczny. Każdy z jego boków będzie miał długość 2,5 miliona kilometrów. Na pokładzie każdego z pojazdów znajdą się po dwa identyczne teleskopy, przez które do sąsiednich satelitów wysyłany będzie impuls z lasera pracującego w podczerwieni. Promień będzie trafiał w swobodnie unoszące się na pokładzie każdego satelity pokryte złotem kostki ze złota i platyny o boku 46 mm. Teleskopy będą odbierały światło odbite od kostek i w ten sposób, z dokładnością do pikometrów – bilionowych części metra – określą odległość pomiędzy trzema satelitami. Pojazdy będą umieszczone w takim miejscu przestrzeni kosmicznej, że na kostki nie będzie mogło wpływać nic oprócz fal grawitacyjnych. Zatem wszelkie zmiany odległości będą świadczyły o tym, że przez pojazdy przeszła fala grawitacyjna. Każdy z pojazdów będzie miał na pokładzie dwa teleskopy, dwa lasery i dwie kostki.
      Formacja trzech pojazdów kosmicznych zostanie umieszczona na podobnej do ziemskiej orbicie wokół Słońca. Będzie podążała za naszą planetą w średniej odległości 50 milionów kilometrów. Zasada działania LISA bazuje na interferometrii laserowej, jest więc podobna do tego, jak działają ziemskie obserwatoria fal grawitacyjnych, takie jak np. opisywane przez nas LIGO. Po co więc budowanie wykrywaczy w kosmosie, skoro odpowiednie urządzenia istnieją na Ziemi?
      Im dłuższe ramiona wykrywacza, tym jest on bardziej czuły na fale grawitacyjne o długim okresie. Maksymalna czułość LIGO, którego ramiona mają długość 4 km, przypada na zakres 500 Hz. Tymczasem w przypadku LISY będzie to zakres 0,12 Hz. Kosmiczny interferometr będzie więc uzupełnienie urządzeń, które posiadamy na Ziemi, pozwoli rejestrować fale grawitacyjne, których ziemskie urządzenia nie zauważą.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Zmiany klimatu spowodują, że obszary nadające się do uprawy żywności oraz do produkcji drewna przesuną się na północ. W ten sposób dwa kluczowe zasoby – pożywienie i drewno – będą konkurowały o ziemię uprawną. Naukowcy z University of Cambridge zwracają uwagę na pomijany aspekt zmian klimatu. W miarę, jak tereny nadające się do produkcji żywności przesuwają się ku północy, w coraz większym stopniu będą konkurowały z terenami, na których rosną lasy.
      Na Ziemi istnieje ograniczona ilość miejsca nadająca się do produkcji żywności i drewna. W miarę zmian klimatu rolnictwo zmuszone jest przesuwać się ku północy, a to zwiększy presję na tereny wykorzystywane do produkcji drewna, mówi doktor Oscar Mordon, jeden ze współautorów badań. Musimy myśleć na 50 lat naprzód, gdy jeśli chcemy mieć w przyszłości drewno, musimy sadzić drzewa. Drzewa, które zostaną wycięte pod koniec bieżącego wieku, już są zasadzone, dodaje doktor Chris Bousfield.
      Obecne prognozy mówią, że do roku 2050 w związku z rosnącą liczbą ludności zapotrzebowanie na żywność zwiększy się 2-krotnie. Podobnie wzrośnie zapotrzebowanie na drewno, które jest wykorzystywane w produkcji papieru, mebli czy budownictwie. Zmiany klimatu spowodują, że do końca wieku ponad 1/4 terenów – około 340 milionów hektarów – zajmowanych przez uprawy lasów będzie nadawała się na upraw żywności. Obecnie większość lasów wykorzystywanych do produkcji drewna znajduje się USA, Kanadzie, Chinach i Rosji. Z przeprowadzonych na University of Cambridge badań wynika, że w 2100 roku aż 90% terenów leśnych, nadających się też do produkcji żywności, będzie znajdowało się w tych właśnie krajach. Szczególnie widoczne będzie to w Rosji. Obszary zajmowane obecnie przez lasy będą nadawały się do produkcji ziemniaków, soi oraz pszenicy.
      Największym zagrożeniem spowodowanym przez rosnącą konkurencję pomiędzy produkcją żywności a produkcją drewna jest ryzyko, że ludzie przeniosą produkcję drewna na pozostałe jeszcze nietknięte tereny pierwotnych lasów na północy i w tropikach. To ostatnie regiony globalnej bioróżnorodności, dodaje profesor David Edwards. Rozpoczęcie wycinki tych lasów nie tylko zniszczy bioróżnorodność, ale spowoduje też uwolnienie olbrzymich ilości węgla do atmosfery.
      Z powodu globalnego ocieplenia coraz częstsze i większe pożary niszczą kolejne obszary leśne, z których pozyskujemy drewno. Zmiana klimatu powoduje też, że rozprzestrzeniają się szkodniki niszczące lasy. Jednocześnie wiele obszarów staje się powoli niezdatnymi do produkcji żywności.
      Przemysł drzewny już teraz boryka się z problemami powodowanymi przez zmiany klimatyczne. Wkrótce dojdzie do tego presja ze strony rolnictwa, co spowoduje kolejne problemy. Oczywiście zapewnienie dostępu do drewna nie wydaje się tak pilne, jak zapewnienie dostępu do żywności. Jednak musimy pamiętać, że drewno jest równie obecne w naszym codziennym życiu i potrzebujemy strategii, dzięki której w przyszłości będziemy mieli odpowiednie ilości i żywności, i drewna, stwierdzają naukowcy.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      O teleskopie Hubble'a słyszeli chyba wszyscy. Nic w tym dziwnego, gdyż jest to jeden z najważniejszych instrumentów naukowych wykorzystywanych obecnie przez człowieka. Niewiele osób jednak wie, że teleskopy wcale nie muszą spoglądać w niebo. Na Antarktydzie powstaje właśnie niezwykłe urządzenie. Teleskop IceCube (Kostka Lodu), jest budowany wewnątrz lodowej czapy pokrywającej południowy biegun naszej planety. Jego zadaniem jest wykrywanie neutrin.
      Neutrino
      Neutrino to jedna z cząstek elementarnych. Należy ona do grupy leptonów i wyróżniamy trzy typy neutrin: taonowe, mionowe oraz elektronowe. Neutrino ma zerowy ładunek elektryczny i niemal nie ma masy. Cząstka jest tak przenikliwa, że na przykład planety nie stanowią dla niej żadnej przeszkody. W każdej chwili przez nasze ciała, przez budynki i przez samą Ziemię przelatuje niezliczona liczba neutrin. Ich głównym źródłem jest oddziaływanie promieni kosmicznych w górnych warstwach atmosfery. Neutrina emitują też np. gwiazdy i reaktory atomowe.
      Istnienie neutrin zostało przewidziane teoretycznie w 1930 roku przez Wolfganga Pauliego, ale musiało minąć aż 26 lat zanim eksperymentalnie udowodniono, że Pauli się nie mylił.

      Cząsteczki te są bardzo łakomym kąskiem dla astronomów. Podróżują z prędkością światła od źródeł promieniowania, a na swej drodze nie napotykają niemal żadnych przeszkód. Neutrina powstają np. we wnętrzach gwiazd i bez najmniejszych problemów przemierzają przestrzeń kosmiczną. Badanie neutrin pozwala więc naukowcom wysnuć wnioski na temat samych źródeł, z których zostały wyemitowane.
      Z tego, co wiemy obecnie, zdecydowana większość istniejących neutrin pochodzi z samych początków wszechświata, powstały w momencie Wielkiego Wybuchu.
      IceCube
      Neutrina badane są od kilkudziesięciu lat i od lat naukowcy opracowują nowe metody ich obserwacji. Teoretycy od dawna uważają, że do obserwacji neutrin pochodzących z bardzo odległych źródeł potrzebny jest instrument długości co najmniej kilometra. Takim instrumentem ma być IceCube. Na miejsce jego budowy wybrano Antarktydę, gdyż jej lody są wyjątkowo czyste i wolne od źródeł promieniowania. Nic nie powinno więc zakłócać pracy niezwykłego teleskopu.
      Będzie się on składał z co najmniej 4200 modułów optycznych zawieszonych na 70 pionowych linach, a te z kolei będą umieszczone na głębokości od 1450 do 2450 metrów pod powierzchnią lodu. Na samej powierzchni znajdzie się kopuła zbudowana z co najmniej 280 modułów optycznych. Powierzchnia IceCube'a będzie wynosiła około 1 kilometra kwadratowego. Jak łatwo obliczyć, objętość tego niezwykłego instrumentu naukowego to około 2,5 kilometra sześciennego. Po ukończeniu prac IceCube będzie działał przez 20 lat.

      Uczeni mają nadzieję, że odpowie on na tak fundamentalne pytania, jak warunki fizyczne rozbłysków gamma czy też pozwoli zbadać naturę fotonów pochodzących z pozostałości po supernowej w gwiazdozbiorze Kraba oraz z nieodległych galaktyk. Być może IceCube pozwoli również potwierdzić teorię strun.
      Obecnie IceCube składa się z 40 lin. Do stycznia 2009 roku przybędzie 9 kolejnych. Rok później mają być już 63 liny, a w marcu 2010 roku urządzenie osiągnie pełną gotowość operacyjną. We wrześniu 2010 roku zakończony zostanie główny etap budowy IceCube'a.
      Obecnie budżet projektu wynosi 271 milionów dolarów. W pracach bierze udział około 200 naukowców i 29 instytucji.
      O skali przedsięwzięcia niech świadczą liczby. Wywiercenie w lodzie każdego z 70 otworów o średniej głębokości 2454 metrów trwa średnio 48 godzin (pierwszy otwór wiercono przez 57 godzin). W tym czasie usuwane jest 757 metrów sześciennych lodu i zużyciu ulega około 2400 litrów paliwa. W każdym otworze umieszczana jest lina. Operacja ta trwa 11 godzin. Praca nie jest łatwa, gdyż Antarktyda to najzimniejsze, najbardziej wietrzne i najbardziej suche miejsce na Ziemi. W niektórych jej punktach nie padało od tysięcy lat, a średnie temperatury na Biegunie Południowym wynoszą latem około -37 stopni Celsjusza. Rekord ciepła na Biegunie to -13,8 stopnia Celsjusza. Rekord zimna na Antarktydzie to -89 stopni Celsjusza.
      Najsilniejsze podmuchy wiatru zanotowano w lipcu 1972 roku. Naukowcy z francuskiej bazy Dumont d'Urville poinformowali wówczas, że wiatr wial z prędkością 320 kilometrów na godzinę. Na Antarktydzie znajduje się też największa pustynia na świecie, a rekordowy zanotowany spadek temperatury wyniósł 36 stopni w ciągu 12 minut.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W ciągu ostatnich 20 lat doszło do znacznych zmian koloru oceanów. To globalny trend, którego najbardziej prawdopodobną przyczyną jest globalne ocieplenie, informują naukowcy z MIT, brytyjskiego Narodowego Centrum Oceanograficznego, University of Maine i Oregon State University. Zmiany obejmują aż 56% oceanów, czyli powierzchnię większą niż powierzchnia wszystkich lądów.
      Najbardziej widoczne są zmiany w obszarach równikowych, gdzie kolor wody staje się coraz bardziej zielony. Oznacza to, że dochodzi do zmian ekosystemów na powierzchni, gdyż na kolor wody wpływają żyjące w niej organizmy oraz rozpuszczone minerały. W tej chwili nie wiadomo, jakie konkretnie zmiany w ekosystemie powodują taką zmianą koloru. Naukowcy są pewni jednego – najbardziej prawdopodobną przyczyną zmian jest zmiana klimatu.
      Zmiany takie nie są zaskoczeniem. Współautorka badań, Stephanie Dutkiewicz z MIT od wielu lat prowadzi symulacje komputerowe, które pokazywały, że do takich zmian dojdzie. Fakt, że je teraz mogę obserwować w rzeczywistości nie jest zaskoczeniem. Ale jest to przerażające. Zmiany te są zgodne z tym, co pokazują symulacje dotyczące wpływu człowieka na klimat, stwierdza uczona. To kolejny dowód na to, jak ludzka aktywność wpływa na życie na Ziemi na wielką skalę. I kolejny sposób, w jaki wpływamy na biosferę, dodaje doktor B. B. Cael z Narodowego Centrum Oceanograficznego w Southampton.
      Kolor oceanu zależy od tego, co znajduje się w górnych warstwach wody. Woda głębokiej błękitnej barwie zawiera niewiele życia, a im bardziej zielona, tym więcej w niej organizmów żywych, przede wszystkim fitoplanktonu. Fitoplankton stanowi podstawę morskiego łańcucha pokarmowego. Rozciąga się on od fitoplanktonu, przez kryl, ryby, ptaki morskie po wielkie morskie ssaki. Fitoplankton absorbuje też i zatrzymuje dwutlenek węgla. Dlatego też naukowcy starają się go jak najdokładniej monitorować, by na tej podstawie badać, jak ocean reaguje na zmiany klimatu. Robią to wykorzystując satelity śledzące zmiany chlorofilu poprzez porównanie światła zielonego i niebieskiego odbijanego od powierzchni oceanów.
      Przed około 10 laty jedna z autorek obecnych badań, Stephanie Henson, wykazała, że potrzeba co najmniej 30 lat ciągłych obserwacji chlorofilu, by wyciągnąć wnioski na temat zmian jego koncentracji pod wpływem globalnego ocieplenia. Jest to spowodowane olbrzymimi naturalnymi zmianami oceanicznego chlorofilu rok do roku, więc odróżnienie corocznych zmian naturalnych od długoterminowego trendu powodowanego ociepleniem wymaga długotrwałych obserwacji.
      Z kolei przed 4 laty Dutkiewicz i jej zespół opublikowali artykuł, w którym dowiedli, że naturalne zmiany innych kolorów oceanu są znacznie mniejsze niż zmiany chlorofilu. Zatem – jak dowodzili na podstawie opracowanego przez siebie modelu – korzystając ze zmian chlorofilu i korygując je o zmiany innych kolorów, można wyodrębnić zmiany koloru powodowane ociepleniem już po 20, a nie po 30 latach obserwacji.
      W trakcie najnowszych badań naukowcy przeanalizowali pomiary koloru oceanów zbierane od 21 lat przez satelitę Aqua. Zainstalowany na jego pokładzie instrument MODIS (Moderate Resolution Imaging Spectroradiometer) przygląda się oceanom w 7 zakresach światła widzialnego, w tym w 2 tradycyjnie używanych do monitorowania chlorofilu. Naukowcy najpierw przeprowadzili analizy wszystkich kolorów w różnych regionach w poszczególnych latach. Tak badali zmiany roczne. To pozwoliło im określić naturalną zmienność dla wszystkich 7 zakresów fali. Następnie przyjrzeli się całemu światowemu oceanowi w perspektywie 20 lat. W ten sposób na tle naturalnych dorocznych zmian wyodrębnili trend długoterminowy.
      Chcąc się przekonać, czy trend ten może mieć związek ze zmianami klimatu, porównali go z modelem Dutkiewicz z 2019 roku. Model ten pokazywał, że znaczący trend powinien być widoczny po 20 latach obserwacji, a zmiany kolorystyczne powinny objąć około 50% powierzchni oceanów. Okazało się, że dane z modelu zgadzają się z danymi obserwacyjnymi – trend jest silnie widoczny pod 20 latach, a zmiany objęły 56% powierzchni. To sugeruje, że obserwowany trend nie jest przypadkową wariacją w systemie. Jest on zgodny z modelami antropogenicznej zmiany klimatu, mówi B.B. Cael.
      Mam nadzieję, że ludzie potraktują to poważnie. To już nie tylko model przewidujący, że dojdzie do zmian. Te zmiany zachodzą. Ocean się zmienia, podsumowuje Dutkiewicz.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Jest już zbyt późno, by ochronić letnią morską pokrywę lodową Arktyki i jej funkcję jako habitatu oraz elementu krajobrazu, uważa profesor Dirk Notz z Uniwersytetu w Hamburgu. Będzie ona pierwszym ważnym składnikiem systemu klimatycznego Ziemi, która zniknie w wyniku emisji gazów cieplarnianych, dodaje. Notz wraz z naukowcami z Uniwersytetu Nauki i Technologii w Pohang w Korei Południowej oraz Kanadyjskiego Centrum Analiz i Modelowania Klimatu opublikował wyniki badań, z których wynika, że już w latach 30. XXI wieku może dojść do sytuacji, w której we wrześniu arktyczne wody będą wolne od lodu. I to bez względu na to, czy i jak bardzo ludzkość obniży emisje gazów cieplarnianych.
      Trzeba tutaj dodać, że pojęcie Arktyki wolnej od lodu morskiego dotyczy sytuacji, w której pokrywa lodowa ma mniejszą powierzchnię niż 1 milion kilometrów kwadratowych. Wrzesień jest miesiącem, na który przypada minimum lodu morskiego w Arktyce. Miesiącem maksimum jest marzec.
      Zmniejszanie się morskiej pokrywy lodowej Arktyki ma poważny wpływ na pogodę, ekosystemy i ludzi na całym świecie. Pokrywający wodę lód odbija około 90% energii słonecznej, która na niego pada. Jednak pozbawione lodu, a więc ciemniejsze, wody pochłoną to promieniowanie, zatem dodatkowo się ogrzeją. To może przyspieszyć ocieplanie klimatu, przez co przyspieszy rozmarzanie wiecznej zmarzliny, w której uwięzione są olbrzymie ilości gazów cieplarnianych, co dodatkowo przyspieszy ocieplanie klimatu. To zaś może spowodować szybszy wzrostu poziomu morza i przyspieszone topnienie lądolodu Grenlandii.
      Dotychczas uważano, że pierwszy w Arktyce wolny od pływającego lodu wrzesień, nadejdzie w latach 40. XXI wieku. Wspomniane wyżej badania przesuwają ten moment o całą dekadę. Ich autorzy szacują, że działalność człowieka jest w 90% odpowiedzialna za kurczenie się pokrywy lodowej w Arktyce. Za pozostałą część odpowiadają czynniki naturalne.
      Pod koniec lutego bieżącego roku powierzchnia lodu morskiego w Arktyce wynosiła 1,79 miliona kilometrów kwadratowych. To najmniej w historii pomiarów, o 136 000 km2 mniej od poprzedniego rekordu z lutego 2022 i o 1 milion km2 mniej niż średnia dla tego miesiąca z lat 1981–2020.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...