Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Pierwsze zdjęcie Ziemi wykonane przez polskiego satelitę

Recommended Posts

Południowa Szwecja, gęste chmury nad Norwegią, fragment Morza Północnego i Bałtyku – te obszary znalazły się na zdjęciu wykonanym przez studenckiego satelitę PW-Sat2. Wg jego twórców to pierwsze polskie zdjęcie satelitarne Ziemi zarejestrowane przez polskiego sztucznego satelitę.

Skonstruowany przez członków Studenckiego Koła Astronautycznego Politechniki Warszawskiej satelita został wyniesiony na orbitę na pokładzie rakiety Falcon 9 z bazy Vandenberg 3 grudnia. Jak poinformowali jego twórcy w przesłanym w piątek PAP komunikacie, początkowa faza misji PW-Sat2 pomyślnie dobiega końca – satelita działa prawidłowo i przesyła na bieżąco dane telemetryczne.

W ramach misji, 5 grudnia około godziny 10:38 UTC (11:38 polskiego czasu), PW-Sat2 pojawił się w polu widzenia stacji naziemnej w Warszawie i wówczas operatorzy wysłali do niego komendę, by wykonał zdjęcie. Przejdzie ono do historii, jako pierwsze polskie zdjęcie satelitarne Ziemi zarejestrowane przez polskiego sztucznego satelitę – podkreślono w komunikacie.

Nie jest to jednak pierwsza polska fotografia Ziemi zrobiona z orbity, bo taką, ręcznym aparatem, w 1978 r. wykonał kosmonauta generał Mirosław Hermaszewski.

Zdjęcie (https://radio.pw-sat.pl/gallery) zostało wykonane, kiedy satelita znajdował się już nad holenderskim wybrzeżem, a widać na nim południową Szwecję, gęste chmury nad Norwegią, spory fragment Morza Północnego, a nawet fragment naszego Bałtyku. W jednym z narożników widać czarny trójkąt koła podbiegunowego gdzie obecnie jest noc, a w prawym górnym mały trójkąt, który jest fragmentem struktury satelity.

Zdjęcie odebrane zostało za pomocą stacji naziemnych w Warszawie, na Wydziale Elektroniki i Technik Informacyjnych, i w Gliwicach w siedzibie naszego partnera Future Processing oraz przez radioamatorów, którzy przesyłają odebrane dane na radio.pw-sat.pl – wyjaśnił Dominik Roszkowski, wicekoordynator projektu PW-Sat2.

Pierwsze zdjęcie w dwóch rozdzielczościach (160×128 pikseli i 320×240 pikseli) zostało przesłane 5 grudnia. Następnego dnia (6 grudnia) podczas kolejnych sesji komunikacyjnych udało się pobrać to samo zdjęcie w rozdzielczości 640×480 pikseli, czyli najwyższej, jaką oferują kamery na pokładzie satelity PW-Sat2.

Ze względu na ograniczenia mocy satelity oraz przepustowości łącza radiowego, przesłanie zdjęcia nawet w tak niskiej, jak na ziemskie warunki jakości, zajmuje kilka kontaktów ze stacją naziemną, które trwają maksymalnie ok. 10 minut. Takich przelotów nad Polską satelita wykonuje aktualnie do sześciu dziennie i z każdym połączeniem odbierany był kolejny fragment tego historycznego zdjęcia - wyjaśniono w komunikacie.

Jak zaznaczono w komunikacie, kamery na pokładzie PW-Sat2 nie mają służyć obserwacjom Ziemi. Ich głównym zadaniem jest weryfikacja otwarcia żagla deorbitacyjnego na zakończenie misji. Dlatego kamery skierowane są pod kątem do ścianek satelity i w ich polu widzenia znajduje się fragment urządzenia.

Satelita PW-Sat2 w ciągu najbliższych kilku dni będzie przechodził testy czujnika Słońca. Po 40 dniach, czyli najpóźniej w połowie stycznia, nastąpi otwarcie żagla deorbitacyjnego.

Żagiel ma być sposobem na przyspieszenie procesu deorbitacji satelity. Rozłożenie spowoduje zwiększenie powierzchni PW-Sat2 i jego oporu aerodynamicznego, a w konsekwencji stopniowe obniżanie orbity satelity. To pozwoli skrócić czas jego przebywania na orbicie z przeszło 15 lat - do kilkunastu miesięcy.

Proces ten jest niezwykle ważny - może się przyczynić do uporania się z problemem kosmicznych śmieci, czyli obiektów, które po zakończeniu własnej misji pozostają na orbicie i zagrażają innym, wciąż czynnym satelitom (bo nie można już nimi sterować). Nad rozwiązaniem tego problemu pracują naukowcy na całym świecie, którzy szukają sposobów zarówno na usuwanie z kosmosu już znajdujących się w nim kosmicznych śmieci, jak i na zapobieganie powstawania nowych śmieci w przyszłości.


« powrót do artykułu

Share this post


Link to post
Share on other sites

jakieś 50 lat za resztą świata. żadne internety o tym nie napisały nawet

Share this post


Link to post
Share on other sites

O jaką "resztę świata" chodzi? Na ok. 200 państw, jakieś 150 nie wysłało jeszcze w Kosmoś nawet śrubki.
Od dwóch tygodni na Marsie jest InSight. Jednym z najważniejszych urządzeń sondy jest polski Kret, który ma się wwiercić na 5 m pod powierzchnię - pierwszy raz w historii badań kosmicznych. Itd., bo polskiej apratury sporo po Kosmosie się pęta, i to od kilkudziesięciu lat.

A co do fotki - przecież to tylko przy okazji (sprawdzenie działania aparatu). Ważny jest żagiel do spuszczania z orbity  niepotrzebnych zabawek. Jeśli będzie skuteczny, wtedy "internety" napiszą, i to dużo pewnie, bo to będzie kilka lat przed resztą świata.
Gdyby wcześniej komuś się zachciało mieć "polską fotkę", wystarczyłoby za parę tysięcy baksów dokleić do czegoś tam, co poleciało, kamerkę z rozdeptanego smarkfona. No i fotka by była, pewnie nawet lepsza niż ta. Tylko po co?

Share this post


Link to post
Share on other sites

Problem w tym, że kret na marsie czy chyba nawet PW-sat2 to nie działania Polskiej Agencji Kosmicznej tylko "prywatne" przedsięwzięcia. Opieszałość w badaniu kosmosu było najlepiej widać na przykładzie dołączenia POLSA do ESA.

Dodam tylko że zawartość strony internetowej POLSAy jest równie emocjonująca co https://ostrzegamy.online/

Share this post


Link to post
Share on other sites

samo położenie geograficzne dyskwalifikuje zapędy wystrzelenia czegoś swojego od początku do końca. A doświadczenie w technice rakietowej? zerowe. Do tego żeby zaprojektować i wykonać dużą misje kosmiczną, która wniesie coś nowego a nie zdubluje coś co już inni osiągnęli wymaga wielkiego budżetu. chociaż jakby 500+ na to przeznaczyć to byśmy mieli 1/4 budżetu całej NASA...

 

Share this post


Link to post
Share on other sites

Jedna z najbardziej udanych misji - Teleskop Keplera, na filmie poniżej jego "pole widzenia", jest ono tak małe że pewni można jeszcze 100 takich teleskopów wybudować i będzie co oglądać,.

Koszt prawie 600mln dolarów. Pewnie jak by kopiować rozwiązania i robić je w Polsce gdzie koszt roboczo godziny jest niski było by taniej. 

Skąd brać pieniądze ? Za wyborczą:

Quote

Na stronie MON można przeczytać, że „łączne przybliżone wydatki z budżetu resortu obrony narodowej na utworzenie, wyposażenie i funkcjonowanie WOT” w 2016 r. mają wynieść ok. 394,4 mln zł, w 2017 r. – 630,7 mln zł, w 2018 r. – 1,095 mld zł, a w 2019 r. - 1,483 mld zł.

 

 

PS. Indie za 125 mln dolarów wysyłają orbiter i lądownik na księżyc. Ogólnie podejście Indii jest bardzo dobre do tematu bo to program państwowy a sterowany jak prywatny biznes - bardzo efektywny kosztowo. Wiem że maja oni warunki żeby budować własne rakiety, ale przy tym co oferują obecnie własnie indie i SpaceX budowanie własnej rakiety mija się celem, ważne żeby krok po korku budować przemysł kosmiczny. PW-sat2  to dobry kierunek, tylko że to powinna robić POLSA i to 10 lat temu.

Edited by dexx

Share this post


Link to post
Share on other sites

 

 

33 minuty temu, dexx napisał:

Ogólnie podejście Indii jest bardzo dobre do tematu bo to program państwowy a sterowany jak prywatny biznes - bardzo efektywny kosztowo.

Nie to co u Amerykanów, gdzie zapewne połowa to koszty administracji. Mają wielkie osiągnięcia ale sporo przepłacają przez te koszty stałe.

35 minut temu, dexx napisał:

ważne żeby krok po korku budować przemysł kosmiczny

I to jest sedno. Nie da się usiąść przy piwie i powiedzieć ok, za 5 lat zbudujemy rakietę i całe graty do jej obsługi.

 

Share this post


Link to post
Share on other sites

W polskich warunkach nie było i nie ma żadnego powodu, żeby to był państwowy przemysł kosmiczny. W ZSRR, USA, Chinach, Indiach, też w dużej części Francja/Niemcy, podstawą były programy militarne. Do samych celów naukowych i komercyjnych taniej i wygodniej współpracować z innymi. I tak było i jest. Są też u nas firmy prywatne, które sobie całkiem nieźle radzą w tym biznesie.

Czy koniecznie musi być "polski (państwowy) satelita", "polska rakieta" itd.? A po co? Przecież już od dosyć dawna praktycznie każdy, kto ma trochę forsy może sobie jakąś zabawkę zmontować albo kupić i w Kosmos ją wystrzelić.

Polska nie ma aż takich potrzeb, żeby forsę w przemysł kosmiczny ładować, szczególnie forsę państwową, bo ta państwowa z reguły ma odpowiedni mnożnik na biurokrację i inne takie.

Share this post


Link to post
Share on other sites
9 godzin temu, tempik napisał:

samo położenie geograficzne dyskwalifikuje zapędy wystrzelenia czegoś swojego od początku do końca. A doświadczenie w technice rakietowej? zerowe.

Jakie "zerowe"?;) Jaki brak doświadczenia?;) 

Na przełomie lat 60 i 70 mieliśmy przecież własny kosmodrom i własne rakiety.

https://pl.wikipedia.org/wiki/Meteor_(rakieta)

Dwie myszki (koloru nieznanego) nawet wystrzeliliśmy.

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites
20 minut temu, ex nihilo napisał:

W polskich warunkach nie było i nie ma żadnego powodu, żeby to był państwowy przemysł kosmiczny.

Jednak jest różnica. Mieć w jakiś sposób, niekoniecznie państwowy, zorganizowany "podbój kosmosu" (wiem, jestem złośliwy :D  ) a co innego opierać się na przypadkowych akcjach studenckich.

W Polsce niestety te sprawy leżą odłogiem. Z wielu różnych powodów. Tym samym jednak dziwi Polska Agencja Kosmiczna. Podobnie jak i podobna atomowa.
Tymczasem w Polsce, studenci sobie, państwo sobie, przemysł sobie. Wszystko nieskoordynowane i nieuporządkowane. Chaos.

Share this post


Link to post
Share on other sites

Jeśli nie będzie jakiejś organizacji która będzie zbierać know how i nim zarządzać, nalegać żeby jak najwięcej było z tego open source / hardware ( przynajmniej dla firm współpracujących z POLSA), to będziemy cały czas tylko robić małe satelity w projektach Uczelnianych.

Firmy nie chcą się dzielić wiedzą, ale jeśli POLSA będzie wspierać finansowo te firmy i organizować je w większe projekty to będzie z tego można coś zrobić. NASA tak własnie działa ESA też, z tym że ESA jest bardziej platformy dla państwowych programów, my do tego worka wrzuciliśmy POLSA ale pod nią nic nie ma.

On 12/10/2018 at 7:30 PM, ex nihilo said:

W polskich warunkach nie było i nie ma żadnego powodu, żeby to był państwowy przemysł kosmiczny. W ZSRR, USA, Chinach, Indiach, też w dużej części Francja/Niemcy, podstawą były programy militarne. Do samych celów naukowych i komercyjnych taniej i wygodniej współpracować z innymi. I tak było i jest. Są też u nas firmy prywatne, które sobie całkiem nieźle radzą w tym biznesie.

Jestem w stanie zaryzykować stwierdzenie że cześć przemysłu będzie już poza Ziemią, NASA, ISRO, CNSA, JAXA, Roscosmos i ESA będą wspierać dziłania w tym kierunku. Każda będzie się starała zrobić jak najwięcej z tego u siebie a dla nas POLSA powinna walczyć o jak największą część, a odnoszę wrażenie że tego nie robi.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Starlink, konstelacja satelitów budowana przez firmę SpaceX, po raz kolejny zakłóciła badania naukowe. Stało się to kilka dni po tym, jak na niską orbitę okołoziemską trafił drugi zestaw satelitów, zwiększając ich liczbę do 120.
      Już po wystrzeleniu pierwszych 60 satelitów naukowcy zauważyli, że są one niezwykle jasne i wyrazili obawę, że realizacja planów SpaceX zakłóci badania astronomiczne. Obecnie na orbicie pracuje mniej niż 5000 satelitów. Tylko część z nich to satelity komunikacyjne, które odbierają i wysyłają sygnały. Konstelacja Starlink ma składać się z 12 000 satelitów, a SpaceX nie jest jedyną firmą, która chce budować takie wielkie konstelacje. Naukowcy zajmujący się badaniem przestrzeni kosmicznej obawiają się, że tysiące nowych satelitów zakłócą badania. Elon Musk zapewniał, że nie będą one miały wpływu na astronomię. Nie wyjaśnił jednak, jakim cudem tysiące satelitów krążących nad naszymi głowami pozostanie bez wpływu na badania naukowe.
      Pomysł Muska po raz kolejny sprawia problemy. We wrześniu Europejska Agencja Kosmiczna poinformowała, że musiała przesunąć jednego ze swoich satelitów naukowych, by uniknąć zderzenia z satelitą Starlink.
      Teraz dowiadujemy się, że przed dwoma dniami satelity SpaceX zakłóciły badania naukowe, a konkretnie pracę Dark Energy Camera (DECam) znajdującej się w Cerro Tololo Inter-American Observatory w północnym Chile. Jestem w szoku. Badania DECam zostały poważnie zakłócone przez 19 satelitów Starlink. Ich przelot w polu widzenia aparatu trwał ponad 5 minut, mówi Clara Martinez-Vazquez.
      Naukowcy opublikowali zdjęcie, na którym widać zakłócenia spowodowane przez satelity. W tym czasie prowadzone były obserwacje w ramach DECam Local Volume Exploration Survey, których zadaniem jest zobrazowanie całego południowego nieba w poszukiwaniu galaktyk zdominowanych przez ciemną materię.
      Zaledwie 20 kilometrów od Cerro Tololo Inter-American Observatory budowane jest Large Synoptic Survey Telescope, olbrzymie obserwatorium, któego zadaniem będzie obserwacja asteroid bliskich Ziemi, badanie supernowych i ciemenj materii. W czerwcu ukazał się dokuemnt, któego autorzy stwierdzili, że Starlink może zakłócić obserwacje.
      Federalna Komisja Komunikacji (FCC) wydała SpaceX zgodę na wystrzelenie 12 000 satelitów Starlink, których celem jest zapewnienie dostępu do internetu na całym świecie. W ubiegłym miesiącu SpaceX opublikowała dokument, z którego wynika, że chce w przyszłości wystrzelić 30 000 kolejnych satelitów.
      SpaceX zapewnia, że pomaluje swoje satelity na czarno, by nie wpływały one na obserwacje astronomiczne i odpowiednio dostosuje ich orbity.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Przed dwoma laty w atmosferze pojawił się fragment wielkiej asteroidy. Niewielki meteoryt spłonął w ziemskiej atmosferze 28 kwietnia 2017 roku nad Kioto. Dane zebrane przez sieć SonotaCo pozwoliły stwierdzić, że w momencie wejścia w atmosferę okruch ważył około 29 gramów i miał średnice około 3 centymetrów. Teraz grupa naukowców z Narodowego Obserwatorium Astronomicznego Japonii, Wydziału Fizyki Uniwersytetu w Kioto oraz Nippon Meteor Society określiła, skąd fragment pochodził.
      Na podstawie badań trajektorii lotu uczeni stwierdzili [PDF], że okruch to fragment obiektu 2003 YT1. To podwójna asteroida, w skład której wchodzi większy obiekt o średnicy około 2 kilometrów, wokół którego krąży obiekt o średnicy 210 metrów. Ocenia się, że istnieje 6-procentowe ryzyko, iż w ciągu najbliższych 10 milionów lat asteroida zderzy się z Ziemią.
      Zdaniem Japończyków układ podwójny powstał w wyniku efektu YORP (Yarkovsky-O'Keefe-Radzievskii-Paddack). Polega on na zmianie prędkości asteroidy pod wpływem promieniowania słonecznego. Jedna strona asteroidy jest ogrzewana przez Słońce, staje się cieplejsza od drugiej, promieniowanie cieplne z tej strony jest silniejsze, powstaje różnica w ciśnieniu promieniowania, która prowadzi do zmiany prędkości obrotowej. Przyspieszenie może być tak duże, że prowadzi do rozerwania asteroidy.
      Naukowcy z Kraju Kwitnącej Wiśni zbadali potencjalne mechanizmy produkcji odłamków z tej asteroidy, w tym utratę stabilności pod wpływem obrotu, uderzenia, fotojonizację, sublimację lodu, pękania pod wpływem temperatury i inne. Wykazali, że pod wpływem siły odśrodkowej z asteroidy mogą uwalniać się fragmenty o wielkości liczonej w milimetrach i centymetrach. Podobnej wielkości fragmenty mogą pojawić się w wyniku zderzeń z mikrometeorytami o średnicy około 1 mm. Inne mechanizmy nie zapewniają powstania tak dużych odłamków jak ten, który spłoną w atmosferze Ziemi.
      Asteroida 2003 YT1 została odkryta przed 16 lat i obecnie uważa się, że nie stanowi ona ryzyka dla naszej planety. Sama asteroida nie przelatywała w pobliżu Ziemi w roku 2017, dlatego też początkowo nie było wiadomo, skąd pochodził fragment, który spłonął nad Kioto. Jego trajektorię udało się jednak z dużą precyzją wyliczyć dzięki globalnej sieci śledzenia meteorytów.
      2003 YT1 jest zaliczana do Grupy Apolla. To ponad 10 000 planetoid bliskich Ziemi, które przecinają orbitę naszej planety. Czas obiegu 2003 YT1 wokół Słońca wynosi 427 dni, a odległość od naszej gwiazdy waha się od 0,8 do 1,4 j.a. Następnej bliskiej wizyty tej asteroidy możemy się spodziewać 3 listopada 2023 roku, kiedy znajdzie się ona w odległości niecałych 9 000 000 kilometrów od Ziemi, z kolei w kwietniu 2073 roku asteroida podleci do Ziemi na odległość 1,7 miliona km.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W lipcu przyszłego roku zostanie wystrzelona misja Mars 2020. Po trwającej pół roku podróży lądownik z ważącym 1 tonę łazikiem rozpocznie sekwencję lądowania na dnie dawnego jeziora. Na miejsce lądowania wybrano Krater Jezero.
      Lądowanie będzie najbardziej ryzykownym i najmniej przewidywalnym momentem całej misji. Ci, którzy pamiętają słynne „7 minut horroru” podczas lądowania łazika Curiosity mogą wzruszyć ramionami sądząc, że NASA po prostu powtórzy to, co zrobiła w 2012 roku. Jednak pomiędzy oboma lądowaniami jest pewna zasadnicza różnica. Curiosity lądował w bezpiecznym płaskim terenie Krateru Gale. Mars 2020 wyląduje w miejscu znacznie trudniejszym, pełnym głazów i innych niebezpieczeństw.
      Aby zwiększyć powodzenie przyszłorocznego lądowania misję Mars 2020 wyposażono w technologię Terrain Relative Navigation, czyli autopilota. Autopilot ten to efekt 15 lat pracy inżyniera Andrew Johnsona z Jet Propulsion Laboratory. Specjalista pracował przez 15 lat nad urządzeniem, które będzie potrzebne przez... 10 sekund. Jednak te 10 sekund zdecydują o tym, czy lądowanie na Marsie się uda czy też nie, mówi Johnson.
      Gdy łazik znajdzie się na wysokości 4,2 kilometra nad powierzchnią Marsa i będzie opadał na spadochronach, jego komputer pokładowy zacznie szybko wykonywać fotografie powierzchni Czerwonej Planety. Rozdzielczość każdego zdjęcia będzie wynosiła 6 metrów na piksel, a system lądowania będzie je analizował, szukając głazów, szczelin, kraterów, klifów i innych przeszkód. Fotografie te zostaną też porównane ze zdjęciami wykonanymi wcześniej z orbity. Gdy komputer pokładowy zidentyfikuje 15 charakterystycznych cech terenu, przełączy swój system wizyjny na większą rozdzielczość.
      Na całą opisaną powyżej sekwencję będzie tylko 10 sekund. W tym czasie muszą zostać wykonane zdjęcia, ma być przeprowadzona ich analiza, komputer dokona oceny miejsca lądowania, porówna przewidywane miejsce lądowania z tym, wybranym na podstawie zdjęć z orbity i zdecyduje, czy należy zmieć tor lotu. Wszystko w ciągu wspomnianych 10 sekund, gdyż po tym, gdy od lądownika oddzieli się osłona termiczna nie będzie możliwe dokonywanie żadnych korekt lotu.
      To wszystko może wyglądać na niepotrzebne ryzyko i komplikowanie sekwencji lądowania, ale ma swoje głębokie uzasadnienie. O ile bowiem wcześniej łazik był w stanie określić swoje miejsce lądowania z dokładnością do 3000 metrów, nowa technologia ma pozwolić na zmniejszenie marginesu błędu do zaledwie 40 metrów. I NASA nie chodzi tutaj o bicie rekordów. Tylko bowiem taka technologia pozwala nam na lądowania w tak interesujących z naukowego punktu widzenia miejscach, jak Krater Jezero, mówi Johnson.
      NASA szacuje, że bez opracowanego przez Johnsona systemu wizyjnego szansa na udane lądowanie Jezero wynosiłaby 85%. Dzięki Terrain Relative Navigation wrasta ona do 99%.
      Skąd takie zaufanie do systemu, którego nie można było nigdy wcześniej przetestować w miejscu, w którym będzie używany? Wszystko dzięki wyczerpującym testom, jakie system przechodził w kwietniu i maju bieżącego roku na Pustyni Mojave, w tym w Dolinie Śmierci. Johnson i jego koledzy odbyli ponad 600 lotów śmigłowcem na wyskości do 5 kilometrów nad Ziemią. Do śmigłowca był przyczepiony marsjański system wizyjny, którego zadaniem było wykonywanie fotografii, ich analiza, porównywanie, znalezienie miejsca do lądowania, ocena ryzyka i przeprowadzenie symulowanego lądowania.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Za trzy tygodnie zostanie przedstawione szczegółowe podsumowanie projektu Deep Carbon Observatory (DCO), prowadzonego od 10 lat przez amerykańskie Narodowe Akademie Nauk. W programie bierze obecnie udział niemal 1000 naukowców z niemal 50 krajów na świecie. Mediom udostępniono już główne wnioski z raportu, które zostały opublikowane w piśmie Elements.
      Z badań wynika, że w oceanach, najwyższej warstwie gleby oraz w atmosferze znajduje się 43 500 gigaton (Gt – miliardów ton) węgla. Cała reszta jest uwięziona w ziemskiej skorupie, płaszczu i jądrze. Całkowita ilość węgla obecnego na naszej planecie to 1,85 miliarda Gt. Każdego roku z głębi Ziemi za pośrednictwem wulkanów oraz innych aktywnych regionów emitowanych jest od 280 do 360 milionów ton (0,28–0,36 Gt) węgla. Zatem całkowita antropogeniczna emisja węgla jest od 40 do 100 razy większa, niż całkowita emisja z aktywności wulkanicznej.
      Obieg węgla w głębi planety wykazuje długoterminową stabilność. Czasami dochodzi do katastrofalnych wydarzeń, podczas których do atmosfery przedostają się duże ilości węgla, co powoduje ocieplenie klimatu, zakwaszenie oceanów oraz masowe wymieranie. W ciągu ostatnich 500 milionów lat Ziemia doświadczyła co najmniej 5 tego typu wydarzeń. Upadek meteorytu, który przed 66 miliony laty przyczynił się do zagłady dinozaurów, spowodował emisję od 425 do 1400 Gt CO2 powodując ogrzanie klimatu i masowe wymieranie roślin i zwierząt. Niewykluczone, że uda się opracować system wczesnego ostrzegania przed erupcjami wulkanicznymi, gdyż przed 5 laty zaobserwowano, iż przed wybuchem w gazach wulkanicznych zmniejsza się udział dwutlenku siarki, a zwiększa dwutlenku węgla.
      Węgiel, będący podstawą wszelkiego życia i źródłem energii dla ludzkości, obiega planetę od płaszcza po atmosferę. By zabezpieczyć naszą przyszłość, musimy lepiej zrozumieć cały cykl obiegu węgla. Kluczowe jest określenie, jak wiele jest tego węgla, gdzie on się znajduje, jak szybko i w jakiej ilości przemieszcza się pomiędzy głębokimi obszarami ziemi a atmosferą i z powrotem, mówi Marie Edmonds z University of Cambridge, która bierze udział w projekcie DCO. Z kolei Tobias Fischer z University of New Mexico przypomina, że dotychczas w ramach prac DCO powstało ponad 1500 publikacji naukowych. Cieszymy się z postępu, jednak trzeba podkreślić, że głębokie warstwy naszej planety to obszar w dużej mierze nieznany nauce. Dopiero zaczynamy zdobywać potrzebną nam wiedzę.
      Ponad powierzchnią Ziemi występuje 43 500 gigaton węgla. Niemal cały ten węgiel, bo 37 000 gigaton znajduje się w głębinach oceanów. Kolejne 3000 gigaton występuje w osadach morskich, a 2000 Gt w biosferze lądowej. W powierzchniowych wodach oceanów występuje 900 Gt węgla, a w atmosferze jest go 590 Gt.
      Eksperci z DCO oceniają też, że obecnie na Ziemi aktywnych jest około 400 z 1500 wulkanów, które były aktywne od ostatniej epoki lodowej. Kolejnych 670 wulkanów, które były aktywne przed epoką lodową, może emitować gazy. Dotychczas udokumentowano emisję ze 102 takich wulkanów, z czego 22 to wulkany, w przypadku których ostatnia erupcja miała miejsce dawniej niż 2,5 miliona lat temu. Dzięki stacjom monitorującym, modelom cyfrowym i eksperymentom wiemy, że w latach 2005–2017 mierzalne ilości CO2 emitowało do atmosfery ponad 200 systemów wulkanicznych. Jeszcze w roku 2013 ich liczbę oceniano na 150. Udokumentowano też superregiony w których dochodzi do rozproszonej emisji gazów z wnętrza Ziemi, takie jak Yellowstone, Wielki Rów Wschodni w Afryce czy wulkaniczna prowincja Technong w Chinach. Dzięki tym badaniom możliwe było stwierdzenie, że emisja z takich regionów jest porównywalna z emisją wulkaniczną

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Potężna burza geomagnetyczna, która spowoduje wyłączenia prądu, awarie satelitów i urządzeń elektrycznych jest nie do uniknięcia. Prawdopodobnie tego typu wydarzenia mają miejsce częściej, niż nam się wydaje i, bazując na najnowszych badaniach, można przypuszczać, że takiego uderzenia ze strony Słońca możemy spodziewać się prawdopodobnie w ciągu najbliższych 100 lat. Nikt nie jest jednak w stanie powiedzieć, czy nastąpi ono w następnej dekadzie czy w następnym wieku.
      Jako, że w coraz większym stopniu jesteśmy uzależnieni od technologii, burze gaomagnetyczne – związane z aktywnością Słońca – są coraz groźniejsze dla naszej cywilizacji.
      Już przed 10 laty informowaliśmy o raporcie NASA i Narodowej Akademii Nauk opisującym katastrofalne skutki, jakie mogłaby przynieść burza geomagnetyczna, czyli gwałtowna zmiana pola magnetycznego Ziemi spowodowana koronalnymi wyrzutami masy na Słońcu. Autorzy raportu szacują, że same tylko Stany Zjednoczone poniosłyby w ciągu pierwszego roku straty rzędu 2 bilionów dolarów. Przywrócenie stanu sprzed katastrofy potrwałoby 4-10 lat. Mało prawdopodobne, by nawet tak potężne państwo było w stanie całkowicie się z niej podnieść, informowaliśmy.
      Dotychczas najsilniejszą znaną nam burzą geomagnetyczną była ta z września 1859 roku, kiedy to zorza polarna była widoczna na Karaibach, doszło do awarii sieci telegraficznych i pożarów. Sądzono jednak, że tak silne wydarzenia mają miejsce raz na 500 lat. Okazuje się jednak, że zdarzają się znacznie częściej.
      Jeffrey Love i jego koledzy ze Służby Geologicznej Stanów Zjednoczonych informują na łamach Space Weather o wynikach analizy, jakiej poddali New York Railroad Storm, burzę magnetyczną z 1921 roku.
      Tego typu wydarzenia ocenia się według skali Dst (disturbance short time). To skala oceny uśrednionej aktywności pola magnetycznego Ziemi. Jeśli ulega ono osłabieniu, a tak się dzieje przy koronalnych wyrzutach masy ze Słońca, pojawiają się na niej wartości ujemne. Wartość bazowa Dst Ziemi wynosi około -20 nanotesli (nT). Wartości poniżej -250 nT są uznawane za superburzę.
      Naukowcy dysponują bardzo ograniczonym zestawem danych dotyczących burzy z 1859 roku i na tej podstawie uznają, że w tym czasie Dst wynosiło pomiędzy -850 a -1050 nT. Tymczasem, jak wynika z badań Love'a i jego zespołu, Dst podczas burzy z 1921 roku wynosiło około -907 nT. Burza z roku 1921 mogła być bardziej intensywna niż ta z roku 1859. Zanim przeprowadziliśmy badania wiedziano, że było to gwałtowne zjawisko, jednak nie wiedziano, do jakiego stopnia.
      Pomiary historycznych burz geomagnetycznych nie są proste. Obecnie dysponujemy całym szeregiem instrumentów monitorujących, jednak nasza wiedza od wydarzeniach sprzed roku 1957, kiedy to pojawił się indeks Dst, jest bardzo uboga, a dane opierają się na informacjach z różnych magnetometrów rozmieszczonych na całym świecie. Przed badaniami Love'a cała nasza wiedza o burzy z 1921 roku była oparta na danych z jednego obserwatorium na Samoa. Jednak autorom najnowszej analizy udało się dotrzeć do notatek wykonanych przez specjalistów z Australii, Hiszpanii i Brazylii. Dzięki temu mogli ocenić intensywność tego wydarzenia bardziej precyzyjnie niż wcześniej. Ich wyliczenia są też bardziej precyzyjne niż te, dotyczące burzy z 1859 roku, które opierają się na daych z jednego magnetometru w Indiach.
      Burza z 1921 roku została nazwana New York Railroad Storm od pożaru kolejowej wieży kontrolnej w Nowym Jorku, który wówczas wybuchł. Obecnie wiemy, że dowody na związek pomiędzy burzą, a tym pożarem są słabe. Jednak wiemy również, że tego samego dnia wybuchły też trzy inne wielkie pożary, które dotychczas przeoczono. Do jednego z nich doszło w wyniku pojawienia się silnych prądów indukcyjnych w telegrafach na stacji kolejowej w Brewster w stanie Nowy Jork. Stacja całkowicie spłonęła. Drugi z pożarów zniszczył centralę telefoniczną w Karlstad w Szwecji, a trzeci wybuchł w Ontario.
      Wiemy też, że burza ta przebiegła dwuetapowo. W Karlstad operatorzy centrali najpierw informowali o awarii i dymie. A gdy dym się rozwiał, nastąpił nagły pożar okablowania. Autorzy najnowszych badań dotarli tez do zapisków wskazujących, że zorzę polarną obserwowano wówczas na Samoa, w Arizonie i w pobliżu Paryża, a do awarii sieci telegraficznych i telefonicznych doszło w Wielkiej Brytanii, Nowej Zelandii, Danii, Japonii, Brazylii i Kanadzie. Wszystko zaś wskazuje na to, że mieliśmy do czynienia z wydarzeniem o średniej intensywności, które w ciągu kilku godzin znacznie się wzmocniło, powodując liczne problemy.
      Gdyby taka burza jak w 1921 roku miała miejsce dzisiaj, doszłoby to zakłócenia pracy wielu systemów. Doświadczylibyśmy wyłączeń prądu, awarii sieci telekomunikacyjnych, być może utraty niektórych satelitów. Nie twierdzę, że byłby to koniec świata, ale doszłoby do zniszczeń na wielką skalę, stwierdza Love.

      « powrót do artykułu
×
×
  • Create New...