Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Obronienie Ziemi będzie trudniejsze, niż sądziliśmy

Recommended Posts

Popularnym motywem filmowym jest asteroida zagrażająca Ziemi i grupa śmiałków, która ratuje planetę przed katastrofą. Jednak, jak się okazuje, zniszczenie asteroidy może być trudniejsze, niż dotychczas sądzono, donoszą naukowcy z Uniwersytetu Johnsa Hopkinsa (JHU). Wyniki ich badań, które zostaną opublikowane 15 marca na łamach Icarusa, pozwolą na opracowanie lepszych strategii obrony przed asteroidami, zwiększą naszą wiedzę na temat ewolucji Układu Słonecznego oraz pomogą stworzyć technologie kosmicznego górnictwa.

Zwyczajowo przypuszczamy, że większe obiekty jest łatwiej rozbić, gdyż z większym prawdopodobieństwem zawierają one różnego rodzaju słabości. Jednak nasze badania wskazują, że asteroidy są bardziej wytrzymałe niż sądzimy, a do ich całkowitego zniszczenia potrzeba więcej energii, mówi świeżo upieczony doktor Charles El Mir w Wydziału Inżynierii Mechanicznej JHU.

Współczesna nauka dobrze rozumie budowę skał, które może badać w laboratorium. Ale trudno jest przełożyć wyniki uzyskane z badania obiektu wielkości pięści na obiekt wielkości miasta. Na początku bieżącego wieku kilka zespołów naukowych stworzyło model komputerowy uwzględniający takie czynniki jak masa, temperatura, kruchość materiału. Model posłużył do symulacji uderzenia asteroidą o średnicy 1 kilometra w asteroidę o średnicy 25 kilometrów. Zderzenie miało miejsce przy prędkości 5 km/s, a model wykazał, że większa asteroida zostanie całkowicie zniszczona.

Podczas najnowszych badań El Mir oraz jego współpracownicy, K.T. Ramesh dyrektor Instytutu Materiałów Ekstremalnych JHU oraz profesor Derek Richardson, astronom z University of Maryland, przetestowali ten sam scenariusz, ale wykorzystując do tego model komputerowy Tonge-Ramesha, który bierze pod uwagę procesy zachodzące na mniejszą skalę podczas zderzenia asteroid. Model z początku wieku nie brał pod uwagę ograniczonej prędkości powstawania pęknięć podczas zderzenia.

Symulację podzielono na dwa etapy: krótszy etap fragmentacji i długoterminowej ponownej akumulacji grawitacyjnej.  Fragmentacja rozpoczyna się w ciągu ułamków sekund po zderzeniu, natomiast ponowna kumulacja to proces biorący pod uwagę wpływ grawitacji na kawałki, które oddzieliły się od asteroidy po zderzeniu, ale wskutek grawitacji ponownie się do siebie zbliżają.

Symulacja wykazała, że zaraz po uderzeniu powstały miliony pęknięć, część materiału asteroidy została odrzucona i uformował się krater. Symulacja brała pod uwagę dalszy losy poszczególnych pęknięć i ich rozwój. Nowy model wykazał, że asteroida nie została rozbita po uderzeniu. To, co z asteroidy pozostało, wywierało następnie duży wpływ grawitacyjny na oderwane fragmenty i je przyciągało.

Okazało się, że uderzona asteroida nie zamieniła się w gromadę luźnych kawałków. Nie rozpadła się całkowicie, rozbite fragmenty przemieściły się wokół rdzenia asteroidy. To może być przydatna informacja, którą zechcą studiować specjaliści ds. kosmicznego górnictwa.

Badania dotyczące ochrony przed asteroidami są bardzo skomplikowane. Na przykład musimy odpowiedzieć sobie na pytanie, czy gdyby wielka asteroida podążała w kierunku Ziemi, to lepiej byłoby ją rozbić na kawałki czy przekierować? A jeśli zechcemy ją przekierować, to jakiej siły musimy użyć, by zmieniła tor lotu, ale by jej nie rozbić, zauważa El Mir.

Dość często na Ziemię spadają niewielkie asteroidy, takie jak ten z Czelabińska. Jednak jest tylko kwestią czasu, gdy akademickie badania będziemy musieli przełożyć na praktykę i bronić się przed dużą asteroidą. Musimy być gotowi, gdy ten czas nadejdzie, a badania naukowe to kluczowy element decyzji, którą wówczas będziemy podejmowali, mówi profesor Ramesh.


« powrót do artykułu

Share this post


Link to post
Share on other sites
7 godzin temu, KopalniaWiedzy.pl napisał:

Na przykład musimy odpowiedzieć sobie na pytanie, czy gdyby wielka asteroida podążała w kierunku Ziemi, to lepiej byłoby ją rozbić na kawałki czy przekierować?

Przekierować, rozbić o Księżyc, cokolwiek. Wydaje mi się, że niezależnie od tego w ilu kawałka dotrze do nas asteroida, to wyzwolona energia będzie taka sama. Jasne, sporo tej energii wytworzy się w górnych warstwach atmosfery, ale jak to będzie duży kamień to i tak nas ugotuje. Dlatego raczej potrzeba nam propelerków, żeby spychać z kursu co większe sztuki. imho.

Share this post


Link to post
Share on other sites

Najważniejszy trik to wczesna detekcja, odpowiednio wcześnie wykryte zagrożenia można będzie relatywnie łatwo zneutralizować. Np pomalować jedną stronę na znacząco jaśniejszy lub ciemniejszy kolor. Resztę roboty zrobi słoneczko.

Share this post


Link to post
Share on other sites
8 godzin temu, rahl napisał:

Np pomalować jedną stronę na znacząco jaśniejszy lub ciemniejszy kolor. Resztę roboty zrobi słoneczko.

to zależy czy obiekt rotuje(a chyba wszystkie to robią?) i jaka jest jego oś obrotu

Share this post


Link to post
Share on other sites

Hmm. Ten artykuł jednak podrzuca nam inną metodę. Jakbyśmy na orbicie zebrali te wszystkie nasze śmieci i ulepili na kształt kuli - którą to byśmy w jakiś sposób poprzez np. zwierciadła mogli powoli sterować to można by ją tak wysterować że uderzyłaby w asteroidę która by była na kursie kolizyjnym z Ziemią.

Share this post


Link to post
Share on other sites

Naukowcy zakładają że asteroidy do duże skały, podczas gdy większość obserwacji wskazuje że to zlepek drobnego rumoszu, czasem twardy, czasem bardzo zlodowaciały ale jednak rumosz - czyli zachowuje się jak granulat a nie ja skała. Skałę łatwo jest rozsadzić, rumosz nie, energia szybko się traci. W dodatku poszczególnym bryłkom trzeba by nadać prędkość ucieczki z grawitacji - co prawda jest ona niewielka, ale i tak aby bryłka skutecznie odleciała potrzebne jest pokonanie tej bariery.  To wszystko wymaga siły, precyzyjnie ukierunkowanej a nie bezładnej - bo w rumoszu siły będą po serii uderzeń się niwelować. Dlatego lepiej jest traktować asteroidę jako jeden obiekt, za pomocą stałego ciągu próbować powstrzymać rotację a następnie pomalować jedną stronę i stabilizować aby się nie odwróciła.

Share this post


Link to post
Share on other sites

Malowanie takiego rumoszu może być trochę trudne. To nie ściana. Powierzchnia jest dużo większa ze względu na porowatość.

Share this post


Link to post
Share on other sites
13 godzin temu, tempik napisał:

to zależy czy obiekt rotuje(a chyba wszystkie to robią?) i jaka jest jego oś obrotu

dlatego napisałem "Np"

Share this post


Link to post
Share on other sites

Puki co nie potrafimy ze 100% pewnością określić czy asteroida jest na kursie kolizyjnym czy jednak minie nas. Żeby była szansa reakcji, trzeba taką wiedzę mieć bardzo wcześnie, jak asteroida jest bardzo daleko. Do tego trzeba mieć pojazd który będzie szybciej pędził w kierunku asteroidy niż ona w naszym. Na koniec dobrze by było żeby w odpowiednim czasie np. odpalić jakąś dużą głowicę atomową obok niej, żeby lekko skorygować jej trajektorię. Na razie nic z tych rzeczy nie jest w naszym zasięgu.

 

Share this post


Link to post
Share on other sites
7 godzin temu, thikim napisał:

Malowanie takiego rumoszu może być trochę trudne. To nie ściana. Powierzchnia jest dużo większa ze względu na porowatość.

To potrzebna jest "farba" o większej lepkości/granulacji by nie wsiąkała tak łatwo.

Ciekawy jestem czy taki luźny kawałek lodu i skał jest równie niebezpieczny. Wydaje mi się, że rozsypie się w górnych warstwach atmosfery i będzie miał większą powierzchnię nagrzewania się, straci więc więcej energii i tym samym masy nim dotrze do powierzchni.

Z drugiej strony trafienie czegoś takiego z odpowiednią siłą od boku powinno znacząco zmienić jego trajektorię prawie nie zmieniając znacząco integralności obiektu. To się wydaje bardziej sensowne.

Share this post


Link to post
Share on other sites

Do tego ten rumosz potrafi sporo masy odrzucać na widok Słońca. Może odrzucić tę część z farbą.

W każdym razie zmierzam do tego że malarz pokojowy tu nie wystarczy. To dość trudna operacja. Jak mniemam łatwiej będzie albo tam wysłać kilka Carów albo jednak przywalić jakimś sztucznym obiektem który sobie zrobimy na orbicie.

Wystarczyłoby tylko dodać w przepisach dot. satelitów: "pod koniec życia ma wykonać takie a takie manewry"

Share this post


Link to post
Share on other sites
Posted (edited)

@thikim

Widzę 2 problemy w tym:
1. jest to jednak bardzo niewielka masa w porównaniu z tym, czym chcielibyśmy uderzyć w zagrażającą asteroidę (masa śmieci orbitalnych jest szacowana na 5500 ton, a masa skały o średnicy 5km, to tak na szybko oszacowane 80 miliardów ton - dla obiektu kulistego o gęstości 4t/m3)
2. wyobrażasz sobie skuteczne rozpędzenie nawet tej masy wiszącej na orbicie by osiągnęła II kosmiczną? (tak wiem, na orbicie jest ona dużo mniejsza, ale wciąż spora i trzeba dużo energii dla takiego skupiska gruzu i złomu) 

Nikt o zdrowych zmysłach nie będzie chciał uderzać w asteroidę gdy jest mniej niż milion kilometrów od nas! Takie manewry lepiej wykonywać gdy mamy jeszcze zapas co najmniej 100 000 km.

Edited by pogo

Share this post


Link to post
Share on other sites
Posted (edited)

Zgadza się. Ale zauważ że tendencja jest wzrostowa. Do tego dodaj różnicę prędkości która wyzwoli całkiem sporą ilość energii.

Ja nie piszę że to ma być gotowe za 2 lata. My tę potrzebę obrony możemy mieć za lat 100.

Za 100 lat to już będzie z milion ton - jeśli będziemy to planować.
Może jednak najlepszym sposobem będzie budowa potężnego lasera na orbicie.

Edited by thikim

Share this post


Link to post
Share on other sites
8 godzin temu, thikim napisał:

Może jednak najlepszym sposobem będzie budowa potężnego lasera na orbicie.

i to chyba jest najlepszy kierunek. raz że nie będzie strat mocy w próżni, dwa będzie można go odpalić natychmiast po wykryciu zagrożenia i miesiącami czy nawet latami ciągle spychać obiekt z kursu kolizyjnego. A jak obiekt będzie miał sporo wody i co2 to dzięki odparowywaniu gazów  będzie to jeszcze łatwiejsze.

Share this post


Link to post
Share on other sites

Jeden błąd :D

Trzeba zbudować dwa lasery na Księżycu :)

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Australijsko-amerykański zespół naukowy odkrył mechanizm regeneracji molekuł wody na powierzchni asteroid. Nie można wykluczyć, że wyniki badań będzie można przełożyć na inne ciała niebieskie, jak np. księżyce.
      W artykule opublikowanym na łamach Nature Astronomy czytamy: na powierzchni asteroid znajdowano spektroskopowe sygnatury wody i rodników hydroksylowych. Jako, że okres istnienia lodu na odsłoniętych powierzchniach asteroid z pasa wewnętrznego wynosi od 104 do 106 lat, musi istnieć mechanizm zastępowania wody w obliczu braku niedawnych procesów jej wypływania na powierzchnię. Wciąż jednak nie udało się go opisać. W poniższym artykule przedstawiamy eksperymenty laboratoryjne, w czasie których próbki meteorytu Murchinson były wystawiane na działanie wysoko energetycznych elektronów i światła lasera, co symulowało, elektrony wtórne generowane przez wiatr słoneczny, promieniowanie kosmiczne oraz uderzenia mikrometeorytów w asteroidę. Odkryliśmy, że działanie jednego tyko czynnika jest niewystarczające i do regeneracji wody przy niskich temperaturach potrzebne są oba czynniki. Sądzimy, że dwa główne mechanizmy powstawania wody na powierzchni asteroid to utlenianie związków organicznych w niskiej temperaturze i dehydracja minerałów.
      Głównym autorem badań jest doktor Katarina Milijkovic ze Space Science and Technology Centre Curtin University, a w skład jej zespołu wchodzili uczeni z University of Hawai'i oraz California State University San Marcos.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W lipcu przyszłego roku zostanie wystrzelona misja Mars 2020. Po trwającej pół roku podróży lądownik z ważącym 1 tonę łazikiem rozpocznie sekwencję lądowania na dnie dawnego jeziora. Na miejsce lądowania wybrano Krater Jezero.
      Lądowanie będzie najbardziej ryzykownym i najmniej przewidywalnym momentem całej misji. Ci, którzy pamiętają słynne „7 minut horroru” podczas lądowania łazika Curiosity mogą wzruszyć ramionami sądząc, że NASA po prostu powtórzy to, co zrobiła w 2012 roku. Jednak pomiędzy oboma lądowaniami jest pewna zasadnicza różnica. Curiosity lądował w bezpiecznym płaskim terenie Krateru Gale. Mars 2020 wyląduje w miejscu znacznie trudniejszym, pełnym głazów i innych niebezpieczeństw.
      Aby zwiększyć powodzenie przyszłorocznego lądowania misję Mars 2020 wyposażono w technologię Terrain Relative Navigation, czyli autopilota. Autopilot ten to efekt 15 lat pracy inżyniera Andrew Johnsona z Jet Propulsion Laboratory. Specjalista pracował przez 15 lat nad urządzeniem, które będzie potrzebne przez... 10 sekund. Jednak te 10 sekund zdecydują o tym, czy lądowanie na Marsie się uda czy też nie, mówi Johnson.
      Gdy łazik znajdzie się na wysokości 4,2 kilometra nad powierzchnią Marsa i będzie opadał na spadochronach, jego komputer pokładowy zacznie szybko wykonywać fotografie powierzchni Czerwonej Planety. Rozdzielczość każdego zdjęcia będzie wynosiła 6 metrów na piksel, a system lądowania będzie je analizował, szukając głazów, szczelin, kraterów, klifów i innych przeszkód. Fotografie te zostaną też porównane ze zdjęciami wykonanymi wcześniej z orbity. Gdy komputer pokładowy zidentyfikuje 15 charakterystycznych cech terenu, przełączy swój system wizyjny na większą rozdzielczość.
      Na całą opisaną powyżej sekwencję będzie tylko 10 sekund. W tym czasie muszą zostać wykonane zdjęcia, ma być przeprowadzona ich analiza, komputer dokona oceny miejsca lądowania, porówna przewidywane miejsce lądowania z tym, wybranym na podstawie zdjęć z orbity i zdecyduje, czy należy zmieć tor lotu. Wszystko w ciągu wspomnianych 10 sekund, gdyż po tym, gdy od lądownika oddzieli się osłona termiczna nie będzie możliwe dokonywanie żadnych korekt lotu.
      To wszystko może wyglądać na niepotrzebne ryzyko i komplikowanie sekwencji lądowania, ale ma swoje głębokie uzasadnienie. O ile bowiem wcześniej łazik był w stanie określić swoje miejsce lądowania z dokładnością do 3000 metrów, nowa technologia ma pozwolić na zmniejszenie marginesu błędu do zaledwie 40 metrów. I NASA nie chodzi tutaj o bicie rekordów. Tylko bowiem taka technologia pozwala nam na lądowania w tak interesujących z naukowego punktu widzenia miejscach, jak Krater Jezero, mówi Johnson.
      NASA szacuje, że bez opracowanego przez Johnsona systemu wizyjnego szansa na udane lądowanie Jezero wynosiłaby 85%. Dzięki Terrain Relative Navigation wrasta ona do 99%.
      Skąd takie zaufanie do systemu, którego nie można było nigdy wcześniej przetestować w miejscu, w którym będzie używany? Wszystko dzięki wyczerpującym testom, jakie system przechodził w kwietniu i maju bieżącego roku na Pustyni Mojave, w tym w Dolinie Śmierci. Johnson i jego koledzy odbyli ponad 600 lotów śmigłowcem na wyskości do 5 kilometrów nad Ziemią. Do śmigłowca był przyczepiony marsjański system wizyjny, którego zadaniem było wykonywanie fotografii, ich analiza, porównywanie, znalezienie miejsca do lądowania, ocena ryzyka i przeprowadzenie symulowanego lądowania.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Za trzy tygodnie zostanie przedstawione szczegółowe podsumowanie projektu Deep Carbon Observatory (DCO), prowadzonego od 10 lat przez amerykańskie Narodowe Akademie Nauk. W programie bierze obecnie udział niemal 1000 naukowców z niemal 50 krajów na świecie. Mediom udostępniono już główne wnioski z raportu, które zostały opublikowane w piśmie Elements.
      Z badań wynika, że w oceanach, najwyższej warstwie gleby oraz w atmosferze znajduje się 43 500 gigaton (Gt – miliardów ton) węgla. Cała reszta jest uwięziona w ziemskiej skorupie, płaszczu i jądrze. Całkowita ilość węgla obecnego na naszej planecie to 1,85 miliarda Gt. Każdego roku z głębi Ziemi za pośrednictwem wulkanów oraz innych aktywnych regionów emitowanych jest od 280 do 360 milionów ton (0,28–0,36 Gt) węgla. Zatem całkowita antropogeniczna emisja węgla jest od 40 do 100 razy większa, niż całkowita emisja z aktywności wulkanicznej.
      Obieg węgla w głębi planety wykazuje długoterminową stabilność. Czasami dochodzi do katastrofalnych wydarzeń, podczas których do atmosfery przedostają się duże ilości węgla, co powoduje ocieplenie klimatu, zakwaszenie oceanów oraz masowe wymieranie. W ciągu ostatnich 500 milionów lat Ziemia doświadczyła co najmniej 5 tego typu wydarzeń. Upadek meteorytu, który przed 66 miliony laty przyczynił się do zagłady dinozaurów, spowodował emisję od 425 do 1400 Gt CO2 powodując ogrzanie klimatu i masowe wymieranie roślin i zwierząt. Niewykluczone, że uda się opracować system wczesnego ostrzegania przed erupcjami wulkanicznymi, gdyż przed 5 laty zaobserwowano, iż przed wybuchem w gazach wulkanicznych zmniejsza się udział dwutlenku siarki, a zwiększa dwutlenku węgla.
      Węgiel, będący podstawą wszelkiego życia i źródłem energii dla ludzkości, obiega planetę od płaszcza po atmosferę. By zabezpieczyć naszą przyszłość, musimy lepiej zrozumieć cały cykl obiegu węgla. Kluczowe jest określenie, jak wiele jest tego węgla, gdzie on się znajduje, jak szybko i w jakiej ilości przemieszcza się pomiędzy głębokimi obszarami ziemi a atmosferą i z powrotem, mówi Marie Edmonds z University of Cambridge, która bierze udział w projekcie DCO. Z kolei Tobias Fischer z University of New Mexico przypomina, że dotychczas w ramach prac DCO powstało ponad 1500 publikacji naukowych. Cieszymy się z postępu, jednak trzeba podkreślić, że głębokie warstwy naszej planety to obszar w dużej mierze nieznany nauce. Dopiero zaczynamy zdobywać potrzebną nam wiedzę.
      Ponad powierzchnią Ziemi występuje 43 500 gigaton węgla. Niemal cały ten węgiel, bo 37 000 gigaton znajduje się w głębinach oceanów. Kolejne 3000 gigaton występuje w osadach morskich, a 2000 Gt w biosferze lądowej. W powierzchniowych wodach oceanów występuje 900 Gt węgla, a w atmosferze jest go 590 Gt.
      Eksperci z DCO oceniają też, że obecnie na Ziemi aktywnych jest około 400 z 1500 wulkanów, które były aktywne od ostatniej epoki lodowej. Kolejnych 670 wulkanów, które były aktywne przed epoką lodową, może emitować gazy. Dotychczas udokumentowano emisję ze 102 takich wulkanów, z czego 22 to wulkany, w przypadku których ostatnia erupcja miała miejsce dawniej niż 2,5 miliona lat temu. Dzięki stacjom monitorującym, modelom cyfrowym i eksperymentom wiemy, że w latach 2005–2017 mierzalne ilości CO2 emitowało do atmosfery ponad 200 systemów wulkanicznych. Jeszcze w roku 2013 ich liczbę oceniano na 150. Udokumentowano też superregiony w których dochodzi do rozproszonej emisji gazów z wnętrza Ziemi, takie jak Yellowstone, Wielki Rów Wschodni w Afryce czy wulkaniczna prowincja Technong w Chinach. Dzięki tym badaniom możliwe było stwierdzenie, że emisja z takich regionów jest porównywalna z emisją wulkaniczną

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Astronomowie obserwują ostatnie etapy łączenia się trzech supermasywnych czarnych dziur. Krążą one wokół siebie w centrum trzech galaktyk, do połączenia których dochodzi w odległości około miliarda lat świetlnych od Ziemi. Niezwykły taniec czarnych dziur specjaliści zauważyli wewnątrz obiektu SDSS J084905.51+111447.2.
      Obserwowaliśmy parę czarnych dziur, a gdy użyliśmy kolejnych technik [obrazowania rentgenowskiego o wysokiej rozdzielczości przestrzennej, obrazowania w bliskiej podczerwieni oraz spektroskopii optycznej – red.] znaleźliśmy ten niezwykły system, mówi główny autor badań, Ryan Pfeifle z George Mason University. Mamy tutaj najsilniejsze z dostępnych dowodów na istnienie systemu trzech aktywnych supermasywnych czarnych dziur.
      Badania wspomnianego systemu rozpoczęły się od jego obrazowania w świetle widzialnym za pomocą teleskopu Sloan Digital Sky Survey (SDSS) w Nowym Meksyku. Dane udostępniono w społecznościowym projekcie Galaxy Zoo, którego użytkownicy oznaczyli SDSS J084905.51+111447.2 jako miejsce, w którym właśnie dochodzi do łączenia się czarnych dziur. Naukowcy przeanalizowali więc dane zebrana przez teleskop kosmiczny Wide-field Infrared Survey Explorer (WISE). Pracuje on w podczerwieni i jeśli rzeczywiście w galaktyce dochodzi do łączenia się czarnych dziur, to powinien on zaobserwować co najmniej dwa źródła gwałtownego pochłaniania materii. Kolejne obserwacje potwierdziły podejrzenia. Chandra X-ray Observatory wykrył istnienie silnych źródeł promieniowania X, co wskazuje, że czarne dziury pochłaniają tam duże ilości pyłu i gazu. Podobne dowody zdobył Nuclear Spectroscopic Telescope Array (NuSTAR). Kolejne obrazowanie w świetle widzialnym przeprowadzone za pomocą SDSS i Large Binocular Telescope potwierdziły obecność trzech aktywnych czarnych dziur.
      Dzięki użyciu wielu instrumentów opracowaliśmy nową technikę identyfikowania potrójnych układów supermasywnych czarnych dziur. Każdy z tych teleskopów dostarczył nam nieco innych informacji o tym, co się tam dzieje. Mamy nadzieję, że za pomocą tej techniki znajdziemy więcej układów potrójnych, mówi Pfeifle.
      Naukowcy stwierdzili, że odległość pomiędzy każdą z czarnych dziur, a jej sąsiadami wynosi od 10 do 30 tysięcy lat świetlnych. Będzie ona malała, gdyż galaktyki, do których należą te dziury, łączą się, więc i czarne dziury są skazane na połączenie.
      Dzięki wykryciu przez LIGO fal grawitacyjnych pochodzących z łączenia się czarnych dziur, wiemy co nieco o tym, jak przebiega taki proces. Jednak łączenie się układu potrójnego wygląda prawdopodobnie nieco inaczej. Specjaliści podejrzewają, że obecność trzeciej dziury powoduje, iż dwie pierwsze łączą się znacznie szybciej.
      Istnienie układu potrójnego może pozwolić też na wyjaśnienie teoretycznego „problemu ostatniego parseka”. Gdy dochodzi do połączenia dwóch galaktyk ich czarne dziury nie zderzają się czołowo, ale powinny minąć się po orbicie hiperbolicznej. Musi istnieć mechanizm, który spowoduje, że zbliżą się do siebie. Najważniejszym takim mechanizmem jest dynamiczne tarcie. Gdy czarna dziura zbliża się do gwiazdy, gwiazda jest przyspieszana, a czarna dziura spowalniana. Mechanizm ten spowalnia czarne dziury na tyle, że tworzą powiązany ze sobą układ podwójny. Dynamiczne tarcie nadal działa, dziury zbliżają się do siebie na odległość kilku parseków. Jednak proces krążenia czarnych dziur wokół siebie powoduje, że w pobliżu zaczyna brakować materii. W końcu jest jej tak mało, że jej oddziaływanie nie wystarczy, by dziury się połączyły.
      Ostatecznie do połączenia się czarnych dziur mogłyby doprowadzić fale grawitacyjne, ale ich oddziaływanie ma znaczenie dopiero, gdy dziury zbliżą się do siebie na odległość 0,01–0,001 parseka. Wiemy jednak, że czarne dziury się łączą, pozostaje więc pytanie, co rozwiązuje problem ostatniego parseka, czyli co powoduje, że zbliżą się do siebie na tyle, iż utworzą jedną czarną dziurę. Obecność trzeciej czarnej dziury wyjaśniałaby, jaka siła powoduje, że czarne dziury się łączą.
      Nie można też wykluczyć, że w układach potrójnych dochodzi nie tylko do połączenia się dwóch czarnych dziur, ale i do wyrzucenia trzeciej z nich w przestrzeń kosmiczną.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Potężna burza geomagnetyczna, która spowoduje wyłączenia prądu, awarie satelitów i urządzeń elektrycznych jest nie do uniknięcia. Prawdopodobnie tego typu wydarzenia mają miejsce częściej, niż nam się wydaje i, bazując na najnowszych badaniach, można przypuszczać, że takiego uderzenia ze strony Słońca możemy spodziewać się prawdopodobnie w ciągu najbliższych 100 lat. Nikt nie jest jednak w stanie powiedzieć, czy nastąpi ono w następnej dekadzie czy w następnym wieku.
      Jako, że w coraz większym stopniu jesteśmy uzależnieni od technologii, burze gaomagnetyczne – związane z aktywnością Słońca – są coraz groźniejsze dla naszej cywilizacji.
      Już przed 10 laty informowaliśmy o raporcie NASA i Narodowej Akademii Nauk opisującym katastrofalne skutki, jakie mogłaby przynieść burza geomagnetyczna, czyli gwałtowna zmiana pola magnetycznego Ziemi spowodowana koronalnymi wyrzutami masy na Słońcu. Autorzy raportu szacują, że same tylko Stany Zjednoczone poniosłyby w ciągu pierwszego roku straty rzędu 2 bilionów dolarów. Przywrócenie stanu sprzed katastrofy potrwałoby 4-10 lat. Mało prawdopodobne, by nawet tak potężne państwo było w stanie całkowicie się z niej podnieść, informowaliśmy.
      Dotychczas najsilniejszą znaną nam burzą geomagnetyczną była ta z września 1859 roku, kiedy to zorza polarna była widoczna na Karaibach, doszło do awarii sieci telegraficznych i pożarów. Sądzono jednak, że tak silne wydarzenia mają miejsce raz na 500 lat. Okazuje się jednak, że zdarzają się znacznie częściej.
      Jeffrey Love i jego koledzy ze Służby Geologicznej Stanów Zjednoczonych informują na łamach Space Weather o wynikach analizy, jakiej poddali New York Railroad Storm, burzę magnetyczną z 1921 roku.
      Tego typu wydarzenia ocenia się według skali Dst (disturbance short time). To skala oceny uśrednionej aktywności pola magnetycznego Ziemi. Jeśli ulega ono osłabieniu, a tak się dzieje przy koronalnych wyrzutach masy ze Słońca, pojawiają się na niej wartości ujemne. Wartość bazowa Dst Ziemi wynosi około -20 nanotesli (nT). Wartości poniżej -250 nT są uznawane za superburzę.
      Naukowcy dysponują bardzo ograniczonym zestawem danych dotyczących burzy z 1859 roku i na tej podstawie uznają, że w tym czasie Dst wynosiło pomiędzy -850 a -1050 nT. Tymczasem, jak wynika z badań Love'a i jego zespołu, Dst podczas burzy z 1921 roku wynosiło około -907 nT. Burza z roku 1921 mogła być bardziej intensywna niż ta z roku 1859. Zanim przeprowadziliśmy badania wiedziano, że było to gwałtowne zjawisko, jednak nie wiedziano, do jakiego stopnia.
      Pomiary historycznych burz geomagnetycznych nie są proste. Obecnie dysponujemy całym szeregiem instrumentów monitorujących, jednak nasza wiedza od wydarzeniach sprzed roku 1957, kiedy to pojawił się indeks Dst, jest bardzo uboga, a dane opierają się na informacjach z różnych magnetometrów rozmieszczonych na całym świecie. Przed badaniami Love'a cała nasza wiedza o burzy z 1921 roku była oparta na danych z jednego obserwatorium na Samoa. Jednak autorom najnowszej analizy udało się dotrzeć do notatek wykonanych przez specjalistów z Australii, Hiszpanii i Brazylii. Dzięki temu mogli ocenić intensywność tego wydarzenia bardziej precyzyjnie niż wcześniej. Ich wyliczenia są też bardziej precyzyjne niż te, dotyczące burzy z 1859 roku, które opierają się na daych z jednego magnetometru w Indiach.
      Burza z 1921 roku została nazwana New York Railroad Storm od pożaru kolejowej wieży kontrolnej w Nowym Jorku, który wówczas wybuchł. Obecnie wiemy, że dowody na związek pomiędzy burzą, a tym pożarem są słabe. Jednak wiemy również, że tego samego dnia wybuchły też trzy inne wielkie pożary, które dotychczas przeoczono. Do jednego z nich doszło w wyniku pojawienia się silnych prądów indukcyjnych w telegrafach na stacji kolejowej w Brewster w stanie Nowy Jork. Stacja całkowicie spłonęła. Drugi z pożarów zniszczył centralę telefoniczną w Karlstad w Szwecji, a trzeci wybuchł w Ontario.
      Wiemy też, że burza ta przebiegła dwuetapowo. W Karlstad operatorzy centrali najpierw informowali o awarii i dymie. A gdy dym się rozwiał, nastąpił nagły pożar okablowania. Autorzy najnowszych badań dotarli tez do zapisków wskazujących, że zorzę polarną obserwowano wówczas na Samoa, w Arizonie i w pobliżu Paryża, a do awarii sieci telegraficznych i telefonicznych doszło w Wielkiej Brytanii, Nowej Zelandii, Danii, Japonii, Brazylii i Kanadzie. Wszystko zaś wskazuje na to, że mieliśmy do czynienia z wydarzeniem o średniej intensywności, które w ciągu kilku godzin znacznie się wzmocniło, powodując liczne problemy.
      Gdyby taka burza jak w 1921 roku miała miejsce dzisiaj, doszłoby to zakłócenia pracy wielu systemów. Doświadczylibyśmy wyłączeń prądu, awarii sieci telekomunikacyjnych, być może utraty niektórych satelitów. Nie twierdzę, że byłby to koniec świata, ale doszłoby do zniszczeń na wielką skalę, stwierdza Love.

      « powrót do artykułu
×
×
  • Create New...