Zaloguj się, aby obserwować tę zawartość
Obserwujący
0

Webb dotarł do celu i wszedł na wyznaczoną orbitę
dodany przez
KopalniaWiedzy.pl, w Astronomia i fizyka
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Inżynierowie lotniczy i kosmiczni z MIT odkryli, że sposób, w jaki emisja gazów cieplarnianych wpływa na atmosferę, zmniejszy liczbę satelitów, które można będzie umieścić na niskiej orbicie okołoziemskiej (LEO). Na łamach Nature Sustainability stwierdzają, że rosnąca emisja gazów cieplarnianych zmniejsza zdolność atmosfery do usuwania odpadków krążących wokół Ziemi.
Badacze zauważyli, że dwutlenek węgla i inne gazy cieplarniane powodują, iż górne warstwy atmosfery się kurczą. Głównie interesuje ich termosfera, w której krąży Międzynarodowa Stacja Kosmiczna i większość satelitów. Gdy termosfera się kurczy, jej zmniejszająca się gęstość prowadzi do zmniejszenia oporów, a to właśnie opór aerodynamiczny jest tym czynnikiem, który powoduje, że kosmiczne śmieci – chociażby pozostałości po nieczynnych satelitach – opadają w kierunku Ziemi i płoną w atmosferze. Mniejszy opór oznacza, że odpady takie będą dłużej znajdowały się na orbicie, zatem ich liczba będzie rosła, a to zwiększa ryzyko kolizji z działającymi satelitami i innymi urządzeniami znajdującymi się w tych samych rejonach.
Naukowcy przeprowadzili symulacje, których celem było sprawdzenie, jak emisja dwutlenku węgla wpłynie na górne partie atmosfery i astrodynamikę. Wynika z nich, że do roku 2100 pojemność najpopularniejszych regionów orbity zmniejszy się o 50–66 procent właśnie z powodu gazów cieplarnianych.
Nasze zachowanie na Ziemi w ciągu ostatnich 100 lat wpływa na to, w jaki sposób będziemy używali satelitów przez kolejnych 100 lat, mówi profesor Richard Linares z Wydziału Aeronautyki i Astronautyki MIT. Emisja gazów cieplarnianych niszczy delikatną równowagę górnych warstw atmosfery. Jednocześnie gwałtownie rośnie liczba wystrzeliwanych satelitów, szczególnie telekomunikacyjnych, zapewniających dostęp do internetu. Jeśli nie będziemy mądrze zarządzali satelitami i nie ograniczymy emisji, orbita stanie się zbyt zatłoczona, co będzie prowadziło do większej liczby kolizji i większej liczby krążących na niej szczątków, dodaje główny autor badań, William Parker.
Termosfera kurczy się i rozszerza w 11-letnich cyklach, związanych z cyklami aktywności słonecznej. Gdy aktywność naszej gwiazdy jest niska, do Ziemi dociera mniej promieniowania, najbardziej zewnętrzne warstwy atmosfery tymczasowo się ochładzają i kurczą. W okresie zwiększonej aktywności słonecznej są one cieplejsze i rozszerzają się.
Już w latach 90. naukowcy stworzyli modele, z których wynikało, że w miarę ocieplania się klimatu na Ziemi, górne warstwy atmosfery będą się schładzały, co doprowadzi do kurczenia się termosfery i zmniejszania jej gęstości.
W ciągu ostatniej dekady nauka zyskała możliwość precyzyjnych pomiarów oporu aerodynamicznego działającego na satelity. Pomiary te pokazały, że termosfera kurczy się w odpowiedzi na zjawisko wykraczające poza naturalny 11-letni cykl. Niebo dosłownie spada, w tempie liczonych w dziesięcioleciach. A widzimy to na podstawie zmian oporów doświadczanych przez satelity, wyjaśnia Parker.
Naukowcy z MIT postanowili sprawdzić, w jaki sposób to zmierzone zjawisko wpłynie na liczbę satelitów, które można bezpiecznie umieścić na niskiej orbicie okołoziemskiej. Ma ona wysokość do 2000 kilometrów nad powierzchnią Ziemi. Obecnie na orbicie tej znajduje się ponad 10 000 satelitów. Ich liczba jest już tak duża, że operatorzy satelitów standardowo muszą wykonywać manewry unikania kolizji. Każda taka kolizja oznacza nie tylko zniszczenie satelity, ale też pojawienie się olbrzymiej liczby szczątków, które będą krążyły na orbicie przez kolejne dekady i stulecia, zwiększając ryzyko kolejnych kolizji.
W ciągu ostatnich 5 lat ludzkość umieściła na LEO więcej satelitów, niż przez wcześniejszych 60 lat. Jednym z głównych celów badań było sprawdzenie, czy sposób, w jaki obecnie prowadzimy działania na niskiej orbicie okołoziemskiej można będzie utrzymać w przyszłości. Naukowcy symulowali różne scenariusze emisji gazów cieplarnianych i sprawdzali, jak wpływa to na gęstość atmosfery i opór aerodynamiczny. Następnie dla każdego z tych scenariuszy sprawdzali jego wpływ na astrodynamikę i ryzyko kolizji w zależności od liczby obiektów znajdujących się na orbicie. W ten sposób obliczali „zdolność ładunkową” orbity. Podobnie jak sprawdza się, ile osobników danego gatunku może utrzymać się w danym ekosystemie.
Z obliczeń wynika, że jeśli emisja gazów cieplarnianych nadal będzie rosła, to liczba satelitów, jakie można umieścić na wysokości od 200 do 1000 kilometrów nad Ziemią będzie o 50–66 procent mniejsza niż w scenariuszu utrzymania poziomu emisji z roku 2000. Jeśli „zdolność ładunkowa” orbity zostanie przekroczona, nawet lokalnie, dojdzie do całej serii kolizji, przez co pojawi się tyle szczątków, że orbita stanie się bezużyteczna.
Autorzy badań ostrzegają, że niektóre regiony orbity już zbliżają się do granicy ich „zdolności ładunkowej”. Dzieje się tak głównie przez nowy trend, budowanie megakonstelacji olbrzymiej liczby małych satelitów, takich jak Starlink SpaceX.
Polegamy na atmosferze, która oczyszcza orbitę z pozostawionych przez nas odpadów. Jeśli atmosfera się zmienia, zmienia się też środowisko, w którym znajdują się odpady. Pokazujemy, że długoterminowe możliwości usuwania odpadów z orbity są uzależnione od zmniejszenia emisji gazów cieplarnianych, podsumowuje Richard Linares.
Specjaliści szacują, że obecnie na orbicie znajduje się 40 500 odpadków o rozmiarach większych niż 10 cm, 1 milion 100 tysięcy odpadków wielkości od 1 do 10 cm oraz 130 milionów śmieci wielkości od 1 mm do 1 cm. Nawet te najmniejsze odpady stanowią duże zagrożenie. Średnia prędkość kolizji, do jakich między nimi dochodzi, to 11 km/s czyli około 40 000 km/h.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Gdyby większość ciemnej materii istniała nie w postaci w formie cząstek, a mikroskopijnych czarnych dziur, to mogłyby one wpływać na orbitę Marsa tak, że bylibyśmy w stanie wykryć to za pomocą współczesnej technologii. Zatem zmiany orbity Czerwonej Planety mogłyby posłużyć do szukania ciemnej materii, uważają naukowcy z MIT, Uniwersytetu Stanforda i Uniwersytetu Kalifornijskiego w Santa Cruz. A wszystko zaczęło się od odrodzenia hipotezy z lat 70. XX wieku i pytania o to, co stałoby się z człowiekiem, przez którego przeszłaby miniaturowa czarna dziura.
Pomysł, że większość ciemnej materii, której wciąż nie potrafimy znaleźć, istnieje w postaci miniaturowych czarnych dziur, narodził się w latach 70. Wysunięto wówczas hipotezę, że u zarania wszechświata z zapadających się chmur gazu powstały niewielkie czarne dziury, które w miarę ochładzania się i rozszerzania wszechświata, rozproszyły się po nim. Takie czarne dziury mogą mieć wielkość pojedynczego atomu i masę największych znanych asteroid. W ostatnich latach hipoteza ta zaczęła zdobywać popularność w kręgach naukowych.
Niedawno jeden z autorów badań, Tung Tran, został przez kogoś zapytany, co by się stało, gdyby taka pierwotna czarna dziura przeszła przez człowieka. Tran chwycił za coś do pisania i wyliczył, że gdyby tego typu czarna dziura minęła przeciętnego człowieka w odległości 1 metra, to osoba taka zostałaby w ciągu 1 sekundy odrzucona o 6 metrów. Badacz wyliczył też, że prawdopodobieństwo, by taki obiekt znalazł się w pobliżu kogokolwiek na Ziemi jest niezwykle małe.
Jednak Tung postanowił sprawdzić, co by się stało, gdyby miniaturowa czarna dziura przeleciała w pobliżu Ziemi i spowodowała niewielkie zmiany orbity Księżyca. Do pomocy w obliczeniach zaprzągł kolegów. Wyniki, które otrzymaliśmy, były niejasne. W Układzie Słonecznym mamy do czynienia z tak dynamicznym układem, że inne siły mogłyby zapobiec takim zmianom, mówi uczony.
Badacze, chcąc uzyskać jaśniejszy obraz, stworzyli uproszczoną symulację Układu Słonecznego składającego się z wszystkich planet i największych księżyców. Najdoskonalsze symulacje Układu biorą pod uwagę ponad milion obiektów, z których każdy wywiera jakiś wpływ na inne. Jednak nawet nasza uproszczona symulacja dostarczyła takich danych, które zachęciły nas do bliższego przyjrzenia się problemowi, wyjaśnia Benjamin Lehmann z MIT.
Na podstawie szacunków dotyczących rozkładu ciemnej materii we wszechświecie i masy miniaturowych czarnych dziur naukowcy obliczyli, że taka wędrująca we wszechświecie czarna dziura może raz na 10 lat trafić do wewnętrznych regionów Układu Słonecznego. Wykorzystując dostępne symulacje rozkładu i prędkości przemieszczania się ciemnej materii w Drodze Mlecznej, uczeni symulowali przeloty tego typu czarnych dziur z prędkością około 241 km/s. Szybko odkryli, że o ile efekty przelotu takiej dziury w pobliżu Ziemi czy Księżyca byłyby trudne do obserwowania, gdyż ciężko byłoby stwierdzić, że widoczne zmiany wywołała czarna dziura, to w przypadku Marsa obraz jest już znacznie jaśniejszy.
Z symulacji wynika bowiem, że jeśli pierwotna czarna dziura przeleciałaby w odległości kilkuset milionów kilometrów od Marsa, po kilku latach orbita Czerwonej Planety zmieniłaby się o około metr. To wystarczy, by zmianę taką wykryły instrumenty, za pomocą których badamy Marsa.
Zdaniem badaczy, jeśli w ciągu najbliższych dziesięcioleci zaobserwujemy taką zmianę, powinniśmy przede wszystkim sprawdzić, czy nie została ona spowodowana przez coś innego. Czy to nie była na przykład nudna asteroida, a nie ekscytująca czarna dziura. Na szczęście obecnie jesteśmy w stanie z wieloletnim wyprzedzeniem śledzić tak wielkie asteroidy, obliczać ich trajektorie i porównywać je z tym, co wynika z symulacji dotyczących pierwotnych czarnych dziur, przypomina profesor David Kaiser z MIT.
A profesor Matt Caplan, który nie był zaangażowany w badania, dodaje, że skoro mamy już obliczenia i symulacje, to pozostaje najtrudniejsza część – znalezienie i zidentyfikowanie prawdziwego sygnału, który potwierdzi te rozważania.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Teleskop Kosmiczny Jamesa Webba prawdopodobnie znalazł galaktyki, których istnienie przeczy standardowemu modelowi kosmologicznemu. Wydaje się, że są one zbyt masywne jak na czas swoich narodzin.
Astronomowie z The University of Texas at Austin informują na łamach Nature Astronomy, że sześć z najstarszych i najbardziej masywnych galaktyk zaobserwowanych przez JWST wydaje się przeczyć najbardziej rozpowszechnionym poglądom obowiązującym w kosmologii. Naukowcy szacują bowiem, że galaktyki te narodziły się w ciągu 500–700 milionów lat po Wielkim Wybuchu, a ich masa wynosi ponad 10 miliardów mas Słońca. Jedna z nich wydaje się nawet równie masywna co Droga Mleczna, a jest od niej o miliardy lat młodsza.
Jeśli szacunki dotyczące masy są prawidłowe, to wkraczamy na nieznane terytorium. Wyjaśnienie tego zjawiska będzie wymagało dodania czegoś całkowicie nowego do teorii formowania się galaktyk lub modyfikacji poglądów kosmologicznych. Jednym z najbardziej niezwykłych wyjaśnień byłoby stwierdzenie, że wkrótce po Wielkim Wybuchu wszechświat rozszerzał się szybciej, niż sądzimy. To jednak mogłoby wymagać dodania nowych sił i cząstek, mówi profesor Mike Boylan-Kolchin, który kierował zespołem badawczym. Co więcej, by tak masywne galaktyki uformowały się tak szybko, w gwiazdy musiałoby zamienić się niemal 100% zawartego w nich gazu. Zwykle w gwiazdy zamienia się nie więcej niż 10% gazu galaktyki. I o ile konwersja 100% gazu w gwiazdy mieści się w teoretycznych przewidywaniach, to taki przypadek wymagałby zupełnie innych zjawisk, niż obserwujemy, dodaje uczony.
Dane, jakich dostarczył JWST, mogą postawić astronomów przed poważnym problemem. Jeśli bowiem masy i wiek wspomnianych galaktyk zostaną potwierdzone, mogą być potrzebne fundamentalne zmiany w obowiązującym modelu kosmologicznym. Takie, które dotkną też ciemnej materii i ciemnej energii. Jeśli istnieją inne, szybsze sposoby formowania się galaktyk, albo też więcej materii było dostępnej we wczesnym wszechświecie, konieczna będzie radykalna zmiana poglądów.
Oceny wieku i masy wspomnianych 6 galaktyk to wstępne szacunki. Następnym etapem prac powinno być przeprowadzenie badań spektroskopowych. W ich trakcie może się np. okazać, że czarne dziury w centrach galaktyk tak bardzo podgrzewają otaczający je gaz, że galaktyki są jaśniejsze, zatem wydają się bardziej masywne niż w rzeczywistości. Nie można też wykluczyć, że galaktyki tak naprawdę są młodsze, ale znajdujący się pomiędzy nami a nimi pył zmienia kolor docierającego z nich światła tak, iż jest ono bardziej przesunięte ku czerwieni, zatem wydaje się dochodzić z większej odległości, a zatem z młodszych galaktyk.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Astrofizyk Stephen Kane z Uniwersytetu Kalifornijskiego w Riverside przeprowadził symulacje komputerowe, w których uzupełnił dwie rzucające się w oczy luki w Układzie Słonecznym. Pierwsza z nich to brak super-Ziemi, druga zaś to jej lokalizacja. Z symulacji wynika, że ich uzupełnienie zakończyło by historię życia na Ziemi.
Największą planetą skalistą Układu Słonecznego jest Ziemia. Najmniejszym gazowym olbrzymem jest zaś Neptun o 4-krotnie większej średnicy i 17-krotnie większej masie. Nie ma żadnej planety o pośrednich cechach. W innych układach znajduje się wiele planet o wielkości i masie pomiędzy Ziemią a Neptunem. Nazywamy je super-Ziemiami, wyjaśnia Kane. Druga z luk to odległość od Słońca. Merkury położony jest o 0,4 jednostki astronomicznej (j.a.) od naszej gwiazdy, Wenus dzieli od niej 0,7 j.a., Ziemię – 1 j.a., a Marsa – 1,5 j.a. Kolejna planeta, Jowisz, znajduje się już 5,2 j.a. od Słońca. Kane w swoich symulacjach postanowił wypełnić tę lukę. Symulował więc istnienie tam planety o różnej masie i sprawdzał, jak jej obecność wpływała na inne planety.
Wyniki symulacji – w ramach których Kane badał skutki obecności planety o masie 1-10 mas Ziemi na orbicie odległej od Słońca o 2-4 j.a. – opublikowane na łamach Planetary Science Journal, były katastrofalne dla Układu Słonecznego. Taka fikcyjna planeta wpłynęłaby na orbitę Jowisza, co zdestabilizowałby cały układ Słoneczny. Jowisz, największa z planet, ma masę 318-krotnie większa od Ziemi. Jego grawitacja wywiera więc duży wpływ na otoczenie. Jeśli super-Ziemia lub inny masywny obiekt zaburzyłby orbitę Jowisza, doszłoby do znacznych zmian w całym naszym otoczeniu. W zależności od masy i dokładnej lokalizacji super-Ziemi jej obecność – poprzez wpływ na Jowisza – mogłaby doprowadzić do wyrzucenia z Układu Słonecznego Merkurego, Wenus i Ziemi. Podobny los mógłby spotkać Urana i Neptuna. Jeśli zaś super-Ziemia miałaby znacznie mniejszą masę niż ta prowadząca do katastrofy i znajdowałaby się dokładnie po środku pomiędzy Marsem a Jowiszem, układ taki mógłby być stabilny. Jednak każde odchylenie w jedną lub drugą stronę skończyłoby się katastrofą.
Badania Kane'a to nie tylko ciekawostka. Pokazują, jak delikatna jest równowaga w Układzie Słonecznym. Ma też znaczenie dla poszukiwania układów planetarnych zdolnych do podtrzymania życia. Mimo że podobne do Jowisza, odległe od swoich gwiazd, gazowe olbrzymy znajdowane są w zaledwie 10% układów, to ich obecność może decydować o stabilności orbit planet skalistych.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Odpowiedź na tytułowe pytanie brzmi: tak. Jednak „prawdziwe” w odniesieniu do fotografowanych przez Webba obiektów nie oznacza tutaj takie, jak byśmy zobaczyli je na własne oczy będąc w miejscu Webba, ale takie, jakimi są w rzeczywistości. Żeby to zrozumieć, musimy co nieco wiedzieć o działaniu ludzkiego wzroku oraz Teleskopu Kosmicznego Jamesa Webba (JWST).
Gdy jesteśmy na ulicy i słyszymy zbliżającą się do nas karetkę pogotowia jadącą na sygnale, zauważymy, że dźwięk jest coraz wyższy, a gdy samochód nas minie, staje się coraz niższy. Fala dźwiękowa zbliżającego się do nas źródła sygnału staje się coraz krótsza, a wydłuża się, gdy źródło sygnału się od nas oddala. Takie samo zjawisko ma miejsce w przypadku fali elektromagnetycznej. Wszechświat się rozszerza, więc – generalnie rzecz biorąc – galaktyki i gwiazdy się od nas oddalają. Długość fali biegnącego w naszym kierunku światła staje się coraz większa, światło to staje się coraz bardziej czerwone. A im bardziej odległy od nas obiekt, tym bardziej czerwone światło do nas dociera. Mówimy tutaj o zjawisku przesunięcia ku czerwieni.
Ludzie widzą światło o ograniczonym zakresie długości fali. Odległość pomiędzy Ziemią a większością obiektów we wszechświecie jest tak duża, że docierające do nas fale świetlne znajdują się w zakresie podczerwieni, którego nasze oczy nie widzą. Jednak Teleskop Webba jest wyspecjalizowany właśnie w odbieraniu podczerwieni. Dlatego możemy dojrzeć dzięki niemu bardzo stare, niezwykle odległe obiekty.
JWST korzysta z trzech zwierciadeł. Największe, główne, odpowiada za zbieranie światła docierającego do teleskopu. Zwierciadło główne skupie je i kieruje do zwierciadła wtórnego, stamtąd zaś światło trafia do instrumentów naukowych, a trzecie ze zwierciadeł koryguje wszelkie zniekształcenia wywołane przez dwa pierwsze. Teleskop Webba korzysta ze specjalnej perforowanej maski, która blokuje część docierającego doń światła, symulując działanie wielu teleskopów, dzięki czemu może zwiększyć rozdzielczość. Technika ta pozwala na zdobycie większej ilości danych na temat bardzo jasnych sąsiadujących ze sobą obiektów. Webba wyposażono też w spektrografy, które rozbijają światło na części składowe, ujawniając informacje o intensywności poszczególnych fali światła. Obserwatorium wyposażono też macierz 248 000 mikromigawek służących do pomiaru spektrum światła.
Za dostarczenie nam obrazu odpowiedzialny jest Zintegrowany Moduł Instrumentów Naukowych, w skład którego wchodzą trzy urządzenia. NIRCam, działająca w podczerwieni kamera, rejestrująca fale o długości od 0,6 do 5 mikrometrów. To ona rejestruje światło z pierwszych gwiazd i galaktyk, pokazuje gwiazdy w pobliskich galaktykach, młode gwiazdy w Drodze Mlecznej oraz obiekty w Pasie Kuipera. Wyposażono ją w koronografy, instrumenty pozwalające na fotografowanie bardzo słabo świecących obiektów znajdujących się wokół obiektów znacznie jaśniejszych. Drugim z nich jest NIRSpec, spektrograf również działający w zakresie od 0,6 do 5 mikrometrów. Spektrografy to urządzenia do rejestracji całego widma promieniowania. Analiza tego widma pozwoli naukowcom poznać wiele cech fizycznych badanego obiektu, w tym jego temperaturę, masę i skład chemiczny. Wiele z obiektów, które Webb będzie badał, jest tak słabo widocznych, że olbrzymie zwierciadło teleskopu będzie musiało prowadzić obserwacje przez setki godzin, by zebrać ilość światła wystarczającą do stworzenia całego widma. Natomiast Mid-Infared Instrument (MIRI) składa się zarówno z kamery jak i spektrografu pracujących w średniej podczerwieni. To zakresy od 5 do 28 mikrometrów. Fal o takiej długości nasze oczy nie widzą. Ten bardzo czuły instrument zobaczy przesunięte ku czerwieni światło odległych galaktyk, tworzących się gwiazd i słabo widocznych komet. Może obserwować Pas Kuipera. Kamer MIRI będzie zdolna do wykonania podobnych szerokokątnych zdjęć, z jakich zasłynął Hubble. A jego spektrograf umożliwi poznanie wielu cech fizycznych odległych obiektów.
Wszystkie wymienione tutaj instrumenty dostarczają naukowcom danych, które należy odpowiednio dostosować tak, by nasze oczy mogły je zobaczyć. Obrazów z Webba, które udostępnia NASA, nie moglibyśmy zobaczyć będąc w miejscu teleskopu, zarówno dlatego, że nasze oczy nie odbierają światła o takiej długości fali, jak i dlatego, że Webb jest znacznie bardziej czuły na światło. Zatem obrazy przekazywane przez Webba bardziej odpowiadają rzeczywistości, są bardziej prawdziwe, niż to, co możemy zobaczyć na własne oczy. Teleskop korzysta z aż 27 filtrów rejestrujących fale podczerwone o różnej długości. Naukowcy dokładnie analizują te fale, zbierają informacje np. o ich intensywności, a następnie każdej z nich przypisują falę o długości z zakresu światła widzialnego. Najkrótszym przypisywana jest barwa niebieska, dłuższym zielona, najdłuższym czerwona. Po złożeniu tak otrzymany obrazów należy przeprowadzić jeszcze balans, bieli, skorygować kontrast oraz kolory i podziwiać niezwykłe zdjęcia.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.