Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Pierwsze satelity SpaceX trafiły w przestrzeń kosmiczną

Recommended Posts

SpaceX wystrzeliła pierwsze własne satelity komunikacyjne. Start Falcona 9 z 60 satelitami komunikacyjnymi miał odbyć się 17 maja, jednak był ciągle przekładany ze względu na niekorzystne warunki pogodowe i konieczność aktualizacji oprogramowania. W końcu się udało.

Godzinę po starcie, na wysokości 450 kilometrów, z rakiety zaczęto uwalniać satelity. Samodzielnie zajmą one orbitę na wysokości 550 kilometrów. Wspomnianych 60 satelitów to część konstelacji Starlink, która ma zapewnić łączność internetową na całym świecie. Starlink zostanie uruchomiona, gdy na orbicie znajdzie się 800 satelitów.

SpaceX to niewielka firma, a margines zysku z jej obecnej działalności nie jest duży. Tymczasem przedsiębiorstwo ma wielkie ambicje, chce wysyłać ludzi w przestrzeń kosmiczną. Aby je zrealizować musi znaleźć dodatkowe źródła przychodu. Jednym z nich może być zapewnienie łączy internetowych w każdym miejscu na świecie.

SpaceX wchodzi na rynek, na którym działa już konkurencja. Wiele firm oferuje już internet satelitarny. Ich urządzenia korzystają z orbity geostacjonarnej (GEO). Zaletą tego rozwiązania jest fakt, że satelita okrąża Ziemię w takim samym czasie, w jakim trwa obrót Ziemi dookoła własnej osi. Zatem satelita ciągle wisi nad tym samym punktem i zapewnia łączność na obszarze objętym swoim zasięgiem. Wadą umieszczenia satelity na GEO jest fakt, iż orbita ta znajduje się na wysokości około 36 000 kilometrów nad Ziemią. To zaś oznacza, że do praktycznej komunikacji dwustronnej sygnał musi przebyć ponad 70 000 kilometrów. Mogą więc pojawić się opóźnienia, które mogą być widoczne tam, gdzie potrzebna jest szybsza wymiana danych, jak np. podczas online'owych gier wideo. Ponadto obecnie satelity umieszczone na GEO nie pokrywają swoim sygnałem całego obszaru planety.

Niska orbita okołoziemska znajduje się na wysokości od 200 do 2000 kilometrów. Sygnał ma więc do przebycia znacznie krótszą drogę i w praktyce opóźnienia nie powinny być większe, niż przy korzystaniu z sygnału nadawanego z Ziemi. Jednak, jako że satelity na LEO poruszają się znacznie szybciej względem Ziemi, to obszar, który jest pokryty sygnałem z danego satelity, ciągle się przesuwa. Zatem jeśli chcemy zapewnić nieprzerwaną łączność na danym obszarze, musimy mieć wiele satelitów, których ruch jest zsynchronizowany tak, by gdy jeden satelita opuszcza dany obszar, kolejny natychmiast wlatywał w jego miejsce.

Mark Juncosa, wiceprezes SpaceX odpowiedzialny za kwestie inżynieryjne, mówi, że po 12 dodatkowych startach rakiet z satelitami Starlink jego firma obejmie swoimi usługami całe USA, po 24 startach będzie mogła zapewnić łączność na najgęściej zaludnionych obszarach, a po 30 startach ze Starlinka będzie można korzystać na całym świecie.

Starlink to niezwykle ważne przedsięwzięcie w planach SpaceX. Jak już wspomnieliśmy, firma potrzebuje pieniędzy na realizację swoich podstawowych planów związanych z wysyłaniem ludzi w przestrzeń kosmiczną. Jak przyznał Elon Musk, przychody biznesu związanego z wynoszeniem ludzi i towarów na zlecenie mogą w przyszłości sięgnąć 3 miliardów dolarów rocznie, tymczasem potencjalne przychody z dostarczania internetu mogą być nawet 10-krotnie wyższe. Postrzegamy to jako sposób na wygenerowanie środków, które będziemy mogli użyć na tworzenie coraz bardziej zaawansowanych rakiet i statków kosmicznych. To kluczowy element planu budowy stacji na Księżycu i samowystarczalnego miasta na Marsie, mówi Musk.

Pozostaje jeszcze jeden ważny problem. Obecnie na LEO znajduje się około 2000 działających satelitów. Jeśli wszystko pójdzie zgodnie z planem, większość satelitów krążących wokół Ziemi będzie należała do SpaceX. To duża rzecz, przyznaje Musk. Możemy też przypuszczać, że konkurencja nie będzie zasypiała gruszek w popiele. W najbliższych latach wokół naszej planety może więc krążyć kilkakrotnie więcej satelitów niż obecnie. Tymczasem już obecnie kosmiczne śmieci są coraz większym problemem. Coraz więcej satelitów oznacza z jednej strony, że te, które się zepsują lub zakończy się czas ich pracy, staną się kolejnymi odpadkami, z drugiej strony im ich więcej, tym większe ryzyko kolizji z już istniejącymi śmieciami, a wskutek każdej z takich kolizji pojawia się olbrzymia liczba szczątków i znowu wzrasta ryzyko kolizji z działającymi satelitami.

Musk mówi, że każdy z satelitów Starlink zostanie wyposażony w dane o orbitach wszystkich znanych odpadków kosmicznych i będzie mógł ich unikać. Ponadto zapewnia, że nieczynne satelity będą z czasem spadały na Ziemię i w 95% będą płonęły w atmosferze. To jednak oznacza, że z każdego satelity na powierzchnię spadnie kilkanaście kilogramów odłamków. Zgodnie z zapewnieniem SpaceX mają być one kierowane na Ocean Spokojny.

Ryzyko, że ktoś na Ziemi zostanie zraniony lub zabity przez szczątki spadającego satelity jest minimalne. Jednak biorąc pod uwagę fakt, że szybko rośnie zarówno liczba satelitów jak i liczba ludzi, można się spodziewać, że w najbliższych latach przeczytamy doniesienia o osobach trafionych kosmicznymi śmieciami.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Z Teleskopu Webba na Ziemię zaczęły trafiać pierwsze zdjęcia przestrzeni kosmicznej oraz dane spektroskopowe. Gdy będziemy oglądać fascynujące obrazy warto pamiętać, że pochodzą one z urządzenia, które znajduje się niemal 3000 razy dalej od Ziemi niż Teleskop Hubble'a. Warto więc dowiedzieć się, jak do nas trafiły.
      Znaczna odległość Webba od Ziemi oznacza, że sygnał musi przebyć długą drogę, zanim do nas trafi, a cały system komunikacyjny musi działać naprawdę dobrze, gdyż nie przewiduje się misji serwisowych do Webba. Jeśli więc komunikacja zawiedzie, będziemy mieli w przestrzeni kosmicznej całkowicie bezużyteczny najdoskonalszy teleskop w idealnym stanie.
      Teleskop Kosmiczny Jamesa Webba (JWST) jest pierwszą misją kosmiczną, która wykorzystuje pasmo Ka do przesyłania tak dużej ilości danych. Już na etapie projektowania zdecydowano o wykorzystaniu Ka, części większego pasma K.
      Webb wysyła na Ziemię dane w paśmie o częstotliwości 25,9 Ghz, a prędkość transmisji może dochodzić do 28 Mb/s. Tak duża prędkość jest niezbędna, gdyż JWST może zebrać do 57 GB danych na dobę, chociaż rzeczywista ilość danych będzie zależała od zaplanowanych obserwacji. Dla porównania, Teleskop Hubble'a (HST) zbiera każdej doby nie więcej niż 2 GB danych.
      Pasmo Ka wybrano, gdyż kanałem tym można przesłać więcej danych niż powszechnie wykorzystywanymi w komunikacji kosmicznej pasmami X (7–11 GHz) czy S (2–4 GHz). Dodatkowo przeciwko wykorzystaniu pasma X przemawiał fakt, że antena pracująca w tym zakresie musiałaby być na tyle duża, że teleskop miałby problemy z utrzymaniem wysokiej stabilności, niezbędnej do prowadzenia obserwacji.
      Szybki transfer danych jest niezbędny na potrzeby przesyłania informacji naukowych. Webb korzysta też z dwóch kanałów pasma S. Jeden z nich, o częstotliwości 2.09 GHz to kanał odbiorczy, pracujący z prędkością 16 kb/s. Służy on do wysyłania do teleskopu poleceń dotyczących zaplanowanych obserwacji oraz przyszłych transmisji danych. Za pomocą zaś drugiego kanału, 2.27 GHz, pracującego w tempie 40 kb/s, Webb przysyła na Ziemię informacje dane inżynieryjne, w tym informacje o kondycji poszczególnych podzespołów.
      Łączność pomiędzy Ziemią a teleskopem nie jest utrzymywana przez 24 godziny na dobę. Dlatego też JWST musi przechowywać dane na pokładzie, zanim je nam przyśle. Magazynem danych jest 68-gigabajtowy dysk SSD, którego 3% pojemności zarezerwowano na dane inżynieryjne. Gdy już Webb prześle dane na Ziemię, oczekuje na potwierdzenie, że dotarły i wszystko z nimi w porządku. Dopiero po potwierdzeniu może wykasować dane z dysku, by zrobić miejsce na kolejne informacje. Specjaliści z NASA spodziewają się, że za 10 lat pojemność dysku, z powodu oddziaływania promieniowania kosmicznego, zmniejszy się do około 60 GB.
      Dane z Teleskopu Webba są odbierane na Ziemi przez Deep Space Network. DSN korzysta z trzech kompleksów anten znajdujących się w pobliżu Canberry, Madrytu i Barstow w Kalifornii. Z DNS korzysta wiele innych misji, w tym Parker Solar Probe, TESS czy Voyagery. Dlatego też JWST musi dzielić się z nimi ograniczonym czasem korzystania z anten. Wszystko to wymaga starannego planowania. Czas, w którym dana misja będzie mogła korzystać z anten DSN jest planowany z wyprzedzeniem sięgającym 12-20 tygodni. Wyjątkiem była sytuacja, gdy Teleskop Webba przygotowywał się do pracy, rozkładał poszczególne podzespoły, uruchamiał instrumenty, gdy były one sprawdzane i kalibrowane. Większość z tych czynności wymagała komunikacji w czasie rzeczywistym, wówczas więc Webb miał pierwszeństwo przed innymi misjami.
      Inżynierowie pracujący przy systemie komunikacji przykładali szczególną uwagę do jego niezawodności. Wiedzieli, że jeśli oni popełnią błąd, cała praca kolegów z innych zespołów pójdzie na marne. System komunikacji musi działać idealnie. Dlatego też wybrali znane rozwiązanie i odrzucili co najmniej dwie propozycje wykorzystania eksperymentalnej komunikacji laserowej.
       


      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Inżynierowie NASA odpowiedzialni za znajdującą się w przestrzeni międzygwiezdnej sondę Voyager 1, próbują rozwiązać zagadkę nietypowych danych, jakie pojazd przysyła. Voyager 1 pracuje normalnie, odbiera i wykonuje komendy z Ziemi, prowadzi badania naukowe, zbiera dane i wysyła je na Ziemię. Jednak odczyty z systemu AACS (attitude articulation and control system) nie oddają tego, co dzieje się na pokładzie sondy.
      AACS od 45 lat odpowiada za prawidłową orientację pojazdu. Do jednego z zadań systemu należy dopilnowanie, by antena Voyager 1 była skierowana dokładnie na Ziemię. Wszystko wskazuje na to, że AACS działa, ale coś jest nie tak z danymi telemetrycznymi. Czasami wyglądają tak, jakby były generowane losowo, innym razem nie oddają żadnego stanu, w jakim AACS może się znaleźć.
      Co interesujące, problem z AACS nie uruchomił żadnego z zabezpieczeń, odpowiedzialnych za wprowadzenie Voyagera w stan bezpieczny. W stanie tym pojazd przeprowadzałby tylko niezbędne operacje, dając inżynierom czas na zdiagnozowanie usterki. Jednak nic takiego się nie stało. Co więcej, sygnał z sondy nie stracił na mocy, co wskazuje, że jej antena jest skierowana precyzyjnie w stronę naszej planety.
      Inżynierowie analizują sygnały, próbując się dowiedzieć, czy niezwykłe dane pochodzą bezpośrednio z AACS czy też z innego układu zaangażowanego w wytwarzanie i przesyłanie danych telemetrycznych. W tej chwili specjaliści nie potrafią powiedzieć, czy obserwowane problemy mogą w większym zakresie wpłynąć na Voyagera i czy skrócą czas jego pracy.
      Tajemnice takie jak ta, to na tym etapie część misji Voyager, mówi Suzanne Dodd, odpowiedzialna za Voyagera 1 i Voyagera 2. Oba pojazdy mają niemal 45 lat, pracują znacznie dłużej, niż planowano. Znajdują się też w przestrzeni międzygwiezdnej, w miejscu o wysokim promieniowaniu, w którym nigdy wcześniej nie latał żaden pojazd. Dla zespołu inżynieryjnego to olbrzymie wyzwanie. Myślę jednak, że nasz zespół poradzi sobie z problemem z AACS.
      Pani Dodd nie wyklucza, że problemu nie uda się rozwiązać i trzeba będzie się do tego przyzwyczaić. Jeśli jednak uda się znaleźć jego przyczynę, być może trzeba będzie wprowadzić zmiany w oprogramowaniu lub też użyć jednego z systemów zapasowych Voyagera. Jeśli tak się stanie, to nie będzie to pierwszy raz, gdy Voyager 1 używa systemów zapasowych. W 2014 roku główne silniki pojazdu zaczęły wykazywać oznaki degradacji, więc włączono silniki zapasowe, które wcześniej wykorzystywano podczas przelotów w pobliżu planet. Okazało się, że silniki te działają bez zakłóceń, mimo że nie były używane przez 37 lat.
      Voyager 1 znajduje się obecnie w odległości 23,3 miliarda kilometrów od Ziemi. Światło pokonuje tę drogę w ciągu 20 godzin i 33 minut. By uświadomić sobie, jak olbrzymia to odległość wystarczy pamiętać, że światło ze Słońca na Ziemię biegnie 8 minut.
      Voyager 2 działa normalnie. Znajduje się w odległości 19,5 miliarda kilometrów od Ziemi.
      Oba Voyagery zostały wystrzelone w 1977 roku. Pracują znacznie dłużej niż planowano. Są jedynymi pojazdami wysłanymi przez człowieka, które dotarły do przestrzeni międzygwiezdnej. Dostarczyły nam bezcennych informacji na temat heliosfery, bariery za pomocą której Słońce chroni Układ Słoneczny. Wcale nie było pewne, czy tam dotrą. Przed 12 laty opisywaliśmy obawy związane z dotarciem Voyagera 1 do heliopauzy i spotkaniem z łukiem uderzeniowym.
      Każdego roku możliwość produkcji energii pojazdów zmniejsza się o około 4 waty. Dlatego też przez lata stopniowo wyłączano poszczególne podzespoły, by zapewnić energię dla najważniejszych instrumentów naukowych i niezbędnych systemów. Dzięki przemyślanym działaniom nie wyłączono dotychczas żadnego urządzenia naukowego. Inżynierowie z NASA chcą, by Voyagery pracowały jeszcze w roku 2026.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Jednym z powodów, dla których NASA od wielu lat wspiera rozwój prywatnego przemysłu kosmicznego jest chęć skupienia się na eksploracji dalszych części przestrzeni kosmicznej i pozostawienie w prywatnych rękach wszelkich działań na niskiej orbicie okołoziemskiej. Jednym z takich działań może być zastąpienie przez sieć Starlink starzejącej się konstelacji TDRS (Tracking and Date Relay Satellite), która zapewnia łączność z Międzynarodową Stacją Kosmiczną.
      NASA już ogłosiła, że w przyszłej dekadzie chce wysłać na emeryturę sześć satelitów tworzących TDRS. A teraz poinformowała o zaproszeniu do współpracy sześciu prywatnych firm, w tym amerykańskich SpaceX i Viasat, brytyjskiej Inmarsat oraz szwajcarskiej SES, które mają zaprezentować swoje pomysły na spełnienie przyszłych wymagań NASA dotyczących komunikacji w przestrzeni kosmicznej.
      Pierwsza konstelacja satelitów TDRS pojawiła się na orbicie w latach 80. ubiegłego wieku. Została ona pomyślana jako wsparcie dla misji wahadłowców kosmicznych. Obecna, trzecia generacja satelitów, została wystrzelona w 2017 roku. Zadaniem TDRS jest zapewnienie nieprzerwanej łączności pomiędzy pojazdem znajdującym się na orbicie planety, a naziemnymi centrami kontroli NASA. Obecne TDRS wspiera misję Międzynarodowej Stacji Kosmicznej, Teleskopu Hubble'a i inne misje naukowe.
      Do zapewnienia ciągłej łączności konieczna jest obecność co najmniej trzech satelitów na orbicie geostacjonarnej. Znajduje się ona na wysokości 36 000 kilometrów nad Ziemią, a okres orbitalny satelitów odpowiada okresowi obrotowemu Ziemi, dzięki czemu satelity są zawieszone nad tym samym punktem planety.
      Obecnie TDRS składa się z sześciu działających satelitów, ale trzy z nich to satelity drugiej generacji, liczą sobie ponad 20 lat i zbliża się koniec ich pracy. W latach 80., gdy rozwijaliśmy TDRS, komercyjne firmy nie były w stanie zapewnić takiej usługi. Jednak od tamtego czasu prywatny przemysł zainwestował w dziedzinę łączności satelitarnej znacznie więcej, niż NASA. Istnieje bardzo rozbudowana infrastruktura, zarówno na orbicie jak i na Ziemi, która może dostarczyć potrzebnych nam usług, mówi Eli Naffah, menedżer w wydziale Commercial Services Project, który odpowiada za współpracę NASA z partnerami komercyjnymi.
      Sześć zaproszonych do współpracy firm ma trzy lata na stworzenie systemów, za pomocą których zaprezentują NASA swoje możliwości w zakresie zapewnienia łączności z pojazdem na orbicie okołoziemskiej. Naffah mówi, że może to być wyzwaniem. Dotychczas bowiem komercyjne przedsiębiorstwa zajmujące się komunikacją za pomocą satelitów zapewniały łączność dla stacjonarnych anten naziemnych lub obiektów poruszających się ze stosunkowo niewielką prędkością, jak statki czy samoloty pasażerskie. Tymczasem NASA potrzebuje łączności z obiektami znajdującymi się w przestrzeni kosmicznej, która poruszają się ze znacznymi prędkościami. Międzynarodowa Stacja Kosmiczna okrąża Ziemię z prędkością 28 000 km/h.
      W ciągu najbliższych pięciu lat NASA ma zamiar zainwestować w projekt 278 milionów USD, a komercyjni partnerzy zainwestują w sumie 1,5 miliarda dolarów.
      Mamy nadzieję, że zaoszczędzimy nieco pieniędzy dzięki zakupie komercyjnych usług łączności, zrezygnowania z konieczności rozwoju i utrzymywania własnych satelitów komunikacyjnych i większym skupieniu się na badaniach naukowych i eksploracji kosmosu, dodaje Naffah.
      Rezygnacja z samodzielnego zapewniania łączności z obiektami na orbicie okołoziemskiej to kolejny krok w wycofywaniu się NASA z niskiej orbity okołoziemskiej. Już w tej chwili Agencja kupuje usługi transportowania astronautów i towarów od SpaceX i Northropa Grummana, a jeszcze w bieżącym roku do tej dwójki ma dołączyć Boeing. NASA oświadczyła też, że w roku 2030 wyłączy Międzynarodową Stację Kosmiczną i ma nadzieję, że od tej pory wszelkie prace na niskiej orbicie okołoziemskiej będą spoczywały na barkach prywatnych firm.
       


      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Pomimo trwającej od 2 tygodni rosyjskiej agresji, internet na Ukrainie ciągle działa. Zaskakiwać może, że Kreml, bardzo chętnie korzystający z cyberataków, dotychczas go nie wyłączył. Okazuje się, że na kilka miesięcy przed rosyjską napaścią Stany Zjednoczone zorganizowały tajną misję, w ramach której amerykańscy eksperci pomogli zabezpieczyć ukraińską cyberprzestrzeń.
      Od kilku lat USA pomagają Ukrainie zabezpieczyć sieci komputerowe. Na Ukrainie pracują żołnierze US Army's Cyber Command, niezależni specjaliści opłacani przez Waszyngton oraz eksperci z firm IT. Jednak pod koniec ubiegłego roku wysiłki te zostały wyraźnie zintensyfikowane i skupione na konkretnym zagrożeniu. Media donoszą, że w październiku i listopadzie liczba amerykańskich ekspertów pracujących na Ukrainie uległa nagłemu zwiększeniu. Mieli oni przygotować ukraińskie sieci na spodziewane ataki w obliczu coraz bardziej prawdopodobnej wojny. Misja najwyraźniej się powiodła, gdyż Ukraina ciągle ma łączność ze światem.
      Okazuje się na przykład, że agresor chciał sparaliżować ukraińskie koleje. Amerykanie znaleźli w sieci komputerowej ukraińskich kolei państwowych malware, które pozwalało napastnikom na jej wyłączenie poprzez skasowanie kluczowych plików.
      Niestety, podobne oprogramowanie zostało też zainstalowane – czego Amerykanie nie zauważyli – na komputerach straży granicznej i przeprowadzony cyberatak zwiększył chaos na granicy ukraińsko-rumuńskiej.
      Amerykanie nie ograniczyli się do działań informatycznych. Wiadomo, że we współpracy z ukraińskimi firmami odpowiadającymi za ukraińską sieć szkieletową, budowali dodatkową infrastrukturę, która miała zabezpieczyć najważniejsze potencjalne cele rosyjskich cyberataków.
      W ostatnim tygodniu lutego na sieć ukraińskiej policji i innych agend rządowych przeprowadzono silny atak DDoS. Wiadomo, że w ciągu kilku godzin Amerykanie skontaktowali się z Fortinetem, kalifornijską firmą sprzedającą wirtualne maszyny przeznaczone do przeciwdziałania takim atakom, zdobyli fundusze, w zaledwie 15 minut uzyskali zgodę Departamentu Handlu na transfer technologii i zainstalowali oprogramowanie Fortinetu na komputerach policji. Atak został odparty w ciągu ośmiu godzin od rozpoczęcia.
      Ataki hakerskie są często kierowane przeciwko komercyjnemu oprogramowaniu, a znaczną jego część produkują amerykańskie i europejskie firmy, które teraz poświęcają część swoich zasobów na pomoc Ukrainie. Wiadomo na przykład, że microsoftowe Threat Intelligence Center od wielu miesięcy chroni ukraińskie sieci przed rosyjskimi atakami. Jeszcze 24 lutego, na kilka godzin przez rosyjską napaścią, inżynierowie Microsoftu wykryli nowe szkodliwe oprogramowanie i dokonali jego inżynierii wstecznej. W ciągu trzech godzin udało im się stworzyć łatę i ostrzec ukraińskie władze przed licznymi atakami na wojskowe sieci. O sytuacji powiadomiono Biały Dom, który poprosił Microsoft, by ten podzielił się szczegółami z Polską innymi krajami europejskimi w obawie, że i ich sieci mogły zostać zarażone tym samym kodem. Menedżerowie Microsoftu przyznają, że jeszcze kilka lat temu takie działania zajęłyby całe tygodnie lub miesiące. Teraz wystarczają godziny.
      Amerykańska prasa donosi, że niektórzy z wysokich rangą menedżerów Microsoftu uzyskali szybko certyfikaty bezpieczeństwa i biorą teraz udział w spotkaniach National Security Agency (NSA) i Cyber Command.
      Eksperci obserwujący rozwój wydarzeń w ukraińskiej cyberprzestrzeni, są zdumieni tym, co widzą. Rosja zdobyła sobie reputację kraju, który potrafi skutecznie przeprowadzić silne niszczące cyberataki. Tymczasem od czasu napaści na Ukrainę nie obserwuje się wzmożenia tego typu aktywności. Nie wiadomo, co się stało. Być może Rosjanie próbowali, ale dzięki wzmocnieniu ukraińskiej infrastruktury napotkali na trudności. Na pewno próbowali przejąć facebookowe konta wysokich rangą ukraińskich oficerów i znanych osobistości, by rozpowszechniać fałszywe informacje. Na kontach tych pojawiły się filmy z rzekomo poddającymi się ukraińskimi oddziałami. Facebook zablokował zaatakowane konta i poinformował ich właścicieli.
      Nie można wykluczyć, że Kreml zlekceważył siłę ukraińskiej cyberprzestrzeni podobnie, jak zlekceważył ukraińską armię.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W 2018 roku amerykańscy astronomowie pracujący przy radioteleskopie EDGES w Australii poinformowali o odkryciu sygnału radiowego o szczególnej częstotliwości. Był on znacząco słabszy od innych sygnałów. Wyniki swoich badań opublikowali na łamach Nature, gdzie ogłosili, że znaleziony sygnał pochodzi z narodzin pierwszych gwiazd po Wielkim Wybuchu. Co więcej, dane były inne, niż przewidziane przez teoretyków. Wskazywały one, że wczesny wszechświat był zadziwiająco chłodny. Teoretycy siedli do pracy, by to wyjaśnić, a inne zespoły ruszyły do teleskopów, by potwierdzić istnienie sygnału.
      Wśród tych, którzy postanowili zarejestrować sygnał zauważony przez Amerykanów byli naukowcy z Raman Research Institute w Bangalore w Indiach. Wykorzystali oni radioteleskop SARAS-3. Niewielkie urządzenie pływa na dwóch jeziorach w odległych regionach Indii. Indyjscy naukowcy zebrali dane i przez ostatnie dwa lata szczegółowo je analizowali. Właśnie poinformowali na łamach Nature Astronomy, że w danych nie znaleziono żadnego śladu sygnału, o którym pisali Amerykanie.
      Jeśli tam by coś było, to by to zauważyli, mówi radioastronom Aaron Parsons z Uniwersytetu Kalifornijskiego w Berkeley. Nie ma tutaj zbytnio miejsca na wątpliwości, dodaje uczony, który nie był zaangażowany w żadne z opisywanych badań.
      Judd Bowman, który stoi na czele zespołu badawczego teleskopu EDGES i kierował badaniami sprzed 4 lat dodaje, że konieczne są dalsze prace, by rozstrzygnąć, kto ma rację. Biorąc pod uwagę, jak trudne są tego typu obserwacja, czeka nas sporo pracy. Musimy włączyć te badania w te wciąż prowadzone.
      Zarówno EDGES jak i SARAS usiłowały wykryć emisję pochodzącą z wodoru. Pierwiastek ten w sposób naturalny absorbuje i emituje fale radiowe o długości 21 centymetrów. Na trasie swojej podróży w kierunku Ziemi fale te coraz bardziej się rozciągają. Fale z bardziej odległych chmur wodoru są rozciągnięte bardziej, niż te z chmur bliższych. A topień ich rozciągnięcia świadczy o tym, z jakie odległości – czyli i z jakiego czasu – pochodzą.
      Astronomowie już od ponad 50 lat wykorzystują emisję wodoru do badania pobliskich galaktyk. Jednak dzięki postępowi technologicznemu takie instrumenty jak EDGES i SARAS mogą rejestrować też fale pochodzące z większych odległości, bardziej rozciągnięte, które trudniej jest badać, gdyż zakłócają je naturalne i sztuczne sygnały z Ziemi.
      Gdy atomy wodoru dopiero powstawały po Wielkim Wybuchu, absorbowały i emitowały tyle samo promieniowania o długości fali 21 centymetrów. Przez to chmury wypełniającego wszechświat wodoru były niewidoczne.
      Później zaś nastąpił kosmiczny świt. Promieniowanie ultrafioletowe z pierwszych gwiaz wzbudziło atomy wodoru, przez co mogły one absorbować więcej promieniowania niż pochłaniały. Zjawisko to, obserwowane obecnie z Ziemi, powinno objawiać się nagłym spadkiem jasności fal o określonej długości. Ten spadek wyznacza moment powstania pierwszych gwiazd. Z czasem te pierwsze gwiazdy zapadły się w czarne dziury. Gorący gaz z dysków wokół czarnych dziur emitował promieniowanie rentgenowskie. Podgrzało ono wodór, zwiększając jego emisję w paśmie 21 centymetrów. To zaś objawia się zwiększeniem jasności fal o minimalnie mniejszej długości niż wcześniejsze fale. Wynik netto tych zmian, to spadek jasności w wąskim zakresie fal. Taki właśnie spadek spodziewali się wykryć naukowcy pracujący przy EDGES.
      Znaleźli jednak coś innego. Spadek dotyczyły fal o długości 4 metrów. Analiza takich danych wskazywała, że pierwsze gwiazdy powstały zadziwiająco szybko i szybko doszło do pojawienia się promieniowania X. Co więcej, dane pokazywały też, że wodór we wczesnym wszechświecie był chłodniejszy niż przewidywały teorie.
      Pojawiły się różne próby wyjaśnienia tego zjawiska. Wiadomo też było, że zakłócenia do sygnału może wprowadzać sam radioteleskop i jego konstrukcja. Edges otoczony jest przez duży, 30-metrowy metalowy ekran, który ma blokować emisję radiową pochodzącą z gruntu. Amerykański zespół uwzględnił w swojej pracy możliwość pojawienia się zakłóceń pochodzących z krawędzi tego ekranu. Jednak specjaliści zwracają uwagę, że wystarczy niewielki błąd w korekcie, by w analizie pojawiły się dane nie do odróżnienia od danych rzeczywistych.
      Naukowcy z Bangalore zaprojektowali swój radioteleskop tak, by był on bardziej odporny na zakłócenia. Dodatkowo umieścili go na jeziorze, dzięki czemu zyskali pewność, że w promieniu 100 metrów od teleskopu nie pojawią się żadne odbicia horyzontalne. Sama zaś woda jeziora powodowała, że odbite od dna sygnały biegły wolniej, a dzięki jednorodnej gęstości wody łatwiej modelować całe otoczenie teleskopu i wyławiać z danych fałszywe sygnały.
      Dzięki temu naukowcom pracującym przy SARAS udało się dokładnie przeanalizować całe spektrum wokół fal o długości 4 metrów i stwierdzić, że nie widać w nim żadnego spadku jasności zarejestrowanego przez EDGES.
      Cynthia Chiang, radioastronom z kanadyjskiego McGill University stwierdziła, że oba zespoły naukowe – amerykański i indyjski – bardzo dobrze i ostrożnie przeprowadziły wszelkie prace nad kalibracją urządzeń i analizą danych, dlatego też jest obecnie zbyt wcześnie, by orzekać, który z nich ma rację.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...