Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Eksperymentalny żaglowiec kosmiczny rozwinął żagle i zaczął zbierać energię Słońca, która ma go napędzać podczas podróży w przestrzeni kosmicznej. LightSail 2 to dzieło The Planetary Society. Pojazd został wystrzelony 25 czerwca na pokładzie rakiety Falcon Heavy firmy SpaceX. Właśnie otworzył niewielkie przedziały i rozwinął żagle. Każdy z nich ma grubość 4,5 mikrometra, a łączna powierzchnia żagli wynosi 32 metry kwadratowe.

Gdy fotony ze Słońca trafiają na żagiel, odbijają się od niego, przekazując mu niewielką ilość energii, która popycha pojazd. Siła oddziałująca na żagiel jest niewielka, jedna z czasem pęd będzie się dodawał i zacznie przyspieszać pojazd.

Poprzednikiem obecnego żaglowca był LightSail 1. Rozwinął on żagle w 2015 roku, jednak przed spłonięciem w atmosferze nie wykonał żadnych kontrolowanych manewrów. Teraz ma się to zmienić. LightSail 2 został umieszczony na wyższej orbicie, zatem atmosfera mniej na niego oddziałuje. Ma krążyć nad Ziemią nawet przez rok.

W przyszłości żagle mogą okazać się dobrym napędem dla niewielkich satelitów przemierzających Układ Słoneczny. Nie wymagają one wielkich ilości paliwa, jakie trzeba umieszczać na pokładach tradycyjnych satelitów. Mimo, że żaglowce słoneczne mają niewielkie przyspieszenie to, teoretycznie, z czasem powinny rozpędzać się do imponujących prędkości.

Żagle kosmiczne nie muszą być też napędzane przez Słońce. Pojawiły się propozycje napędzania ich za pomocą promieni laserowych. Dzięki temu pojazdy przyspieszałyby znacznie szybciej, być może na tyle szybko, że udałoby się je wysłać w podróż pomiędzy gwiazdami.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Coś mało ambitnie, dlaczego nie posłali tego np. na Marsa albo gdzieś jeszcze dalej? 

Share this post


Link to post
Share on other sites

Wiesz, może to:

4 godziny temu, KopalniaWiedzy.pl napisał:

łączna powierzchnia żagli wynosi 32 metry kwadratowe.

Już Dooku był większym realistą. ;)

Share this post


Link to post
Share on other sites
19 godzin temu, Jajcenty napisał:

Coś mało ambitnie, dlaczego nie posłali tego np. na Marsa albo gdzieś jeszcze dalej? 

na Marsa nie opłaca się, zanim ten muł rozpędzi się(w tym modelu to raczej niewykonalne) to silnik rakietowy doleci do Marsa,wróci i tak kilka kolejnych rund zrobi.

przy tej powierzchni całość musiałaby ważyć chyba kilka gramów żeby to jakoś latało. Chyba nie ma jeszcze(może nigdy nie będzie) materiałów tak lekkich i wytrzymałych żeby zrobić z nich np. szkielet latawca

Share this post


Link to post
Share on other sites

W stanie nieważkości ten pojad waży całe 0 kg. Do tego prawie próżnia, czyli opory zerowe. Więc o jakim mule piszesz? 

Share this post


Link to post
Share on other sites

Przekazywanie pędu obiektom kosmicznym przy pomocy kwantów energii jest bardzo mało efektywne, gdyż dla fotonów zależność między pędem i energią wynosi: p1 = E/c, gdzie p1: pęd fotonu, E- energia strumienia fotonów, c – prędkość światła. W przypadku masywnych cząstek poruszających się z mniejszymi (nierelatywistycznymi) prędkościami v zależność między pędem i energią tych cząstek można uprościć do wzoru p2 = 2*E/v. Porównując zatem laser napędowy o mocy ciągłej P i napędowy akcelerator elektromagnetyczny (np. protonów)  o tej samej mocy w czasie t wygenerowana zostanie energia E=P*t. Podstawiając do wcześniejszych wzorów E=P*t można wyliczyć, że pęd przekazywany żaglowi  kosmicznemu przez wiązkę protonów z akceleratora będzie większy n=p2/p1 = 2*c/v razy od pędu przekazywanego żaglowi przez światło lasera przy tym samym zużyciu energii zasilania lasera i akceleratora.

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites

Niestety dla mnie masz rację.  Z samego rana oświeciło mnie z tym pędem. Dzięki za szczegółowe i konkretne objaśnienie sprawy. 

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Japoński satelita Tsubame trafił do Księgi Rekordów Guinnessa jako satelita obserwacyjny na najniższej orbicie okołoziemskiej, poinformowała Japońska Agencja Kosmiczna (JAXA). Pomiędzy 23 a 30 września bieżącego roku Tsubame znajdował się na orbicie położonej zaledwie 167,4 kilometra nad powierzchnią planety. Zwykle satelity obserwacyjne znajduje się na wysokości 600–800 kilometrów. Umieszczenie Tsubame na tak niskiej orbicie było częścią testów prowadzonych od grudnia 2017 do października 2019 roku.
      Utrzymanie tak niskiej orbity było możliwe dzięki systemowi silników jonowych i silników odrzutowych opracowanych przez JAXA. Pomimo przyciągania ziemskiego i tarcia atmosferycznego satelita przez tydzień mógł wykonywać zdjęcia w wysokiej rozdzielczości.
      Jako, że utrzymanie tak niskiej orbity wymaga dużych ilości paliwa, do pracy zaprzęgnięto silniki jonowe, które zużywają go 10-krotnie mniej niż silniki odrzutowe.
      Umieszczenie satelity na niskiej orbicie pozwala na wykonanie bardziej szczegółowych fotografii, jednak utrzymanie orbity poniżej 300 kilometrów jest bardzo trudne. Jak poinformowała JAXA, Tsubame był narażony na 1000-krotnie większy opór ze strony atmosfery i skoncentrowanego atmosferycznego tlenu niż satelita umieszczony na standardowej wysokości.
      Agencja stwierdziła również, że materiały opracowane przez nią na potrzeby misji Tsubame wytrzymały oddziaływanie zwiększonych ilości tlenu przez długi czas. Zamierzamy wykorzystać zdobyte doświadczenie na potrzeby rozwoju nauki i technologii, w tym technologii satelitarnych, powiedział Masanori Sasaki, menedżer odpowiedzialny za projekt testów na bardzo niskich orbitach.
      W kwietniu Tsubame osiągnął orbitę na wysokości 271,5 kilometra i był stopniowo obniżany aż do rekordowo niskiej orbity. Po zakończeniu misji spłonął w atmosferze 1 października.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      CHEOPS, pierwszy europejski satelita, którego wyłączonym celem jest badanie planet pozasłonecznych, wystartował przed trzema godzinami z kosmodromu Kourou w Gujanie Francuskiej. W przeciwieństwie do innych tego typu misji CHEOPS (Characterising Exoplanet Satellite) nie będzie szukał nowych planet, ale badał te już znalezione.
      Zadaniem CHEOPSA będzie scharakteryzowanie planet wielkości od Neptuna do Ziemi.
      1. Satelita będzie rejestrował przejścia planet na tle tych gwiazd, o których wiemy, że posiadają układ planetarny. Stosunek sygnału do szumu rejestrowany przez CHEOPSa będzie wynosił 5:1 dla planet wielkości Ziemi o okresie obiegu 50 dni krążących wokół żółtych karłów typu GV (to gwiazdy typu Słońca) o obserwowanej jasności gwiazdowej jaśniejszej od 9. Taki stosunek sygnału do szumu dla tych gwiazd jest wystarczający, by stwierdzić, czy planeta posiada znaczącą atmosferę. CHEOPS powinien więc znaleźć najbardziej obiecujące obiekty badań dla urządzeń wyposażonych w spektroskopy, takich jak Teleskop Kosmiczny Jamesa Webba.
      2. Urządzenie ma dostarczyć precyzyjnych pomiarów średnicy gorących Neptunów krążących wokół gwiazd o magnitudo większym niż 12 i poszukać powiązanych z nimi mniejszych planet. W tym przypadku będą badane pomarańczowe karły (typ K) oraz czerwone karły (typ M). Tutaj czułość CHEOPSA jest większa, a stosunek sygnału do szumu wynosi 30:1, dzięki czemu satelita uściśli pomiary dotyczące rozmiarów planet, a margines błędu nie przekroczy 10%. To pozwoli lepiej opisać strukturę fizyczną gorących Neptunów. Ponadto naukowcy są niemal pewni, że CHEOPS wykryje wokół wspomnianych gwiazd mniejsze planety, których dotychczas nie znamy. Z wcześniejszych obserwacji Teleskopu Keplera wynika bowiem, że około 1/3 gorących Neptunów ma mniejszych towarzyszy. CHEOPS idealnie nadaje się do ich zarejestrowania.
      3. Ostatnim zadaniem CHEOPSa będzie zbadanie modulacji fazy docierających sygnałów związanej z różnicą temperatur pomiędzy dzienną a nocną stroną planety. Badanie takie pozwoli określić przepływy energii w atmosferze.
      CHEOPS nie jest jedynym urządzeniem, którego misja rozpoczęła się wraz z dzisiejszym startem z Kourou. Na pokładzie rakiety znajdował się też satelita OPS-SAT, w którego tworzeniu udział miała polska firma Creotech Instruments. To niewielkie, ważące 6 kilogramów urządzenie ma na swoim pokładzie komputer 10-krotnie potężniejszy niż jakikolwiek inny satelita Europejskiej Agencji Kosmicznej.
      OPS-SAT będzie służył jako laboratorium do testowania pokładowych systemów satelitarnych i technik kontroli misji. Misja jest wyjątkowa, ponieważ jest odpowiedzią na rzeczywistą potrzebę przemysłu kosmicznego, który z jednej strony musi doskonalić swoje procedury i podnosić efektywność misji, a z drugiej, z uwagi na koszty produkcji satelitów i wyniesienia ich na orbitę, nie może ryzykować niepowodzeniem misji przez oparcie ich na eksperymentalnych, nieprzetestowanych w warunkach kosmicznych rozwiązaniach – stwierdził Jacek Kosiec, Prezes Creotech Instruments S.A., spółki która wraz z polskimi partnerami: Centrum Badań Kosmicznych PAN i firmą GMV Polska, odpowiadała za około 1/3 prac projektowych.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Starlink, konstelacja satelitów budowana przez firmę SpaceX, po raz kolejny zakłóciła badania naukowe. Stało się to kilka dni po tym, jak na niską orbitę okołoziemską trafił drugi zestaw satelitów, zwiększając ich liczbę do 120.
      Już po wystrzeleniu pierwszych 60 satelitów naukowcy zauważyli, że są one niezwykle jasne i wyrazili obawę, że realizacja planów SpaceX zakłóci badania astronomiczne. Obecnie na orbicie pracuje mniej niż 5000 satelitów. Tylko część z nich to satelity komunikacyjne, które odbierają i wysyłają sygnały. Konstelacja Starlink ma składać się z 12 000 satelitów, a SpaceX nie jest jedyną firmą, która chce budować takie wielkie konstelacje. Naukowcy zajmujący się badaniem przestrzeni kosmicznej obawiają się, że tysiące nowych satelitów zakłócą badania. Elon Musk zapewniał, że nie będą one miały wpływu na astronomię. Nie wyjaśnił jednak, jakim cudem tysiące satelitów krążących nad naszymi głowami pozostanie bez wpływu na badania naukowe.
      Pomysł Muska po raz kolejny sprawia problemy. We wrześniu Europejska Agencja Kosmiczna poinformowała, że musiała przesunąć jednego ze swoich satelitów naukowych, by uniknąć zderzenia z satelitą Starlink.
      Teraz dowiadujemy się, że przed dwoma dniami satelity SpaceX zakłóciły badania naukowe, a konkretnie pracę Dark Energy Camera (DECam) znajdującej się w Cerro Tololo Inter-American Observatory w północnym Chile. Jestem w szoku. Badania DECam zostały poważnie zakłócone przez 19 satelitów Starlink. Ich przelot w polu widzenia aparatu trwał ponad 5 minut, mówi Clara Martinez-Vazquez.
      Naukowcy opublikowali zdjęcie, na którym widać zakłócenia spowodowane przez satelity. W tym czasie prowadzone były obserwacje w ramach DECam Local Volume Exploration Survey, których zadaniem jest zobrazowanie całego południowego nieba w poszukiwaniu galaktyk zdominowanych przez ciemną materię.
      Zaledwie 20 kilometrów od Cerro Tololo Inter-American Observatory budowane jest Large Synoptic Survey Telescope, olbrzymie obserwatorium, któego zadaniem będzie obserwacja asteroid bliskich Ziemi, badanie supernowych i ciemenj materii. W czerwcu ukazał się dokuemnt, któego autorzy stwierdzili, że Starlink może zakłócić obserwacje.
      Federalna Komisja Komunikacji (FCC) wydała SpaceX zgodę na wystrzelenie 12 000 satelitów Starlink, których celem jest zapewnienie dostępu do internetu na całym świecie. W ubiegłym miesiącu SpaceX opublikowała dokument, z którego wynika, że chce w przyszłości wystrzelić 30 000 kolejnych satelitów.
      SpaceX zapewnia, że pomaluje swoje satelity na czarno, by nie wpływały one na obserwacje astronomiczne i odpowiednio dostosuje ich orbity.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Potężna burza geomagnetyczna, która spowoduje wyłączenia prądu, awarie satelitów i urządzeń elektrycznych jest nie do uniknięcia. Prawdopodobnie tego typu wydarzenia mają miejsce częściej, niż nam się wydaje i, bazując na najnowszych badaniach, można przypuszczać, że takiego uderzenia ze strony Słońca możemy spodziewać się prawdopodobnie w ciągu najbliższych 100 lat. Nikt nie jest jednak w stanie powiedzieć, czy nastąpi ono w następnej dekadzie czy w następnym wieku.
      Jako, że w coraz większym stopniu jesteśmy uzależnieni od technologii, burze gaomagnetyczne – związane z aktywnością Słońca – są coraz groźniejsze dla naszej cywilizacji.
      Już przed 10 laty informowaliśmy o raporcie NASA i Narodowej Akademii Nauk opisującym katastrofalne skutki, jakie mogłaby przynieść burza geomagnetyczna, czyli gwałtowna zmiana pola magnetycznego Ziemi spowodowana koronalnymi wyrzutami masy na Słońcu. Autorzy raportu szacują, że same tylko Stany Zjednoczone poniosłyby w ciągu pierwszego roku straty rzędu 2 bilionów dolarów. Przywrócenie stanu sprzed katastrofy potrwałoby 4-10 lat. Mało prawdopodobne, by nawet tak potężne państwo było w stanie całkowicie się z niej podnieść, informowaliśmy.
      Dotychczas najsilniejszą znaną nam burzą geomagnetyczną była ta z września 1859 roku, kiedy to zorza polarna była widoczna na Karaibach, doszło do awarii sieci telegraficznych i pożarów. Sądzono jednak, że tak silne wydarzenia mają miejsce raz na 500 lat. Okazuje się jednak, że zdarzają się znacznie częściej.
      Jeffrey Love i jego koledzy ze Służby Geologicznej Stanów Zjednoczonych informują na łamach Space Weather o wynikach analizy, jakiej poddali New York Railroad Storm, burzę magnetyczną z 1921 roku.
      Tego typu wydarzenia ocenia się według skali Dst (disturbance short time). To skala oceny uśrednionej aktywności pola magnetycznego Ziemi. Jeśli ulega ono osłabieniu, a tak się dzieje przy koronalnych wyrzutach masy ze Słońca, pojawiają się na niej wartości ujemne. Wartość bazowa Dst Ziemi wynosi około -20 nanotesli (nT). Wartości poniżej -250 nT są uznawane za superburzę.
      Naukowcy dysponują bardzo ograniczonym zestawem danych dotyczących burzy z 1859 roku i na tej podstawie uznają, że w tym czasie Dst wynosiło pomiędzy -850 a -1050 nT. Tymczasem, jak wynika z badań Love'a i jego zespołu, Dst podczas burzy z 1921 roku wynosiło około -907 nT. Burza z roku 1921 mogła być bardziej intensywna niż ta z roku 1859. Zanim przeprowadziliśmy badania wiedziano, że było to gwałtowne zjawisko, jednak nie wiedziano, do jakiego stopnia.
      Pomiary historycznych burz geomagnetycznych nie są proste. Obecnie dysponujemy całym szeregiem instrumentów monitorujących, jednak nasza wiedza od wydarzeniach sprzed roku 1957, kiedy to pojawił się indeks Dst, jest bardzo uboga, a dane opierają się na informacjach z różnych magnetometrów rozmieszczonych na całym świecie. Przed badaniami Love'a cała nasza wiedza o burzy z 1921 roku była oparta na danych z jednego obserwatorium na Samoa. Jednak autorom najnowszej analizy udało się dotrzeć do notatek wykonanych przez specjalistów z Australii, Hiszpanii i Brazylii. Dzięki temu mogli ocenić intensywność tego wydarzenia bardziej precyzyjnie niż wcześniej. Ich wyliczenia są też bardziej precyzyjne niż te, dotyczące burzy z 1859 roku, które opierają się na daych z jednego magnetometru w Indiach.
      Burza z 1921 roku została nazwana New York Railroad Storm od pożaru kolejowej wieży kontrolnej w Nowym Jorku, który wówczas wybuchł. Obecnie wiemy, że dowody na związek pomiędzy burzą, a tym pożarem są słabe. Jednak wiemy również, że tego samego dnia wybuchły też trzy inne wielkie pożary, które dotychczas przeoczono. Do jednego z nich doszło w wyniku pojawienia się silnych prądów indukcyjnych w telegrafach na stacji kolejowej w Brewster w stanie Nowy Jork. Stacja całkowicie spłonęła. Drugi z pożarów zniszczył centralę telefoniczną w Karlstad w Szwecji, a trzeci wybuchł w Ontario.
      Wiemy też, że burza ta przebiegła dwuetapowo. W Karlstad operatorzy centrali najpierw informowali o awarii i dymie. A gdy dym się rozwiał, nastąpił nagły pożar okablowania. Autorzy najnowszych badań dotarli tez do zapisków wskazujących, że zorzę polarną obserwowano wówczas na Samoa, w Arizonie i w pobliżu Paryża, a do awarii sieci telegraficznych i telefonicznych doszło w Wielkiej Brytanii, Nowej Zelandii, Danii, Japonii, Brazylii i Kanadzie. Wszystko zaś wskazuje na to, że mieliśmy do czynienia z wydarzeniem o średniej intensywności, które w ciągu kilku godzin znacznie się wzmocniło, powodując liczne problemy.
      Gdyby taka burza jak w 1921 roku miała miejsce dzisiaj, doszłoby to zakłócenia pracy wielu systemów. Doświadczylibyśmy wyłączeń prądu, awarii sieci telekomunikacyjnych, być może utraty niektórych satelitów. Nie twierdzę, że byłby to koniec świata, ale doszłoby do zniszczeń na wielką skalę, stwierdza Love.

      « powrót do artykułu
×
×
  • Create New...