Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Silniki dla SLS gotowe do misji na Księżyc

Rekomendowane odpowiedzi

Zgadza się, jeśli chodzi o cenę, to pojedynczy lot Saturna V kosztował ponad 1 mld dolarów (https://en.wikipedia.org/wiki/Saturn_V). Jednak trzeba guglować zanim się coś napisze, mea culpa ;)

Edytowane przez darekp

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Generalnie wszyscy maja rację po trochu. 10x taniej nie jest, ale jednak jest, zwłaszcza, że nowe technologie pozwalają na odzyskiwanie części rakiet. Pytanie, czy gdyby nie znalazł się ktoś kto rozruszał towarzystwo (Musk) to byłoby to teraz możliwe?

Mimo, że koszt rozwoju silników rakietowych to nie jedyny koszt misji kosmicznych to czekanie na lepsze technologie opłaca się jednak tylko trochę, I znowu, przynajmniej na razie. Kto wie czy dzięki komputerom kwantowym, dostępnych przemysłowo z "rozsądną" liczbą kubitów, które spodziewane są około 2023 (to już tylko 4 lata!) nie uda się opracować np. nowych materiałów, a wraz z nimi np. windy kosmicznej? Ma ktoś kryształową kulę? :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 10.04.2019 o 14:59, radar napisał:

Byzydura... i nie dlatego, że to nieprawda, tylko dlatego, że to błędny wniosek.

Nie, to nie jest błędny wniosek. Wyścig kosmiczny był prowadzony przez ludzi ukształtowanych przez wojnę. Choćby Kennedy'ego - miał piękną kartę bojową.

Pokolenie mało konformistyczne, pracowite i skłonne  do ryzyka oraz entuzjastycznie nastawione do programu kosmicznego. Przeglądając sylwetki konstruktorów, pilotów, astronautów, można dojść do takiego wniosku.

W dniu 10.04.2019 o 14:59, radar napisał:

To był wyścig zbrojeń (głównie, nie można było pozwolić przeciwnikowi odkryć czegoś co mógłby wykorzystać przeciwko nam, a my tego nie mamy) i propagandowy. Nauka była wtedy też głównie podporządkowana zastosowaniom militarnym, więc... nie żałowano kasy i podejmowano, często niepotrzebne, ryzyko. Tyle.

 

Wyścig kosmiczny. Częściowo był składową wyścigu zbrojeń. Nie zapominajmy, że Eisenhower prowadzenie wyścigu zlecił cywilnej agencji - NASA. Wg. Toma Wolfa, autora bestselerowej "S-kadry", wywołało to szok i oburzenie wojska, które to miało  zaowocować "niezależnym"  programem Dyna-Soar i planem  budowy bojowej stacji kosmicznej. Częścią tego programu miał być X-15, bez którego pewnie nie byłoby wahadłowców. W rzeczywistości to wszystko było dużo bardziej skomplikowane - oba środowiska, wojskowe i cywilno- naukowe przenikały się nawzajem, można powiedzieć, że na  wyścig składały się  działania  hybrydowe (wojskowo-cywilne) i całkowicie od siebie uzależnione. 

Weźmy na przykład Neila Armstronga, jedną z czołowych postaci programu Apollo, Gemini, X-15. Był świetnym inżynierem wykształconym na cywilnej uczelni, ale ukształtowany  przez trudy służby w lotnictwie US Navy i służby frontowej w Korei. Jako cywil, pracował dla cywilnej agencji latając wojskowymi samolotami i pracując przy projektach z których i wojsko i cywilna agencja  miały korzystać. Z czasem te drogi się rozeszły - w załogowej i międzyplanetarnej eksploracji Kosmosu, górę wzięły cele naukowe. 

Ps. Na chwilę obecną to jednak  wojsko może bardzo przysłużyć się załogowej eksploracji kosmosu. Wojskowa agencja DARPA zabrała się za budowę silnika nuklearnego. NASA topiła miliardy w SLS, tymczasem na badanie nad termicznym silnikiem nuklearnym przeznaczała raptem 7 mln $ rocznie. Śmiesznie mało. DARPA ciągnie swoje programy do końca. Oby wreszcie coś wyszło, bo bez atomu nie bardzo wyobrażam sobie podróż i pobyt na Marsie. 

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Naukowcy z Uniwersytetów w Bath i Bristolu nie tylko wykazali, że ich technologia Fastball EEG jest w stanie wykryć wczesne oznaki choroby Alzheimera na całe lata przed czasem, w którym możliwa jest diagnoza kliniczna, ale również, że kilkuminutowy test można łatwo przeprowadzić w domu pacjenta. To zaś daje możliwość wykonywania szeroko zakrojonych badań przesiewowych.
      Podczas krótkiego, zaledwie 3-minutowego badania za pomocą Fastball EEG, rejestrowana jest aktywność mózgu w czasie, czy uczestnik badania ogląda obrazki. W ten sposób można zidentyfikować osoby z łagodnym zaburzeniem poznawczym (MCI). To stan przejściowy pomiędzy naturalnymi skutkami starzenia się, który może prowadzić do rozwoju alzheimera.
      Obecnie dysponujemy dobrymi lekami spowalniającymi postępy choroby Alzheimera. Jednak ich skuteczność zależy od wczesnego podania. Dlatego niezwykle ważne są metody pozwalające na jak najwcześniejsze zidentyfikowanie pierwszych sygnałów mogących prowadzić do tej choroby. Obecnie w wielu przypadkach chorzy otrzymują diagnozę na tyle późno, że stosowanie najbardziej efektywnych form leczenia staje się nieskuteczne.
      Doktor George Stothart z Wydziału Psychologii Uniwersytetu w Bath mówi, że obecnie stosowane narzędzia diagnostyczne wyłapują chorobę Alzheimera na 10 do 20 lat po tym, jak zaczyna się ona rozwijać. Szybki pasywny test Fastball może to zmienić, dostarczając obiektywną diagnozę znacznie wcześniej, stwierdza uczony. Nowa technika działa wyłącznie dzięki rejestrowaniu fal mózgowych w reakcji na oglądane obrazki. Nie wymaga od osoby badanej przestrzegania jakichś instrukcji, czy przypominania sobie czegoś. Dzięki temu test jest bardziej obiektywny i łatwiejszy do przeprowadzenia, niż tradycyjne testy pamięciowe.
      Badania omówiono na łamach Brain Communications.


      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Łaziki pracujące na Marsie czy Księżycu, mierzą się z wieloma problemami. Jednym z nich jest ryzyko utknięcia w grząskim gruncie. Gdy tak się stanie operatorzy podejmują serię delikatnych manewrów, by pojazd wydobyć. Nie zawsze się to udaje. Łazik Spirit zakończył misję jako stacjonarna platforma badawcza po tym, jak utknął w luźnym piasku. Czy takim wydarzeniom da się zapobiec? Inżynierowie z University of Wisconsin-Madison informują o znalezieniu poważnego błędu w procedurach testowania łazików. Jego usunięcie może spowodować, że pojazdy na Marsie i Księżycu będą narażone na mniejsze ryzyko.
      Błąd ten polega na przyjęciu zbyt optymistycznych i uproszczonych założeń co do tego, jak łaziki zachowują się poza Ziemią. Ważnym elementem testów naziemnych takich pojazdów jest sprawdzenie, w jaki sposób mogą się one poruszać po luźnym podłożu. Na Księżycu grawitacja jest 6-krotnie mniejsza niż na Ziemi, więc przez dekady, testując łaziki, naukowcy tworzyli prototypy o masie sześciokrotnie mniejszej niż łazik docelowy i testowali je na pustyni. Jednak ta metoda pomijała pewien istotny szczegół – wpływ grawitacji na piasek.
      Profesor Dan Negrut i jego zespół przeprowadzili symulacje, które wykazały, że Ziemia przyciąga ziarenka piasku silniej niż Mars czy Księżyc. Dzięki temu piasek na Ziemi jest bardziej zwarty. Jest mniejsze prawdopodobieństwo, że ziarna będą się pod nimi przesuwały. Jednak na Księżycu piasek jest luźniejszy, łatwiej się przemieszcza, więc obracające się koła trafiają na mniejszy opór. Przez to pojazdowi trudniej się w nim poruszać.
      Jeśli chcemy sprawdzić, jak łazik będzie sobie radził na Księżycu, musimy rozważać nie tylko wpływ grawitacji na pojazd, ale również wpływ grawitacji na piasek. Nasze badania pokazują, jak ważne są symulacje do badania możliwości jezdnych łazika na luźnym podłożu, wyjaśnia uczony.
      Uczeni dokonali swojego odkrycia podczas prac związanych z misją łazika VIPER, który ma trafić na Księżyc. We współpracy z naukowcami z Włoch stworzyli silnik Chrono, służący do symulacji zjawisk fizycznych, który pozwala na szybkie modelowanie złożonych systemów mechanicznych. I zauważyli istotne różnice pomiędzy wynikami testów VIPERA na Ziemi, a wynikami symulacji. Po przeanalizowaniu problemu znaleźli wspomniany błąd w procedurach testowych.
      Chrono to produkt opensource'owy, z którego skorzystały już setki firm i organizacji. Pozwala on lepiej zrozumieć najróżniejsze złożone mechanizmy, od mechanicznych zegarków po czołgi jeżdżące poza utwardzonymi drogami.
      Źródło: A Study Demonstrating That Using Gravitational Offset to Prepare Extraterrestrial Mobility Missions Is Misleading

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Niedawno astronomowie usłyszeli głos z kosmicznych zaświatów. Potężny krótkotrwały impuls na chwilę przyćmił wszystkie źródła sygnałów radiowych. Clancy James z australijskiego Curtin University i jego zespół skanowali nieboskłon za pomocą Australian Square Kilometre Array Pathfinder (ASKAP) – zestawu 36 radioteleskopów znajdujących się w Zachodniej Australii – odebrali krótki, bardzo silny sygnał. 
      Niezwykle podekscytowani stwierdzili, być może odkryli nowy pulsar lub inny obiekt, a że źródło sygnału  wydawało się pochodzić z naszej galaktyki, stwierdzili, że nowy obiekt powinien być widoczny za pomocą teleskopów optycznych. Jednak gdy bardziej szczegółowo przeanalizowali sygnał okazało się, że jego źródło było tak blisko, iż ASKAP nie skupić na nim jednocześnie wszystkich swoich anten. A to oznaczało, że źródło sygnału musi znajdować się mniej niż 20 tysięcy kilometrów od Ziemi. Impuls trwał zaledwie 30 nanosekund i przez tę chwilę silniejszy, niż wszystko inne rejestrowane za pomocą radioteleskopów.
      Gdy Australijczycy przeanalizowali pozycję źródła sygnału i porównali ją z pozycjami wszystkich znanych satelitów okazało się, że jedynym możliwym źródłem sygnału jest Relay 2. To jeden z pierwszych satelitów w historii. Został wystrzelony w 1964 roku i służył NASA jako eksperymentalne urządzenie komunikacyjne. Agencja przestała używać Relay 2 już w 1965 roku, natomiast pokładowa elektronika satelity działała do roku 1967. Wówczas Relay 2 zamilkł i od tej pory krąży wokół Ziemi jako bezwładny kawałek metalu.
      Teraz, po niemal 60 latach satelita znowu wysłał sygnał. Jednak jego urządzenie nie działają, więc źródłem sygnału musiały być czynniki zewnętrzne. Clancy i jego koledzy sądzą, że albo na powierzchni satelity zebrały się ładunki elektrostatyczne i doszło do wyładowania, albo uderzył w niego mikrometeoryt, który wywołał pojawienie się chmury plazmy. Sygnały z obu tych wydarzeń wyglądają podobnie, więc trudno byłoby je odróżnić. Przede wszystkim ktoś musiałby chcieć przeprowadzić takie badania. Tylko po co?
      Źródło: A nanosecond-duration radio pulse originating from the defunct Relay 2 satellite, https://arxiv.org/abs/2506.11462

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Teleskop Kosmiczny Nancy Grace Roman przeszedł niezwykle ważny test wibracyjny. Symulowano podczas niego warunki, jakie będą panowały podczas wystrzeliwania teleskopu w przestrzeń kosmiczną, by upewnić się, że urządzenie przetrzyma podróż. Taki test jest jak dość silne trzęsienie ziemi, jednak z pewnymi różnicami. W przeciwieństwie do trzęsienia ziemi, poszczególnie częstotliwości wstrząsów są aplikowane jedna po drugiej. Rozpoczynamy od wstrząsów o niskiej amplitudzie i przechodzimy do coraz wyższych, a po drodze wszystko sprawdzamy. To bardzo skomplikowany proces, mówi Cory Powell, analityk NASA odpowiedzialny za integralność strukturalną teleskopu.
      Podczas testu symulowano siły o 25% większe, niż te, które będą oddziaływały na teleskop w czasie startu. Po teście teleskop został przewieziony do clean roomu, gdzie zostanie szczegółowo zbadany. Badania mają potwierdzić, że wyszedł z testu bez szwanku i można montować na nim antenę nadawczo-odbiorczą. Kolejnym ważnym testem będzie sprawdzenie całej elektroniki, następnie urządzenie zostanie poddane testom termicznym w warunkach obniżonego ciśnienia. Sprawdzą one, czy urządzenia przetrwają warunki panujące w kosmosie.
      Jeśli wszystko pójdzie zgodnie z planem, w listopadzie rozpocznie się proces składania całego teleskopu. Przed końcem roku ma on przejść ostateczne testy. Jego wystrzelenie planowane jest na maj 2027, ale pracujący przy nim zespół chce, by urządzenie było gotowe do startu już jesienią przyszłego roku.
      Grace Nancy Roman Space Telescope to urządzenie pracujące w podczerwieni. Powstał dzięki niezwykłemu prezentowi od Narodowego Biura Rozpoznania, które przed laty przekazało NASA... dwa nieużywane teleskopy kosmiczne klasy Hubble'a. Teleskop Roman dostarczy równie wyraźnych obrazów co Hubble, jednak jego pole widzenia jest 100-razy większe. Dzięki temu praca, którą Hubble wykonuje w 650 godzin, Teleskop Roman wykona w 3 godziny.
      Celem jego misji naukowej będzie badanie ciemnej materii – ma to robić za pomocą trzech niezależnych technik: badania barionowych oscylacji akustycznych, odległych supernowych oraz słabego soczewkowania grawitacyjnego – poszukiwanie planet pozasłonecznych, bezpośrednie obrazowanie planet pozasłonecznych i wykrywanie pierwotnych czarnych dziur.
      Podstawowa misja naukowa teleskopu planowana jest na 5 lat. Można jednak przypuszczać, że – podobnie jak w przypadku wielu innych misji – teleskop będzie w na tyle dobrym stanie, że zostanie ona przedłużona.


      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Inżynierowie misji Voyager wyłączyli niedawno CRS (Cosmic Ray Subsystem) na Voyagerze 1, a za dwa tygodnie wyłączą Low-Energy Charged Particle (LECP) na Voyagerze 2. Instrumenty, jak można domyślić się z ich nazw, odpowiadają za badanie promieniowania kosmicznego oraz niskoenergetycznych jonów. Po wyłączeniu wspomnianych urządzeń na każdej z sond będzą działały po 3 instrumenty naukowe. Odłączanie instrumentów ma na celu zaoszczędzenie energii i przedłużenie czasu działania sond – jedynych wysłanych przez człowieka obiektów, które opuściły Układ Słoneczny.
      Voyagery zasilane są przez radioizotopowe generatory termoelektryczne, generujące energię z rozpadu dwutlenku plutonu-238. Początkowo generatory wytwarzały energię o mocy około 475 W, jednak w miarę zużywania się paliwa tracą rocznie około 4,3 W. W przestrzeni kosmicznej przebywają już od 48 lat. Sposobem na poradzenie sobie ze zmniejszaniem mocy, jest wyłączanie kolejnych instrumentów. Jeśli byśmy nie wyłączali instrumentów, Voyagerom zostałoby prawdopodobnie kilka miesięcy pracy, mówi Suzanne Dodd.
      Na pokładzie każdej z sond znajduje się 10 identycznych instrumentów naukowych. Zadaniem części z nich było zabranie danych z gazowych olbrzymów Układu Słonecznego, zostały więc wyłączone zaraz po tym, jak sondy skończyły badania tych planet. Włączone zostały te instrumenty, które naukowcy uznali za potrzebne do zbadania heliosfery i przstrzeni międzygwiezdnej. Voyager 1 dotarł do krawędzi heliosfery w 2012 roku, Voyager 2 – w roku 2018.
      W październiku ubiegłego roku na Voyagerze 2 wyłączono instrument badający ilość plazmy i kierunek jej ruchu. W ostatnich latach instrument ten zebrał niedużą ilość danych, gdyż jest zorientowany w kierunku przepływu plazmy w ośrodku międzygwiezdnym. Voyager 1 przestał badać plazmę wiele lat temu, ze względu na spadającą wydajność urządzenia.
      Wyłączony właśnie CRS na Voyagerze 1 to zestaw trzech teleskopów badających m.in. protony z przestrzeni międzygwiezdnej i Słońca. Dane te pozwoliły określić, w którym miejscu i kiedy Voyager 1 opuścił heliosferę. LECP na Voyagerze 2, który ma zostać wkrótce wyłączony, bada różne jony, elektrony i promieniowanie kosmiczne zarówno z Układu Słonecznego, jak i spoza niego.
      Oba instrumenty wykorzystują obracające się platformy, mogą więc prowadzić badania w promieniu 360 stopni. Platformy wyposażono w silniki krokowe, które o obracały je co 192 sekundy. Na Ziemi platformy zostały przetestowane na 500 000 kroków. Tyle, ile potrzeba było, by misje doleciały do Saturna. Okazały się jednak znacznie bardziej wytrzymałe. Mają za sobą już ponad 8,5 miliona kroków.
      Voyagery miały zbadać zewnętrzne planety Układu Słonecznego i już dawno przekroczyły przewidywany czas działania. Każdy bit dodatkowych danych, które od tej pory udało się zebrać, to nie tylko wartościowa informacja dla heliofizyki, ale też świadectwo niezwykłych osiągnięć inżynieryjnych, stwierdza Patrick Koehn, odpowiedzialny za program naukowy Voyagerów.
      Inżynierowie NASA starają się, by instrumenty naukowe na sondach działały jak najdłużej, gdyż dostarczają unikatowych danych. W tak dalekich regionach kosmosu nie pracował jeszcze żaden instrument i przez najbliższe dziesięciolecia żaden nowy nie zostanie tam wysłany.
      Wyłączenie wspomnianych urządzeń oznacza, że sondy będą miały wystarczająco dużo energii, by działać przez około rok, zanim zajdzie konieczność wyłączenia następnych urządzeń. W tej chwili na Voyagerze 1 pracuje magnetometr i Plasma Wave Subsystem (PWS), odpowiedzialny za badanie gęstości elektronowej. Działa też LECP, który zostanie wyłączony w przyszłym roku. Na Voyagerze 2 działają zaś – nie licząc LECP, który wkrótce będzie wyłączony – magnetometr, PWS oraz CRS. W przyszłym roku inżynierowie wyłączą ten ostatni.
      Eksperci z NASA mają nadzieję, że dzięki tego typu działaniom jeszcze w latach 30. bieżącego wieku na każdym z Voyagerów będzie pracował jeszcze co najmniej 1 instrument naukowy. Czy tak się stanie, tego nie wiadomo. Trzeba pamiętać, że obie sondy od dziesięcioleci ulegają powolnej degradacji w surowym środowisku pozaziemskim.
      Obecnie Voyager 1 znajduje się w odległości ponad 25 miliardów kilometrów od Ziemi, a do Voyagera 2 dzieli nas 21 miliardów km. Sygnał radiowy do pierwszego z nich biegnie ponad 23 godziny, do drugiego – 19,5 godziny.
      W każdej minucie każdego dnia Voyagery badają zupełnie nieznane nam regiony, dodaje Linda Spilker z Jet Propulsion Laboratory. Oba pojazdy można na bieżąco śledzić na stronach NASA.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...