Skocz do zawartości
Forum Kopalni Wiedzy

rahl

Użytkownicy
  • Liczba zawartości

    507
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    11

Odpowiedzi dodane przez rahl


  1. Nie mniej jednak jak trzeba to się tak robi:

    http://images.gildia.pl/nauka/news/2006/01/pluton1/w200

     

    Robi się, ale nie jest to łatwe bez atmosfery rakieta mogła by to wyglądać tak:

    1024px-Altair-Lander_%28latest%29.jpg

     

     

    Ja wiem, że to nie jest łatwo i tanio, ale wydaje się setki milionów jeśli nie miliardy na opracowywanie od nowa czegoś co działało. Można i trzeba unowocześniać konstrukcję, ale opóźniać o kilkanaście lat misje załogowe, bo "trzeba zbudować odpowiednią rakietę" to wydaje się... nieodpowiednie.

    No właśnie w tym problem, że przeróbka jest droższa i bardziej problematyczna niż budowa nowego silnika/rakiety od podstaw. Z kilku względów:

    1.Druk 3D - pozwala budować wiele elementów w całości i wyklucza użycie tradycyjnie budowanych komponentów

    2.Nowe i ulepszone materiały - patrz pkt.1

    3.Znacznie bardziej zaawansowane metody kontroli i sterowania.

    4.Lepsze rozumienie fizyki i chemii pracy silników rakietowych, szczególnie dzięki zaawansowanemu modelowaniu, które nie było dostępne w latach 60 ubiegłego wieku.

    Pewnie jest jeszcze kilka innych, ale te są całkiem oczywiste.

     

     

    chyba nie. Problemem jest to, że tak naprawdę rzucamy kamieniem więc musimy przeskoczyć I kosmiczną i pojawia się problem tarcia. Gdybyśmy mieli silnik jonowy na pedały z ciągiem 1,1kN, to zajęłoby mi ze 20 minut dotarcie na setny kilometr, ale ani przez chwilę nie miałbym problemu z tarciem. To jednak odległość od środka masy determinuje energię a przez to koszt. Przy okazji: dlaczego nie budujemy kosmodromów w Tybecie? Start z Mount Everest zaoszczędziłby nam jakieś 9% drogi i jakieś 70% tarcia.

    A jednak siedzimy głęboko w... studni.

     

    edit: "zajęłoby mi ze 20 minut dotarcie na setny kilometr,"

     

    fcuk, wielokrotnie dłużej ze względu na znikomą moc Jajcentego.

    No właśnie z tym napędem o wystarczającym ciągu jest największy problem - nie posiadamy czegoś takiego.

    Obecność atmosfery wymusza taki a nie inny kształt rakiet, znacząco podnosi ich masę (osłony termiczne i aerodynamiczne) oraz powoduje całą grupę innych problemów, które mają największy wpływ na potencjalne problemy przy starcie:

    1.Starty są wykonywane tylko przy korzystnych warunkach pogodowych - da się startować przy niekorzystnych ale wnosi to niepotrzebny element ryzyka

    2.Max Q - często określany jako najbardziej krytyczny moment przy starcie

    3.Tarcie aerodynamiczne - stąd osłony termiczne przy elementach które wracają na ziemię.


  2. Jednorazowość. Dopiero Spacex zaczyna odzyskiwać pierwszy stopień, wszystkie inne też są jednorazowe, ale przy obecnym poziomie techniki, dałoby się chyba odzyskiwać?

    No właśnie i tutaj jest problem, który wiele osób pomija. Przerobienie rakiety z jednorazowej na wielorazową to nie tylko kwestia terminologii, ale zasadniczo to dwie całkowicie różne koncepcje silnika, sterowania, zasilania paliwem itp.

     

    Koszt, rozumiem, ale wynikało to z małej liczby startów, braku automatyzacji produkcji, komputeryzacji etc. etc. Inżynieria materiałowa, symulacje komputerowe, etc. etc. To właśnie coś czego nie rozumiem, skoro przy mniejszych rakietach tak bardzo trzeba kombinować z ładunkiem, a to się musi składać, rozkładać, nie może być za ciężkie, za szerokie, a to a tamto.

    Automatyzacja robi właśnie dużą różnicę, ale także zmienia sposób produkcji silnika, przy druku 3D (a takiej technologii używa SpaceX), można ominąć wiele ograniczeń jakie narzucał system montażowy - co zmienia w bardzo znaczący sposób jego konstrukcję. Kombinowanie z ładunkiem wynika tylko i wyłącznie z ograniczeń przestrzennych i stosunku masy. Bardzo trudno wpakować na rakietę obiekt o średnicy większej niż cześć napędowa rakiety (ograniczenia aerodynamiczne).

     

     

    Z tym "łatwiej było opracować" to też tak sobie, skoro tamte nie miały  żadnej awarii, a obecne w dalszym ciągu zagrożone są awarią dużo bardziej to czego się niby nauczyliśmy?

     

    Na innych stronach, anglojęzycznych, podnosi się też argument, że nie mamy już planów rakiety, poddostawców, inżynierowie pomarli etc., ale tu też dziwi mnie, że przy obecnym stanie techniki, reverse engineering, skanery 3D, etc. Ile czasu zajęłoby odtworzenie szczegółowych planów silnika i całej rakiety? I ile kasy? Nie mniej czasem niż opracowywanie (trwające latami) ciągle nowych "bubli"?

     

    W całym tym poście chodzi mi o jedno, czy inżynieria rakietowa (budowy rakiet) nie próbuje czasem wymyślać koła na nowo?

    Znowu wracamy do punktu pierwszego czyli różnicy miedzy rakietą jednorazową a wielorazową. Przeróbka "sprawdzonej" jednorazówki wiąże się ze znacznie większym nakładem pracy i środków niż budowa nowej wielorazówki niż to się wydaje na pierwszy rzut oka.

     

     

    P.S. W literaturze i terminologii popularnej dominuje termin "wydostanie się ze studni grawitacyjnej" i w to najczęściej w sposób nieświadomy zabarwia nasze myślenie. Ale w naszym przypadku grawitacja to pikuś, najwięcej problemów sprawia atmosfera.


  3. Głównie dwie cechy:

    - koszt (około 1mld obecnych $/start)

    - jednorazowość.

    Łatwiej i znacznie taniej było opracować nowy pojazd, opierając się oczywiście na doświadczeniach zdobytych podczas startów poprzedników (Musk jeździł wszędzie gdzie go wpuścili zanim rozpoczął pracę nad pierwszymi rakietami)

     

    P.S. Poza tym co byś chciał przerabiać w jednorazowej rakiecie ?  Kupę złomu jaką wyłowili z morza ?  :P


  4. Jedynym rozwiązaniem dla takiej podróży jest dokonanie przełomu w kwestii stworzenia samowystarczalnego zamkniętego ekosystemu wewnątrz statku oraz dowolnego przedłużenia ludzkiego życia. Taki statek mógłby lecieć nawet milion lat. I teraz pytanie - dlaczego żaden taki statek nie odwiedził naszego układu?

    A gdzie tam jest napisane o misji załogowej. Poza tym skąd wiesz, że nie odwiedził ? Nasze zapisy historyczne mają raptem kilka tysięcy lat.


  5. Plany ambitne, ale wydaje mi się, że są raczej próbą odpowiedzi NASA na projekty typu Breakthrough Starshot niż prawdziwym projektem naukowym.

     

    p.s. Do 2069r Proxima będzie trochę bliżej do naszego układu słonecznego.

    p.s.2 Do tego też roku zapewne będziemy mieli teleskopy, które pozwolą dokładnie zobaczyć wszystkie planety i stwierdzić brak lub obecność życia.


  6. trochę bez sensu, bo przecież takie misje naprawcze nie będą za darmo. Lepiej wydać pieniądze na etapie projektu i budowy np. satelity żeby zwiększyć jej bezawaryjność. Poza tym takie misje jedynie miałyby sens dla sprzętu nowego, już kilkuletnie satelity są przestarzałe technologiczne i lepiej zrobić coś nowego lepszego, tańszego niż ładować kasę w reanimację trupa. Wyjątkiem mogą być teleskopy gdzie elektronikę do nich można zrobić w 1 dzień, a optykę trzeba miesiącami polerować. Tylko ile takich teleskopów lata i jak często się psują? Ten projekt mógłby latami czekać na pierwszą swoją akcję

    Właśnie bez sensu jest podejście jakie proponujesz - obniżanie awaryjności/wydłużanie pracy bezobsługowej to właśnie największa część kosztów satelitów, przeciętny satelita telekomunikacyjny ma podobny poziom komplikacji co odpowiadająca mu stacja naziemna, ale kosztuje kilkadziesiąt razy więcej (nie licząc kosztów wyniesienia na orbitę). Jeśli będzie można będzie względnie łatwo je naprawiać/serwisować to same satelity będą znacznie tańsze, możliwa będzie konstrukcja modułowa co jeszcze bardziej ułatwi serwis i pozwoli na dalsze obniżenie kosztów przez uniformizację modułów.


  7. I to jest pomysł, który może mieć prawdziwy sukces komercyjny oraz popchnie mocno rozwój branży kosmicznej. Aby to urzeczywistnić trzeba spełnić dwa wymogi:

    1.Minimalizacja kosztów wejścia na LEO/GTO/GSO (patrz SpaceX)

    2.Stworzenie orbitalnej stacji serwisowej, gdyż mogę się założyć, że spora część napraw będzie jeszcze przez długie lata wymagała bezpośredniej ludzkiej ingerencji, poza tym łatwiej będzie zawieźć na stację np. duży transport paliwa i dopiero z niej rozprowadzać je do poszczególnych satelitów. 


  8. Nie sądzę aby spece pracujący na szczycie działu inżynierskiego o skali VW dali się tak łatwo wpędzić w kozi róg, fachowcy na tym poziomie mogą sami wypisywać czeki gdziekolwiek pójdą, więc raczej taka presja to im "rybka", ktokolwiek tam to zrobił nie może się wykręcić działaniem pod presją. I pamiętaj, że to nie oni zebrali gorzkie żniwo na końcu. Po tyłku dostali ludzie ze średniego szczebla zarządzania - czyli tacy którzy są właśnie od brania winy na siebie, bez baczenia na stan faktyczny.

    Kontrola jakości nie ma nic do gadania w tym przypadku, oni sprawdzają parametry w warunkach jakie im narzucane są od góry i tyle.

    Zastanawia mnie także co dostali w zamian od zarządu, bo kilkanaście lat więzienia dla człowieka zarabiającego rocznie siedmio-cyfrowe kwoty to naprawdę bolesna kara.


  9. Z tego co kojarzę to firma Bosch(dostawca oprogramowania) od razu po wybuch skandalu zdystansowała się od całej sprawy. Oprogramowanie było przygotowane w sposób na tyle otwarty aby pozwolić na dosyć wysoki poziom modyfikacji parametrów pracy (tzw mapy wtrysków) co jest konieczne ze względu na to, że praktycznie identyczne zestawy komponentów są używane przy całej gamie silników. Dodajmy do tego, że nawet dwa teoretycznie identyczne silniki nie będą nigdy miały identycznych parametrów, stąd ta możliwość i mamy furtkę do tego co zrobił VW. Poza tym większość nowoczesnych sterowników samochodowych w pewnym zakresie dopasowuje się do użytkowania pojazdu i ma kilka zaprogramowanych nastaw sport/miasto/góry itp. szczególnie w przypadku samochodów z automatycznymi skrzyniami biegów (które królują w USA).

    Producent dodał jedną stała nastawę w przypadku specyficznego zachowania pojazdu i voila mamy system do oszukiwania testów.

     

    P.S.

    Pytanie brzmi kto wymyślił żeby to zrobić ?? Bo że Szmidt i Hatz byli kozłami ofiarnymi to oczywiste. W całą sprawę musiało być zamieszanych co najmniej kilkanaście osób, które podjęły decyzję i wprowadziły modyfikację. Mówimy tutaj o ludziach z zarządu, części działu inżynierskiego itp.


  10. @thikim

    To co piszesz brzmi mniej więcej tak - skoro dziadek/pradziadek zbudował wychodek na podwórku 50m od domu, to trzeba się z tym pogodzić i go dalej używać, przecież nie będziemy burzyć dobrze działającego kibelka.

    Podchodząc w ten sposób do życia dalej byś utwardzał oszczep w ogniu siedząc w jaskini.

     

    @ex nihilo

    Problem polega na tym, że cała reszta powstała później, większość ludzi ma podejście do tematu jak thikim, a następne pokolenia płacą frycowe.


  11. Mogło być i tak ale mogło być i inaczej. Mogli budować na podstawie istniejącej infrastruktury. Nie wiem. Masz jakieś dowody na poparcie swojej tezy?

     

    W lokalizacjach poszczególnych ośrodków badawczych podane są ich daty powstania, większość wybudowano w latach 1959-1965, czyli po powstania NASA.

    Budowa wielu centrów rozrzuconych po całym kraju nie ma innego sensu poza politycznym. Nawet względy strategiczne (nie wkładamy wszystkich jajek do jednego koszyka) tego nie tłumaczą, ponieważ każdy ośrodek ma inną specjalizację. Jeśli straciliby jedno-dwa centra to i tak są w przysłowiowych krzakach. Budowanie prawie dwudziestu osobnych ośrodków podnosi koszty funkcjonowania do absurdalnego poziomu - żadna firma prywatna nie pozwoliłaby sobie na taką marnującą zasoby fragmentację.

    Nie przypominam sobie aby ktoś to powiedział dosłownie(być może było coś w jakichś programach o historii NASA), ale wszystkie poszlaki na to wskazują.

     

    P.S. Wydaje mi się, że trzy, maksymalnie cztery ośrodki z częściowo pokrywającymi się możliwościami pozwoliłby na znaczne obniżenie kosztów większości przedsięwzięć NASA


  12. To po kiego budowali te komory testowe i fabryki komponentów w dwudziestu lokalizacjach rozsianych po całych USA, nie łatwiej by było stworzyć cały kompleks np w Houston ?

    Odpowiem ci  - polityka, aby zdobyć poparcie dla projektu i przeforsować go w kongresie trzeba włazić w tyłek senatorom/gubernatorom itp. Najlepszym sposobem było obiecać każdemu zbudowanie części infrastruktury w danym stanie/hrabstwie. Pomimo tego, że takie podejście nie ma zbyt wielkiego sensu ekonomicznego(poza  pozornym zadowoleniem wyborców rzeczonego senatora/gubernatora) i podnosi koszty do absurdalnych wręcz poziomów. 


  13. Podejrzewam, że lwia część kosztów i czasu budowy (a także opóźnień) wynika z chorego moim zdaniem wożenia części i całego teleskopu po całym kraju. Sam transport z Florydy do Kalifornii będzie kosztować pewnie kilka ładnych baniek, a takich wycieczek było sporo i będzie jeszcze kilka. Jeszcze przed startem teleskop zaliczy pewnie 100.000km, albo nawet więcej na lądzie.

     

    To kolejny przykład kiedy względy polityczne i interesy lokalne podnoszą koszty i utrudniają realizację ambitnych celów.


  14. oprogramowanie napisane w przestarzałym asemblerze

     

     

    To tak jakby napisać "kwarki, gluony i cała reszta to przestarzałe rozwiązania, obecnie mieszamy kopyścią w wiadrze i patrzymy po kolorze i smrodzie co nam wyjdzie".

    Asembler to praktycznie najbardziej podstawowy(poza językiem maszynowym), znajdujący się najbliżej sprzętu język programowania o najmniejszym narzucie i największej precyzji. W Asemblerze są pisane najbardziej wymagające elementy systemów operacyjnych, moduły bezpośrednio odwołujące się do sprzętu, najniższe warstwy sterowników itp.


  15.  

     

    Sprzeciwiam się temu terminowi. Dziś jest tak że albo wszyscy są pseudo-badaczami albo wszyscy są badaczami. Liczy się metoda naukowa a nie prawda
     

    Właśnie problem polega na tym, że wielu z tych "naukowców" ogłasza nowe przełomowe rozwiązania zanim jeszcze zakończyli badania, często jeszcze na etapie formułowania hipotez. Takie podejście to dla mnie pseudo-nauka a ludzi uprawiających ją nazywam pseudo-badaczami.


  16. Problem polega na tym, że większość tych przełomowych pomysłów zderza się z rzeczywistością w postaci:

    1.Wdrożenie na masową skalę

    2.Stosunek ceny do pojemności 

    3.Różnica między teorią i praktyką (często materiały w teorii mogące podwoić pojemność okazują się niewypałem z całkiem innych przyczyn)

    4. Wielu pseudo-badaczy publikuje wyniki zanim jeszcze dokończą opracowywać stronę teoretyczną, nie mówiąc nawet o testach praktycznych.(trend ten narzucili Chińczycy którzy najpierw sprzedają produkt na papierze a potem zaczynają go projektować)

     

    Postęp w akumulatorach jest ale bardzo powolny rocznie średnio kilka procent przez ostatnie 15 lat. I raczej nie ma co liczyć na duże skoki, pomimo tego, że coraz więcej poważnych naukowców zajmuje się tematem.


  17. Nie wiem co tu badać, w większości przypadków idea jest prosta. Jak masz kogoś kim musisz się zajmować i o niego dbać, to sobie tak szybko życia nie odpuścisz. Poczucie obowiązku trzyma często człowieka mocniej przy życiu niż najlepsze leczenie.

    Podobnie ze zgonami osób samotnych, jak cię złapie zawał/udar/wylew lub będziesz mieć jakiś wypadek to są o wiele większe szanse na przeżycie jak jest blisko ciebie ktoś, kto na czas wezwie pogotowie lub udzieli podstawowej pomocy.

×
×
  • Dodaj nową pozycję...