Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

NASA testuje standardową elektronikę w przestrzeni kosmicznej

Rekomendowane odpowiedzi

Na Międzynarodowej Stacji Kosmicznej trwają badania, których celem jest stwierdzenie, czy NASA będzie mogła wykorzystywać w przyszłości standardowe układy elektroniczne. Obecnie w przestrzeni kosmicznej używa się chipów specjalnie chronionych przed szkodliwym wpływem promieniowania kosmicznego. Jeśli wszystko pójdzie zgodnie z planem, to pojazd Dragon, wracając na Ziemię, zabierze ze sobą dwa serwery, które przez niemal rok pracowały na ISS. Miało to symulować warunki, z jakimi elektronika zetknie się podczas podróży na Marsa.

Jednocześnie NASA pracuje nad projektem układu ARM, który stanie się podstawą do budowy elektroniki przyszłości. Specjalna wersja ARM Cortex-A53 ma być gotowa w roku 2020. To układ, który zadebiutował w roku 2014, więc w momencie startu w przestrzeń kosmiczną będzie już przestarzały pod względem standardów współczesnej elektroniki. Mimo to i tak będzie stanowił krok naprzód w porównaniu do kości, które NASA obecnie wykorzystuje w misjach pozaziemskich. Agencja testuje też wpływ promieniowania na układy pamięci.

Wspomniane wcześniej serwery zostały dostarczone przez Hewletta Packarda w ramach projektu Spaceborne Computer. Identyczna para maszyn pozostała na Ziemi i posłuży jako para kontrolna. Serwery HPE trafiły na ISS w sierpniu ubiegłego roku i pozwolą stwierdzić, czy NASA może zrezygnować z kosztownych chronionych przed promieniowaniem chipów na rzecz tańszych ogólnie dostępnych komponentów. Mark Fernandez, główny inżynier odpowiedzialny za projekt Spaceborne Computer mówi, że jeden z serwerów pracował z maksymalną prędkością, a drugi pracował wolniej. Jeśli okaże się, że wystąpiły anomalie i były one obecne tylko w szybko pracującej maszynie, to można będzie używać komputerów wolniej pracujących.

Obecnie planuje się sprowadzenie na Ziemię obu serwerów w październiku. NASA rozpoczęła badania nad zachowaniem standardowych komputerów w przestrzeni kosmicznej w roku 2014. Jej partnerem była firma SGI. W międzyczasie SGI została przejęta przez Hewlett Packerd Enterprise. Serwery korzystają z procesorów Xeon Apollo 40. Uruchomiono na nich aplikacje wymagające intensywnych obliczeń i przesyłania dużej ilości danych. W czasie pracy dynamicznie dostosowywano ich pobór mocy, by lepiej symulować warunki panujące podczas podróży na Marsa.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To sami nie mają do nich dostępu, by na bieżąco monitorować stan? Bez sensu…

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Monitorowanie stanu, a dokładny przegląd w laboratorium wszystkich kawałków komputera, to jednak co innego. 

Pewnie będą skanować pod mikroskopem twarde dyski i scalaki, by sprawdzić uszkodzenia, które niekoniecznie wpłynęły w tym czasie na działanie systemu, ale przy intensywniejszym promieniowaniu mogą już nazbierać więcej wad i się posypać.

Osobiście zastanawiam się czemu nie wsadzili standardowego systemu na jakąś sondę kosmiczną i jako backup 2 systemy "pewniaki". Nie licząc programowego dostosowania, to reszta kosztów powinna być rozsądna, w końcu to ani drogie, ani specjalnie ciężkie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

A najlepiej będzie jak się okaże, że nie było potrzeby wyrzucać pieniędzy w błoto projektując i budując "kosmiczne" komponenty, a wystarczyło użyć znacznie tańszych i dobrze dopracowanych modeli przemysłowych.

 

P.S. Z tego co wiem - oba systemy sprawdziły się w 100%, teraz tylko chodzi o porównanie "zużycia" komponentów z tymi co pracowały na ziemi.

P.S.2 Do sterowania większością komponentów stacji astronauci używają praktycznie standardowych laptopów Lenovo (kiedyś a31p a obecnie a61p

Edytowane przez rahl
Korekta

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Wady fizyczne fizycznymi, one i na Ziemi z czasem się pojawią. Raczej bardziej chodzi o miniaturyzację i soft errory spowodowane promieniowaniem, które mogą doprowadzić do błędnych wyników czy awarii systemu. Sam serwer mógłby sobie przeprowadzać w kółko obliczenia matematyczne, a następnie porównywać rezultat. Łatwo byłoby ocenić częstość błędów.

OK, widzę PS-a, czyli o zużycie jednak chodziło.

Edytowane przez wilk

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

×