Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Ludzkie ciało nie jest dostosowane do pobytu w przestrzeni kosmicznej. Dlatego zachowanie zdrowia i kondycji kosmonautów to jeden z priorytetów misji pozaziemskich. Wiemy, że długotrwały pobyt w stanie nieważkości prowadzi do utraty masy mięśniowej, osłabia kości, negatywnie wpływa na oczy. Nowe badania opublikowane na łamach JAMA Neurology sugerują, że poza ochronną powłoką ziemskiej atmosfery dochodzi też do uszkodzeń mózgu i przyspieszonej degeneracji komórek nerwowych.

Badania przeprowadzono na pięciu rosyjskich kosmonautach, którzy przebywali na Międzynarodowej Stacji Kosmicznej. Przed misją i po niej pobrano im próbki krwi, w których określono koncentrację białek specyficznych dla mózgu. Badania wykazały, że w czasie pobytu w przestrzeni kosmicznej dochodzi do niewielkich uszkodzeń mózgu, które mogą jednak mieć długofalowe niekorzystne skutki dla zdrowia. Badania takie mogą mieć poważne konsekwencje dla planowanych załogowych misji na Marsa.

Każdy z kosmonautów, a byli to mężczyźni, których średnia wieku wynosiła 49 lat, spędził w przestrzeni kosmicznej około pół roku. Na 20 dni przed startem pobrano od nich krew. Później badania powtórzono dzień, tydzień i trzy tygodnie po wylądowaniu. Henrik Zetterberg z Uniwersytetu w Göteborgu, Alexander Choukér z Uniwersytetu Ludwika Maksymiliana w Monachium oraz Glina Wassilijewa z Rosyjskiej Akademii Nauk określili poziom pięciu protein we krwi: lekkiego białka neurofilamentu (NfL), kwaśnego białka włókienkowego (GFAP), białka tau oraz amyloidu beta Aβ40 i Aβ42.

Poziom tych białek we krwi pozwala określić integralność komórek mózgowych. Na przykład podwyższony poziom NfL świadczy o uszkodzeniu aksonów, a poziom amyloidu beta jest wykorzystywany w diagnostyce chorób neurodegeneracyjnych.

Badania wykazały, że nawet 3 tygodnie po powrocie na Ziemię poziom NfL, GFAP oraz Aβ40 był u wszystkich znacznie podniesiony. Jednak spadał, gdyż największą koncentrację tych białek zarejestrowano tydzień po wylądowaniu. Zetterberg i Choukér informują, że z ich badań wynika, iż długoterminowy pobyt w przestrzeni kosmicznej wpływa na różne tkanki w mózgu.

Wydaje się, że problem dotyczy wszystkich tkanek odpowiednich dla badanych biomarkerów, mówi pomysłodawca badań, Peter zu Eulenburg z Göteborga.

Naukowcy przypuszczają, że przyczyną problemów jest zmiana dystrybucji płynów w czasie pobytu w przestrzeni kosmicznej oraz powrót sytuacji do normy po zakończeniu misji. Zwracają przy tym uwagę, że problemy dotykają kosmonautów przez całe tygodnie po powrocie, gdyż czas półrozpadu każdego z badanych biomarkerów jest znacznie krótszy niż trzy tygodnie. Utrzymywanie się wysokiego poziomu przez tak długi czas pokazuje, że problemy wciąż mają miejsce.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Tyle, że to też rodzi problemy, które są powodowane siłami Coriolisa i różnicą przypsieszenia odśrodkowego pomiędzy głową a nogami załogantów. Móżdżek odczuwa ciążenie, które nie jest skierowane prostopadle do podłoża.

O centryfudze możemy na obecną chwilę chyba zapomnieć. Także sztuczne ciążenie możemy wytworzyć  przez obrót całego statku, który przy zastsowaniu napędu chemicznego może mieć zwartą konstrukcje, a więc krótki promień obrotu. Ale z kolei będzie powolny, a więc sam lot będzie dłuższy. Z kolei użycie napędu jądrowego skróci czas lotu ale utrudni wytworzenie ciążenia. Przy użyciu atomu habitat mieszkalny będzie musiał być odseparowany od reaktora przestrzenią zapewnioną przez kratownice, co wydłuży zaś promień obrotu. 

Problem w tym, że podobno wyniki eksperymentów wskazują, że lepsze są krótsze pobyty w wirówkach wytwarzających 2-3 g i powrót w nieważkość niż stałe przebywanie w "sztucznym " 1 G.

Pod tym kątem robi się jednak  mało eksperymentów. Ciekawe eksperymenty na orbicie Ziemi, jak ISS Centrifuge (0,51 G na ISS) i Mars Gravitiy Biosatelllite (wirówka dla myszy - 0,3 G) nie zostały zrealizowane.  A pierwszy ekesperyment z wytworzeniem sztucznego ciążenia  przeprowadzono już podczas misji Gemini XI poprzez połączenie liną z Ageną. Wytworzono wówczas 0,00015 g, używając silników manewrowych. Ciekawostka, że apogeum misji to było aż 1369 km nad Ziemią. Dalej byli tylko astroanuci misji księżycowych. Rekord Conrada i Gordona jet do dzisiaj nie pobity (poza selenonautami).

Share this post


Link to post
Share on other sites

Jest jeszcze pomysł wykorzystania 2 ch Starshipow połączonych liną. Do karuzeli można się przyzwyczaić :)

Share this post


Link to post
Share on other sites

Ja bym się przyjrzał diecie i nawykom które są w małej puszce na orbicie zupełnie inne niż na Ziemi. A jeśli mowa o Rosjanach to półroczna absencja alkoholowa też może być szokiem dla organizmu :D

Pewnie przyczyn jest wiele a nie tylko brak siły ciążenia

Share this post


Link to post
Share on other sites
57 minutes ago, venator said:

Tyle, że to też rodzi problemy, które są powodowane siłami Coriolisa i różnicą przypsieszenia odśrodkowego pomiędzy głową a nogami załogantów. Móżdżek odczuwa ciążenie, które nie jest skierowane prostopadle do podłoża.

Jest minimalna średnica torusa po przekroczeniu której pojawią się problemy, ale są to problemy natury inżynieryjnej i do rozwiązania. Im większa średnica, tym konstrukcja wolniej może się obracaj, co nie będzie uciążliwe, a astronauci nie będą się potykać o własne nogi :)

Jeszcze znalazłem papier, gdzie w abstrakcie jest podane więcej wartości krótkoterminowych, długoterminowych, dla stałego personelu, gości po treningu, etc.

Quote

Since the NASA/Stanford space settlement studies of the 1970s the settlement design community has assumed that rotation rates must be no more than 1­2 rpm to avoid motion sickness. To achieve 1g, this rotation rate implies a settlement radius of approximately 225-­895 m, which is much larger than any existing satellite.

https://space.nss.org/wp-content/uploads/Space-Settlement-Population-Rotation-Tolerance-Globus.pdf

Edited by cyjanobakteria

Share this post


Link to post
Share on other sites

Margines do wykorzystania nie jest wcale taki szeroki:

2019-04-zalogowe-statki-tabela-przyspies

Tabela z bardzo ciekawego artykułu o statkach międzyplanetarnych:

https://kosmonauta.net/2019/04/statki-miedzyplanetarne-modul-zalogowy-czesc-2/

Napisałem jednak, że

Godzinę temu, venator napisał:

Problem w tym, że podobno wyniki eksperymentów wskazują, że lepsze są krótsze pobyty w wirówkach wytwarzających 2-3 g i powrót w nieważkość niż stałe przebywanie w "sztucznym " 1 G.

Jeśli tak jest i chcielibyśmy iśc tą drogą, to rodzi już spore problemy z wytworzeniem takiej siły w kosmosie, w dodatku na statku, któy sam ma się nie obracać. 

Share this post


Link to post
Share on other sites
38 minut temu, venator napisał:

Jeśli tak jest i chcielibyśmy iśc tą drogą, to rodzi już spore problemy z wytworzeniem takiej siły w kosmosie, w dodatku na statku, któy sam ma się nie obracać. 

Wydaje się że pomysł na dwie kapsuły połączone liną/kratą powinien się dać zrealizować. Potrzeba energii na rozpędzenie, potem jedynie uzupełnia się pęd tracony przez masę białka wędrującą wzdłuż mostu. Nic, czego by średnio zaawansowana automatyka nie umiała dopilnować - połączenie mogłoby być giętkie czyli lekka lina. Martwi wytrzymałość materiałów w temperaturach pustki kosmicznej, 1g jest 1g i na końcach będzie wisiało parę kilo.

Share this post


Link to post
Share on other sites

Dokładnie, układ taki można porównać do mostu wiszącego. Więc to nie jest nic z czym nie poradzą sobie inżynierowie w przyszłości albo duża, aczkolwiek skończona liczba studentów astro-inżynierii. Jest to obecnie skomplikowane zadanie głównie dlatego, że wystrzeliwujemy pojazdy o delikatnej konstrukcji jak puste puszki po piwie :)

Wydaje mi się, że odporność na rozciąganie rośnie wraz ze spadkiem temperatury. W okolicy 1 AU od Słońca na stronie nasłonecznionej jest ze 120 stopni C.

main-qimg-b751cd09d32bfdf65fa8c41b305200

https://www.quora.com/Why-does-tensile-strength-decrease-with-increasing-temperature-and-increase-with-decreasing-temperature

Edited by cyjanobakteria

Share this post


Link to post
Share on other sites

Jedynym problem jaki pozostaje to po co właściwie wysyłać kosmo/Astro/taiko-nautów na orbitę.
Roboty robią się tak sprytne, że bez problemu poradzą sobie z wszystkimi "taktycznymi" problemami a decyzje strategiczne i tak można wysyłać z Ziemi.
 

W dniu 6.11.2021 o 17:07, cyjanobakteria napisał:

Wydaje mi się, że odporność na rozciąganie rośnie wraz ze spadkiem temperatury.

Prosty wniosek - pancerze czołgów trzeba chłodzić kriogenicznie ;)
 

Share this post


Link to post
Share on other sites
1 hour ago, peceed said:

Prosty wniosek - pancerze czołgów trzeba chłodzić kriogenicznie ;)

Lepszy pancerz reaktywny z antymaterii, schłodzonej, nie wstrząśniętej i nie zmieszanej :)

 

1 hour ago, peceed said:

Jedynym problem jaki pozostaje to po co właściwie wysyłać kosmo/Astro/taiko-nautów na orbitę.

Słuszna uwaga, ale jest na wątku grono zwolenników misji załogowych. Za 2 tygodnie rusza NASA DART i myślę, że jest to kolejna zmarnowana okazja na udaną eksplorację załogową Układu Słonecznego :)

Share this post


Link to post
Share on other sites
21 minut temu, cyjanobakteria napisał:

Słuszna uwaga, ale jest na wątku grono zwolenników misji załogowych. Za 2 tygodnie rusza NASA DART i myślę, że jest to kolejna zmarnowana okazja na udaną eksplorację załogową Układu Słonecznego 

No dobra, też bardzo lubię Gwiezdne Wojny, Star Trek itd., ale równie od zawsze niemal jestem zauroczony naiwną wiarą "zwolenników misji załogowych". Człowiek naprawdę jest najmniej potrzebnym i wymagającym największych (cholernych) inwestycji elementem w kosmosie. Gdyby człowiek miał być na Marsie, to już by był, choć o ile już, to prawdopodobnie martwy. :) Pomijam już pomysły Zubrina, toż z każdym rokiem zdajemy sobie coraz bardziej sprawę z "problematyczności" takich misji (prawdopodobieństwo sukcesu takiej misji z roku na rok maleje). Nie sądzę by za życia najmłodszych czytelników KW człowiek wylądował gdzieś dalej niż na Księżycu, a jeśli już na Marsie, to z pewnością będzie to bardziej taikonauta niż Astronauta... :P No i pytanie fundamentalne*: co po wybuleniu ogromnej kasy i wbiciu przykładowo w grunt Marsa jakiejś mizernej flagi przyjdzie z tego Rodzajowi Ludzkiemu?

* jako pytanie pomocnicze: ile problemów za tę kasę można rozwiązać tu, na Ziemi, ile Istnień ludzkich można ocalić?

Cytat

At 372 miles above planet Earth the temperature fluctuates between +258 and -148 degrees Fahrenheit. There is nothing to carry sound. No air pressure. No oxygen. Life in space is impossible.

Gravity, 2013

Share this post


Link to post
Share on other sites

Nie, to nie jest naiwna wiara zwolenników załogowych misji, zacytuje zresztą sam  sam siebie z innego wątku:

Cytat

 

1. Najważniejsza. Tylko załogowa misja na Marsa oraz oczywiście czasowy lub stały pobyt na tej planecie da nam odpowiedź co do technologicznych wymagań stałej obecności człowieka w przestrzeni pozaziemskiej. I przybliży nam odpowiedź na pytanie egzystencjalne - o to czy mamy szanse na rozwój  ludzkiej cywilizacji w kierunku kształtowania naszego gatunku jako międzyplanetarnego, a w dalekiej przyszłości - międzygwiezdnego. Kiedyś musi być ten pierwszy krok.

2. Przyspieszenie oraz rozwój tych technologii, które przy rozwoju tylko misji robotycznych, nie będą miały na to większej szansy. Np. wg. raportu The Science and Technology Policy Institute’s (STPI’s) z 2019 r. , powstałego na zlecenie NASA, a mającego dać odpowiedź na pytanie czy załogowe lądowanie na Marsie jest możliwe w 2033 r., jedną z najwiekszych trudności jest sprawność systemów podtrzymania życia. To także motywacja do pracy nad bardziej wydajnymi napędami, źródłami zasilania czy też inżynierią materiałową. Przy misjach automatycznych nie będzie  na to presji. 

3.Uzyskanie kompetencji miękkich.  Nic tak nie działa na wyobraźnie przyszłych inżynierów i astronautów, jak człowiek w kosmosie. 

Ps. STPI oceniła koszt misji załogowej na Marsa w 2039 r. na 87 mld dolarów wg. cen z 2017 r., ale w przypadku rozwoju technologii księżycowych np.Gateway, już tylko na 45 mld dolarów. 

 

45 mld dolarów to nie są w skali wydatków USA specjalnie duże pieniądze. 

 

Godzinę temu, Astro napisał:

jako pytanie pomocnicze: ile problemów za tę kasę można rozwiązać tu, na Ziemi, ile Istnień ludzkich można ocalić?

A ile problemów rozwiązano dzięki załogowym lotom w kosmos? Spuścizna programu Apollo choćby w zakresie medycyny, jest ogromna: urządzenia VAD (wspomaganie serca), termometry na podczerwień, implanty ślimakowe uszu , operacje oczu metodą LASIK , ratunkowe  koce termiczne typu NRC, nie mówiąc o tym, że w latach 60-tych 60% układów scalonych było kupowane przez NASA, dając potężny impuls do rozwoju branży.

Tutaj zresztą więcej:

https://en.wikipedia.org/wiki/NASA_spinoff_technologies

Znaczna część tych technologii jest związana z programem Gemini-Apollo. Była duża kasa i parcie polityczne, był i rozwój. 

Dlaczego więc nowy, tak wielkoskalowy program ma nie przynieść kolejnego skoku technologicznego?

A jak załogowy Mars może bezpośrednio przełożyć się na to ratowanie istnień ludzkich? Chćby przez to, ze NASA już teraz stawia na rozówj telemetrii medycznej. Weźmy taki pulsoksymetr. Jeszcze parę lat temu urządzenie znane głównie medykom i co bardziej świadomym chorym na przewlekłe choroby układu oddechowego, dziś dzieki COVID zrobiło powszechną karierę. Dzięki metodzie wczesnej diagnozy, uratował zapewne  życie gromnej rzeszy ludzi. NASA pracuje teraz nad pulsoksymetrem zapewniającym telemetrie, o wysokiej jakości i trwałości przekazu, a przede wszystkim precyzji pomiaru. Jak można wywnioskować z tego artykułu:

https://www.wired.com/story/pulse-oximeters-equity/

nowoczesne pulsoksymetry nie spełniają często podstawowych wymagań FDA. Jak się okazuje dzieki załogowym lotom kosmicznym, już blisko 50 lat temu firma HP we współpracy z NASA opracowała pulsoksymetr pod pewnymi względami znacznie lepszy  niż obecne komercyjne. Bo NASA, w programach załogowych, stawia wysoką poprzeczkę. I to jest dobry prognostyk dla silnego impulsu rozowjowego. 

 

Share this post


Link to post
Share on other sites
5 godzin temu, venator napisał:

45 mld dolarów to nie są w skali wydatków USA specjalnie duże pieniądze. 

Oczywiście, że nie, jak w ogóle wydatki na naukę, w szczególności w zestawieniu z kosztem zabawek jankeskich generałów - w 2020. było to 778 mld. Co do szacowania kosztów misji, to przypomnę tylko historię czegoś, co doskonale ogarniamy, czyli np. JWST. Z początkowego bodaj 0,5 mld zrobiło się chyba 10. No i trochę to trwało, a mówimy o wyniesieniu "jakiegoś lustra" tylko. ;)

5 godzin temu, venator napisał:

czy mamy szanse na rozwój  ludzkiej cywilizacji w kierunku kształtowania naszego gatunku jako międzyplanetarnego, a w dalekiej przyszłości - międzygwiezdnego. Kiedyś musi być ten pierwszy krok.

No wiem, w końcu też powiedziałem, że lubię Star Trek: "To boldly go where no man has gone before." ;) Poważniej - to przy obecnej technologii nie mamy, i nie jest to kwestia jakichkolwiek mniejszych czy większych "kroków". To zwyczajnie przepaść do przeskoczenia i nie widać tu żadnego światełka w tunelu.

5 godzin temu, venator napisał:

czy załogowe lądowanie na Marsie jest możliwe w 2033 r.

Nie. Z drugiej strony można oczywiście powiedzieć (wspomniany Zubrin), że już dawno było to możliwe, tylko kiepsko raczej wyglądałoby "kształtowanie naszego gatunku jako międzyplanetarnego" przy przeżywalności pionierów na poziomie, powiedzmy, 1% (scenariusz optymistyczny), bo:

5 godzin temu, venator napisał:

jedną z najwiekszych trudności jest sprawność systemów podtrzymania życia

Właściwie to nie jest największa trudność, to PODSTAWOWA i FUNDAMENTALNA trudność (o kosztach nie wspominając).

6 godzin temu, venator napisał:

Przy misjach automatycznych nie będzie  na to presji.

Przy zbyt dużej presji człowiek staje się jeszcze słabszym ogniwem, którym zresztą i tak jest. :) Rozwój napędów to nie jest dziedzina, w której gorący oddech przełożonego na karku inżyniera da jakikolwiek pozytywny efekt. Ta dziedzina jest nieustannie finansowana - owszem, za większą kasę chłopcy zrobią może kilka spektakularnych bum więcej, ale nie licz na cokolwiek więcej.

6 godzin temu, venator napisał:

Znaczna część tych technologii jest związana z programem Gemini-Apollo. Była duża kasa i parcie polityczne, był i rozwój

Z całym szacunkiem dla programu (sam niejednokrotnie o tym wspominałem), ale clou tkwi w podkreśleniu i pogrubieniu, nie w programie samym w sobie. Wiesz, jakoś trzeba ludziom tłumaczyć, że wywalenie tej kasy miało sens. ;)

6 godzin temu, venator napisał:

Dlaczego więc nowy, tak wielkoskalowy program ma nie przynieść kolejnego skoku technologicznego?

Kiedyś już o tym wspominałem - kolejne lądowanie człowieka na Księżycu niczego już nie przyniesie (z pewnością nie w takiej skali);  nie jest to już kroczenie w nieznane. Podobnie według mnie misja na Marsa.

6 godzin temu, venator napisał:

I to jest dobry prognostyk dla silnego impulsu rozowjowego. 

Lepszy pulsoksymetr za 87 mld, który w dodatku nie jest stosowany, choć jest lepszy? Kiepsko to widzę. :) Jakoś tak przypomniała mi się historyjka z armijnymi dżojstikami do dronów bodaj, które kosztowały kosmiczną kasę. Okazało się, że te do  giercowania nie są wcale gorsze, a kosztują tysiące razy mniej.

Share this post


Link to post
Share on other sites
W dniu 9.11.2021 o 04:30, Astro napisał:

Co do szacowania kosztów misji, to przypomnę tylko historię czegoś, co doskonale ogarniamy, czyli np. JWST. Z początkowego bodaj 0,5 mld zrobiło się chyba 10. No i trochę to trwało, a mówimy o wyniesieniu "jakiegoś lustra" tylko. ;)

Czemu akurat TEN  przykład? Przecież przyczyny takie stanu rzeczy mają swój kontekst historyczny, którym była min. dewiza ówczesnego administratora NASA, Daniela Goldwina - "szybciej, lepiej, taniej". Okazało się po czasie, że lepiej nie da się pogodzić z szybciej, a tym bardziej z taniej. Bo było to oparte na "nadziei". Jeszcze w 1984 r. szacowano koszt NGST na 4 mld, ale później zaczęto wierzyć w szybki postęp w tanim wynoszeniu ładunków w kosmos. 

Ale takie niedoszacowanie  to raczej normalka dla takich bezprecedensowych, niezwykle zaawansowanych programów. W 1972 r. koszty Hubble'a szacowano na 300 mln dolarów (1 mld w cenach z 2007 r.) Koszt wyniósł ostatecznie 4 mld. Było warto?

W dniu 9.11.2021 o 04:30, Astro napisał:

Poważniej - to przy obecnej technologii nie mamy, i nie jest to kwestia jakichkolwiek mniejszych czy większych "kroków". To zwyczajnie przepaść do przeskoczenia i nie widać tu żadnego światełka w tunelu.

Zgodzę się jak najbardziej w kwestii podróży międzygwiezdnych, ale Mars jest w technicznym zasięgu.  Nie ma żadnych fundamentalnych przeszkód technologicznych aby tam nie polecieć i zostać, przynajmniej w ograniczonym zakresie. 

W dniu 9.11.2021 o 04:30, Astro napisał:

Rozwój napędów to nie jest dziedzina, w której gorący oddech przełożonego na karku inżyniera da jakikolwiek pozytywny efekt. Ta dziedzina jest nieustannie finansowana - owszem

Nieustannie finansowana? Gdzie i kiedy? Jeszcze kilka lat temu na rozwój nuklearno-termicznego silnika (NTP) NASA  przeznaczała...7 mln dolarów rocznie. :lol::lol::lol:

A to najbliższa realizacji technologia napędu innego niż chemiczny, do sensownej  eksploracji załogowej deep space. 

W budżetowych realiach na + zmieniło się to dopiero w czasie prezydentury Trumpa. Na efekty przyjdzie jednak poczekać

W dniu 9.11.2021 o 04:30, Astro napisał:

Kiedyś już o tym wspominałem - kolejne lądowanie człowieka na Księżycu niczego już nie przyniesie (z pewnością nie w takiej skali);  nie jest to już kroczenie w nieznane. Podobnie według mnie misja na Marsa.

Wydaje mi się @Astroże jednak sam  sobie zaprzeczasz. Z jednej strony piszesz:  Poważniej - to przy obecnej technologii nie mamy, i nie jest to kwestia jakichkolwiek mniejszych czy większych "kroków". To zwyczajnie przepaść do przeskoczenia i nie widać tu żadnego światełka w tunelu.

Z drugiej strony piszesz, że wg.  Ciebie nic lądowanie na Marsie nam nie przyniesie. A więc to  pokonanie  technologicznej i mentalnej przepaści (w udanym locie na Marsa i powrocie)  nic nie przyniesie, będzie bezowocne? Naprawdę?

 

 

Share this post


Link to post
Share on other sites
18 godzin temu, venator napisał:

Czemu akurat TEN  przykład?

Pierwszy z brzegu. ;)

18 godzin temu, venator napisał:

W 1972 r. koszty Hubble'a szacowano na 300 mln dolarów (1 mld w cenach z 2007 r.) Koszt wyniósł ostatecznie 4 mld. Było warto?

Oczywiście, że było warto, ale przecież ja tego nie kwestionuję. W końcu "spieramy" się raczej o coś innego.

18 godzin temu, venator napisał:

Nie ma żadnych fundamentalnych przeszkód technologicznych aby tam nie polecieć i zostać, przynajmniej w ograniczonym zakresie.

Przecież odniosłem się do Zubrina i zgadzam się z wytłuszczeniem, mam jednak fundamentalne wątpliwości do podkreślenia. No chyba, że w kwestii pozostawania, a właściwie pozostawienia mamy na myśli zwłoki. ;)

18 godzin temu, venator napisał:

A to najbliższa realizacji technologia napędu innego niż chemiczny, do sensownej  eksploracji załogowej deep space.
W budżetowych realiach na + zmieniło się to dopiero w czasie prezydentury Trumpa. Na efekty przyjdzie jednak poczekać

Cytat

Nuclear power and propulsion. The Biden administration is seeking to zero out funding for a program supporting R&D on propulsion methods that employ nuclear fission. However, the House and Senate both propose continued funding of $110 million for nuclear thermal propulsion systems, which could be used to propel spacecraft along high-speed trajectories, such as on a crewed mission to Mars.

https://www.aip.org/fyi/2021/fy22-budget-outlook-nasa

Właśnie z tego powodu zapewne, że... Mars. :D

19 godzin temu, venator napisał:

Wydaje mi się @Astroże jednak sam  sobie zaprzeczasz.

Venator, odniosłem się do tego, że "rozwój  ludzkiej cywilizacji w kierunku kształtowania naszego gatunku jako międzyplanetarnego" wygląda obecnie jak... no właśnie. Potencjalne lądowanie na Marsie nie będzie żadnym przeskoczeniem bariery, którą mam na myśli, bo odbędzie się to z wykorzystaniem może nieco podrasowanej, ale starej dobrej technologii, którą znamy od dziesiątków lat. Nie będzie zapewne bezowocne, tylko chodzi mi o coś dużo prostszego: zysk/koszt.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Naukowcy z Uniwersytetu w Kopenhadze dokonali niezwykłego odkrycia dotyczącego mózgu ssaków. Okazuje się, że wakuolarna ATPaza (V-ATPase), jeden z kluczowych enzymów umożliwiających przekazywanie sygnałów w mózgu, włącza się i wyłącza według przypadkowych wzorców, czasami robiąc sobie wielogodzinne przerwy.
      W naszych mózgach miliony neuronów bez przerwy przekazują sobie informacje. Wykorzystują do tego celu neuroprzekaźniki wspomagane przez unikatowy enzym. Aktywność mózgu, przepływ informacji między neuronami, są kluczowe dla przetrwania. Dlatego też sądzono, że enzym pośredniczący w przekazywaniu sygnałów jest bez przerwy aktywny. Nic bardziej błędnego. Uczeni z Kopenhagi zauważyli, że aktywuje się on i dezaktywuje według przypadkowych wzorców.
      Po raz pierwszy nauka przyjrzała się działaniu tego enzymu w mózgu na poziomie pojedynczej molekuły. Jesteśmy zaskoczeni wynikiem badań. Wbrew powszechnie żywionym przekonaniom i wbrew temu, co dzieje się z wieloma innymi proteinami, te enzymy mogą przestać pracować na wiele minut, a nawet godzin. A mimo to mózg człowieka i wielu innych ssaków wciąż działa, mówi zaskoczony profesor Dimitrios Stamou. Dotychczas podczas podobnych badań wykorzystywano bardzo stabilne enzymy uzyskane z bakterii. Duńscy uczeni, dzięki wykorzystaniu innowacyjnych metod, mogli zbadać enzymy ssaków wyizolowane z mózgów szczurów.
      Podczas przesyłania informacji pomiędzy dwoma neuronami neuroprzekaźniki są najpierw pompowane do pęcherzyków synaptycznych. Spełniają one rolę pojemników, w których neuroprzekaźniki są przechowywane do czasu, gdy trzeba przekazać wiadomość. Wakuolarna ATPaza odpowiada za dostarczenie energii do pomp neuroprzekaźników. Bez niej pompy nie działają, zatem neuroprzekaźniki nie mogą trafić do pęcherzyków synaptycznych, nie ma więc możliwości przekazania informacji pomiędzy neuronami. Jednak naukowcy z Kopenhagi wykazali, że w każdym z pęcherzyków znajduje się tylko jedna molekuła. Gdy się ona wyłączy, pompa nie działa.
      To niezrozumiałe, że tak krytyczne zadanie, jak pompowanie neuroprzekaźników do pojemnika zostało powierzone pojedynczej molekule. Tym bardziej niezrozumiałe, że przez 40% czasu molekuła nie działa, mówi Dimitrios Stamou.
      Naukowcy zastanawiają się, czy fakt, że wakuolarna ATPaza się wyłącza oznacza, iż w pęcherzykach nie ma neuroprzekaźnika. Jeśli tak, to czy olbrzymia liczba jednocześnie pustych pęcherzyków wpływa na procesy komunikacyjne w mózgu? W końcu zaś, czy jest to „problem”, który w toku ewolucji neurony nauczyły się omijać, czy też jest to nieznany nam sposób kodowania informacji w mózgu.
      Szczegóły odkrycia zostały opisane na łamach Nature.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Współpraca naukowców z Wydziału Fizyki Uniwersytetu Warszawskiego i PAN zaowocowała powstaniem pulsującego neuronu stworzonego z fotonów. To podstawowy element fotonicznego procesora sieci neuronowych. Tego typu chipy, zwane układami neuromorficznymi, mają być w przyszłości podstawą systemów sztucznej inteligencji.
      Systemy fotoniczne zapewniają dużą prędkość przesyłania informacji przy jednoczesnym niewielkim zużyciu energii. Ich wadą jest zaś słabe oddziaływanie pomiędzy sobą, przez co trudno je wykorzystać do wykonywania operacji obliczeniowych. Dlatego też polscy wykorzystali ekscytony, cząstki o bardzo małej masie, z którymi fotony silnie oddziałują. Gdy fotony i ekscytony zostaną razem umieszczone we wnęce optycznej, powstaje między nimi trwały układ cyklicznej wymiany energii, który jest kwazicząstką – polarytonem.
      Polarytony mogą zaś, w odpowiednich warunkach, tworzyć kondensat Bosego-Einsteina. W tym stanie skupienia zaczynają tworzyć „superatom”, zachowujący się jak pojedyncza cząstka. Opierając się na naszym ostatnim eksperymencie, jako pierwsi zauważyliśmy, że kiedy polarytony są wzbudzane za pomocą impulsów laserowych, emitują impulsy światła przypominające pulsowanie neuronów biologicznych. Efekt ten jest bezpośrednio związany ze zjawiskiem kondensacji Bosego-Einsteina, które albo hamuje, albo wzmacnia emisję impulsów, wyjaśnia doktorantka Magdalena Furman z Wydziału Fizyki UW.
      Autorami modelu teoretycznego, który pozwala połączyć badania nad polarytonami z modelem neuronu są doktor Andrzej Opala i profesor Michał Matuszewski. Proponujemy wykorzystać nowy paradygmat obliczeniowy oparty na kodowaniu informacji za pomocą impulsów, które wyzwalają sygnał tylko wtedy, gdy przybędą do neuronu w odpowiednim czasie po sobie, mówi doktor Opala. Innymi słowy, taki sposób pracy takiego sztucznego neurony ma przypominać pracę neuronów biologicznych, pobudzanych impulsami elektrycznymi. W neuronie biologicznym dopiero powyżej pewnego progu impulsów docierających do neuronu, sygnał przekazywany jest dalej. Polarytony mogą naśladować neuron biologiczny, gdyż dopiero po pobudzeniu pewną liczbą fotonów powstaje kondensat Bosego-Einsteinai dochodzi do emisji sygnału do kolejnego neuronu.
      Mimo niewątpliwie interesujących badań, na wdrożenie pomysłu polskich uczonych przyjdzie nam jeszcze poczekać. Kondensat Bosego-Einsteina uzyskiwali oni w temperaturę zaledwie 4 kelwinów, którą można osiągnąć w ciekłym helu. Naszym kolejnym celem jest przeniesienie eksperymentu z warunków kriogenicznych do temperatury pokojowej. Potrzebne są badania nad nowymi materiałami, które pozwolą na uzyskanie kondensatów Bosego-Einsteina także w wysokich temperaturach. W Laboratorium Polarytonowym pracujemy nie tylko nad takimi substancjami, badamy też możliwość sterowania kierunkiem emitowanych fotonów, mówi profesor Jacek Szczytko z Wydziału Fizyki UW.
      W badaniach nad układami neuromorficznymi naukowcy wciąż napotykają na nowe wyzwania. Nasz nowy pomysł na odtworzenie pulsowania neuronów biologicznych w domenie optycznej, może posłużyć do stworzenia sieci, a potem układu neuromorficznego, w którym informacje przesyłane są o rzędy wielkości szybciej i w sposób bardziej efektywny energetycznie w porównaniu do dotychczasowych rozwiązań, dodaje doktor Krzysztof Tyszka.
      Szczegóły pracy zostały opisane na łamach Laser & Photonics Reviews.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Neurolog Anna Schapiro z University of Pennsylvania i jej zespół, wykorzystując model sieci neuronowej, odkryli, że gdy w czasie snu nasz mózg wchodzi i wychodzi z fazy REM, hipokamp uczy korę nową tego, czego dowiedział się za dnia. Od dawna wiadomo, że w czasie snu zachodzą procesy uczenia się i zapamiętywania. W ciągu dnia kodujemy nowe informacje i doświadczenia, idziemy spać, a gdy się budzimy, nasza pamięć jest już w jakiś sposób zmieniona, mówi Schapiro.
      Schapiro, doktorant Dhairyya Singh oraz Kenneth Norman z Princeton University stworzyli model obliczeniowy oparty na sieci neuronowej, który dał im wgląd w proces uczenia się w czasie snu.
      Z artykułu opublikowanego na łamach PNAS dowiadujemy się, że w czasie gdy mózg przechodzi z fazy NREM do REM, co ma miejsce około 5 razy w ciągu nocy, hipokamp przekazuje do kory nowej informacje zdobyte za dnia.
      To nie jest tylko model uczenia się lokalnych struktur mózgu. To model pokazujący, jak jeden obszar mózgu uczy drugi obszar mózgu w czasie snu, gdy nie ma wskazówek ze świata zewnętrznego. To również pokazuje, jak zapamiętujemy informacje o zmieniającym się otoczeniu, mówi Schapiro.
      Naukowcy zbudowali model złożony z hipokampu – obszaru mózgu odpowiedzialnego za zdobywanie nowych informacji – i kory nowej, w której m.in. odbywają się procesy związane z językiem, świadomością wyższego rzędu i pamięcią długotrwałą. Model pokazał, że podczas fazy NREM mózg – pod kierunkiem hipokampu – głównie „przegląda” najnowsze wydarzenia i dane, a w czasie fazy REM uruchamiane są dawniejsze wspomnienia, przechowywane w korze nowej. Oba te obszary mózgu komunikują się między sobą w fazie NREM. To wtedy hipokamp przekazuje do kory nowej to, czego się niedawno nauczył. Natomiast w fazie REM aktywuje się kora nowa, które odtwarza to, co już wie, dzięki czemu tworzone jest pamięć długotrwała, wyjaśnia Singh.
      Dodaje, że bardzo ważne jest przełączanie pomiędzy obiema fazami. Gdy kora nowa nie ma szans na odtworzenie sobie informacji, które przechowuje, zostają one nadpisane. Uważamy, że do powstania długotrwałych wspomnień konieczne jest przełączanie się pomiędzy fazami REM i NREM, stwierdza Singh.
      Naukowcy zastrzegają, że wciąż muszą potwierdzić eksperymentalnie swoje spostrzeżenia. Zauważają też, że ich symulacje dotyczyły dorosłej osoby, która dobrze przespała całą noc. Zatem nie muszą być prawdziwe w odniesieniu do innych sytuacji, jak np. do dzieci czy dorosłych, którzy dobrze nie spali. Tego typu model, który można dostosowywać do różnych sytuacji i osób, może być niezwykle przydatny w badaniach nad problemem snu. W dłuższej perspektywie posłuży on do badań nad zaburzeniami psychicznymi i neurologicznymi, w których zaburzenia snu są jednym z objawów.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Gdy uczymy się czytać, w naszych mózgach tworzą się połączenia pomiędzy korą wzrokową a obszarami odpowiedzialnymi za przetwarzanie języka. Symbole, które widzimy na papierze, zostają powiązane z dźwiękami i znaczeniami. Wydaje się zatem logiczne, że umiejętność czytania i pisania powinna wpływać na naszą zdolność przetwarzania mowy. Kwestię tę postanowili zgłębić naukowcy z Uniwersytetu w Zurichu.
      Wcześniejsze badania wykazały, że w alfabetycznych systemach pisma, gdzie poszczególne znaki oznaczają samogłoski i spółgłoski, rzeczywiście istnienie zależność pomiędzy umiejętnością czytania i pisania a zdolnościami do przetwarzania mowy przez mózg. Jednak na Bliskim Wschodzie, w Afryce Wschodniej oraz Południowej i Wschodniej Azji wiele osób korzysta z systemów pisma, w których znaki oznaczają sylaby lub całe słowa, a nie pojedyncze głoski. Chcieliśmy wiedzieć, czy wykorzystanie pisma niealfabetycznego ma taki sam wpływ na mózg jak pisma alfabetycznego, mówi profesor neurolingwistyki Alexis Hervais-Adelman.
      Naukowcy z Zurichu, we współpracy z uczonymi z Instytutu Psycholingwistyki im. Maxa Plancka w Nijmegen oraz zespołem ze stanu Uttar Pradesh w Indiach, odtwarzali zdania nagrane w hindi dwóm grupom osób: umiejącym czytać i pisać oraz analfabetom. Hindi zapisywany jest pismem sylabicznym, dewanagari. Podczas odtwarzania aktywność mózgu badanych była rejestrowana za pomocą rezonansu magnetycznego. Wśród użytkowników hindi nie zauważono różnicy pomiędzy osobami piśmiennymi a niepiśmiennymi w sposobie przetwarzania mowy przez mózg.
      Wyniki badań są więc inne, niż uzyskane podczas analogicznych eksperymentów na osobach posługujących się pismem alfabetycznym. W ich przypadku umiejętność pisania i czytania wiązała się z większą aktywnością mózgu w obszarach odpowiedzialnych za przetwarzania mowy podczas słuchania słowa mówionego. Nasze odkrycie przeczy wcześniejszym przypuszczeniom na temat wpływu umiejętności czytania i pisania na sposób przetwarzania języka przez mózg. Okazuje się, że to rodzaj pisma, jakim się posługujemy, wpływa na to, jak nasz mózg przetwarza mowę, mówi Hervais-Adelman.
      Pomimo tego, że u badanych użytkowników języka hindi nie było różnic w sposobie przetwarzania mowy, naukowcy zauważyli, że osoby potrafiące czytać i pisać miały lepszą łączność funkcjonalną pomiędzy obszarami mózgu odpowiedzialnymi za grafomotorykę, czyli proces pisania ręcznego, a obszarami mózgu odpowiedzialnymi za przetwarzanie mowy. Połączenia te uaktywniały się, gdy osoby posługujące się pismem słyszały nagrania.
      Zdaniem autorów badań, może to sugerować, że to umiejętność pisania, a nie sama umiejętność czytania, wpływa na przetwarzanie języka przez mózg. Tego typu badania mogą – ukierunkowane na związek pomiędzy umiejętnością pisania a przetwarzaniem mowy – w przyszłości doprowadzić do opracowania metod leczenia dysleksji.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Mózg dorosłego człowieka jest w stanie doprowadzić do częściowego odzyskania wzroku u osób cierpiących na dziedziczną ślepotę, donoszą naukowcy z University of California. Naukowcy badali wrodzoną ślepotę Lebera (LCA), która jest odpowiedzialna nawet za 20% przypadków wrodzonej ślepoty w krajach rozwiniętych. Choroba objawia się już po urodzeniu lub w pierwszych miesiącach życia, a jej przyczyną są mutacje genetyczne prowadzące do degeneracji lub dysfunkcji fotoreceptorów.
      Wiemy, że podanie dzieciom z LCA syntetycznych retinoidów pozwala na odzyskanie znacznej części widzenia. Uczeni z University of California, Irvine (UCI) postanowili przekonać się, czy taka terapia może działać też w przypadku dorosłych.
      Szczerze mówiąc, zaskoczyło nas, jak dużą część neuronów odpowiedzialnych za widzenie uruchomiła ta terapia, mówi profesor Sunil Gandhi. Do widzenia potrzeba znacznie więcej, niż tylko prawidłowo działającej siatkówki. To zaczyna się w oku, które wysyła sygnały do mózgu. I to właśnie w mózgu powstaje obraz, dodaje uczony. Dotychczas naukowcy sądzili, że mózg musi otrzymać odpowiednie sygnały w dzieciństwie, by mogły utworzyć się prawidłowe połączenia pomiędzy neuronami.
      Naukowcy rozpoczęli prace z mysim modelem LCA i byli zaskoczeni tym, co odkryli. Centralny szlak sygnałowy wzroku został w dużej mierze odtworzony, szczególnie te połączenia, które odpowiadają za informacje docierające z obu oczu, mówi Gandhi.
      Okazało się, że natychmiast po rozpoczęciu leczenia sygnały docierające z oczu do przeciwległych półkul mózgu aktywują dwukrotnie więcej neuronów niż wcześniej. Jeszcze bardziej niesamowity był fakt, że sygnały docierające z oka do półkuli leżącej po tej samej stronie aktywowały aż 5-krotnie więcej neuronów i ten imponujący skutek leczenia był długotrwały. Stopień odzyskania widzenia na poziomie mózgu był znacznie większy, niż moglibyśmy się spodziewać po poprawie widocznej w samej siatkówce. Fakt, że leczenie to działa tak dobrze na poziomie centralnego szlaku wzrokowego u dorosłych wspiera pogląd mówiący, iż uśpiony potencjał widzenia tylko czeka, by go uruchomić, emocjonuje się naukowiec.
      Odkrycie to ma daleko idące konsekwencje. Pokazuje bowiem, że mózg jest znacznie bardziej plastyczny, niż sądziliśmy. To zaś może pomóc w opracowaniu nowych terapii, które pozwolą odzyskać wzrok osobom dorosłym cierpiącym na LCA, dodaje Gandhi.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...