Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Ludzkie ciało nie jest dostosowane do pobytu w przestrzeni kosmicznej. Dlatego zachowanie zdrowia i kondycji kosmonautów to jeden z priorytetów misji pozaziemskich. Wiemy, że długotrwały pobyt w stanie nieważkości prowadzi do utraty masy mięśniowej, osłabia kości, negatywnie wpływa na oczy. Nowe badania opublikowane na łamach JAMA Neurology sugerują, że poza ochronną powłoką ziemskiej atmosfery dochodzi też do uszkodzeń mózgu i przyspieszonej degeneracji komórek nerwowych.

Badania przeprowadzono na pięciu rosyjskich kosmonautach, którzy przebywali na Międzynarodowej Stacji Kosmicznej. Przed misją i po niej pobrano im próbki krwi, w których określono koncentrację białek specyficznych dla mózgu. Badania wykazały, że w czasie pobytu w przestrzeni kosmicznej dochodzi do niewielkich uszkodzeń mózgu, które mogą jednak mieć długofalowe niekorzystne skutki dla zdrowia. Badania takie mogą mieć poważne konsekwencje dla planowanych załogowych misji na Marsa.

Każdy z kosmonautów, a byli to mężczyźni, których średnia wieku wynosiła 49 lat, spędził w przestrzeni kosmicznej około pół roku. Na 20 dni przed startem pobrano od nich krew. Później badania powtórzono dzień, tydzień i trzy tygodnie po wylądowaniu. Henrik Zetterberg z Uniwersytetu w Göteborgu, Alexander Choukér z Uniwersytetu Ludwika Maksymiliana w Monachium oraz Glina Wassilijewa z Rosyjskiej Akademii Nauk określili poziom pięciu protein we krwi: lekkiego białka neurofilamentu (NfL), kwaśnego białka włókienkowego (GFAP), białka tau oraz amyloidu beta Aβ40 i Aβ42.

Poziom tych białek we krwi pozwala określić integralność komórek mózgowych. Na przykład podwyższony poziom NfL świadczy o uszkodzeniu aksonów, a poziom amyloidu beta jest wykorzystywany w diagnostyce chorób neurodegeneracyjnych.

Badania wykazały, że nawet 3 tygodnie po powrocie na Ziemię poziom NfL, GFAP oraz Aβ40 był u wszystkich znacznie podniesiony. Jednak spadał, gdyż największą koncentrację tych białek zarejestrowano tydzień po wylądowaniu. Zetterberg i Choukér informują, że z ich badań wynika, iż długoterminowy pobyt w przestrzeni kosmicznej wpływa na różne tkanki w mózgu.

Wydaje się, że problem dotyczy wszystkich tkanek odpowiednich dla badanych biomarkerów, mówi pomysłodawca badań, Peter zu Eulenburg z Göteborga.

Naukowcy przypuszczają, że przyczyną problemów jest zmiana dystrybucji płynów w czasie pobytu w przestrzeni kosmicznej oraz powrót sytuacji do normy po zakończeniu misji. Zwracają przy tym uwagę, że problemy dotykają kosmonautów przez całe tygodnie po powrocie, gdyż czas półrozpadu każdego z badanych biomarkerów jest znacznie krótszy niż trzy tygodnie. Utrzymywanie się wysokiego poziomu przez tak długi czas pokazuje, że problemy wciąż mają miejsce.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Tyle, że to też rodzi problemy, które są powodowane siłami Coriolisa i różnicą przypsieszenia odśrodkowego pomiędzy głową a nogami załogantów. Móżdżek odczuwa ciążenie, które nie jest skierowane prostopadle do podłoża.

O centryfudze możemy na obecną chwilę chyba zapomnieć. Także sztuczne ciążenie możemy wytworzyć  przez obrót całego statku, który przy zastsowaniu napędu chemicznego może mieć zwartą konstrukcje, a więc krótki promień obrotu. Ale z kolei będzie powolny, a więc sam lot będzie dłuższy. Z kolei użycie napędu jądrowego skróci czas lotu ale utrudni wytworzenie ciążenia. Przy użyciu atomu habitat mieszkalny będzie musiał być odseparowany od reaktora przestrzenią zapewnioną przez kratownice, co wydłuży zaś promień obrotu. 

Problem w tym, że podobno wyniki eksperymentów wskazują, że lepsze są krótsze pobyty w wirówkach wytwarzających 2-3 g i powrót w nieważkość niż stałe przebywanie w "sztucznym " 1 G.

Pod tym kątem robi się jednak  mało eksperymentów. Ciekawe eksperymenty na orbicie Ziemi, jak ISS Centrifuge (0,51 G na ISS) i Mars Gravitiy Biosatelllite (wirówka dla myszy - 0,3 G) nie zostały zrealizowane.  A pierwszy ekesperyment z wytworzeniem sztucznego ciążenia  przeprowadzono już podczas misji Gemini XI poprzez połączenie liną z Ageną. Wytworzono wówczas 0,00015 g, używając silników manewrowych. Ciekawostka, że apogeum misji to było aż 1369 km nad Ziemią. Dalej byli tylko astroanuci misji księżycowych. Rekord Conrada i Gordona jet do dzisiaj nie pobity (poza selenonautami).

Share this post


Link to post
Share on other sites

Jest jeszcze pomysł wykorzystania 2 ch Starshipow połączonych liną. Do karuzeli można się przyzwyczaić :)

Share this post


Link to post
Share on other sites

Ja bym się przyjrzał diecie i nawykom które są w małej puszce na orbicie zupełnie inne niż na Ziemi. A jeśli mowa o Rosjanach to półroczna absencja alkoholowa też może być szokiem dla organizmu :D

Pewnie przyczyn jest wiele a nie tylko brak siły ciążenia

Share this post


Link to post
Share on other sites
57 minutes ago, venator said:

Tyle, że to też rodzi problemy, które są powodowane siłami Coriolisa i różnicą przypsieszenia odśrodkowego pomiędzy głową a nogami załogantów. Móżdżek odczuwa ciążenie, które nie jest skierowane prostopadle do podłoża.

Jest minimalna średnica torusa po przekroczeniu której pojawią się problemy, ale są to problemy natury inżynieryjnej i do rozwiązania. Im większa średnica, tym konstrukcja wolniej może się obracaj, co nie będzie uciążliwe, a astronauci nie będą się potykać o własne nogi :)

Jeszcze znalazłem papier, gdzie w abstrakcie jest podane więcej wartości krótkoterminowych, długoterminowych, dla stałego personelu, gości po treningu, etc.

Quote

Since the NASA/Stanford space settlement studies of the 1970s the settlement design community has assumed that rotation rates must be no more than 1­2 rpm to avoid motion sickness. To achieve 1g, this rotation rate implies a settlement radius of approximately 225-­895 m, which is much larger than any existing satellite.

https://space.nss.org/wp-content/uploads/Space-Settlement-Population-Rotation-Tolerance-Globus.pdf

Edited by cyjanobakteria

Share this post


Link to post
Share on other sites

Margines do wykorzystania nie jest wcale taki szeroki:

2019-04-zalogowe-statki-tabela-przyspies

Tabela z bardzo ciekawego artykułu o statkach międzyplanetarnych:

https://kosmonauta.net/2019/04/statki-miedzyplanetarne-modul-zalogowy-czesc-2/

Napisałem jednak, że

Godzinę temu, venator napisał:

Problem w tym, że podobno wyniki eksperymentów wskazują, że lepsze są krótsze pobyty w wirówkach wytwarzających 2-3 g i powrót w nieważkość niż stałe przebywanie w "sztucznym " 1 G.

Jeśli tak jest i chcielibyśmy iśc tą drogą, to rodzi już spore problemy z wytworzeniem takiej siły w kosmosie, w dodatku na statku, któy sam ma się nie obracać. 

Share this post


Link to post
Share on other sites
38 minut temu, venator napisał:

Jeśli tak jest i chcielibyśmy iśc tą drogą, to rodzi już spore problemy z wytworzeniem takiej siły w kosmosie, w dodatku na statku, któy sam ma się nie obracać. 

Wydaje się że pomysł na dwie kapsuły połączone liną/kratą powinien się dać zrealizować. Potrzeba energii na rozpędzenie, potem jedynie uzupełnia się pęd tracony przez masę białka wędrującą wzdłuż mostu. Nic, czego by średnio zaawansowana automatyka nie umiała dopilnować - połączenie mogłoby być giętkie czyli lekka lina. Martwi wytrzymałość materiałów w temperaturach pustki kosmicznej, 1g jest 1g i na końcach będzie wisiało parę kilo.

Share this post


Link to post
Share on other sites

Dokładnie, układ taki można porównać do mostu wiszącego. Więc to nie jest nic z czym nie poradzą sobie inżynierowie w przyszłości albo duża, aczkolwiek skończona liczba studentów astro-inżynierii. Jest to obecnie skomplikowane zadanie głównie dlatego, że wystrzeliwujemy pojazdy o delikatnej konstrukcji jak puste puszki po piwie :)

Wydaje mi się, że odporność na rozciąganie rośnie wraz ze spadkiem temperatury. W okolicy 1 AU od Słońca na stronie nasłonecznionej jest ze 120 stopni C.

main-qimg-b751cd09d32bfdf65fa8c41b305200

https://www.quora.com/Why-does-tensile-strength-decrease-with-increasing-temperature-and-increase-with-decreasing-temperature

Edited by cyjanobakteria

Share this post


Link to post
Share on other sites

Jedynym problem jaki pozostaje to po co właściwie wysyłać kosmo/Astro/taiko-nautów na orbitę.
Roboty robią się tak sprytne, że bez problemu poradzą sobie z wszystkimi "taktycznymi" problemami a decyzje strategiczne i tak można wysyłać z Ziemi.
 

W dniu 6.11.2021 o 17:07, cyjanobakteria napisał:

Wydaje mi się, że odporność na rozciąganie rośnie wraz ze spadkiem temperatury.

Prosty wniosek - pancerze czołgów trzeba chłodzić kriogenicznie ;)
 

Share this post


Link to post
Share on other sites
1 hour ago, peceed said:

Prosty wniosek - pancerze czołgów trzeba chłodzić kriogenicznie ;)

Lepszy pancerz reaktywny z antymaterii, schłodzonej, nie wstrząśniętej i nie zmieszanej :)

 

1 hour ago, peceed said:

Jedynym problem jaki pozostaje to po co właściwie wysyłać kosmo/Astro/taiko-nautów na orbitę.

Słuszna uwaga, ale jest na wątku grono zwolenników misji załogowych. Za 2 tygodnie rusza NASA DART i myślę, że jest to kolejna zmarnowana okazja na udaną eksplorację załogową Układu Słonecznego :)

Share this post


Link to post
Share on other sites
21 minut temu, cyjanobakteria napisał:

Słuszna uwaga, ale jest na wątku grono zwolenników misji załogowych. Za 2 tygodnie rusza NASA DART i myślę, że jest to kolejna zmarnowana okazja na udaną eksplorację załogową Układu Słonecznego 

No dobra, też bardzo lubię Gwiezdne Wojny, Star Trek itd., ale równie od zawsze niemal jestem zauroczony naiwną wiarą "zwolenników misji załogowych". Człowiek naprawdę jest najmniej potrzebnym i wymagającym największych (cholernych) inwestycji elementem w kosmosie. Gdyby człowiek miał być na Marsie, to już by był, choć o ile już, to prawdopodobnie martwy. :) Pomijam już pomysły Zubrina, toż z każdym rokiem zdajemy sobie coraz bardziej sprawę z "problematyczności" takich misji (prawdopodobieństwo sukcesu takiej misji z roku na rok maleje). Nie sądzę by za życia najmłodszych czytelników KW człowiek wylądował gdzieś dalej niż na Księżycu, a jeśli już na Marsie, to z pewnością będzie to bardziej taikonauta niż Astronauta... :P No i pytanie fundamentalne*: co po wybuleniu ogromnej kasy i wbiciu przykładowo w grunt Marsa jakiejś mizernej flagi przyjdzie z tego Rodzajowi Ludzkiemu?

* jako pytanie pomocnicze: ile problemów za tę kasę można rozwiązać tu, na Ziemi, ile Istnień ludzkich można ocalić?

Cytat

At 372 miles above planet Earth the temperature fluctuates between +258 and -148 degrees Fahrenheit. There is nothing to carry sound. No air pressure. No oxygen. Life in space is impossible.

Gravity, 2013

Share this post


Link to post
Share on other sites

Nie, to nie jest naiwna wiara zwolenników załogowych misji, zacytuje zresztą sam  sam siebie z innego wątku:

Cytat

 

1. Najważniejsza. Tylko załogowa misja na Marsa oraz oczywiście czasowy lub stały pobyt na tej planecie da nam odpowiedź co do technologicznych wymagań stałej obecności człowieka w przestrzeni pozaziemskiej. I przybliży nam odpowiedź na pytanie egzystencjalne - o to czy mamy szanse na rozwój  ludzkiej cywilizacji w kierunku kształtowania naszego gatunku jako międzyplanetarnego, a w dalekiej przyszłości - międzygwiezdnego. Kiedyś musi być ten pierwszy krok.

2. Przyspieszenie oraz rozwój tych technologii, które przy rozwoju tylko misji robotycznych, nie będą miały na to większej szansy. Np. wg. raportu The Science and Technology Policy Institute’s (STPI’s) z 2019 r. , powstałego na zlecenie NASA, a mającego dać odpowiedź na pytanie czy załogowe lądowanie na Marsie jest możliwe w 2033 r., jedną z najwiekszych trudności jest sprawność systemów podtrzymania życia. To także motywacja do pracy nad bardziej wydajnymi napędami, źródłami zasilania czy też inżynierią materiałową. Przy misjach automatycznych nie będzie  na to presji. 

3.Uzyskanie kompetencji miękkich.  Nic tak nie działa na wyobraźnie przyszłych inżynierów i astronautów, jak człowiek w kosmosie. 

Ps. STPI oceniła koszt misji załogowej na Marsa w 2039 r. na 87 mld dolarów wg. cen z 2017 r., ale w przypadku rozwoju technologii księżycowych np.Gateway, już tylko na 45 mld dolarów. 

 

45 mld dolarów to nie są w skali wydatków USA specjalnie duże pieniądze. 

 

Godzinę temu, Astro napisał:

jako pytanie pomocnicze: ile problemów za tę kasę można rozwiązać tu, na Ziemi, ile Istnień ludzkich można ocalić?

A ile problemów rozwiązano dzięki załogowym lotom w kosmos? Spuścizna programu Apollo choćby w zakresie medycyny, jest ogromna: urządzenia VAD (wspomaganie serca), termometry na podczerwień, implanty ślimakowe uszu , operacje oczu metodą LASIK , ratunkowe  koce termiczne typu NRC, nie mówiąc o tym, że w latach 60-tych 60% układów scalonych było kupowane przez NASA, dając potężny impuls do rozwoju branży.

Tutaj zresztą więcej:

https://en.wikipedia.org/wiki/NASA_spinoff_technologies

Znaczna część tych technologii jest związana z programem Gemini-Apollo. Była duża kasa i parcie polityczne, był i rozwój. 

Dlaczego więc nowy, tak wielkoskalowy program ma nie przynieść kolejnego skoku technologicznego?

A jak załogowy Mars może bezpośrednio przełożyć się na to ratowanie istnień ludzkich? Chćby przez to, ze NASA już teraz stawia na rozówj telemetrii medycznej. Weźmy taki pulsoksymetr. Jeszcze parę lat temu urządzenie znane głównie medykom i co bardziej świadomym chorym na przewlekłe choroby układu oddechowego, dziś dzieki COVID zrobiło powszechną karierę. Dzięki metodzie wczesnej diagnozy, uratował zapewne  życie gromnej rzeszy ludzi. NASA pracuje teraz nad pulsoksymetrem zapewniającym telemetrie, o wysokiej jakości i trwałości przekazu, a przede wszystkim precyzji pomiaru. Jak można wywnioskować z tego artykułu:

https://www.wired.com/story/pulse-oximeters-equity/

nowoczesne pulsoksymetry nie spełniają często podstawowych wymagań FDA. Jak się okazuje dzieki załogowym lotom kosmicznym, już blisko 50 lat temu firma HP we współpracy z NASA opracowała pulsoksymetr pod pewnymi względami znacznie lepszy  niż obecne komercyjne. Bo NASA, w programach załogowych, stawia wysoką poprzeczkę. I to jest dobry prognostyk dla silnego impulsu rozowjowego. 

 

Share this post


Link to post
Share on other sites
5 godzin temu, venator napisał:

45 mld dolarów to nie są w skali wydatków USA specjalnie duże pieniądze. 

Oczywiście, że nie, jak w ogóle wydatki na naukę, w szczególności w zestawieniu z kosztem zabawek jankeskich generałów - w 2020. było to 778 mld. Co do szacowania kosztów misji, to przypomnę tylko historię czegoś, co doskonale ogarniamy, czyli np. JWST. Z początkowego bodaj 0,5 mld zrobiło się chyba 10. No i trochę to trwało, a mówimy o wyniesieniu "jakiegoś lustra" tylko. ;)

5 godzin temu, venator napisał:

czy mamy szanse na rozwój  ludzkiej cywilizacji w kierunku kształtowania naszego gatunku jako międzyplanetarnego, a w dalekiej przyszłości - międzygwiezdnego. Kiedyś musi być ten pierwszy krok.

No wiem, w końcu też powiedziałem, że lubię Star Trek: "To boldly go where no man has gone before." ;) Poważniej - to przy obecnej technologii nie mamy, i nie jest to kwestia jakichkolwiek mniejszych czy większych "kroków". To zwyczajnie przepaść do przeskoczenia i nie widać tu żadnego światełka w tunelu.

5 godzin temu, venator napisał:

czy załogowe lądowanie na Marsie jest możliwe w 2033 r.

Nie. Z drugiej strony można oczywiście powiedzieć (wspomniany Zubrin), że już dawno było to możliwe, tylko kiepsko raczej wyglądałoby "kształtowanie naszego gatunku jako międzyplanetarnego" przy przeżywalności pionierów na poziomie, powiedzmy, 1% (scenariusz optymistyczny), bo:

5 godzin temu, venator napisał:

jedną z najwiekszych trudności jest sprawność systemów podtrzymania życia

Właściwie to nie jest największa trudność, to PODSTAWOWA i FUNDAMENTALNA trudność (o kosztach nie wspominając).

6 godzin temu, venator napisał:

Przy misjach automatycznych nie będzie  na to presji.

Przy zbyt dużej presji człowiek staje się jeszcze słabszym ogniwem, którym zresztą i tak jest. :) Rozwój napędów to nie jest dziedzina, w której gorący oddech przełożonego na karku inżyniera da jakikolwiek pozytywny efekt. Ta dziedzina jest nieustannie finansowana - owszem, za większą kasę chłopcy zrobią może kilka spektakularnych bum więcej, ale nie licz na cokolwiek więcej.

6 godzin temu, venator napisał:

Znaczna część tych technologii jest związana z programem Gemini-Apollo. Była duża kasa i parcie polityczne, był i rozwój

Z całym szacunkiem dla programu (sam niejednokrotnie o tym wspominałem), ale clou tkwi w podkreśleniu i pogrubieniu, nie w programie samym w sobie. Wiesz, jakoś trzeba ludziom tłumaczyć, że wywalenie tej kasy miało sens. ;)

6 godzin temu, venator napisał:

Dlaczego więc nowy, tak wielkoskalowy program ma nie przynieść kolejnego skoku technologicznego?

Kiedyś już o tym wspominałem - kolejne lądowanie człowieka na Księżycu niczego już nie przyniesie (z pewnością nie w takiej skali);  nie jest to już kroczenie w nieznane. Podobnie według mnie misja na Marsa.

6 godzin temu, venator napisał:

I to jest dobry prognostyk dla silnego impulsu rozowjowego. 

Lepszy pulsoksymetr za 87 mld, który w dodatku nie jest stosowany, choć jest lepszy? Kiepsko to widzę. :) Jakoś tak przypomniała mi się historyjka z armijnymi dżojstikami do dronów bodaj, które kosztowały kosmiczną kasę. Okazało się, że te do  giercowania nie są wcale gorsze, a kosztują tysiące razy mniej.

Share this post


Link to post
Share on other sites
W dniu 9.11.2021 o 04:30, Astro napisał:

Co do szacowania kosztów misji, to przypomnę tylko historię czegoś, co doskonale ogarniamy, czyli np. JWST. Z początkowego bodaj 0,5 mld zrobiło się chyba 10. No i trochę to trwało, a mówimy o wyniesieniu "jakiegoś lustra" tylko. ;)

Czemu akurat TEN  przykład? Przecież przyczyny takie stanu rzeczy mają swój kontekst historyczny, którym była min. dewiza ówczesnego administratora NASA, Daniela Goldwina - "szybciej, lepiej, taniej". Okazało się po czasie, że lepiej nie da się pogodzić z szybciej, a tym bardziej z taniej. Bo było to oparte na "nadziei". Jeszcze w 1984 r. szacowano koszt NGST na 4 mld, ale później zaczęto wierzyć w szybki postęp w tanim wynoszeniu ładunków w kosmos. 

Ale takie niedoszacowanie  to raczej normalka dla takich bezprecedensowych, niezwykle zaawansowanych programów. W 1972 r. koszty Hubble'a szacowano na 300 mln dolarów (1 mld w cenach z 2007 r.) Koszt wyniósł ostatecznie 4 mld. Było warto?

W dniu 9.11.2021 o 04:30, Astro napisał:

Poważniej - to przy obecnej technologii nie mamy, i nie jest to kwestia jakichkolwiek mniejszych czy większych "kroków". To zwyczajnie przepaść do przeskoczenia i nie widać tu żadnego światełka w tunelu.

Zgodzę się jak najbardziej w kwestii podróży międzygwiezdnych, ale Mars jest w technicznym zasięgu.  Nie ma żadnych fundamentalnych przeszkód technologicznych aby tam nie polecieć i zostać, przynajmniej w ograniczonym zakresie. 

W dniu 9.11.2021 o 04:30, Astro napisał:

Rozwój napędów to nie jest dziedzina, w której gorący oddech przełożonego na karku inżyniera da jakikolwiek pozytywny efekt. Ta dziedzina jest nieustannie finansowana - owszem

Nieustannie finansowana? Gdzie i kiedy? Jeszcze kilka lat temu na rozwój nuklearno-termicznego silnika (NTP) NASA  przeznaczała...7 mln dolarów rocznie. :lol::lol::lol:

A to najbliższa realizacji technologia napędu innego niż chemiczny, do sensownej  eksploracji załogowej deep space. 

W budżetowych realiach na + zmieniło się to dopiero w czasie prezydentury Trumpa. Na efekty przyjdzie jednak poczekać

W dniu 9.11.2021 o 04:30, Astro napisał:

Kiedyś już o tym wspominałem - kolejne lądowanie człowieka na Księżycu niczego już nie przyniesie (z pewnością nie w takiej skali);  nie jest to już kroczenie w nieznane. Podobnie według mnie misja na Marsa.

Wydaje mi się @Astroże jednak sam  sobie zaprzeczasz. Z jednej strony piszesz:  Poważniej - to przy obecnej technologii nie mamy, i nie jest to kwestia jakichkolwiek mniejszych czy większych "kroków". To zwyczajnie przepaść do przeskoczenia i nie widać tu żadnego światełka w tunelu.

Z drugiej strony piszesz, że wg.  Ciebie nic lądowanie na Marsie nam nie przyniesie. A więc to  pokonanie  technologicznej i mentalnej przepaści (w udanym locie na Marsa i powrocie)  nic nie przyniesie, będzie bezowocne? Naprawdę?

 

 

Share this post


Link to post
Share on other sites
18 godzin temu, venator napisał:

Czemu akurat TEN  przykład?

Pierwszy z brzegu. ;)

18 godzin temu, venator napisał:

W 1972 r. koszty Hubble'a szacowano na 300 mln dolarów (1 mld w cenach z 2007 r.) Koszt wyniósł ostatecznie 4 mld. Było warto?

Oczywiście, że było warto, ale przecież ja tego nie kwestionuję. W końcu "spieramy" się raczej o coś innego.

18 godzin temu, venator napisał:

Nie ma żadnych fundamentalnych przeszkód technologicznych aby tam nie polecieć i zostać, przynajmniej w ograniczonym zakresie.

Przecież odniosłem się do Zubrina i zgadzam się z wytłuszczeniem, mam jednak fundamentalne wątpliwości do podkreślenia. No chyba, że w kwestii pozostawania, a właściwie pozostawienia mamy na myśli zwłoki. ;)

18 godzin temu, venator napisał:

A to najbliższa realizacji technologia napędu innego niż chemiczny, do sensownej  eksploracji załogowej deep space.
W budżetowych realiach na + zmieniło się to dopiero w czasie prezydentury Trumpa. Na efekty przyjdzie jednak poczekać

Cytat

Nuclear power and propulsion. The Biden administration is seeking to zero out funding for a program supporting R&D on propulsion methods that employ nuclear fission. However, the House and Senate both propose continued funding of $110 million for nuclear thermal propulsion systems, which could be used to propel spacecraft along high-speed trajectories, such as on a crewed mission to Mars.

https://www.aip.org/fyi/2021/fy22-budget-outlook-nasa

Właśnie z tego powodu zapewne, że... Mars. :D

19 godzin temu, venator napisał:

Wydaje mi się @Astroże jednak sam  sobie zaprzeczasz.

Venator, odniosłem się do tego, że "rozwój  ludzkiej cywilizacji w kierunku kształtowania naszego gatunku jako międzyplanetarnego" wygląda obecnie jak... no właśnie. Potencjalne lądowanie na Marsie nie będzie żadnym przeskoczeniem bariery, którą mam na myśli, bo odbędzie się to z wykorzystaniem może nieco podrasowanej, ale starej dobrej technologii, którą znamy od dziesiątków lat. Nie będzie zapewne bezowocne, tylko chodzi mi o coś dużo prostszego: zysk/koszt.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Nasz siedzący tryb życia okrada nas z tego, co najcenniejsze w fizycznej aktywności – olbrzymiego zróżnicowania mechanizmów naprawczych, które ciągle reperują miniaturowe uszkodzenia organizmów u łowców-zbieraczy i społeczności rolniczych. Brak tych mechanizmów staje się coraz bardziej szkodliwy i dotkliwy w miarę, jak stajemy się coraz starsi. Dlatego też biolog ewolucyjny Daniel Lieberman z Uniwersytetu Harvarda zachęca, by wraz z upływem lat utrzymywać wysoki poziom aktywności fizycznej.
      Profesor Lieberman porównał czas życia w zdrowiu oraz poziom aktywności fizycznej przedstawicieli uprzemysłowionego zachodniego społeczeństwa – Amerykanów – i społeczności nieuprzemysłowionych. Uczony mówi, że łowcy-zbieracze przez całe życie są bardziej aktywni fizycznie od ludzi Zachodu, ale szczególnie staje się to widoczne w miarę, jak przybywa nam lat. Z wiekiem przeciętny człowiek naszej cywilizacji zwalnia, staje się coraz mniej aktywny. Dlatego też w starszym wieku jesteśmy od 6 do 10 razy mniej aktywni niż nasi równolatkowie ze społeczności łowiecko-zbierackich. Co więcej, oni często zwiększają wówczas swoją aktywność i znacznie dłużej cieszą się dobrym zdrowiem niż my.
      Wyewoluowaliśmy tak, by w miarę starzenia się być bardzo aktywni fizycznie. W społecznościach łowiecko-zbierackich nie ma czegoś takiego jak emerytura. Pracuje się do końca życia. Nie ma weekendów czy wakacji, zauważa Lieberman.
      U łowców-zbieraczy zachodzi odwrotny proces niż u nas. Babcie są tam bardziej aktywne niż matki. Kobiety, które już odchowały swoje dzieci, zwiększają swoją aktywność fizyczną. Więcej czasu poświęcają na zbieranie żywności. Babcie spędzają na tej czynności 4 do 8 godzin na dobę, natomiast matki od 2 do 5 godzin. Organizm zmuszany do ciągłego wysiłku fizycznego musi przeznaczać sporo energii na ciągłe naprawy różnego rodzaju mikrouszkodzeń, naderwanych mięśni, przeciążonych stawów.
      Wysiłek fizyczny powoduje wydzielanie się antyoksydantów, substancji przeciwzapalnych, poprawia przepływ krwi. Z kolei procesy związane z naprawą komórek i DNA zmniejszają ryzyko alzheimera, cukrzycy, nowotworów, depresji czy osteoporozy.
      Ewolucyjnie jesteśmy przygotowani do tego, by na starość być aktywnymi fizycznie. Dzięki temu mamy sprawne mechanizmy reperujące ciało, co pomaga w przeciwdziałaniu negatywnym skutkom starzenia się. Nigdy nie ewoluowaliśmy tak, by być nieaktywni. Jeśli więc prowadzimy siedzący tryb życia, te mechanizmy naprawcze nie działają w takim zakresie, jak wówczas, gdy jesteśmy aktywni, mówi uczony.
      Lieberman mówi, że na pomysł zastanowienia się nad źródłami współczesnej kultury ćwiczeń fizycznych wpadł, gdy prowadził badania wśród nieuprzemysłowionych plemion. Ludzie ci najczęściej byli sprawniejsi fizycznie od ludzi Zachodu, ale zawsze reagowali zdziwieniem na pytanie o ćwiczenia i trening. Kiedyś zapytał przedstawiciele plemienia, które znane jest z wytrzymałości w bieganiu, o trening. Ten ze zdziwieniem zapytał go, po co ktoś miałby biegać, jeśli nie musi. Trening fizyczny to dziwaczny pomysł współczesnego Zachodu. Ich treningiem jest ich życie. Są aktywni fizycznie, gdyż muszą ciągle przemierzać góry i doliny, są rolnikami. W badanej przeze mnie części świata nikt nie wybiera się na kilkukilometrową przebieżkę, mimo że są bardzo dobrzy w bieganiu.
      W trakcie swoich badań naukowiec zdał sobie sprawę, że trening fizyczny to koncepcja bogatego industrialnego Zachodu. Dla większości świata i przez większość historii ludzie ćwiczyli, gdyż musieli lub odnosili z tego konkretne korzyści.
      Lieberman zauważył, że łowcy-zbieracze, którzy nie ulegną wypadkowi lub nie zachorują na poważną chorobę, żyją mniej więcej równie długo jak ludzie z Zachodu. Jest jednak pewna zasadnicza różnica. U nich długość życia w zdrowiu jest niemal równa całkowitej długości życia. Tymczasem na Zachodzie powszechny jest lęk o to, że ostatnie lata życia spędzimy jako schorowani zniedołężniali ludzie.
      Dlatego też uczony zachęca, by w starszym wieku utrzymywać wysoki poziom aktywności fizycznej. I przytacza badania przeprowadzone wśród 21 000 absolwentów Uniwersytetu Harvarda. Wykazały one, że umiarkowane do intensywnych ćwiczeń fizycznych, w wyniku których spalamy co najmniej 2000 kalorii tygodniowo, znacząco obniża ryzyko zgonu. U osób w wieku 25–49 lat było ono o 21% niższe niż u niećwiczących, w wieku 50–59 lat taka aktywność zmniejszała ryzyko śmierci o 36%, a w wieku 70–84 lat odsetek ten rósł aż do 50%.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W ubiegłym roku grupa specjalistów skupiona w organizacji EMP Taskforce on National and Homeland Security opublikowała raport, w którym ostrzega, że Chiny są w stanie zaatakować USA za pomocą impulsu elektromagnetycznego (EMP) wygenerowanego na dużej wysokości. Amerykanie nie są w swoich obawach osamotnieni. Niedawno chińscy eksperci zaapelowali do rządu w Pekinie, by lepiej przygotował Państwo Środka na podobny atak ze strony USA. Specjaliści z różnych krajów ostrzegają, że użycie broni atomowej nie po to, by zabić ludzi, ale by zniszczyć sieci energetyczne i uszkodzić urządzenia elektroniczne, staje się coraz bardziej realnym zagrożeniem.
      O tym, jakie zagrożenia niesie ze sobą detonacja broni atomowej w wysokich partiach atmosfery, wiadomo od kilkudziesięciu lat. W lipcu 1962 roku Stany Zjednoczone przeprowadziły Starfish Prime, najpotężniejszy w historii test broni atomowej w przestrzeni kosmicznej. Na wysokości 400 kilometrów nad atolem Johnston zdetonowano ładunek o mocy 1,4 megatony. Wygenerowany podczas wybuchu impuls elektromagnetyczny doprowadził do awarii sieci energetycznych i telefonicznych w części Hawajów, odległych o 1300 kilometrów od miejsca eksplozji. Ponadto promieniowanie uszkodziło liczne satelity, z których sześć nie nadawało się do użytku. Był wśród nich Telstar 1, pierwszy satelita przekazujący sygnały telefoniczne i telewizyjne. Rok po Starfish Prime podpisano międzynarodowe porozumienie, zakazujące testów broni jądrowej nad powierzchnią ziemi.
      Kilkadziesiąt lat później, w kwietniu 2008 roku ukazał się amerykański raport, w którym czytamy, że impuls elektromagnetyczny wygenerowany przez eksplozję atomową na dużej wysokości jest jednym z niewielu zagrożeń, które mogą narazić nasze społeczeństwo na katastroficzne konsekwencje. Rosnąca zależność od wszelkich form elektroniki to największa słabość w przypadku ataku EMP. Elektronika używana jest do kontroli, komunikacji, obliczeń, przetwarzania, przechowywania, zarządzania i wdrażania w niemal każdym cywilnym aspekcie w USA. Gdy dojdzie do eksplozji atomowej na dużej wysokości, wygenerowany sygnał EMP dotrze do rozległych obszarów znajdujących się w polu widzenia z punktu detonacji. Taki impuls ma zdolność do wywołania szeroko zakrojonych długotrwałych zniszczeń infrastruktury stanowiącej postawę funkcjonowania amerykańskiego społeczeństwa.
      Okazuje się jednak, że dotychczas używano zbyt uproszczonego modelu ryzyka związanego z atakiem EMP. Jak bowiem wykazały najnowsze badania specjalistów z amerykańskiej Służby Geologicznej (USGS) i University of Colorado, oddziaływanie impulsu EMP na sieci energetyczne zależy od rozkładu skał w skorupie ziemskiej.
      Główny autor opracowania, geofizyk Jeffrey J. Love z USGS, wyjaśnia, że w wyniku EMP wygenerowanego na dużej wysokości, pojawiają się trzy następujące po sobie rodzaje fal (E1, E2 i E3) o różnym wpływie na systemy elektryczne.
      E1 to impuls o wysokiej częstotliwości. To on zniszczy elektronikę konsumencką i to jemu poświęcano dotychczas najwięcej uwagi. Drugi z impulsów, E2, działa podobnie do pioruna. Jego możemy obawiać się najmniej, gdyż sieci energetyczne są w dużej mierze odporne na wyładowania atmosferyczne.
      Największe zagrożenie dla linii przesyłowych dostarczających nam prąd stanowi natomiast E3. To część sygnału EMP o najniższej amplitudzie. Jednak jest to impuls najbardziej długotrwały. Może on trwać od 0,1 sekundy do kilkuset sekund. Dlatego też to właśnie on ma potencjał dokonania katastrofalnych zniszczeń, a jego niszcząca moc wynika z interakcji ze skałami w skorupie ziemskiej.
      Na poziom ryzyka dla sieci przesyłowych wpływają trzy czynniki. To siła zakłóceń magnetycznych wywoływanych przez EMP, przewodnictwo gruntu otaczającego sieci przesyłowe oraz parametry samych sieci. Dlatego też specjaliści z USGS i University of Colorad, chcąc lepiej poznać to zagadnienie, wykorzystali dane geologiczne z niewielkiego regionu wschodnich Stanów Zjednoczonych, obejmujących fragmenty stanów Arkansas, Missouri, Illinois, Mississippi, Kentucky i Tennessee. Uczeni przez kilkanaście tygodni badali na tych terenach naturalne zmiany pola magnetycznego ziemi oraz mierzyli zmiany pola elektrycznego. Te dwa pomiary dały im informacje o impedancji falowej powierzchni, która jest zależna od właściwości skał. Następnie wykorzystali te dane do obliczenia wpływu na sieci energetyczne E3 EMP wygenerowanego w wyniku detonacji ładunku jądrowego o mocy kilkuset kiloton.
      Z obliczeń wynika, że dotychczasowe zagrożenia powodowane przez EMP były źle oceniane. Niedostatecznie bowiem wzięto pod uwagę budowę geologiczną różnych regionów. Problem jest tym poważniejszy, że na negatywne skutki EMP najbardziej narażone są wschodnie tereny Stanów Zjednoczonych, a to właśnie tam znajdują się największe miasta.
      Konieczna jest lepsza koordynacja prac pomiędzy specjalistami z różnych dziedzin. Muszą ze sobą współpracować specjaliści od uzbrojenia, naukowcy zajmujący się przestrzenią kosmiczną oraz geofizycy. Dopiero wówczas uzyskamy pełen obraz zagrożeń powodowanych przez impuls elektromagnetyczny i będziemy w stanie opracować środki zapobiegawcze, mówi Love.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Na Uniwersytecie Kalifornijskim w San Diego (UCSD) powstał specjalny plaster, który w czasie rzeczywistym monitoruje przepływ krwi w głęboko położonych tkankach. Posłuży on do wczesnego wykrywania problemów z układem krążenia. Podobne plastry są wykorzystywane do monitorowania parametrów skóry czy struktur położonych tuż pod nią. Tymczasem urządzenie z UCSD jest w stanie odbierać sygnały z mikrometrowej wielkości struktur położonych nawet 14 centymetrów pod skórą.
      Takie urządzenie może dostarczyć bardziej spójnego, dokładnego obrazu tego, co dzieje się w głęboko położonych tkankach i organach takich jak serce czy mózg, mówi główny autor badań profesor nanoinżynierii Sheng Xu.
      Plaster składa się z macierzy 144 milimetrowej wielkości przetworników ultradźwiękowych umieszczonych na cienkim polimerowym podłożu. Ułożono je w macierz o wymiarach 12x12. Ich sygnał może penetrować tkanki na głębokość do 14 centymetrów. Stało się to możliwe dzięki temu, że każdy z przetworników można kontrolować indywidualnie. Mogą one działać albo w synchronicznie, emitując skupioną wiązkę ultradźwięków o wysokiej intensywności, albo też asynchronicznie, gdy każdy z przetworników bada interesującą nas strukturę pod nieco innym kątem.
      O ile konwencjonalne urządzenia tego typu trzeba przesuwać, by uzyskać inny kąt, w przypadku urządzenia z San Diego nie ma takiej potrzeby. Pracuje ono w zakresie od -20 do 20 stopni. Dzięki temu można monitorować znacznie większy obszar niż ten znajdujący się bezpośrednio pod plastrem.
      Możemy manipulować wiązką ultradźwięków. To daje nam wiele możliwości, możemy monitorować różne organy czy przepływ krwi w dużej rozdzielczości. Nie byłoby to możliwe za pomocą pojedynczego przetwornika, mówi doktorantka Muyang Lin. Plaster można nosić przez dłuższy czas. Dzięki temu może on dostarczyć cennych danych, w tym informacji o nieodpowiednim funkcjonowaniu zastawek, złej cyrkulacji krwi czy skrzeplinach.
      W prototypowym urządzeniu dane odczytywano podłączając doń przekaźnik. Teraz, gdy okazało się, że plaster działa jak należy, jego twórcy pracują nad zaimplementowaniem na nim modułu bezprzewodowego przesyłania danych.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Coraz więcej tłuszczu w organizmie zwiększa ryzyko demencji i udaru, ostrzegają naukowcy z University of South Australia. Przyjrzeli się oni istocie szarej mózgów około 28 000 osób i odkryli, że w miarę jak tyjemy, dochodzi do atrofii istoty szarej, co zwiększa ryzyko schorzeń neurologicznych.
      Główny autor badań, doktor Anwar Mulugeta mówi, że pokazują one kolejny problem związany z otyłością. Otyłość to złożona choroba, której cechą charakterystyczną jest nadmierna ilość tkanki tłuszczowej. Otyłość wiąże się z chorobami układu krążenia, cukrzycą typu II i chronicznym stanem zapalnym. Obecnie otyłość kosztuje australijską gospodarkę 8,6 miliarda dolarów rocznie, mówi. W ciągu ostatnich pięciu dekad liczba osób otyłych wzrosła. Jednak złożona natura tej choroby powoduje, że nie wszyscy otyli są chorzy z metabolicznego punktu widzenia. A to utrudnia stwierdzenie, kto znajduje się w grupie ryzyka, a kto nie.
      Autorzy badań podzielili otyłych na trzy podtypy. Do podtypu „niekorzystnego” zaliczono osoby z nadmiarową tkanką tłuszczową wokół niższych partii tułowia oraz okolicach brzucha. Osoby te są narażone na większe ryzyko cukrzycy typu II oraz chorób serca. Typ „korzystny” to ten, w którym występują szersze biodra, ale niskie ryzyko wystąpienia cukrzycy czy chorób serca, z kolei do typu „neutralnego” trafiły osoby o niskim i bardzo niskim ryzyku chorób metabolicznych i układu krążenia. Ogólnie rzecz biorąc, osoby należące do tych podtypów charakteryzuje wyższe BMI, ale w każdym podtypie tłuszcz jest różnie rozłożony i występuje różne ryzyko chorób kardiometabolicznych, stwierdza Mulugeta.
      Badania wykazały, że im większy stopień otyłości, szczególnie wśród podtypu „niekorzystnego” i „neutralnego”, tym mniej szarej materii w mózgu. To sugeruje, że mózgi takich osób mogą gorzej funkcjonować. Jednak kwestia ta wymaga dalszych badań.
      Nie znaleźliśmy jednoznacznych dowodów łączących konkretny podtyp otyłości z demencją czy udarem. Nasze badanie sugeruje jednak, że stan zapalny i zaburzenia metaboliczne mogą odgrywać rolę w zmniejszeniu ilości istoty szarej, stwierdza uczony.
      Analizy wykazały, że w grupie wiekowej 37–73 lata ilość istoty szarej zmniejszała się o 0,3% na każdy dodatkowy 1 kg/m2, co jest odpowiednikiem dodatkowych 3 kg wagi dla osoby o wzroście 173 cm.
      Coraz więcej dowodów wskazuje, że otyłość to złożona choroba i że szczególnie szkodliwy jest tłuszcz zgromadzony wokół organów wewnętrznych. My użyliśmy indywidualnych profili genetycznych i metabolicznych, by potwierdzić istnienie różnych typów otyłości. Nasze badania potwierdzają tezę mówiącą, że zanim ocenimy prawdopodobny wpływ otyłości na zdrowie konkretnego człowieka, musimy przyjrzeć się jego typowi otyłości. Nawet bowiem u osób o całkiem prawidłowej wadze, nadmiar tłuszczu w okolicach brzusznych może być powodem do zmartwień, podsumowuje profesor Elina Hyppönen.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Niedawno informowaliśmy, że spożywanie kawy nie zwiększa ryzyka wystąpienia arytmii. Tym razem mamy nie najlepsze wieści dla kawoszy. Międzynarodowy zespół naukowy złożony ze specjalistów z Australii, Etiopii i Wielkiej Brytanii poinformował, że spożywanie dużych ilości kawy jest powiązane ze zwiększonym ryzykiem demencji i mniejszą objętością mózgu. Do takich wniosków doszli przyglądając się danym 17 702 osób w wieku 37–73 lat z UK Biobank.
      Kawa to jeden z najpopularniejszych napojów na świecie. Roczna globalna konsumpcja przekracza 9 milionów ton. Ważne jest zatem, byśmy rozumieli jej wpływ na zdrowie, mówi główna autorka badań, doktorantka Kitty Pham z University of South Australia. Wraz z kolegami z Uniwersytetów w Addis Abebie, Exeter, Cambridge i Alan Turing Institute, analizowała ona dane dotyczące m.in. ryzyka udaru, demencji i objętości mózgu.
      Po uwzględnieniu wszelkich możliwych zmiennych zauważyliśmy, że konsumpcja większych ilości kawy jest w istotnym stopniu powiązana z mniejszą objętością mózgu. Picie ponad 6 filiżanek kawy dziennie może zwiększać ryzyko demencji i udarów, dodaje Pham.
      Naukowcy zauważyli, że związek pomiędzy konsumpcją kawy a ryzykiem demencji nie jest liniowy. Okazało się bowiem, że osoby spożywające ponad 6 filiżanek dziennie są narażone na średnio o 53% większe ryzyko wystąpienia demencji. Związek kawy z ryzykiem udaru był mniej widoczny.
      Zwykle ludzie piją 1-2 filiżanki kawy dziennie. [...] Jeśli jednak zauważymy, że zbliżamy się do 6 filiżanek dziennie, powinniśmy poważnie zastanowić się nad każdą kolejną filiżanką – stwierdziła jedna z badaczek, profesor Elina Hypponen.
      Wyniki badań ukazały się na łamach Nutritional Neuroscience.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...