Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Ludzkie ciało nie jest dostosowane do pobytu w przestrzeni kosmicznej. Dlatego zachowanie zdrowia i kondycji kosmonautów to jeden z priorytetów misji pozaziemskich. Wiemy, że długotrwały pobyt w stanie nieważkości prowadzi do utraty masy mięśniowej, osłabia kości, negatywnie wpływa na oczy. Nowe badania opublikowane na łamach JAMA Neurology sugerują, że poza ochronną powłoką ziemskiej atmosfery dochodzi też do uszkodzeń mózgu i przyspieszonej degeneracji komórek nerwowych.

Badania przeprowadzono na pięciu rosyjskich kosmonautach, którzy przebywali na Międzynarodowej Stacji Kosmicznej. Przed misją i po niej pobrano im próbki krwi, w których określono koncentrację białek specyficznych dla mózgu. Badania wykazały, że w czasie pobytu w przestrzeni kosmicznej dochodzi do niewielkich uszkodzeń mózgu, które mogą jednak mieć długofalowe niekorzystne skutki dla zdrowia. Badania takie mogą mieć poważne konsekwencje dla planowanych załogowych misji na Marsa.

Każdy z kosmonautów, a byli to mężczyźni, których średnia wieku wynosiła 49 lat, spędził w przestrzeni kosmicznej około pół roku. Na 20 dni przed startem pobrano od nich krew. Później badania powtórzono dzień, tydzień i trzy tygodnie po wylądowaniu. Henrik Zetterberg z Uniwersytetu w Göteborgu, Alexander Choukér z Uniwersytetu Ludwika Maksymiliana w Monachium oraz Glina Wassilijewa z Rosyjskiej Akademii Nauk określili poziom pięciu protein we krwi: lekkiego białka neurofilamentu (NfL), kwaśnego białka włókienkowego (GFAP), białka tau oraz amyloidu beta Aβ40 i Aβ42.

Poziom tych białek we krwi pozwala określić integralność komórek mózgowych. Na przykład podwyższony poziom NfL świadczy o uszkodzeniu aksonów, a poziom amyloidu beta jest wykorzystywany w diagnostyce chorób neurodegeneracyjnych.

Badania wykazały, że nawet 3 tygodnie po powrocie na Ziemię poziom NfL, GFAP oraz Aβ40 był u wszystkich znacznie podniesiony. Jednak spadał, gdyż największą koncentrację tych białek zarejestrowano tydzień po wylądowaniu. Zetterberg i Choukér informują, że z ich badań wynika, iż długoterminowy pobyt w przestrzeni kosmicznej wpływa na różne tkanki w mózgu.

Wydaje się, że problem dotyczy wszystkich tkanek odpowiednich dla badanych biomarkerów, mówi pomysłodawca badań, Peter zu Eulenburg z Göteborga.

Naukowcy przypuszczają, że przyczyną problemów jest zmiana dystrybucji płynów w czasie pobytu w przestrzeni kosmicznej oraz powrót sytuacji do normy po zakończeniu misji. Zwracają przy tym uwagę, że problemy dotykają kosmonautów przez całe tygodnie po powrocie, gdyż czas półrozpadu każdego z badanych biomarkerów jest znacznie krótszy niż trzy tygodnie. Utrzymywanie się wysokiego poziomu przez tak długi czas pokazuje, że problemy wciąż mają miejsce.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czyli potrzebne jest sztuczne ciążenie z wykorzystaniem siły odśrodkowej.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tyle, że to też rodzi problemy, które są powodowane siłami Coriolisa i różnicą przypsieszenia odśrodkowego pomiędzy głową a nogami załogantów. Móżdżek odczuwa ciążenie, które nie jest skierowane prostopadle do podłoża.

O centryfudze możemy na obecną chwilę chyba zapomnieć. Także sztuczne ciążenie możemy wytworzyć  przez obrót całego statku, który przy zastsowaniu napędu chemicznego może mieć zwartą konstrukcje, a więc krótki promień obrotu. Ale z kolei będzie powolny, a więc sam lot będzie dłuższy. Z kolei użycie napędu jądrowego skróci czas lotu ale utrudni wytworzenie ciążenia. Przy użyciu atomu habitat mieszkalny będzie musiał być odseparowany od reaktora przestrzenią zapewnioną przez kratownice, co wydłuży zaś promień obrotu. 

Problem w tym, że podobno wyniki eksperymentów wskazują, że lepsze są krótsze pobyty w wirówkach wytwarzających 2-3 g i powrót w nieważkość niż stałe przebywanie w "sztucznym " 1 G.

Pod tym kątem robi się jednak  mało eksperymentów. Ciekawe eksperymenty na orbicie Ziemi, jak ISS Centrifuge (0,51 G na ISS) i Mars Gravitiy Biosatelllite (wirówka dla myszy - 0,3 G) nie zostały zrealizowane.  A pierwszy ekesperyment z wytworzeniem sztucznego ciążenia  przeprowadzono już podczas misji Gemini XI poprzez połączenie liną z Ageną. Wytworzono wówczas 0,00015 g, używając silników manewrowych. Ciekawostka, że apogeum misji to było aż 1369 km nad Ziemią. Dalej byli tylko astroanuci misji księżycowych. Rekord Conrada i Gordona jet do dzisiaj nie pobity (poza selenonautami).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jest jeszcze pomysł wykorzystania 2 ch Starshipow połączonych liną. Do karuzeli można się przyzwyczaić :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja bym się przyjrzał diecie i nawykom które są w małej puszce na orbicie zupełnie inne niż na Ziemi. A jeśli mowa o Rosjanach to półroczna absencja alkoholowa też może być szokiem dla organizmu :D

Pewnie przyczyn jest wiele a nie tylko brak siły ciążenia

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
57 minutes ago, venator said:

Tyle, że to też rodzi problemy, które są powodowane siłami Coriolisa i różnicą przypsieszenia odśrodkowego pomiędzy głową a nogami załogantów. Móżdżek odczuwa ciążenie, które nie jest skierowane prostopadle do podłoża.

Jest minimalna średnica torusa po przekroczeniu której pojawią się problemy, ale są to problemy natury inżynieryjnej i do rozwiązania. Im większa średnica, tym konstrukcja wolniej może się obracaj, co nie będzie uciążliwe, a astronauci nie będą się potykać o własne nogi :)

Jeszcze znalazłem papier, gdzie w abstrakcie jest podane więcej wartości krótkoterminowych, długoterminowych, dla stałego personelu, gości po treningu, etc.

Quote

Since the NASA/Stanford space settlement studies of the 1970s the settlement design community has assumed that rotation rates must be no more than 1­2 rpm to avoid motion sickness. To achieve 1g, this rotation rate implies a settlement radius of approximately 225-­895 m, which is much larger than any existing satellite.

https://space.nss.org/wp-content/uploads/Space-Settlement-Population-Rotation-Tolerance-Globus.pdf

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Margines do wykorzystania nie jest wcale taki szeroki:

2019-04-zalogowe-statki-tabela-przyspies

Tabela z bardzo ciekawego artykułu o statkach międzyplanetarnych:

https://kosmonauta.net/2019/04/statki-miedzyplanetarne-modul-zalogowy-czesc-2/

Napisałem jednak, że

Godzinę temu, venator napisał:

Problem w tym, że podobno wyniki eksperymentów wskazują, że lepsze są krótsze pobyty w wirówkach wytwarzających 2-3 g i powrót w nieważkość niż stałe przebywanie w "sztucznym " 1 G.

Jeśli tak jest i chcielibyśmy iśc tą drogą, to rodzi już spore problemy z wytworzeniem takiej siły w kosmosie, w dodatku na statku, któy sam ma się nie obracać. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
38 minut temu, venator napisał:

Jeśli tak jest i chcielibyśmy iśc tą drogą, to rodzi już spore problemy z wytworzeniem takiej siły w kosmosie, w dodatku na statku, któy sam ma się nie obracać. 

Wydaje się że pomysł na dwie kapsuły połączone liną/kratą powinien się dać zrealizować. Potrzeba energii na rozpędzenie, potem jedynie uzupełnia się pęd tracony przez masę białka wędrującą wzdłuż mostu. Nic, czego by średnio zaawansowana automatyka nie umiała dopilnować - połączenie mogłoby być giętkie czyli lekka lina. Martwi wytrzymałość materiałów w temperaturach pustki kosmicznej, 1g jest 1g i na końcach będzie wisiało parę kilo.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dokładnie, układ taki można porównać do mostu wiszącego. Więc to nie jest nic z czym nie poradzą sobie inżynierowie w przyszłości albo duża, aczkolwiek skończona liczba studentów astro-inżynierii. Jest to obecnie skomplikowane zadanie głównie dlatego, że wystrzeliwujemy pojazdy o delikatnej konstrukcji jak puste puszki po piwie :)

Wydaje mi się, że odporność na rozciąganie rośnie wraz ze spadkiem temperatury. W okolicy 1 AU od Słońca na stronie nasłonecznionej jest ze 120 stopni C.

main-qimg-b751cd09d32bfdf65fa8c41b305200

https://www.quora.com/Why-does-tensile-strength-decrease-with-increasing-temperature-and-increase-with-decreasing-temperature

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jedynym problem jaki pozostaje to po co właściwie wysyłać kosmo/Astro/taiko-nautów na orbitę.
Roboty robią się tak sprytne, że bez problemu poradzą sobie z wszystkimi "taktycznymi" problemami a decyzje strategiczne i tak można wysyłać z Ziemi.
 

W dniu 6.11.2021 o 17:07, cyjanobakteria napisał:

Wydaje mi się, że odporność na rozciąganie rośnie wraz ze spadkiem temperatury.

Prosty wniosek - pancerze czołgów trzeba chłodzić kriogenicznie ;)
 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 hour ago, peceed said:

Prosty wniosek - pancerze czołgów trzeba chłodzić kriogenicznie ;)

Lepszy pancerz reaktywny z antymaterii, schłodzonej, nie wstrząśniętej i nie zmieszanej :)

 

1 hour ago, peceed said:

Jedynym problem jaki pozostaje to po co właściwie wysyłać kosmo/Astro/taiko-nautów na orbitę.

Słuszna uwaga, ale jest na wątku grono zwolenników misji załogowych. Za 2 tygodnie rusza NASA DART i myślę, że jest to kolejna zmarnowana okazja na udaną eksplorację załogową Układu Słonecznego :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie, to nie jest naiwna wiara zwolenników załogowych misji, zacytuje zresztą sam  sam siebie z innego wątku:

Cytat

 

1. Najważniejsza. Tylko załogowa misja na Marsa oraz oczywiście czasowy lub stały pobyt na tej planecie da nam odpowiedź co do technologicznych wymagań stałej obecności człowieka w przestrzeni pozaziemskiej. I przybliży nam odpowiedź na pytanie egzystencjalne - o to czy mamy szanse na rozwój  ludzkiej cywilizacji w kierunku kształtowania naszego gatunku jako międzyplanetarnego, a w dalekiej przyszłości - międzygwiezdnego. Kiedyś musi być ten pierwszy krok.

2. Przyspieszenie oraz rozwój tych technologii, które przy rozwoju tylko misji robotycznych, nie będą miały na to większej szansy. Np. wg. raportu The Science and Technology Policy Institute’s (STPI’s) z 2019 r. , powstałego na zlecenie NASA, a mającego dać odpowiedź na pytanie czy załogowe lądowanie na Marsie jest możliwe w 2033 r., jedną z najwiekszych trudności jest sprawność systemów podtrzymania życia. To także motywacja do pracy nad bardziej wydajnymi napędami, źródłami zasilania czy też inżynierią materiałową. Przy misjach automatycznych nie będzie  na to presji. 

3.Uzyskanie kompetencji miękkich.  Nic tak nie działa na wyobraźnie przyszłych inżynierów i astronautów, jak człowiek w kosmosie. 

Ps. STPI oceniła koszt misji załogowej na Marsa w 2039 r. na 87 mld dolarów wg. cen z 2017 r., ale w przypadku rozwoju technologii księżycowych np.Gateway, już tylko na 45 mld dolarów. 

 

45 mld dolarów to nie są w skali wydatków USA specjalnie duże pieniądze. 

 

Godzinę temu, Astro napisał:

jako pytanie pomocnicze: ile problemów za tę kasę można rozwiązać tu, na Ziemi, ile Istnień ludzkich można ocalić?

A ile problemów rozwiązano dzięki załogowym lotom w kosmos? Spuścizna programu Apollo choćby w zakresie medycyny, jest ogromna: urządzenia VAD (wspomaganie serca), termometry na podczerwień, implanty ślimakowe uszu , operacje oczu metodą LASIK , ratunkowe  koce termiczne typu NRC, nie mówiąc o tym, że w latach 60-tych 60% układów scalonych było kupowane przez NASA, dając potężny impuls do rozwoju branży.

Tutaj zresztą więcej:

https://en.wikipedia.org/wiki/NASA_spinoff_technologies

Znaczna część tych technologii jest związana z programem Gemini-Apollo. Była duża kasa i parcie polityczne, był i rozwój. 

Dlaczego więc nowy, tak wielkoskalowy program ma nie przynieść kolejnego skoku technologicznego?

A jak załogowy Mars może bezpośrednio przełożyć się na to ratowanie istnień ludzkich? Chćby przez to, ze NASA już teraz stawia na rozówj telemetrii medycznej. Weźmy taki pulsoksymetr. Jeszcze parę lat temu urządzenie znane głównie medykom i co bardziej świadomym chorym na przewlekłe choroby układu oddechowego, dziś dzieki COVID zrobiło powszechną karierę. Dzięki metodzie wczesnej diagnozy, uratował zapewne  życie gromnej rzeszy ludzi. NASA pracuje teraz nad pulsoksymetrem zapewniającym telemetrie, o wysokiej jakości i trwałości przekazu, a przede wszystkim precyzji pomiaru. Jak można wywnioskować z tego artykułu:

https://www.wired.com/story/pulse-oximeters-equity/

nowoczesne pulsoksymetry nie spełniają często podstawowych wymagań FDA. Jak się okazuje dzieki załogowym lotom kosmicznym, już blisko 50 lat temu firma HP we współpracy z NASA opracowała pulsoksymetr pod pewnymi względami znacznie lepszy  niż obecne komercyjne. Bo NASA, w programach załogowych, stawia wysoką poprzeczkę. I to jest dobry prognostyk dla silnego impulsu rozowjowego. 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 9.11.2021 o 04:30, Astro napisał:

Co do szacowania kosztów misji, to przypomnę tylko historię czegoś, co doskonale ogarniamy, czyli np. JWST. Z początkowego bodaj 0,5 mld zrobiło się chyba 10. No i trochę to trwało, a mówimy o wyniesieniu "jakiegoś lustra" tylko. ;)

Czemu akurat TEN  przykład? Przecież przyczyny takie stanu rzeczy mają swój kontekst historyczny, którym była min. dewiza ówczesnego administratora NASA, Daniela Goldwina - "szybciej, lepiej, taniej". Okazało się po czasie, że lepiej nie da się pogodzić z szybciej, a tym bardziej z taniej. Bo było to oparte na "nadziei". Jeszcze w 1984 r. szacowano koszt NGST na 4 mld, ale później zaczęto wierzyć w szybki postęp w tanim wynoszeniu ładunków w kosmos. 

Ale takie niedoszacowanie  to raczej normalka dla takich bezprecedensowych, niezwykle zaawansowanych programów. W 1972 r. koszty Hubble'a szacowano na 300 mln dolarów (1 mld w cenach z 2007 r.) Koszt wyniósł ostatecznie 4 mld. Było warto?

W dniu 9.11.2021 o 04:30, Astro napisał:

Poważniej - to przy obecnej technologii nie mamy, i nie jest to kwestia jakichkolwiek mniejszych czy większych "kroków". To zwyczajnie przepaść do przeskoczenia i nie widać tu żadnego światełka w tunelu.

Zgodzę się jak najbardziej w kwestii podróży międzygwiezdnych, ale Mars jest w technicznym zasięgu.  Nie ma żadnych fundamentalnych przeszkód technologicznych aby tam nie polecieć i zostać, przynajmniej w ograniczonym zakresie. 

W dniu 9.11.2021 o 04:30, Astro napisał:

Rozwój napędów to nie jest dziedzina, w której gorący oddech przełożonego na karku inżyniera da jakikolwiek pozytywny efekt. Ta dziedzina jest nieustannie finansowana - owszem

Nieustannie finansowana? Gdzie i kiedy? Jeszcze kilka lat temu na rozwój nuklearno-termicznego silnika (NTP) NASA  przeznaczała...7 mln dolarów rocznie. :lol::lol::lol:

A to najbliższa realizacji technologia napędu innego niż chemiczny, do sensownej  eksploracji załogowej deep space. 

W budżetowych realiach na + zmieniło się to dopiero w czasie prezydentury Trumpa. Na efekty przyjdzie jednak poczekać

W dniu 9.11.2021 o 04:30, Astro napisał:

Kiedyś już o tym wspominałem - kolejne lądowanie człowieka na Księżycu niczego już nie przyniesie (z pewnością nie w takiej skali);  nie jest to już kroczenie w nieznane. Podobnie według mnie misja na Marsa.

Wydaje mi się @Astroże jednak sam  sobie zaprzeczasz. Z jednej strony piszesz:  Poważniej - to przy obecnej technologii nie mamy, i nie jest to kwestia jakichkolwiek mniejszych czy większych "kroków". To zwyczajnie przepaść do przeskoczenia i nie widać tu żadnego światełka w tunelu.

Z drugiej strony piszesz, że wg.  Ciebie nic lądowanie na Marsie nam nie przyniesie. A więc to  pokonanie  technologicznej i mentalnej przepaści (w udanym locie na Marsa i powrocie)  nic nie przyniesie, będzie bezowocne? Naprawdę?

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Badacze z MIT, University of Cambridge i McGill University skanowali mózgi ludzi oglądających filmy i dzięki temu stworzyli najbardziej kompletną mapę funkcjonowania kory mózgowej. Za pomocą funkcjonalnego rezonansu magnetycznego (fMRI) naukowcy zidentyfikowali w naszej korze mózgowej 24 sieci połączeń, które pełnią różne funkcje, jak przetwarzanie języka, interakcje społeczne czy przetwarzanie sygnałów wizualnych.
      Wiele z tych sieci było znanych wcześniej, jednak dotychczas nie zbadano ich działania w warunkach naturalnych. Wcześniejsze badania polegały bowiem na obserwowaniu tych sieci podczas wypełniania konkretnych zadań lub podczas odpoczynku. Teraz uczeni sprawdzali ich działanie podczas oglądania filmów, byli więc w stanie sprawdzić, jak reagują na różnego rodzaju sceny. W neuronauce coraz częściej bada się mózg w naturalnym środowisku. To inne podejście, które dostarcz nam nowych informacji w porównaniu z konwencjonalnymi metodami badawczymi, mówi Robert Desimone, dyrektor McGovern Institute for Brain Research na MIT.
      Dotychczas zidentyfikowane sieci w mózgu badano podczas wykonywania takich zadań jak na przykład oglądanie fotografii twarzy czy też podczas odpoczynku, gdy badani mogli swobodnie błądzić myślami. Teraz naukowcy postanowili przyjrzeć się mózgowi w czasie bardziej naturalnych zadań: oglądania filmów.
      Wykorzystując do stymulacji mózgu tak bogate środowisko jak film, możemy bardzo efektywnie badań wiele obszarów kory mózgowej. Różne regiony będą różnie reagowały na różne elementy filmu, jeszcze inne obszary będą aktywne podczas przetwarzania informacji dźwiękowych, inne w czasie oceniania kontekstu. Aktywując mózg w ten sposób możemy odróżnić od siebie różne obszary lub różne sieci w oparciu o ich wzorce aktywacji, wyjaśnia badacz Reza Rajimehr.
      Bo badań zaangażowano 176 osób, z których każda oglądała przez godzinę klipy filmowe z różnymi scenami. W tym czasie ich mózgi były skanowane aparatem do rezonansu magnetycznego, generującym pole magnetyczne o indukcji 7 tesli. To zapewnia znacznie lepszy obraz niż najlepsze komercyjnie dostępne aparaty MRI. Następnie za pomocą algorytmów maszynowego uczenia analizowano uzyskane dane. Dzięki temu zidentyfikowali 24 różne sieci o różnych wzorcach aktywności i zadaniach.
      Różne regiony mózgu konkurują ze sobą o przetwarzanie specyficznych zadań, gdy więc mapuje się je z osobna, otrzymujemy nieco większe sieci, gdyż ich działanie nie jest ograniczone przez inne. My przeanalizowaliśmy wszystkie te sieci jednocześnie podczas pracy, co pozwoliło na bardziej precyzyjne określenie granic każdej z nich, dodaje Rajimehr.
      Badacze opisali też sieci, których wcześniej nikt nie zauważył. Jedna z nich znajduje się w korze przedczołowej i wydaje się bardzo silnie reagować na bodźce wizualne. Sieć ta była najbardziej aktywna podczas przetwarzania scen z poszczególnych klatek filmu. Trzy inne sieci zaangażowane były w „kontrolę wykonawczą” i były najbardziej aktywne w czasie przechodzenia pomiędzy różnymi klipami. Naukowcy zauważyli też, że były one powiązane z sieciami przetwarzającymi konkretne cechy filmów, takie jak twarze czy działanie. Gdy zaś taka powiązana sieć, odpowiedzialna za daną cechę, była bardzo aktywna, sieci „kontroli wykonawczej” wyciszały się i vice versa. Gdy dochodzi do silnej aktywacji sieci odpowiedzialnej za specyficzny obszar, wydaje się, że te sieci wyższego poziomu zostają wyciszone. Ale w sytuacjach niepewności czy dużej złożoności bodźca, sieci te zostają zaangażowane i obserwujemy ich wysoką aktywność, wyjaśniają naukowcy.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Neurolog Carina Heller poddała się w ciągu roku 75 badaniom rezonansem magnetycznym, by zebrać dane na temat wpływu pigułek antykoncepcyjnych na mózg. Pierwszą pigułkę antykoncepcyjną dopuszczono do użycia w USA w 1960 roku i już po dwóch latach przyjmowało ją 1,2 miliona Amerykanek. Obecnie z pigułek korzysta – z różnych powodów – około 150 milionów kobiet na całym świecie, co czyni je jednymi z najczęściej używanych leków. I chociaż generalnie są one bezpiecznie, ich wpływ na mózg jest słabo poznany.
      Dlatego też Heller postanowiła sprawdzić to na sobie. Zwykle bowiem eksperymentalne obrazowanie mózgu z wykorzystaniem MRI prowadzone jest na niewielkich grupach, a każda osoba poddawana jest badaniu raz lub dwa razy. Takim badaniom umykają codzienne zmiany w działaniu czy morfologii mózgu.
      Pani Heller najpierw pozwoliła przeskanować swój mózg 25 razy w ciągu 5 tygodni. Rejestrowano wówczas zmiany zachodzące podczas jej naturalnego cyklu. Klika miesięcy później zaczęła brać pigułki antykoncepcyjne i po trzech miesiącach poddała się kolejnym 25 skanom w ciągu 5 tygodni. Wkrótce po tym przestała brać pigułki, odczekała 3 miesiąca i została poddana ostatnim 25 skanom w 5 tygodni. Po każdym skanowaniu pobierano jej też krew do badań oraz wypełniała kwestionariusz dotyczący nastroju.
      Heller zaprezentowała wstępne wyniki swoich badań podczas dorocznej konferencji Towarzystwa Neuronauk. Uczona zauważyła, że w trakcie naturalnego cyklu dochodzi do regularnych zmian w objętości mózgu i liczbie połączeń pomiędzy różnymi regionami. W czasie brania pigułek objętość mózgu była nieco mniejsza, podobnie jak liczba połączeń. Po odstawieniu pigułek jej mózg w większości powrócił do naturalnego cyklu zmian.
      Uczona planuje też porównać wyniki swoich badań MRI z wynikami badań kobiety z endometriozą, niezwykle bolesną, niszczącą organizm i życie chorobą, która jest jedną z głównych przyczyn kobiecej niepłodności. Uczona chce sprawdzić, czy zmiany poziomu hormonów w mózgu mogą mieć wpływ na rozwój choroby.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Choroba Alzheimera niszczy mózg w dwóch etapach, ogłosili badacze z amerykańskich Narodowych Instytutów Zdrowia. Ich zdaniem pierwszy etap przebiega powoli i niezauważenie, zanim jeszcze pojawią się problemy z pamięcią. Wówczas dochodzi do uszkodzeń tylko kilku typów wrażliwych komórek. Etap drugi jest znacznie bardziej niszczący i w nim dochodzi do pojawienia się objawów choroby, szybkiej akumulacji blaszek amyloidowych, splątków i innych cech charakterystycznych alzheimera.
      Jednym z problemów związanych z diagnozowaniem i leczeniem choroby Alzheimera jest fakt, że do znacznej części szkód dochodzi na długo zanim pojawią się objawy. Możliwość wykrycia tych szkód oznacza, że po raz pierwszy możemy obserwować to, co dzieje się w mózgu chorej osoby na najwcześniejszych etapach choroby. Uzyskane przez nas wyniki w znaczący sposób zmienią rozumienie, w jaki sposób choroba uszkadza mózg i ułatwią opracowanie nowych metod leczenia, mówi doktor Richar J. Hodes, dyrektor Narodowego Instytutu Starzenia Się.
      Badacze przeanalizowali mózgu 84 osób i stwierdzili, że uszkodzenie na wczesnym etapie choroby neuronów hamujących może być tym czynnikiem, który wyzwala całą kaskadę reakcji prowadzących do choroby.
      Badania potwierdziły też wcześniejsze spostrzeżenia dotyczące alzheimera. Naukowcy wykorzystali zaawansowane narzędzia do analizy genetycznej, by bliżej przyjrzeć się komórkom w zakręcie skroniowym środkowym, gdzie znajdują się ośrodki odpowiedzialne za pamięć, język i widzenie. Obszar ten jest bardzo wrażliwy na zmiany zachodzące w chorobie Alzheimera.
      Porównując dane z analizowanych mózgów z danymi z mózgów osób, które cierpiały na alzheimera, naukowcy byli w stanie odtworzyć linię czasu zmian zachodzących w komórkach i genach w miarę rozwoju choroby.
      Wcześniejsze badania sugerowały, że do uszkodzeń dochodzi z kilkunastu etapach charakteryzujących się coraz większą liczbą umierających komórek, zwiększającym się stanem zapalnym i akumulacją białka w postaci blaszek amyloidowych i splątków. Z nowych badań wynika, że występują jedynie dwa etapy, a do wielu uszkodzeń dochodzi w drugim z nich i to wówczas pojawiają się widoczne objawy.
      W pierwszej, wolno przebiegającej ukrytej fazie, powoli gromadzą się blaszki, dochodzi do aktywowania układu odpornościowego mózgu, osłonki mielinowej oraz śmierci hamujących neuronów somatostatynowych. To ostatnie odkrycie jest zaskakujące. Dotychczas uważano bowiem, że szkody w alzheimerze są powodowane głównie poprzez uszkodzenia neuronów pobudzających, które aktywują komórki, a nie je uspokajają. W opublikowanym na łamach Nature artykule możemy zapoznać się z hipotezą opisującą, w jaki sposób śmierć neuronów somatostatynowych może przyczyniać się do rozwoju choroby.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Symulacje przeprowadzone na Uniwersytecie w Toronto wskazują, że szybkie rozpowszechnienie samochodów elektrycznych może mieć olbrzymie znaczenie dla zdrowia całej populacji. Naukowcy z Department of Civil & Mineral Engineering i Saudi Aramco stwierdzili, że gwałtowny wzrost liczby samochodów elektrycznych w USA, w połączeniu ze znacznym zwiększeniem produkcji energii ze źródeł odnawialnych, przyniósłby korzyści w obszarze ochrony zdrowia, których wartość wyniosłaby od 84 do 188 miliardów dolarów do roku 2050. Nawet scenariusze z wolniejszym rozpowszechnianiem się samochodów elektrycznych i odnawialnych źródeł energii wykazały korzyści idące w dziesiątki miliardów USD.
      Gdy specjaliści badają wpływ samochodów elektrycznych, zwykle skupiają się na emisji dwutlenku węgla i jego wpływie na miany klimatu, mówi profesor Marianne Hazopoulou. Jednak CO2 nie jest jedyną substancją, emitowaną przez rury wydechowe. Silniki spalinowe wytwarzają wiele zanieczyszczeń powietrza, które mają duży wpływ na zdrowie ludzi. I wpływ ten można zmierzyć, dodaje uczona.
      W badaniach brali też udział doktor Jean Schmitt, profesorowie Daniel Posen i Heather Maclean, oraz badacz z największego na świecie koncernu naftowego, Amir F.N. Abdul-Manan z należącego do Saudi Aramco Strategic Transport Analysis Team.
      Wymienieni eksperci specjalizują się w badaniu cyklu życiowego produktów. Swoje doświadczenie wykorzystali już wcześniej do stworzenia modelu komputerowego oceniającego wpływ elektryfikacji transportu na rynek w USA. Wykazali wówczas, że samo przejście na transport elektryczny nie wystarczy, by spełnić cele porozumienia paryskiego. Teraz postanowili zająć się wpływem samochodów elektrycznych na ludzkie zdrowie.
      Uczeni wykorzystali swój model komputerowy do przeprowadzenia symulacji tego, co dzieje się z innymi niż CO2 produktami spalania. Modelowanie tych zanieczyszczeń jest bardzo różne od modelowania CO2, które pozostaje w atmosferze przez dziesięciolecia i jest w niej dobrze wymieszane. Te inne zanieczyszczenia oraz ich wpływ na zdrowie, oddziałują bardziej miejscowo. Ważne są tutaj zarówno poziom emisji, jak i jej miejsce, wyjaśnia profesor Posen.
      Co prawda samochody elektryczne nie emitują zanieczyszczeń, ale również mogą być odpowiedzialne za ich powstawanie, jeśli są zasilane energią produkowaną z paliw kopalnych. Jednocześnie przenoszą te zanieczyszczenia z dróg do elektrowni. Zatem narażone są na nie bardziej społeczności żyjące w pobliżu zakładów produkcji energii.
      Obecnie produkowane samochody spalinowe wytwarzają znacznie mniej zanieczyszczeń, niż samochody wyprodukowane 20 lat temu. Tych ostatnich wciąż wiele jeździ po drogach. Jeśli więc chcemy uczciwie porównać samochody elektryczne z samochodami spalinowymi, musimy wziąć pod uwagę, że emisja z samochodów spalinowych będzie jeszcze bardziej spadała w miarę, jak starsze pojazdy będą wycofywane z użytkowania. Musimy też brać pod uwagę strukturę produkcji energii, w tym fakt, że energia odnawialna ma coraz większy udział, wyjaśnia doktor Schmitt.
      Naukowcy wybrali dwa główne scenariusze, na podstawie których symulowali sytuację do roku 2050. Pierwszy z nich zakładał, że nie produkujemy już więcej żadnego samochodu elektrycznego, a jednocześnie starsze samochody spalinowe są zastępowane nowszymi, bardziej efektywnymi pojazdami. Według drugiego scenariusza, prowadzona jest szybka elektryfikacja transportu i po roku 2035 sprzedawane są wyłącznie samochody elektryczne. Ten drugi scenariusz badacze nazwali „agresywnym”, ale przypomnieli, że jest on zgodny z deklaracjami wielu krajów. Na przykład Norwegia planuje, że już w przyszłym roku w kraju tym sprzedawane będą wyłącznie samochody elektryczne, a Kanada deklaruje, że samochody spalinowe nie będą sprzedawane najpóźniej od roku 2035.
      Dla obu scenariuszy ustanowiono cały szereg warunków i symulowano poziom zanieczyszczeń powietrza w USA. Następnie naukowcy wykorzystali metodologię używaną przez epidemiologów, firmy ubezpieczeniowe i analityków rządowych do powiązania poziomów zanieczyszczeń z szacunkami takimi jak utracone lata życia oraz ich wartość gospodarcza.
      Nasza symulacja pokazuje, że szybkie rozpowszechnianie się samochodów elektrycznych pomiędzy dniem dzisiejszym a rokiem 2050, przyniesie skumulowane korzyści dla zdrowia publicznego liczone w setkach miliardów dolarów, mówi Posen. To bardzo znaczący wynik, ale trzeba tutaj podkreślić, że korzyści te można osiągnąć tylko wówczas, gdy systemy produkcji energii elektrycznej będą stawały się coraz bardziej ekologiczne. Już teraz odchodzimy od paliw kopalnych i trend ten prawdopodobnie będzie też obecny w przyszłości. Na potrzeby naszych symulacji rozważyliśmy też scenariusz, w którym miks energetyczny się nie zmienia i udział poszczególnych rodzajów energii jest taki sam jak obecnie. W takim przypadku lepiej byłoby zastąpić wszystkie stare samochody spalinowe nowymi. To również nie jest zbyt realistyczny scenariusz, wyjaśnia Posen.
      Warto więc zadać sobie kolejne pytanie. Czy ważniejsza jest dekarbonizacja transportu poprzez szerokie rozpowszechnienie samochodów elektrycznych czy też najpierw należy zdekarbonizować produkcję energii, bo to ona jest źródłem zanieczyszczeń generowanych przez samochody elektryczne.
      Żeby odpowiedzieć na to pytanie, musimy zdać sobie sprawę z tego, że kupowane dzisiaj samochody będą jeździły po drogach przez kolejne dekady. Jeśli będziemy sprzedawali więcej samochodów spalinowych to, niezależnie od ich efektywności, będą one przez lata zanieczyszczały środowisko i negatywnie wpływały na ludzkie zdrowie. Musimy dekarbonizować źródła produkcji energii, i to robimy, ale nie możemy czekać na zakończenie tego procesu, by rozpowszechniać samochody elektryczne, wyjaśnia Hatzopoulou.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Z jakiego powodu pojawił się duży mózg? Objętość mózgu przedstawicieli taksonu Australopithecine, z którego prawdopodobnie wyewoluował rodzaj Homo, była około 3-krotnie mniejsza, niż mózgu H. sapiens. Tkanka mózgowa jest bardzo wymagająca pod względem metabolicznym, wymaga dużych ilości energii. Co spowodowało, że w pewnym momencie zaczęła się tak powiększać? Najprawdopodobniej było to związane z dietą, a jedna z najbardziej rozpowszechnionych hipotez mówi, że to opanowanie ognia dało naszym przodkom dostęp do większej ilości kalorii. Jednak hipoteza ta ma poważną słabość.
      Francusko-amerykański zespół opublikował na lamach Communications Biology artykuł pod tytułem Fermentation technology as a driver of human brain expansion, w którym stwierdza, że to nie ogień, a fermentacja żywności pozwoliła na pojawienie się dużego mózgu. Hipoteza o wpływie ognia ma pewną poważną słabość. Otóż najstarsze dowody na używanie ognia pochodzą sprzed około 1,5 miliona lat. Tymczasem mózgi naszych przodków zaczęły powiększać się około 2,5 miliona lat temu. Mamy więc tutaj różnicę co najmniej miliona lat. Co najmniej, gdyż zmiana, która spowodowała powiększanie się mózgu musiała pojawić na znacznie wcześniej, niż mózg zaczął się powiększać.
      Katherina L. Bryant z Uniwersytetu Aix-Marseille we Francji, Christi Hansen z Hungry Heart Farm and Dietary Consulting oraz Erin E. Hecht z Uniwersytetu Harvarda uważają, że tym, co zapoczątkowało powiększanie się mózgu naszych przodków była fermantacja żywności. Ich zdaniem pożywienie, które przechowywali, zaczynało fermentować, a jak wiadomo, proces ten zwiększa dostępność składników odżywczych. W ten sposób pojawił się mechanizm, który – dostarczając większej ilości składników odżywczych – umożliwił zwiększanie tkanki mózgowej.
      Uczone sądzą, że do fermentacji doszło raczej przez przypadek. To mógł być przypadkowy skutek uboczny przechowywania żywności. I, być może, z czasem tradycje czy przesądy doprowadziły do zachowań, które promowały fermentowaną żywność, a fermentację uczyniły bardziej stabilną i przewidywalną, dodaje Hecht.
      Uzasadnieniem takiego poglądu może być fakt, że ludzkie jelito grupe jest krótsze niż u innych naczelnych, co sugeruje, iż jest przystosowane do trawienia żywności, w której składniki zostały już wcześniej wstępnie przetworzone. Ponadto fermentacja jest wykorzystywana we wszystkich kulturach.
      Zdaniem uczonych, w kontekście tej hipotezy pomocne byłoby zbadanie reakcji mózgu na żywność fermentowaną i niefermentowaną oraz badania nad receptorami smaku i węchu, najlepiej wykonane za pomocą jak najstarszego DNA.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...