Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Silny stres wydaje się zwiększać ryzyko chorób autoimmunologicznych

Rekomendowane odpowiedzi

Wiele wskazuje na to, że uraz lub intensywny stres zwiększają ryzyko chorób autoimmunologicznych.

Porównując ponad 106 tys. osób z zaburzeniami stresowymi z ponad 1 mln zdrowych ludzi, naukowcy odkryli, że stres wiąże się z o 36% wyższym ryzykiem wystąpienia 41 chorób autoimmunologicznych, w tym łuszczycy, reumatoidalnego zapalenia stawów czy choroby Leśniowskiego-Crohna.

"Osoby, u których po urazie bądź pod wpływem innych stresorów, występują silne reakcje emocjonalne, powinny poszukać pomocy medycznej, gdyż istnieje ryzyko przewlekłości tych objawów i dalszego pogorszenia stanu zdrowia, np. rozwoju chorób autoimmunologicznych" - wyjaśnia dr Huan Song z Uniwersytetu Islandzkiego w Reykjavíku.

Song dodaje, że w przypadku zaburzeń stresowych sprawdzają się leki i terapia poznawczo-behawioralna. Podając pacjentom z zespołem stresu pourazowego (ang. post-traumatic stress disorder, PTSD) selektywne inhibitory zwrotnego wychwytu serotoniny, można by więc obniżać ryzyko choroby autoimmunologicznej, zwłaszcza gdyby były one zażywane w pierwszym roku po postawieniu diagnozy.

Współautorka artykułu z Journal of the American Medical Association zaznacza, że badanie miało charakter obserwacyjny, na razie nie można więc mówić o wywoływaniu przez stres chorób autoimmunologicznych, tylko o korelacji.

W ramach studium zespół Song analizował przypadki pacjentów ze Szwecji, u których w latach 1981-2013 zdiagnozowano zaburzenia powiązane ze stresem, w tym PTSD, ostrą reakcję na stres czy zaburzenia adaptacyjne. Porównywano ich z rodzeństwem oraz zdrowymi przedstawicielami populacji generalnej.

Choć nie wiadomo, czemu stres może zwiększać ryzyko chorób autoimmunologicznych, eksperci mają parę pomysłów. Wspominają m.in. o wpływie stresu na tryb życia, np. na ilość snu czy spożycie substancji psychoaktywnych, oraz o bezpośrednich oddziaływaniach na układ nerwowy.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Ryzyko zgonu na nowotwory spowodowane ekspozycją na niskie dawki promieniowania jonizującego jest znacznie wyższe, niż się obecnie przypuszcza, czytamy na łamach British Medical Journal. Ma to znaczenie zarówno dla osób wystawionych na promieniowanie jonizujące w pracy, jak i dla pacjentów poddawanych procedurom medycznym. Między rokiem 1985 a 2006 średnia dawka promieniowania jonizującego przyjęta przez mieszkańca USA zwiększyła się dwukrotnie, głównie za sprawą rozpowszechnienia takich technik medycznych jak tomografia komputerowa.
      Obecnie głównym źródłem informacji o wpływie promieniowania jonizującego na ludzkie zdrowie są dane uzyskane o osób, które przeżyły ataki za pomocą broni atomowej. Jednak sposób ekspozycji i przyjęte przez nie dawki znacząco różnią się od tego, w jaki sposób promieniowanie przedostaje się do organizmów pracowników, pacjentów i każdego z nas. Dlatego międzynarodowy zespół, w skład którego wchodzili m.in. specjaliści z Uniwersytetu Kalifornijskiego w Irvine, brytyjskiej Agencji Ochrony Zdrowia, francuskiego Institut de Radioprotection et de Sûreté Nucléaire czy amerykańskiego Narodowego Instytutu Medycyny Pracy, przeprowadził analizy zdrowia osób, które w miejscu pracy mają styczność z promieniowaniem jonizującym.
      Pod uwagę wzięto informacje z International Nuclear Workers Study, gdzie zgromadzone są dane 309 932 pracowników przemysłu atomowego. Znajdziemy tam informacje zarówno o osobach, które od początku pracowały przy Projekcie Manhattan, jak i pracownikach elektrowni atomowych i innych miejsc we Francji, Wielkiej Brytanii i USA. Osoby te nosiły przy sobie indywidualne monitory promieniowania, dzięki czemu wiemy, na jakie dawki były narażone. Naukowcy postanowili poszukać związku pomiędzy dawkami promieniowania o zgonami z powodu nowotworów.
      Dotychczas zmarło 103 533 badanych, a nowotwory inne niż białaczka były przyczyną 28 089 zgonów. Z analiz wynika, że ryzyko zgonu na nowotwór rośnie o 52% wraz z każdym grejem (Gy) skumulowanej dawki przyjętego promieniowania. Grej to bardzo duża dawka. W obrazowaniu medycznym używa się miligrejów. Dawki liczone w grejach otrzymują pacjenci podczas radioterapii. Ponadto okazało się, że szczególnie niedoszacowywano dotychczas wpływu najniższych dawek. Tam, gdzie badani byli wystawieni na promieniowanie rzędu 0–100 mGy, ryzyko zgonu z powodu nowotworu rosło o 130% z każdym przyjętym grejem.
      Wbrew trendowi redukcji lub eliminacji ekspozycji na znane kancirogeny, ekspozycja społeczeństwa na promieniowanie jonizujące zwiększyła się w ostatnich dekadach. Zrozumienie ryzykz związanego z niskimi dawkami tego promieniowania jest niezbędne do prowadzenia odpowiedniej polityki zdrowotnej, stwierdził główny autor badań, profesor David B. Richardson z Uniwersytetu Kalifornijskiego w Irvine.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Osoby w średnim i starszym wieku, śpiące mniej niż 5 godzin na dobę, zwiększają ryzyko wystąpienia u siebie co najmniej 2 chorób chronicznych, ostrzegają naukowcy w University College London. Na łamach PLOS Medicine opublikowano analizę wpływu długości snu na zdrowie ponad 7000 osób w wieku 50-80 lat. Naukowcy analizowali związek pomiędzy długością snu, śmiertelnością i wystąpieniem wielochorobowości, czyli co najmniej 2 chorób chronicznych – jak cukrzyca, choroby serca czy nowotwory – na przestrzeni 25 lat.
      Okazało się, że osoby, które w wieku 50 lat spały 5 godzin lub mniej w ciągu doby, były narażone na o 20% większe ryzyko wystąpienia choroby chronicznej oraz o 40% wyższe ryzyko wystąpienia dwóch chorób chronicznych w ciągu kolejnych 25 lat niż osoby, które spały przez siedem godzin.
      Ponadto naukowcy zauważyli, że jeśli w wieku 50 lat śpimy pięć godzin lub mniej to nasze ryzyko zgonu w ciągu kolejnych 25 lat rośnie o 25%. Może to być związane ze spostrzeżeniem, że tak krótki sen zwiększa ryzyko chorób chronicznych, a te z kolei zwiększają ryzyko zgonu.
      W krajach o wysokich dochodach rośnie liczba przypadków wielochorobowości. Już ponad połowa starszych dorosłych cierpi tam na co najmniej 2 choroby chroniczne. To poważny problem dla systemów opieki zdrowotnej, gdyż wielochorobowość znacząco podnosi jej koszty, wiąże się z niepełnosprawnością i licznymi hospitalizacjami. W miarę, jak się starzejemy, zmieniają się nasze przyzwyczajenia dotyczące snu i jego struktura. Ważne jest jednak, by spać 7–8 godzin na dobę. Już wcześniej dłuższy i krótszy sen wiązano z występowaniem chorób chronicznych. Nasze badania pokazały, że występuje tutaj wielochorobowość, mówi główna autorka badań, doktor Severine Sabia.
      Powinniśmy zadbać o higienę snu. Należy spać w ciemnym cichym miejscu i w odpowiedniej temperaturze. Przed snem nie powinniśmy zjadać obfitych posiłków oraz korzystać z urządzeń elektronicznych. W zdrowym śnie pomagają też ćwiczenia fizyczne oraz dostęp do naturalnego światła słonecznego za dnia.
      Autorzy sprawdzali też, czy spanie ponad 9godzin na dobę wpływa na pojawienie się wielochorobowości. Okazało się, że o ile nie ma związku pomiędzy 9-godzinnym i dłuższym snem w wieku 50 lat a pojawieniem się wielochorobowości u osób zdrowych, to u osób ze zdiagnozowaną jedną chorobą chroniczną długi sen wiązał się z o 35% wyższym ryzykiem rozwoju kolejnej choroby chronicznej.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Przed niemal 700 laty w Europie, Azji i Afryce krwawe żniwo zbierała Czarna Śmierć, największa epidemia w historii ludzkości. Międzynarodowy zespół naukowy z McMaster University, University of Chicago, Instytutu Pasteura i innych organizacji, przez siedem lat prowadził badania nad zidentyfikowaniem różnic genetycznych, które zdecydowały, kto umrze, a kto przeżyje epidemię. W trakcie badań okazało się, że w wyniku wywołanej przez epidemię presji selekcyjnej na nasz genom, ludzie stali się bardziej podatni na choroby autoimmunologiczne.
      Naukowcy skupili się na badaniu szczątków osób, które zmarły w Londynie przed, w trakcie i po epidemii. Badany okres obejmował 100 lat. Naukowcy pobrali próbki DNA z ponad 500 ciał, w tym z masowych pochówków ofiar zarazy z lat 1348–1349 z East Smithfield. Dodatkowo skorzystano też z DNA osób pochowanych w 5 różnych miejscach w Danii. Naukowcy poszukiwali genetycznych śladów adaptacji do obecności bakterii Yersinia pestis, odpowiedzialnej za epidemię dżumy.
      Udało się zidentyfikować cztery geny, które uległy zmian. Wszystkie są zaangażowane w produkcję białek broniących organizmu przed patogenami. Uczeni zauważyli że konkretny alel (wersja) genu, decydował o tym, czy dana osoba jest mniej czy bardziej podatna na zachorowanie i zgon.
      Okazało się, że osoby, z dwoma identycznymi kopiami genu ERAP2 znacznie częściej przeżywały pandemię, niż osoby, u których kopie tego genu były różne. Działo się tak, gdyż te „dobre” kopie umożliwiały znacznie bardziej efektywną neutralizację Y. pestis.
      Gdy mamy do czynienia z pandemią, która zabija 30–50 procent populacji, występuje silna presja selektywna. Wersje poszczególnych genów decydują o tym, kto przeżyje, a kto umrze. Ci, którzy mają odpowiednie wersje genów, przeżyją i przekażą swoje geny kolejnym pokoleniom, mówi główny współautor badań, genetyk ewolucyjny Hendrik Poinar z McMaster University.
      Europejczycy, żyjący w czasach Czarnej Śmierci, byli początkowo bardzo podatni na zachorowanie i zgon, ponieważ od dawna nie mieli do czynienia z dżumą. Z czasem, gdy w kolejnych wiekach pojawiały się kolejne fale epidemii, śmiertelność spadała. Naukowcy szacują, że osoby z „dobrym” alelem ERAP2 miały o 40–50 procent większe szanse na przeżycie. To, jak zauważa profesor Luis Barreiro z University of Chicago, jeden z najsilniejszych znalezionych u człowieka dowodów na przewagę uzyskaną w wyniku adaptacji. To pokazuje, że pojedynczy patogen może mieć silny wpływ na ewolucję układu odpornościowego, dodaje uczony.
      Z czasem nasz układ odpornościowy ewoluował w taki sposób, że to, co pozwalało uchronić ludzi przed średniowieczną zarazą, dzisiaj zwiększa naszą podatność na takie choroby autoimmunologiczne jak choroba Crohna czy reumatoidalne zapalenie stawów.
      Zrozumienie dynamiki procesów, które ukształtowały nasz układ odpornościowy, jest kluczem do zrozumienia, w jaki sposób pandemie z przeszłości, takie jak dżuma, przyczyniły się do naszej podatności na choroby w czasach współczesnych, mówi Javier Pizarro-Cerda z Yersinia Research Unit w Instytucie Pasteura.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Mrówki Solenopsis richteri posługują się piaskiem jak narzędziem, by pozyskać ciekły pokarm (roztwór cukru), nie tonąc w nim. Autorzy artykułu z pisma Functional Ecology podkreślają, że to pokazuje, że dostosowują strategię korzystania z narzędzi do ryzyka związanego z żerowaniem.
      S. richteri pochodzą z Ameryki Południowej. Po introdukcji do południowych USA są tu uznawane za gatunek inwazyjny.
      Gdy mrówkom zapewniono niewielkie pojemniczki z roztworem cukru, dzięki hydrofobowemu egzoszkieletowi były w stanie unosić się na powierzchni i żerować. Gdy jednak naukowcy zmniejszyli napięcie powierzchniowe, S. richteri zaczęły przenosić piasek, by spuścić ciecz z naczynia.
      Odkryliśmy, że mrówki budują strukturę z piasku, która skutecznie wyciąga ciecz z pojemnika, tak aby później można ją było zebrać - opowiada dr Aiming Zhou z Huazhong Agricultural University. Ta niesamowita umiejętność nie tylko zmniejszała ryzyko utonięcia, ale i zapewniała większą powierzchnię do zbierania roztworu.
      Okazało się, że struktury z piasku były tak skuteczne, że w ciągu 5 minut mogły wyciągać z pojemniczków niemal połowę cieczy.
      Naukowcy zmieniali napięcie powierzchniowe za pomocą surfaktantu. Gdy jego stężenie wynosiło ponad 0,05%, co przekładało się na znaczące ryzyko utonięcia, mrówki budowały struktury z piasku. Nie tworzyły ich, żerując na czystym roztworze cukru. Podczas eksperymentów owadom dostarczano piasek o różnej wielkości ziaren; w ten sposób można było określić ich preferencje budowlane w takiej sytuacji.
      Wiemy, że niektóre gatunki mrówek są w stanie posługiwać się narzędziami, szczególnie przy zbieraniu ciekłego pokarmu. Byliśmy jednak zaskoczeni niesamowitymi umiejętnościami S. richteri w tym zakresie - dodaje dr Jian Chen, entomolog z amerykańskiego Departamentu Rolnictwa.
      Dr Zhu podkreśla, że konieczne są dalsze badania. Nasze eksperymenty były prowadzone w laboratorium i dotyczyły wyłącznie S. richteri. Kolejnym krokiem powinno być ustalenie, jak bardzo zachowanie to jest rozpowszechnione u innych gatunków mrówek.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Im dłużej ktoś przyjmuje niskie dawki aspiryny, tym niższe ryzyko zapadnięcia na raka trzustki.
      Odkryliśmy, że stosowanie niskich dawek aspiryny wiązało się ze zmniejszeniem ryzyka raka trzustki o połowę. Pewne dowody świadczyły o tym, że im dłuższe zażywanie aspiryny, tym niższe ryzyko - wyjaśnia dr Harvey A. Risch ze Szkoły Zdrowia Publicznego Yale. Ponieważ ok. 1 dorosła osoba na 60 będzie mieć raka trzustki, a 5-letnia przeżywalność nie przekracza w przypadku tej choroby 5%, musimy znaleźć skuteczne metody prewencji.
      U kobiet i mężczyzn, którzy regularnie zażywają aspirynę, ryzyko wystąpienia raka trzustki spada o 48%. W grupie przyjmującej aspirynę 6 lat lub krócej zaobserwowano spadek ryzyka o 39%, a wśród osób zażywających ją od ponad dekady aż o 60%.
      Wyniki wcześniejszych studiów zaciemniał fakt, że aspirynę przyjmowano, by znieść ból związany z chorobami, które same w sobie mogą mieć coś wspólnego z ryzykiem raka trzustki. Dopiero ostatnio ludzie [zapobiegając chorobom sercowo-naczyniowym] stosują niskie dawki aspiryny na tyle długo, by wpłynęło to na ryzyko rozwoju raka trzustki.
      Ochotników do studium Rischa zwerbowano w latach 2005-2009 w 30 szpitalach stanu Connecticut. Zebrano 362 pacjentów z rakiem trzustki i 690-osobową grupę kontrolną. Naukowcy prowadzili wywiady, by ustalić, kiedy ktoś zaczął zażywać aspirynę, czy stosował niskie, czy wysokie dawki i kiedy ewentualnie przestał zażywać ten lek. Brano poprawkę na potencjalnie istotne czynniki, w tym wskaźnik masy ciała, palenie czy cukrzycę.
      Większość uczestników studium (57%) stanowili mężczyźni. Ok. 49% to byli lub czynni palacze, a u 19% w ciągu 3 lat przed badaniem zdiagnozowano cukrzycę.
      Za niską dawkę, stosowaną zazwyczaj w ramach zapobiegania chorobom sercowo-naczyniowym, uznawano dozę 75-325 mg dziennie. Wyższe dawki, zażywane co 4-6 godz., uznawano za regularne przyjmowanie aspiryny w celach przeciwbólowych bądź przeciwzapalnych. Ustalono, że 96% osób z grupy z niskimi dawkami i 92% z wysokimi dawkami zażywało lek codziennie.
      Im wcześniej ktoś zaczął regularnie przyjmować niskie dawki aspiryny, tym większy spadek ryzyka raka trzustki (u pacjentów, którzy rozpoczęli zapobieganie 3 lata przed początkiem studium, wynosił on 48%, a u osób, które wystartowały 20 lat przed badaniem, aż 60%). W porównaniu ze stałym zażywaniem, przerwanie stosowania na przestrzeni 2 lat przed studium wiązało się z 3-krotnym wzrostem ryzyka zachorowania.
      Risch podkreśla, że zażywanie aspiryny może być ryzykowne samo w sobie, dlatego plusy i minusy każdorazowo powinno się rozważać indywidualnie.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...