Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Koksakiwirusy są czynnikami wyzwalającymi, które mogą zwiększać ryzyko cukrzycy typu 1.

Rekomendowane odpowiedzi

Od dawna trwają poszukiwania czynników wyzwalających, które mogą podwyższać ryzyko cukrzycy typu 1. Okazuje się, że jednym z nich są koksakiwirusy.

Za podwyższonym ryzykiem stoi czynnik transkrypcyjny - czynnik indukowany hipoksją (HIF-1, ang. hypoxia inducible factor), a konkretnie jego podjednostka alfa (HIF-1 jest heterodimerem złożonym z dwóch podjednostek – HIF-1α i HIF-1β - które należą do grupy czynników transkrypcyjnych).

Naukowcy odkryli bowiem, że myszy, w których komórkach beta nie występuje HIF-1α, mają po zakażeniu wirusami, w tym koksakiwirusami, o wiele wyższe ryzyko wystąpienia cukrzycy typu 1. Brak HIF-1α nasila obumieranie komórek beta i zwiększa zapadalność na cukrzycę typu 1.

Zdrowe komórki beta regenerują się po stresach, takich jak infekcje wirusowe, i cukrzyca się nie rozwija. Jeśli jednak komórki beta nie radzą sobie dobrze z takim sytuacjami, może to wyzwalać proces immunologiczny prowadzący do cukrzycy typu 1. - opowiada prof. Jenny Gunton z Westmead Institute for Medical Research.

Nasze studium wykazało także, że podwyższone ryzyko cukrzycy może być wynikiem ekspozycji na inne stresory, np. na toksyny. [...] Ustaliliśmy, że HIF-1α odgrywa ważną rolę, gdy ważą się losy komórek beta (gdy decyduje się, czy dojdzie do ich śmierci, czy regeneracji).

Wyniki opublikowane na łamach pisma Cell Reports wskazują na potencjał HIF-1α przy opracowywaniu nowych metod terapii. Niewykluczone też, że szczepienie przeciwko koksakiwirusom pomoże w zapobieganiu cukrzycy typu 1. w grupie podwyższonego ryzyka.

Choć w cukrzycy typu 1. jest silny komponent genetyczny, same geny nie mogą wyjaśnić rosnących światowych wskaźników cukrzycy. Obecnie jednym lekarstwem na to schorzenie są przeszczepy całych trzustek bądź wysp trzustkowych. Ludzie muszą [więc] przez całe życie przyjmować insulinę. Nic więc dziwnego, że istnienie strategii zapobiegawczych wydaje się ekscytujące.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Ryzyko zgonu na nowotwory spowodowane ekspozycją na niskie dawki promieniowania jonizującego jest znacznie wyższe, niż się obecnie przypuszcza, czytamy na łamach British Medical Journal. Ma to znaczenie zarówno dla osób wystawionych na promieniowanie jonizujące w pracy, jak i dla pacjentów poddawanych procedurom medycznym. Między rokiem 1985 a 2006 średnia dawka promieniowania jonizującego przyjęta przez mieszkańca USA zwiększyła się dwukrotnie, głównie za sprawą rozpowszechnienia takich technik medycznych jak tomografia komputerowa.
      Obecnie głównym źródłem informacji o wpływie promieniowania jonizującego na ludzkie zdrowie są dane uzyskane o osób, które przeżyły ataki za pomocą broni atomowej. Jednak sposób ekspozycji i przyjęte przez nie dawki znacząco różnią się od tego, w jaki sposób promieniowanie przedostaje się do organizmów pracowników, pacjentów i każdego z nas. Dlatego międzynarodowy zespół, w skład którego wchodzili m.in. specjaliści z Uniwersytetu Kalifornijskiego w Irvine, brytyjskiej Agencji Ochrony Zdrowia, francuskiego Institut de Radioprotection et de Sûreté Nucléaire czy amerykańskiego Narodowego Instytutu Medycyny Pracy, przeprowadził analizy zdrowia osób, które w miejscu pracy mają styczność z promieniowaniem jonizującym.
      Pod uwagę wzięto informacje z International Nuclear Workers Study, gdzie zgromadzone są dane 309 932 pracowników przemysłu atomowego. Znajdziemy tam informacje zarówno o osobach, które od początku pracowały przy Projekcie Manhattan, jak i pracownikach elektrowni atomowych i innych miejsc we Francji, Wielkiej Brytanii i USA. Osoby te nosiły przy sobie indywidualne monitory promieniowania, dzięki czemu wiemy, na jakie dawki były narażone. Naukowcy postanowili poszukać związku pomiędzy dawkami promieniowania o zgonami z powodu nowotworów.
      Dotychczas zmarło 103 533 badanych, a nowotwory inne niż białaczka były przyczyną 28 089 zgonów. Z analiz wynika, że ryzyko zgonu na nowotwór rośnie o 52% wraz z każdym grejem (Gy) skumulowanej dawki przyjętego promieniowania. Grej to bardzo duża dawka. W obrazowaniu medycznym używa się miligrejów. Dawki liczone w grejach otrzymują pacjenci podczas radioterapii. Ponadto okazało się, że szczególnie niedoszacowywano dotychczas wpływu najniższych dawek. Tam, gdzie badani byli wystawieni na promieniowanie rzędu 0–100 mGy, ryzyko zgonu z powodu nowotworu rosło o 130% z każdym przyjętym grejem.
      Wbrew trendowi redukcji lub eliminacji ekspozycji na znane kancirogeny, ekspozycja społeczeństwa na promieniowanie jonizujące zwiększyła się w ostatnich dekadach. Zrozumienie ryzykz związanego z niskimi dawkami tego promieniowania jest niezbędne do prowadzenia odpowiedniej polityki zdrowotnej, stwierdził główny autor badań, profesor David B. Richardson z Uniwersytetu Kalifornijskiego w Irvine.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Osoby w średnim i starszym wieku, śpiące mniej niż 5 godzin na dobę, zwiększają ryzyko wystąpienia u siebie co najmniej 2 chorób chronicznych, ostrzegają naukowcy w University College London. Na łamach PLOS Medicine opublikowano analizę wpływu długości snu na zdrowie ponad 7000 osób w wieku 50-80 lat. Naukowcy analizowali związek pomiędzy długością snu, śmiertelnością i wystąpieniem wielochorobowości, czyli co najmniej 2 chorób chronicznych – jak cukrzyca, choroby serca czy nowotwory – na przestrzeni 25 lat.
      Okazało się, że osoby, które w wieku 50 lat spały 5 godzin lub mniej w ciągu doby, były narażone na o 20% większe ryzyko wystąpienia choroby chronicznej oraz o 40% wyższe ryzyko wystąpienia dwóch chorób chronicznych w ciągu kolejnych 25 lat niż osoby, które spały przez siedem godzin.
      Ponadto naukowcy zauważyli, że jeśli w wieku 50 lat śpimy pięć godzin lub mniej to nasze ryzyko zgonu w ciągu kolejnych 25 lat rośnie o 25%. Może to być związane ze spostrzeżeniem, że tak krótki sen zwiększa ryzyko chorób chronicznych, a te z kolei zwiększają ryzyko zgonu.
      W krajach o wysokich dochodach rośnie liczba przypadków wielochorobowości. Już ponad połowa starszych dorosłych cierpi tam na co najmniej 2 choroby chroniczne. To poważny problem dla systemów opieki zdrowotnej, gdyż wielochorobowość znacząco podnosi jej koszty, wiąże się z niepełnosprawnością i licznymi hospitalizacjami. W miarę, jak się starzejemy, zmieniają się nasze przyzwyczajenia dotyczące snu i jego struktura. Ważne jest jednak, by spać 7–8 godzin na dobę. Już wcześniej dłuższy i krótszy sen wiązano z występowaniem chorób chronicznych. Nasze badania pokazały, że występuje tutaj wielochorobowość, mówi główna autorka badań, doktor Severine Sabia.
      Powinniśmy zadbać o higienę snu. Należy spać w ciemnym cichym miejscu i w odpowiedniej temperaturze. Przed snem nie powinniśmy zjadać obfitych posiłków oraz korzystać z urządzeń elektronicznych. W zdrowym śnie pomagają też ćwiczenia fizyczne oraz dostęp do naturalnego światła słonecznego za dnia.
      Autorzy sprawdzali też, czy spanie ponad 9godzin na dobę wpływa na pojawienie się wielochorobowości. Okazało się, że o ile nie ma związku pomiędzy 9-godzinnym i dłuższym snem w wieku 50 lat a pojawieniem się wielochorobowości u osób zdrowych, to u osób ze zdiagnozowaną jedną chorobą chroniczną długi sen wiązał się z o 35% wyższym ryzykiem rozwoju kolejnej choroby chronicznej.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Mrówki Solenopsis richteri posługują się piaskiem jak narzędziem, by pozyskać ciekły pokarm (roztwór cukru), nie tonąc w nim. Autorzy artykułu z pisma Functional Ecology podkreślają, że to pokazuje, że dostosowują strategię korzystania z narzędzi do ryzyka związanego z żerowaniem.
      S. richteri pochodzą z Ameryki Południowej. Po introdukcji do południowych USA są tu uznawane za gatunek inwazyjny.
      Gdy mrówkom zapewniono niewielkie pojemniczki z roztworem cukru, dzięki hydrofobowemu egzoszkieletowi były w stanie unosić się na powierzchni i żerować. Gdy jednak naukowcy zmniejszyli napięcie powierzchniowe, S. richteri zaczęły przenosić piasek, by spuścić ciecz z naczynia.
      Odkryliśmy, że mrówki budują strukturę z piasku, która skutecznie wyciąga ciecz z pojemnika, tak aby później można ją było zebrać - opowiada dr Aiming Zhou z Huazhong Agricultural University. Ta niesamowita umiejętność nie tylko zmniejszała ryzyko utonięcia, ale i zapewniała większą powierzchnię do zbierania roztworu.
      Okazało się, że struktury z piasku były tak skuteczne, że w ciągu 5 minut mogły wyciągać z pojemniczków niemal połowę cieczy.
      Naukowcy zmieniali napięcie powierzchniowe za pomocą surfaktantu. Gdy jego stężenie wynosiło ponad 0,05%, co przekładało się na znaczące ryzyko utonięcia, mrówki budowały struktury z piasku. Nie tworzyły ich, żerując na czystym roztworze cukru. Podczas eksperymentów owadom dostarczano piasek o różnej wielkości ziaren; w ten sposób można było określić ich preferencje budowlane w takiej sytuacji.
      Wiemy, że niektóre gatunki mrówek są w stanie posługiwać się narzędziami, szczególnie przy zbieraniu ciekłego pokarmu. Byliśmy jednak zaskoczeni niesamowitymi umiejętnościami S. richteri w tym zakresie - dodaje dr Jian Chen, entomolog z amerykańskiego Departamentu Rolnictwa.
      Dr Zhu podkreśla, że konieczne są dalsze badania. Nasze eksperymenty były prowadzone w laboratorium i dotyczyły wyłącznie S. richteri. Kolejnym krokiem powinno być ustalenie, jak bardzo zachowanie to jest rozpowszechnione u innych gatunków mrówek.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dr Andrzej Śliwerski z Instytutu Psychologii Uniwersytetu Łódzkiego (UŁ) podkreśla, że zgodnie z wynikami badań, depresja występuje nawet u 30,4%, a zaburzenia lękowe u 32% dzieci z cukrzycą typu 1. (CT1). Interdyscyplinarny zespół zamierza sprawdzić, w jakim stopniu na stan psychiczny chorego wpływają zachowania rodziców i otoczenia oraz wizja siebie pacjenta. Projekt dr. Śliwerskiego jest realizowany w ramach konkursu Inicjatywa Doskonałości – Uczelnia Badawcza.
      Cukrzyca typu 1. jest chorobą autoimmunologiczną, w przebiegu której dochodzi do zniszczenia komórek beta wysp trzustkowych (wysp Langerhansa). Z tego względu insulina musi być dostarczana w postaci zastrzyków. W większości przypadków cukrzyca typu 1. zaczyna się w wieku wczesnodziecięcym i we wczesnej dorosłości; średnia wieku wynosi 8 lat. Dr Śliwerski zaznacza, że obserwuje się stały wzrost liczby pacjentów z CT1.
      Problemy psychologiczne towarzyszące CT1
      CT1 towarzyszą dolegliwości psychologiczne; najczęstszymi są wspominane na początku depresja i zaburzenia lękowe. Związek między depresją i lękiem a kontrolą cukrzycy jest dwukierunkowy - mówi dr Śliwerski. Zaburzenia emocjonalne wpływają na gorszy poziom wyrównania glikemii. Jednocześnie nawracające hipoglikemie (niskie poziomy cukru we krwi) i hiperglikemie (wysokie poziomy cukru we krwi) powodują większe ryzyko depresji i lęku. Ponieważ zaburzenia lękowe i depresyjne pogarszają wyrównanie metaboliczne cukrzycy, zwiększając ryzyko wystąpienia ostrych i przewlekłych powikłań choroby, znajomość czynników warunkujących ich wystąpienie może przyczynić się do opracowania programów profilaktyczno-edukacyjnych poprawiających stan zdrowia psychicznego dzieci chorych. W konsekwencji doprowadzi to do lepszej samokontroli cukrzycy.
      Zbadają rolę czynników poznawczych
      W ramach projektu Cognitive Vulnerability to Depression wykazano, że czynniki poznawcze - tendencyjnie ukierunkowana uwaga i pamięć czy negatywna wizja siebie - istotnie wpływają na podatność na zaburzenia emocjonalne. Model weryfikowano w populacji polskiej, ale na razie w odniesieniu do depresji i tendencji samobójczych, a także zaburzeń nastroju związanych z wahaniami poziomu hormonów.
      Teraz sprawdzimy, w jakim stopniu te same czynniki stanowią o podatności na zaburzenia depresyjne i lękowe u dzieci z CT1, uwzględniając sposób funkcjonowania ich rodzin. Warto podkreślić, że na co dzień żyją one w specyficznych, trudnych warunkach, biorąc choćby pod uwagę obowiązek permanentnej kontroli poziomu cukru u dzieci, jaki spoczywa na rodzicach.
      W ramach badań dzieci z CT1 i ich matki wykonają 2 zadania komputerowe: trzeba będzie zapamiętać słowa i policzyć twarze wyrażające emocje. Jak tłumaczy dr Śliwerski, w ten sposób będzie można ustalić, czy z większą łatwością zapamiętują i kierują swoją uwagę na negatywne bodźce.
      Psycholog opowiada, że na ryzyko zagrożenia życia przez nadmierne spadki poziomu cukru i ryzyko ciężkich powikłań w wyniku hiperglikemii wielu rodziców reaguje lękiem i nadmierną potrzebą kontroli funkcjonowania dziecka. Wskutek tego u młodego pacjenta dochodzi do obniżenia poczucia własnej wartości. Niekorzystnym zjawiskiem jest także brak akceptacji choroby przez rodziców. Z drugiej strony badania pokazują, że pozytywne postawy rodziców mogą w znaczący sposób obniżać ryzyko wystąpienia depresji – na przykład poprzez zaangażowanie i pomaganie dzieciom w adaptacji do choroby.
      Pomoc w radzeniu sobie z trudnymi aspektami choroby
      Nad projektem pracują psycholodzy z Instytutu Psychologii UŁ, a także diabetolodzy i psycholog z Kliniki Pediatrii, Diabetologii, Endokrynologii i Nefrologii Uniwersytetu Medycznego w Łodzi. Ponieważ przed wypisem ze szpitala dzieci i ich rodziny przechodzą szkolenie diabetologiczne, w ramach którego omawia się kwestie dotyczące insulinoterapii, diety i codziennego funkcjonowania, uzyskane wyniki będzie można wykorzystać w szkoleniach dla rodziców ze wsparcia i sposobów prowadzenia dzieci chorych na CT1.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Im dłużej ktoś przyjmuje niskie dawki aspiryny, tym niższe ryzyko zapadnięcia na raka trzustki.
      Odkryliśmy, że stosowanie niskich dawek aspiryny wiązało się ze zmniejszeniem ryzyka raka trzustki o połowę. Pewne dowody świadczyły o tym, że im dłuższe zażywanie aspiryny, tym niższe ryzyko - wyjaśnia dr Harvey A. Risch ze Szkoły Zdrowia Publicznego Yale. Ponieważ ok. 1 dorosła osoba na 60 będzie mieć raka trzustki, a 5-letnia przeżywalność nie przekracza w przypadku tej choroby 5%, musimy znaleźć skuteczne metody prewencji.
      U kobiet i mężczyzn, którzy regularnie zażywają aspirynę, ryzyko wystąpienia raka trzustki spada o 48%. W grupie przyjmującej aspirynę 6 lat lub krócej zaobserwowano spadek ryzyka o 39%, a wśród osób zażywających ją od ponad dekady aż o 60%.
      Wyniki wcześniejszych studiów zaciemniał fakt, że aspirynę przyjmowano, by znieść ból związany z chorobami, które same w sobie mogą mieć coś wspólnego z ryzykiem raka trzustki. Dopiero ostatnio ludzie [zapobiegając chorobom sercowo-naczyniowym] stosują niskie dawki aspiryny na tyle długo, by wpłynęło to na ryzyko rozwoju raka trzustki.
      Ochotników do studium Rischa zwerbowano w latach 2005-2009 w 30 szpitalach stanu Connecticut. Zebrano 362 pacjentów z rakiem trzustki i 690-osobową grupę kontrolną. Naukowcy prowadzili wywiady, by ustalić, kiedy ktoś zaczął zażywać aspirynę, czy stosował niskie, czy wysokie dawki i kiedy ewentualnie przestał zażywać ten lek. Brano poprawkę na potencjalnie istotne czynniki, w tym wskaźnik masy ciała, palenie czy cukrzycę.
      Większość uczestników studium (57%) stanowili mężczyźni. Ok. 49% to byli lub czynni palacze, a u 19% w ciągu 3 lat przed badaniem zdiagnozowano cukrzycę.
      Za niską dawkę, stosowaną zazwyczaj w ramach zapobiegania chorobom sercowo-naczyniowym, uznawano dozę 75-325 mg dziennie. Wyższe dawki, zażywane co 4-6 godz., uznawano za regularne przyjmowanie aspiryny w celach przeciwbólowych bądź przeciwzapalnych. Ustalono, że 96% osób z grupy z niskimi dawkami i 92% z wysokimi dawkami zażywało lek codziennie.
      Im wcześniej ktoś zaczął regularnie przyjmować niskie dawki aspiryny, tym większy spadek ryzyka raka trzustki (u pacjentów, którzy rozpoczęli zapobieganie 3 lata przed początkiem studium, wynosił on 48%, a u osób, które wystartowały 20 lat przed badaniem, aż 60%). W porównaniu ze stałym zażywaniem, przerwanie stosowania na przestrzeni 2 lat przed studium wiązało się z 3-krotnym wzrostem ryzyka zachorowania.
      Risch podkreśla, że zażywanie aspiryny może być ryzykowne samo w sobie, dlatego plusy i minusy każdorazowo powinno się rozważać indywidualnie.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...