Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów ' ryzyko' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 42 wyników

  1. Wiele wskazuje na to, że wrodzona/wczesna ślepota korowa całkowicie eliminuje ryzyko rozwoju schizofrenii. U osób ze schizofrenią częściej diagnozuje się np. problemy dotyczące siatkówki, a także inne wzorce poruszania oczami lub częstość mrugania. Dotychczasowe ustalenia, pochodzące głównie ze studiów przypadków, sugerowały, że wrodzona bądź wczesna ślepota korowa (wynikająca z uszkodzenia pól wzrokowych kory potylicznej w warunkach prawidłowej anatomii i fizjologii oka) może nawet całkowicie chronić przed schizofrenią. Zgodnie z wiedzą autorów publikacji ze Schizophrenia Research, nie udokumentowano bowiem ani jednego przypadku schizofrenii u osoby ze ślepotą korową. Warto jednak zauważyć, że większość naukowców zastrzega się, że brak dowodów nie jest dowodem braku [danego zjawiska] - podkreśla prof. Vera Morgan z Uniwersytetu Australii Zachodniej. Zespół Morgan wykorzystał dane z Australii Zachodniej, by oszacować zapadalność na schizofrenię wśród ludzi z wrodzoną ślepotą korową i wczesną ślepotą peryferyjną bądź korową. Za wczesną uznawano chorobę rozpoczynającą się przed 6. r.ż. Ślepota korowa może być wrodzona lub nabyta. Najczęściej spowodowana jest 1) niedotlenieniem w wyniku zatoru jednej lub obu tętnic mózgowych tylnych, a także 2) chorobą zakrzepowo-zatorową tętnicy podstawnej mózgu. Do przyczyn ślepoty peryferyjnej zalicza się wrodzone wady soczewki czy jaskrę. Dane pochodziły z szerszego projektu, badającego czynniki ryzyka schizofrenii i chorób pokrewnych w grupie prawie 500 tys. osób urodzonych w Australii Zachodniej między 1980 a 2001 r.; to oznacza, że w okresie analizy badani mieli 14-35 lat. U 9120 osób zdiagnozowaną jakąś chorobę psychiczną; u 1870 stwierdzono schizofrenię. Oprócz tego doliczono się 66 przypadków ślepoty korowej i 613 ślepoty peryferyjnej. U 8 osób ze ślepotą obwodową rozwinęła się psychoza (także schizofrenia). W grupie ze ślepotą korową nie odnotowano schizofrenii ani żadnej innej choroby psychicznej. Ponieważ wrodzona/wczesna ślepota korowa jest bardzo rzadka, nawet przy półmilionowej próbie nie można wyciągnąć ostatecznego wniosku odnośnie do wpływu na schizofrenię. Nie da się jednak zaprzeczyć, że badania Morgan uprawomocniają wcześniejsze doniesienia, że wczesna ślepota zmniejsza, a nawet eliminuje ryzyko choroby psychicznej. Australijczycy nie są pewni, czemu się tak dzieje. Trudno wskazać precyzyjny mechanizm, ale sądzimy, że zabezpieczające działanie ma coś wspólnego z kompensacyjną reorganizacją mózgu, która zachodzi w odpowiedzi na wrodzoną bądź wczesną ślepotę korową. Z tego powodu pewne funkcje, które są upośledzone w schizofrenii, mogą u tych pacjentów ulegać wzmocnieniu. Akademicy podkreślają, że wczesna ślepota prowadzi do wzmocnienia percepcji słuchowej, uwagi słuchowej, pamięci czy funkcji językowych, a te często nie działają dobrze u pacjentów ze schizofrenią. Morgan dodaje, że badanie koncentrowało się na ludziach niewidomych od urodzenia lub od wczesnych lat życia, bo w tym wieku plastyczność mózgu jest większa. Zespół dodaje, że opisany fenomen wymaga ściśle zaplanowanych badań klinicznych. « powrót do artykułu
  2. Ludzie, w których diecie jest stosunkowo mało kwasów palimitynowego i stearynowego - występujących przede wszystkim w mięsie nasyconych kwasów tłuszczowych z liczbą atomów węgla równą bądź większą od 16 - i którzy zamiast tego sięgają białka roślinne, wydają się mniej zagrożeni zawałem serca. Osoby, które jedzą więcej nasyconych kwasów tłuszczowych o krótszych łańcuchach (z liczbą atomów węgla równą bądź mniejszą od 14), które zwykle występują w nabiale, także są mniej zagrożone zawałem. Nasza analiza długoterminowej diety dużych grup ludzi z 2 państw pokazuje, że rodzaj spożywanych nasyconych kwasów tłuszczowych ma znaczenie dla zdrowia sercowo-naczyniowego - podkreśla dr Ivonne Sluijs z Uniwersytetu w Utrechcie. W ramach studium oceniano, czy nasycone kwasy tłuszczowe o długości łańcucha węglowego wynoszącej od 4 do 18 atomów wiążą się z ryzykiem wystąpienia zawału. Przeanalizowano dane ok. 75 tys. osób z Danii i Wielkiej Brytanii; 22.050 z EPIC-Norfolk i 53.375 z EPIC-Denmark. W okresie objętym obserwacją - średnio 13,6 roku w Danii i 18,8 w Wielkiej Brytanii - zawał wystąpił u blisko 3,5 tys. osób. Odkryliśmy, że jedzenie relatywnie małych ilości kwasów tłuszczowych o dłuższym łańcuchu i spożywanie zamiast tego białek roślinnych wiązało się z niższym ryzykiem [zawału]. Zastąpienie tych tłuszczów nasyconych innymi źródłami energii, np. węglowodanami, nie wpływało na ryzyko wystąpienia zawału - opowiada dr Sluijs. Naukowcy dodają, że choć dietę kształtują narodowość i inne czynniki, i w Danii, i w Wielkiej Brytanii najczęściej spożywanym nasyconym kwasem tłuszczowym okazał się kwas palmitynowy z 16 atomami węgla. Za nim uplasował się kwas stearynowy z 18 atomami węgla (oba występują w produktach mięsnych). Nasycone kwasy tłuszczowe z krótszymi łańcuchami węglowymi (z nabiału) były spożywane rzadziej. Autorzy raportu z International Journal of Cardiology przypominają, że odkąd w latach 60. powiązano wysokotłuszczową dietę z podwyższonym poziomem złego cholesterolu LDL i chorobą niedokrwienną serca (ChNS), specjaliści zalecali ograniczanie spożycia nasyconych kwasów tłuszczowych. W ostatnich latach pojawiły się jednak wątpliwości. Pewne doniesienia sugerowały, że różne rodzaje nienasyconych kwasów tłuszczowych mogą mieć różny wpływ na poziom cholesterolu i rozwój ChNS. Choć analizy ekipy Sluijs wydają się to potwierdzać, akademicy przestrzegają przed zmianą diety. Nie wiemy, czy te kwasy tłuszczowe są rzeczywiście przyczyną różnic w zakresie występowania zawału. By zgłębić tę kwestię, potrzebujemy eksperymentów, podczas których konsumpcja nasyconych kwasów tłuszczowych byłaby bardziej kontrolowana i, na przykład, porównywana ze spożyciem nienasyconych kwasów tłuszczowych - podkreśla Sluijs. « powrót do artykułu
  3. Optymizm może obniżać ryzyko rozwoju cukrzycy typu 2. Autorzy artykułu z pisma Menopause podkreślają, że w USA cukrzycę ma ponad 30 mln obywateli (9,4%). Chorobowość rośnie z wiekiem i w grupie 65+ wynosi 25,5%. Cukrzyca typu 2. stanowi 90-95% przypadków diagnozowanych u dorosłych. Czynnikami ryzyka są m.in. otyłość czy brak aktywności fizycznej. Coraz więcej dowodów sugeruje, że z podwyższonym ryzykiem cukrzycy wiążą się też depresja i cynizm. Duży poziom wrogości powiązano zaś z wysokim stężeniem glukozy na czczo, insulinoopornością i cukrzycą. Niewiele badań poświęcono jednak ochronnym cechom osobowości. W ramach najnowszego studium analizowano przypadki 139.924 kobiet w wieku pomenopauzalnym (uczestniczek Women's Health Initiative, WHI), które na początku nie miały cukrzycy. W ciągu 14 lat zidentyfikowano 19.240 przypadków cukrzycy typu 2. Okazało się, że w porównaniu do kobiet z najniższego kwartyla optymizmu (najmniej optymistycznych), u pań z najwyższego kwartyla (najbardziej optymistycznych) ryzyko wystąpienia nowych przypadków cukrzycy było o 12% niższe. W porównaniu do badanych z najniższego kwartyla negatywnej reaktywności emocjonalnej i wrogości, kobiety z najwyższego kwartyla były, odpowiednio, o 9 i 17% bardziej zagrożone cukrzycą. Związek między wrogością i ryzykiem cukrzycy był silniejszy u pań, które nie były otyłe. Wiele wskazuje więc na to, że niski optymizm, a także silny negatywizm i wrogość wiążą się z podwyższonym ryzykiem nowych przypadków cukrzycy u kobiet w wieku pomenopauzalnym (czynniki te działają niezależnie od podstawowych zachowań zdrowotnych i depresji). Ponieważ cechy osobowościowe są stałe na przestrzeni życia, kobiety z grupy podwyższonego ryzyka cukrzycy, które przejawiają niski poziom optymizmu oraz duży negatywizm i wrogość, powinny być objęte strategiami prewencyjnymi dostosowanymi do ich typu osobowości - podsumowuje dr JoAnn Ponkerton, dyrektorka wykonawcza Północnoamerykańskiego Towarzystwa Menopauzy. « powrót do artykułu
  4. Wg radiologów, pewnego dnia rezonans magnetyczny (MRI) może pomóc w przewidywaniu ryzyka demencji. W ramach niewielkiego badania naukowcy ze Szkoły Medycznej Uniwersytetu Waszyngtona w St. Louis i Uniwersytetu Kalifornijskiego w San Francisco wykazali, że skany MRI pozwalają z 89% trafnością przewidzieć, u kogo w ciągu 3 lat rozwinie się demencja. Obecnie trudno jest powiedzieć, czy dana starsza osoba, która znajduje się w normie poznawczej lub cierpi na łagodne zaburzenia poznawcze [ang. mild cognitive impairment, MCI], będzie prawdopodobnie mieć demencję. My zademonstrowaliśmy, że za pomocą pojedynczego rezonansu da się przewidzieć demencję średnio 2,6 roku przed wystąpieniem klinicznie wykrywalnych objawów utraty pamięci - podkreśla dr Cyrus A. Raji. Neurolodzy mogą oszacować ryzyko choroby Alzheimera za pomocą Krótkiej Skali Stanu Psychicznego (Mini-Mental State Examination, MMSE) albo za pomocą badania wersji genu apolipoproteiny E (ApoE4 zwiększa je nawet 12-krotnie). W ramach opisywanego studium trafność tych metod sięgała 70-80%. Pozytonowa tomografia emisyjna (PET), która unaocznia blaszki beta-amyloidu, to dobra, ale droga metoda wykrywania wczesnych przejawów choroby Alzheimera. Poza tym badanemu trzeba podać substancję promieniotwórczą, a nie wszystkie szpitale mają coś takiego na stanie. Ponieważ MRI jest szeroko dostępne, Raji i współpracownicy postanowili przeanalizować skany w poszukiwaniu objawów fizycznych zbliżającego się pogorszenia formy poznawczej. Amerykanie bazowali na jednym z rodzajów rezonansu magnetycznego - obrazowaniu tensora dyfuzji, które mierzy dyfuzję cząsteczek wody w tkance. Zależało im na ocenie stanu zdrowia istoty białej. Obrazowanie tensora dyfuzji to sposób na pomiar przemieszczania się cząsteczek wody wzdłuż szlaków istoty białej. Dzięki danym zgromadzonym w ramach Alzheimer's Disease Neuroimaging Initiative zidentyfikowano 10 osób, których zdolności poznawcze pogorszyły się w ciągu 2 lat. Pod względem wieku i płci dopasowano do nich równoliczna grupę z niezmieniającymi się zdolnościami poznawczymi. Średni wiek dla obu grup wynosił 73 lata. Później naukowcy przeanalizowali wyniki obrazowania tensora dyfuzji dla wszystkich 20 osób. Okazało się, że pacjenci, u których nastąpiło pogorszenie formy poznawczej, mieli znacząco więcej oznak uszkodzenia istoty białej. Akademicy powtórzyli analizy na innej grupie 61 ludzi (tym razem posłużyli się bardziej precyzyjną metodą pomiaru integralności istoty białej). Patrząc na mózg jako całość, mogli przewidzieć ryzyko spadku formy poznawczej z 89% trafnością. Gdy skupiali się na częściach mózgu, które najczęściej wykazują uszkodzenia, trafność rosła do 95%. Raji podkreśla, że teraz należy powtórzyć badania na większej próbie i opracować skomputeryzowane narzędzia, które mogłyby porównywać skany pacjentów ze standardem. « powrót do artykułu
  5. Osoby, u których migreny poprzedza aura wzrokowa, są bardziej zagrożone migotaniem przedsionków (ang. atrial fibrillation, AF). Aura wzrokowa bywa też nazywana oczną bądź klasyczną. Zaburzenia wzrokowe przejawiają się np. jako mroczki, jasne plamy, błyskające światła, problemy z ostrością widzenia czy migocące zygzakowate linie. Ponieważ migotanie przedsionków jest częstą przyczyną udarów powodowanych przez zakrzepy, a wcześniejsze badania wskazały na związek między migreną z aurą i udarem, chcieliśmy sprawdzić, czy u osób z migrenami z aurą występuje wyższy wskaźnik migotania przedsionków - opowiada dr Souvik Sen z Uniwersytetu Południowej Karoliny. Autorzy publikacji z pisma Neurology wyjaśniają, że 11.939 osób w średnim wieku 60 lat bez wcześniejszego migotania przedsionków bądź udaru oceniano pod kątem bólów głowy. W grupie tej 9.405 osób nie cierpiało na bóle głowy, a 1516 miewało migreny (u 426 ochotników występowały migreny z aurą). Losy badanych śledzono do 20 lat. W czasie trwania studium migotanie przedsionków wystąpiło u 1623 (17%) osób bez bólów głowy, 80 z 440 (18%) osób z migrenami z aurą oraz u 152 z 1105 (14%) pacjentów z migreną bez aury. Po wzięciu poprawki na wiek, płeć, ciśnienie, palenie i inne czynniki, które mogą wpływać na ryzyko migotania przedsionków, okazało się, że prawdopodobieństwo wystąpienia migotania przedsionków jest u osób z migreną z aurą o 30% wyższe niż w grupie bez bólów głowy i o 40% wyższe niż u ludzi z migrenami bez aury. Jak wyjaśniają Amerykanie, oznacza to że migotanie przedsionków może wystąpić u 9 na 1000 ludzi z migreną z aurą, w porównaniu do 7 na 1000 osób z migreną bez aury. Naukowcy stwierdzili także, że wskaźnik udarów w grupie migrenowej z aurą wynosi 4 osoby na 1000 rocznie, w porównaniu do 2:1000 w grupie migrenowej bez aury oraz 3:1000 w grupie bez bólów głowy. Ważne, by odnotować, że pacjenci z migrenami z aurą mogą być bardziej zagrożeni migotaniem przedsionków przez problemy z autonomicznym układem nerwowym, który pomaga kontrolować serce i naczynia krwionośne. Potrzeba więcej badań, by określić, czy ludzie z migrenami z aurą powinni przechodzić badania przesiewowe ukierunkowane na AF. Akademicy wspominają o kilku ograniczeniach swojego badania. Po pierwsze, może nim być przyjęta definicja migreny, która eliminowała np. osoby z historią migren w młodszym wieku. Po drugie, naukowcy dysponowali ograniczonymi informacjami nt. leków przeciwmigrenowych, które mogą wpływać na tętno. « powrót do artykułu
  6. Migające światła i melodie wygrywane przez automaty w kasynach sprzyjają ryzykownemu podejmowaniu decyzji. Badanie psychologów z Uniwersytetu Kolumbii Brytyjskiej, którego wyniki ukazały się w piśmie JNeurosci, pokazują, że cechy audiowizualne kasyn mogą bezpośrednio wpływać na decyzje gracza i sprzyjać podejmowaniu bardziej ryzykownych decyzji. Odkryliśmy, że gdy naszej laboratoryjnej grze hazardowej towarzyszyły cechy audiowizualne kasyn, wybory ludzi były w mniejszym stopniu podyktowane szansą wygranej. Ogólnie, bez względu na prawdopodobieństwo wygranej, ludzie podejmują większe ryzyko w grach bardziej przypominających te dostępne w kasynach - podkreśla dr Mariya Cherkasova. Opisywane badanie to pokłosie wcześniejszych ustaleń z eksperymentów na szczurach. Okazało się bowiem, że gryzonie są skłonne podjąć większe ryzyko, gdy nagrodom w postaci jedzenia towarzyszą migające światła i wygrywanie melodyjki. By sprawdzić, czy ludzie zachowują się tak samo, Kanadyjczycy poprosili ponad 100 dorosłych, żeby zagrali w gry hazardowe z czuciową informacją zwrotną wzorowaną na dzwonkach i gwizdkach wykorzystywanych do sygnalizowania wygranej w przypadku jednorękich bandytów. Okazało się, że obrazy związane z pieniędzmi i dźwięki wydawane przez automaty mogą bezpośrednio wpływać na decyzje. Wykorzystując technologie śledzenia ścieżki wzroku, byliśmy w stanie wykazać, że gdy wygranej towarzyszą wyobrażenia pieniędzy i melodyjki z kasyna, ludzie zwracają mniejszą uwagę na informacje o szansach na wygraną w konkretnym zakładzie. Zauważyliśmy też, że u ochotników występowało większe rozszerzenie źrenic, co sugeruje, że ludzie są bardziej pobudzeni, kiedy wygrana jest sparowana ze wskazówkami czuciowymi - wyjaśnia prof. Catharine Winstanley. Kanadyjczycy stwierdzili, że gdy nie było wskazówek sensorycznych, podejmując decyzje, badani byli bardziej powściągliwi. Uzyskane wyniki pokazują, czemu osobom z tendencjami do hazardu tak trudno oprzeć się urokowi kasyna. Nasze rezultaty stanowią ważną część układanki, która wyjaśnia, w jaki sposób tworzy się i utrzymuje uzależnienie od patologicznego hazardu. Choć bodźce świetlne i dźwiękowe mogą się wydawać nieszkodliwe, teraz widzimy, że wskazówki tego rodzaju mogą wywoływać tendencyjność uwagi i sprzyjać ryzykownemu zachowaniu - podsumowuje Winstanley.   « powrót do artykułu
  7. W 34. tygodniu ciąży kobiece ciało przechodzi zmianę, która znacząco obniża ryzyko raka piersi na późniejszych etapach życia. Należy jednak pamiętać, że dotyczy to wczesnych ciąż przed trzydziestką. Wcześniejsze badania wykazały, że mając dziecko przed trzydziestką, kobiety mogą obniżyć ryzyko wystąpienia raka piersi na późniejszych etapach życia. Najnowsze studium naukowców z Danii i Norwegii zidentyfikowało tydzień ciąży, w którym zachodzą kluczowe zmiany. Jeśli urodzisz w 33. tygodniu ciąży, masz dziecko, co samo w sobie jest wspaniałe, ale nie zyskujesz bonusu niższego ryzyka raka piersi na resztę życia - twierdzi Mads Melbye z Uniwersytetu w Kopenhadze. Melbye i zespół analizowali dużą bazę danych blisko 4 mln Dunek i Norweżek (obejmowała ona okres prawie 40 lat). Można w niej było sprawdzić wiek, w którym dana kobieta urodziła, jak bardzo ciąża była wtedy zaawansowana i czy później dana osoba zachorowała na raka sutka. Okazało się, że u kobiet, które urodziły w 34. tygodniu ciąży i później, ryzyko raka piersi było o 13,6% niższe niż u kobiet, które nie miały dzieci. Dla ciąż, które zakończyły się wcześniej (trwających 33 tygodnie i krócej), spadek ryzyka był mniejszy i wynosił 2,4%. Melbye podkreśla, że zmiany, jakie zachodzą wtedy w kobiecym organizmie, pozostają owiane tajemnicą. Nie wiemy, co [dokładnie] się wtedy dzieje, ale wiedząc, że kluczowe jest osiągnięcie 34. tygodnia ciąży, naukowcy mogą się skupić na konkretnym wąskim okresie. Duńczyk podejrzewa, że po 34. tygodniu ciąży kobiece ciało może wysyłać sygnał zwiększający odporność na środowiskowe przyczyny raka piersi. [...] To musi mieć coś wspólnego ze specyficznym biologicznym skutkiem, osiąganym przez komórki w 34. tygodniu. By sprawdzić, czy nie chodzi o unikatowy wpływ 1. ciąży, autorzy publikacji z pisma Nature Communications analizowali też drugi, trzeci i dodatkowe porody. Okazało się, że dla ciąż trwających 33 tygodnie i krócej spadek długoterminowego ryzyka raka piersi wynosił 1,2%, a dla ciąż trwających 34 tygodnie i dłużej aż 16,3%. Opisywane zjawisko występowało także u kobiet, które po 34. tygodniu urodziły martwe dziecko, co oznacza, że zmiana nie jest powiązana z karmieniem piersią. « powrót do artykułu
  8. Alkohol jest jedną z głównych przyczyn śmierci i chorób na całym świecie. Autorzy badań Global Burden of Disease, których wyniki opublikowano właśnie na łamach The Lancet, informują, że alkohol odpowiada za niemal 10% zgonów wśród osób w wieku 15–49 lat. W ramach badań oceniono spożycie oraz skutki zdrowotne alkoholu w 195 krajach w latach 1990–2016. Autorzy analizy doszli do wniosku, że nie istnieje bezpieczny poziom spożycia alkoholu, a wszelki jego korzystny wpływ na zdrowie jest znacznie mniejszy niż wpływ niekorzystny, szczególnie zaś szkodliwe jest ryzyko związane z wystąpieniem nowotworów. Badania wykazały, że osoby w wieku 15–49 lat, które spożywają codziennie standardową dawkę alkoholu, są narażone, już po roku spożywania alkoholu, na 0,5% większe ryzyko wystąpienia jednego z 23 problemów zdrowotnych związanych z alkoholem. Wcześniej prowadzone badania wykazały, że niskie dawki alkoholu mają w pewnym stopni korzystny wpływ na nasze zdrowie, jednak okazuje się, że jeśli weźmiemy pod uwagę całościowy wpływ alkoholu na organizm, ryzyko przewyższa korzyści. Szczególnie silne jest tutaj ryzyko związane z wystąpieniem nowotworów, zranień i chorób zakaźnych, co niweluje wszelkie prozdrowotne skutki, takie jak np. ochronę kobiet przed chorobą niedokrwienną serca. Co prawda ryzyko związane ze spożywaniem małych ilości alkoholu, jednej standardowej dawki dziennie, jest niewielkie, jednak gwałtownie rośnie ono w miarę zwiększania dawki, mówi główny autor badań doktor Max Griswold z Institute for Health Metrics and Evaluation z University of Washington. Zespół Griswolda przeanalizował wyniki 694 badań, na podstawie których stwierdził, na ile powszechnie alkohol jest używany, oraz wyniki 592 badań obejmujących 28 milionów osób, które pozwoliły ocenić ryzyko związane z konsumpcją alkoholu. Za standardową dzienną dawkę przyjęto 10 gramów alkoholu. Z badań tych dowiadujemy się, że alkohol spożywa 32,5% ludzkości, czyli około 2,4 miliarda osób. Do picia alkoholu przyznaje się 25% kobiet (900 milionów) i 39% mężczyzn (1,5 miliarda). Średnio przeciętna kobieta spożywa 0,73 dawki standardowej dziennie, a przeciętny mężczyzna – 1,7 dawki. Spożycie alkoholu znacząco różni się pomiędzy krajami. Absolutnymi rekordzistami są tutaj Duńczycy, gdzie alkohol pije 95,3% kobiet i 97,1% mężczyzn. Na drugim biegunie znajdziemy Pakistan i Bangladesz. W pierwszym z tych krajów jedynie 0,8% mężczyzn pije alkohol, a w drugim alkoholem raczy się tylko 0,3% kobiet. Najwyższe wśród mężczyzn spożycie alkoholu na głowę jest w Rumunii (8,2 dawki dziennie), a najniższe w Pakistanie (0,0008 dawki dziennie). Wśród kobiet najwięcej piją Ukrainki (4,2 dawki dziennie), a najmniej Iranki (0,003 dawki). W 2016 roku spożycie alkoholu było siódmym głównym czynnikiem ryzyka przedwczesnych zgonów i chorób. Alkohol przyczynił się do 2,2% zgonów u kobiet i 6,8% zgonów wśród mężczyzn. Inaczej wygląda zaś sytuacja w grupie wiekowej 15–49 lat. Tutaj alkohol jest główną przyczyną przedwczesnych zgonów i w 2016 roku spowodował 3,8% zgonów wśród kobiet i 12,2% zgonów wśród mężczyzn. Główne przyczyny zgonów spowodowanych użyciem alkoholu przez tę grupę wiekową to: gruźlica (1,4% zgonów), wypadki drogowe (1,2%) oraz samodzielne zrobienie sobie krzywy (1,1%). Wśród osób powyżej 50. roku życia główną przyczyną śmierci związaną ze spożyciem alkoholu są nowotwory, odpowiedzialne za 27,1% zgonów wśród kobiet i 18,9% zgonów wśród mężczyzn. Problemy zdrowotne trapiące osoby po 50. roku życia a związane ze spożywaniem alkoholu różnią się w zależności od miejsca zamieszkania. W krajach bogatych ludzie umierają na nowotwory wywoływane przez alkohol, w krajach ubogich są zabijani przez gruźlicę, marskość wątroby i inne choroby wątroby. Zaś w krajach o średnich dochodach zgony spowodowane spożyciem alkoholu są powodowane głównie przez udary. Jak już wspomnieliśmy, spożywanie jednej standardowej dawki alkoholu dziennie powoduje, że po roku jesteśmy narażeni na o 0,5% większe ryzyko zapadnięcia na chorobę związaną ze spożyciem alkoholu. Ryzyko gwałtownie rośnie w miarę zwiększania dawki. I tak przy 2 dawkach dziennie jest ono już o 7% wyższe, a przy pięciu dawkach dziennie – o 37% wyższe. Powyższe badania są najszerzej zakrojonymi badaniami nad spożyciem alkoholu i skutkami zdrowotnymi w skali całego świata. Pomimo swoich ograniczeń, takich jak nieuwzględnienie spożycia alkoholu wśród osób poniżej 15. roku życia czy niemożność uwzględnienia produkcji i spożycia nielegalnego alkoholu, stanowią niezwykle ważne źródło wiedzy na temat tej używki. Nie szacowano też skutków okresowego picia na umór, które znacząco zwiększa ryzyko zgonów i chorób. Autorzy zestawili też kilka interesujących statystyk. Dzięki nim wiemy, w których krajach alkohol jest najbardziej, a w których najmniej popularny oraz gdzie spożywa się go najwięcej, a gdzie najmniej. I tak, największy odsetek mężczyzn pijących alkohol mieszka w Danii (97,1%), Norwegii (94,3%), Argentynie (94,3%), Niemczech (94,3%), Polsce (93,8%), Francji (93,1%), Korei Południowej (91,3%), Szwajcarii (91,2%), Grecji (90,8%) i Islandii (90,3%). Najmniej panów pije alkohol w Pakistanie (0,9%), Bangladeszu (1,0%), Egipcie (1,1%), Mali (2,5%), Maroku (3,0%), Senegalu (3,2%), Mauretanii (3,2%), Syrii (5,0%), Indonezji (7,2%) i Pakistanie (7,9%). Kraje o największym spożyciu alkoholu wśród kobiet to Dania (95,3%), Norwegia (91,4%), Niemcy (90,0%), Argentyna (89,9%), Nowa Zelandia (88,5%), Szwajcaria (88,4%), Słowacja (87,2%), Francja (86,9%), Szwecja (86,1%) i Islandia (84,8%). Najmniej pijących kobiet mieszka zaś w Bangladeszu (0,3%), Maroku (1,1%), Pakistanie (1,5%), Egipcie (1,5%), Nepalu (1,5%), Syrii (1,6%), Bhutanie (1,9%), Mjanmie (2,3%), Tunezji (2,3%) i Senegalu (2,6%). Światowymi rekordzistami w liczbie spożywanych dziennych dawek alkoholu są panowie z Rumunii (8,2 dawki), Portugalii (7,3), Luksemburga (7,3), Litwy (7,0), Ukrainy (7,0), Bośni i Hercegowiny (6,5), Białorusi (6,0), Estonii (6,0), Hiszpanii (5,8) i Węgier (5,5). Najmniej piją zaś panowie z Pakistanu (0,0008 dawki dziennie), Iranu (0,004), Kuwejtu (0,02), Komorów (0,02), Libii (0,02), Bangladeszu (0,03), Palestyny (0,04), Mauretanii (0,05), Jemenu (0,05) i Arabii Saudyjskiej (0,05). Najwięcej piją zaś kobiety z takich krajów jak Ukraina (4,2 dawki dziennie), Andora (3,4), Luksemburg (3,4), Białoruś (3,4), Szwecja (3,2), Dania (3,2), Irlandia (3,1), Wielka Brytania (3,0), Niemcy (2,9) i Szwajcaria (2,8). Najmniej piją panie w Iranie (0,0003 dawki dziennie), Kuwejcie (0,01), Mauretanii (0,02), Libii (0,02), Pakistanie (0,03), Timorze Wschodnim (0,04), Palestynie (0,04), Jemenie (0,04), Tunezji (0,04) i Syrii (0,05). « powrót do artykułu
  9. U dzieci z alergiami ryzyko wystąpienia powikłanego zapalenia wyrostka robaczkowego jest niższe. Odkryliśmy, że u dzieci, które w ciągu dekady przeszły w Lund operację usunięcia wyrostka robaczkowego [appendektomię], najczęstsze postaci alergii, takie jak alergie na pyłek i sierść zwierzęcą, wiązały się z 3-krotnie niższym ryzykiem rozwoju powikłanego zapalenia wyrostka. Obniżone ryzyko utrzymywało się także po uwzględnieniu innych potencjalnie istotnych czynników, np. młodszego wieku i dłużej utrzymujących się objawów - opowiada Martin Salö z Uniwersytetu w Lund i Skåne University Hospital. Jedna trzecia chorujących dzieci ma bardziej powikłane zapalenia wyrostka, które wymagają dłuższego pobytu w szpitalu, a czasem kilku zabiegów operacyjnych. Nie wiadomo, czemu u niektórych dzieci się tak dzieje i czy można temu zapobiegać. Jedna z teorii głosi, że dzieci z alergiami mają niższe ryzyko powikłanego zapalenia wyrostka, bo ich odpowiedź immunologiczna różni się od reakcji występującej u dzieci bez alergii. Dotąd nie badano jednak szczegółowo tego zagadnienia. Wyniki naszego studium stanowią poparcie dla teorii, że powikłane zapalenie wyrostka ma inną immunopatogenezę [...]. Rezultaty zapewniają też wskazówki, które, mamy nadzieję, mogą doprowadzić do opracowania nowych pomocy diagnostycznych, np. testów z krwi. W badaniu uwzględniono dzieci w wieku poniżej 15 lat (605), które między 1 stycznia 2007 r. a 31 lipca 2017 r. przeszły appendektomię w Skåne University Hospital. Porównywano wyniki osób z alergią IgE-zależną (102) i bez niej (503). Okazało się, że w 1. z grup bardziej powikłane zapalenie wyrostka wystąpiło u 19,6%, a w 2. - aż u 46,9%. « powrót do artykułu
  10. Wiele wskazuje na to, że uraz lub intensywny stres zwiększają ryzyko chorób autoimmunologicznych. Porównując ponad 106 tys. osób z zaburzeniami stresowymi z ponad 1 mln zdrowych ludzi, naukowcy odkryli, że stres wiąże się z o 36% wyższym ryzykiem wystąpienia 41 chorób autoimmunologicznych, w tym łuszczycy, reumatoidalnego zapalenia stawów czy choroby Leśniowskiego-Crohna. "Osoby, u których po urazie bądź pod wpływem innych stresorów, występują silne reakcje emocjonalne, powinny poszukać pomocy medycznej, gdyż istnieje ryzyko przewlekłości tych objawów i dalszego pogorszenia stanu zdrowia, np. rozwoju chorób autoimmunologicznych" - wyjaśnia dr Huan Song z Uniwersytetu Islandzkiego w Reykjavíku. Song dodaje, że w przypadku zaburzeń stresowych sprawdzają się leki i terapia poznawczo-behawioralna. Podając pacjentom z zespołem stresu pourazowego (ang. post-traumatic stress disorder, PTSD) selektywne inhibitory zwrotnego wychwytu serotoniny, można by więc obniżać ryzyko choroby autoimmunologicznej, zwłaszcza gdyby były one zażywane w pierwszym roku po postawieniu diagnozy. Współautorka artykułu z Journal of the American Medical Association zaznacza, że badanie miało charakter obserwacyjny, na razie nie można więc mówić o wywoływaniu przez stres chorób autoimmunologicznych, tylko o korelacji. W ramach studium zespół Song analizował przypadki pacjentów ze Szwecji, u których w latach 1981-2013 zdiagnozowano zaburzenia powiązane ze stresem, w tym PTSD, ostrą reakcję na stres czy zaburzenia adaptacyjne. Porównywano ich z rodzeństwem oraz zdrowymi przedstawicielami populacji generalnej. Choć nie wiadomo, czemu stres może zwiększać ryzyko chorób autoimmunologicznych, eksperci mają parę pomysłów. Wspominają m.in. o wpływie stresu na tryb życia, np. na ilość snu czy spożycie substancji psychoaktywnych, oraz o bezpośrednich oddziaływaniach na układ nerwowy. « powrót do artykułu
  11. Kwaśne smaki skłaniają ludzi do podejmowania większego ryzyka. Naukowcy z Uniwersytetu Sussex sugerują, że osoby mające awersję do ryzyka, np. cierpiące na zaburzenia lękowe czy depresję, mogłyby skorzystać na diecie wzbogaconej o kwaśne pokarmy i napoje. W ten sposób można by je "zachęcić" do takich zachowań, jak wychodzenie z domu czy rozmowa z obcym. Autorzy publikacji z pisma Scientific Reports twierdzą też, że przedstawiciele zawodów, w których podejmowanie ryzyka ma poważne konsekwencje, np. piloci, mogliby dla odmiany skorzystać na ograniczeniu kwaśnego smaku w diecie. Poszczególne osoby różnie rozumieją podejmowanie ryzyka. Dla jednych będzie to skok z samolotu z dużej wysokości, a dla innych zwykłe wyjście z domu. Choć niektórzy mają negatywne skojarzenia, de facto podejmowanie ryzyka to jedno z podstawowych działań prowadzących do szczęśliwszego życia - podkreśla dr Chi Thanh Vi. Dr Marianna Obrist dodaje, że kwaśny nie popycha ludzi do bezmyślnego ryzykowania. Chodzi raczej o zdolność modulowania zachowań związanych z podejmowaniem ryzyka i zachęcanie osób z awersją do ryzyka do wykorzystywania nowych możliwości, pojawiających się okazji. Pozostaje to w zgodzie z wcześniejszymi badaniami, które wskazywały, że pacjenci z zaburzeniami psychicznymi, np. lękiem czy depresją [...], mogą odnieść korzyści ze stosowania olejku cytrynowego (co istotne, dodatkowo łagodzi on stres). W najnowszym studium wzięło udział 168 ochotników z Wielkiej Brytanii i Wietnamu. Dawano im 20 ml roztworu reprezentującego jedną z pięciu podstawowych grup smakowych albo wodę mineralną. Później wszyscy brali udział w teście balonu BART. Badanego prosi się o pompowanie serii wirtualnych balonów (liczba ruchów pompki jest wskaźnikiem preferencji ryzyka). Im więcej powietrza w balonie, tym więcej pieniędzy można zdobyć. Jeśli jednak balon pęknie, traci się wszystkie przeliczane na pieniądze punkty. Ochotnicy mogli w dowolnym momencie wypłacić swoją wygraną albo pompować dalej (o tym, czy kolejne kliknięcie myszą prowadziło do powiększenia balonu i nagrody, czy do pęknięcia, decydował algorytm). Podczas brytyjskiej części badań, w której wzięło udział 46 kobiet w średnim wieku 25 lat, zauważono, że kwaśny sprzyjał podejmowaniu dużego ryzyka, słodki i umami wspierały niską tendencję do podejmowania ryzyka, a gorzki i słony działały neutralnie (nie wspierały ani ryzykownego, ani bezpiecznego zachowania). Średnio badane, które wypiły kwas cytrynowy, wykonywały większą liczbę ruchów pompki: dla niepękniętych balonów klikały aż 39,36 razy. To o wiele więcej niż w przypadku jakiegokolwiek innego smaku: 39,08% więcej niż dla słodkiego (sacharozy), 20,50% więcej niż dla goryczy (kofeiny), 16,03% więcej niż dla słonego (chlorku sodu)i 40,29% więcej niż dla umami (glutaminianu sodu). Akademicy zauważyli, że kwaśny sprzyjał ryzykownym zachowaniom bez względu na indywidualny poziom impulsywności i poszukiwania wrażeń oraz na style myślenia (analityczny czy intuicyjny). By lepiej zrozumieć wpływ smaku na podejmowanie ryzyka, naukowcy wzięli pod uwagę międzykulturowe różnice w zakresie percepcji smaku, a zwłaszcza umami. Ten sam eksperyment powtórzono więc w Wietnamie, który zajmuje 3. miejsce na świecie pod względem spożycia glutaminianu sodu. Okazało się, że i tutaj smak kwaśny sprzyjał podejmowaniu największego ryzyka. Co zaskakujące, w odróżnieniu od próby brytyjskiej, i słodycz, i umami sprzyjały bardziej ryzykownym decyzjom. Psycholodzy podkreślają, że eksperymenty sugerują, że wpływ smaku na podejmowanie ryzyka może się utrzymywać do 20 minut. Wg nich, przy większym stężeniu może być jednak jeszcze dłuższy. Wiemy, co zachodzi w mózgu podczas odczuwania danego smaku. Wiemy też, co się dzieje, gdy ktoś podejmuje decyzję odnośnie do kierunku działania. Brakuje nam jednak szlaku, który by wyjaśnił, jak smak może wpłynąć na proces podejmowania decyzji - podsumowuje Vi. « powrót do artykułu
  12. U mężczyzn w średnim wieku dieta wysokobiałkowa wiąże się z lekko podwyższonym ryzykiem niewydolności serca. Naukowcy podkreślają, że choć dieta wysokobiałkowa jest popularna, przeprowadzono niewiele badań nad jej ewentualnym wpływem na ryzyko niewydolności serca u mężczyzn. Ponieważ wiele osób uznaje korzyści zdrowotne diety wysokobiałkowej za pewnik, ważne, byśmy dobrze znali jej potencjalne plusy i minusy. [Warto wiedzieć, że] wcześniejsze badania powiązały diety bogate w białko - zwłaszcza ze źródeł zwierzęcych - z podwyższonym ryzykiem cukrzycy typu 2., a nawet zgonu - opowiada dr Jyrki Virtanen z Uniwersytetu Wschodniej Finlandii. Autorzy publikacji z pisma Circulation: Heart Failure badali 2441 mężczyzn, którzy w momencie rozpoczęcia studium mieli od 42 do 60 lat. Średnio obserwowano ich przez 22 lata. W tym okresie zdiagnozowano 334 przypadki niewydolności serca. Okazało się, że 70% spożywanego białka pochodziło ze źródeł zwierzęcych, a tylko 27,7% ze źródeł roślinnych. Finowie podkreślają, że wyższe spożycie białka z większości źródeł wiązało się z lekko podwyższonym ryzykiem niewydolności serca. Tylko białka z jajek i ryb nie wiązały się z takim ryzykiem. W oparciu o ilość spożywanego dziennie białka mężczyzn podzielono na 4 grupy. Gdy porównano panów jedzących najwięcej i najmniej białka, okazało się, że u tych pierwszych ryzyko niewydolności serca było o 33% wyższe dla wszystkich źródeł białka, 43% wyższe dla białka zwierzęcego, 49% wyższe dla białek z nabiału i 17% wyższe dla białek roślinnych. Jako że to jedno z pierwszych badań wspominających o korelacji między białkiem z diety a ryzykiem niewydolności serca, potrzeba kolejnych studiów, które pokażą, czy zmniejszenie spożycia protein może wspomóc profilaktykę niewydolności serca - podsumowuje doktorantka Heli E.K. Virtanen. « powrót do artykułu
  13. Jeden z najwybitniejszych ekspertów od ekologii i nauk przyrodniczych, profesor William Laurance z australijskiego James Cook University, ostrzega, że chiński plan „Jeden pas i jedna droga” to najbardziej ryzykowne pod względem ekologicznym przedsięwzięcie podjęte przez człowieka. Chiny mają olbrzymie ambicje. Ale wraz z nimi idzie olbrzymia odpowiedzialność, mówi Laurance. W artykule opublikowanym na łamach Nature Sustainability uczony dołącza do głosów naukowców, którzy wzywają Chiny stworzenia szczegółowego planu strategicznego oraz rygorystycznej oceny wpływu wspomnianej inicjatywy na środowisko. W ciągu najbliższych 30 lat w ramach projektu „Jeden pas i jedna droga” Chiny chcą przeprowadzić nawet 7000 projektów infrastrukturalnych i zainwestować 8 bilionów dolarów. Chiński plan obejmuje swoim zasięgiem co najmniej 64 państwa w Azji, Afryce, Europie i regionie Pacyfiku. Zdaniem World Wildlife Found jego realizacja będzie miała wpływ na ponad 1700 obszarów o krytycznej bioróżnorodności i na setki zagrożonych gatunków. Chiny twierdzą, że projekt „Jeden pas i jedna droga” będzie wzorem odpowiedzialnego rozwoju. Jednak by tak się stało Chiny musiałyby całkowicie zmienić swoje podejście do robienia interesów. Wiele chińskich firm i projektów finansowych jest bardzo słabo kontrolowanych przez ich rząd, pozwala się im na wszystko, bo są to bardzo dochodowe przedsięwzięcia, mówi profesor Laurance. Przez ostatnie dwie dekady widziałem niezliczone przykłady agresywnej, a nawet grabieżczej eksploatacji prowadzonej przez chińskie firmy. Szczególnie ma ona miejsce w krajach rozwijających się o słabych instrumentach kontrolnych, dodaje uczony. Autorzy krytycznego artykułu podkreślają, że Chiny stoją przed unikatową szansą zmiany swojego modelu rozwoju i zostania rzeczywistym światowym liderem odpowiedzialnego rozwoju. Chiny znacznie bardziej dbają o swoje własne środowisko niż o środowisko w innych krajach, zauważa Laurance. Wyprodukowali już całe góry dokumentacji i obietnic dotyczących projektu „Jeden pas i jedna droga”, jednak dokumentacja nie spowoduje, że lamparty z dnia na dzień przeniosą się w inne miejsce. Chiny stoją przed olbrzymią szansą, jeśli jednak będą postępowały tak jak zwykle, to koszty środowiskowe i ekonomiczne będą dla inwestorów przerażające. « powrót do artykułu
  14. U dzieci i dorosłych leczonych pewnymi doustnymi antybiotykami znacząco rośnie ryzyko kamicy nerkowej. Najwyższe ryzyko występuje u młodszych pacjentów i u osób, które niedawno zetknęły się z antybiotykami. "W ciągu minionych 30 lat ogólna częstość występowania kamieni nerkowych wzrosła o 70%. Szczególnie ostre wzrosty widać wśród młodzieży i młodych kobiet [kiedyś kamienie nerkowe były u dzieci rzadkie]" - opowiada Gregory E. Tasian, urolog pediatryczny ze Szpitala Dziecięcego w Filadelfii. Przyczyny tych wzrostów są nieznane, ale nasze badania sugerują, że pewną rolę odgrywają doustne antybiotyki (zwłaszcza kiedy pod uwagę weźmie się fakt, że dzieciom antybiotyki są przepisywane częściej niż dorosłym) - dodaje Michelle Denburg, nefrolog pediatryczny. Autorzy publikacji z Journal of the American Society of Nephrology przejrzeli elektroniczną bazę medyczną z Wielkiej Brytanii. Można w niej znaleźć informacje na temat 13 mln dorosłych i dzieci, którzy między 1994 a 2015 r. zgłosili się do lekarza rodzinnego z Health Improvement Network. Naukowcy analizowali wcześniejszą ekspozycję na antybiotyki u ok. 26 tys. pacjentów z kamicą nerkową. Porównywali ich do blisko 260-tys. grupy kontrolnej. Okazało się, że z diagnozą kamicy nerkowej wiązało się 5 klas doustnych antybiotyków: sulfonamidy, cefalosporyny, fluorochinolony, nitrofurantoina i penicyliny o szerokim spektrum działania. Po wzięciu poprawki na szereg czynników, w tym na wiek, płeć, rasę, zakażenia układu moczowego, zażywanie innych leków i występowanie innych chorób, okazało się, że pacjenci zażywający sulfonamidy mieli kamienie nerkowe ponad 2-krotnie częściej od osób z grupy kontrolnej. Największe ryzyko kamicy występowało u dzieci i młodzieży. Mimo że ryzyko kamieni nerkowych spadało z czasem, pozostawało podwyższone parę lat po antybiotykoterapii. Amerykanie podkreślają, że choć naukowcy już od jakiegoś czasu wiedzą, że antybiotyki oddziałują na ludzki mikrobiom i że zaburzania mikroflory jelit oraz układu moczowego wiążą się z występowaniem kamieni nerkowych, dotąd nikt nie ujawnił korelacji między zażywaniem antybiotyków a kamicą. Zespół Tasiana kontynuuje badania nad mikrobiomem dzieci i nastolatków z kamicą nerkową. Długofalowym celem jest przeprowadzenie badań populacyjnych. « powrót do artykułu
  15. Analiza zachowań niemal 600 000 osób wykazała, że spożywanie ponad 100 gramów alkoholu tygodniowo zwiększa ryzyko przedwczesnej śmierci. Pół litra alkoholu to odpowiednik około 2,5 litra piwa lub 0,9 litra wina. Analizą objęto mieszkańców 19 krajów, u których nie występowały wcześniej choroby układu krążenia. Wykazała ona, że alkohol wiąże się ze zwiększonym ryzykiem zgonu z jakiejkolwiek przyczyny. Autorzy studiów donoszą że np. 40-latkowie, którzy regularnie każdego tygodnia spożywają 200-350 gramów alkoholu (5-9 litrów piwa) żyją o 1-2 lat krócej niż ich rówieśnicy, którzy alkoholu nie piją. Picie takich ilości alkoholu powiązano z wyższym ryzykiem udaru i zawału serca. Badania te jasno pokazują, że spożywanie alkoholu nie wiąże się z żadnymi korzyściami zdrowotnymi, stwierdził Tim Chico z University of Sheffield. « powrót do artykułu
  16. Wiele wskazuje na to, że seniorzy, którzy wolniej chodzą, znajdują się w grupie podwyższonego ryzyka demencji. Brytyjscy naukowcy analizowali dane zebrane w ramach English Longitudinal Study of Aging. Autorzy publikacji z Journal of the American Geriatrics Society skupili się na informacjach z lat 2002-15. Oceniali prędkość chodu blisko 4 tys. (3932) ochotników w wieku 60+ w latach 2002-03 i 2004-05 i sprawdzali, czy zapadli oni na demencję, czy nie. Okazało się, że ludzie chodzący wolniej i doświadczający w 2-letnim okresie większego spadku prędkości chodu byli bardziej zagrożeni demencją. U osób, które na początku studium miały obniżone zdolności poznawcze (rozumowanie i podejmowanie decyzji) i których zdolności szybciej pogarszały się w czasie studium, także częściej diagnozowano demencję. Akademicy podkreślają, że zmiana prędkości chodu i zmiany poznawcze nie wywierały interakcyjnego wpływu na ryzyko demencji. « powrót do artykułu
  17. Im dłużej ktoś przyjmuje niskie dawki aspiryny, tym niższe ryzyko zapadnięcia na raka trzustki. Odkryliśmy, że stosowanie niskich dawek aspiryny wiązało się ze zmniejszeniem ryzyka raka trzustki o połowę. Pewne dowody świadczyły o tym, że im dłuższe zażywanie aspiryny, tym niższe ryzyko - wyjaśnia dr Harvey A. Risch ze Szkoły Zdrowia Publicznego Yale. Ponieważ ok. 1 dorosła osoba na 60 będzie mieć raka trzustki, a 5-letnia przeżywalność nie przekracza w przypadku tej choroby 5%, musimy znaleźć skuteczne metody prewencji. U kobiet i mężczyzn, którzy regularnie zażywają aspirynę, ryzyko wystąpienia raka trzustki spada o 48%. W grupie przyjmującej aspirynę 6 lat lub krócej zaobserwowano spadek ryzyka o 39%, a wśród osób zażywających ją od ponad dekady aż o 60%. Wyniki wcześniejszych studiów zaciemniał fakt, że aspirynę przyjmowano, by znieść ból związany z chorobami, które same w sobie mogą mieć coś wspólnego z ryzykiem raka trzustki. Dopiero ostatnio ludzie [zapobiegając chorobom sercowo-naczyniowym] stosują niskie dawki aspiryny na tyle długo, by wpłynęło to na ryzyko rozwoju raka trzustki. Ochotników do studium Rischa zwerbowano w latach 2005-2009 w 30 szpitalach stanu Connecticut. Zebrano 362 pacjentów z rakiem trzustki i 690-osobową grupę kontrolną. Naukowcy prowadzili wywiady, by ustalić, kiedy ktoś zaczął zażywać aspirynę, czy stosował niskie, czy wysokie dawki i kiedy ewentualnie przestał zażywać ten lek. Brano poprawkę na potencjalnie istotne czynniki, w tym wskaźnik masy ciała, palenie czy cukrzycę. Większość uczestników studium (57%) stanowili mężczyźni. Ok. 49% to byli lub czynni palacze, a u 19% w ciągu 3 lat przed badaniem zdiagnozowano cukrzycę. Za niską dawkę, stosowaną zazwyczaj w ramach zapobiegania chorobom sercowo-naczyniowym, uznawano dozę 75-325 mg dziennie. Wyższe dawki, zażywane co 4-6 godz., uznawano za regularne przyjmowanie aspiryny w celach przeciwbólowych bądź przeciwzapalnych. Ustalono, że 96% osób z grupy z niskimi dawkami i 92% z wysokimi dawkami zażywało lek codziennie. Im wcześniej ktoś zaczął regularnie przyjmować niskie dawki aspiryny, tym większy spadek ryzyka raka trzustki (u pacjentów, którzy rozpoczęli zapobieganie 3 lata przed początkiem studium, wynosił on 48%, a u osób, które wystartowały 20 lat przed badaniem, aż 60%). W porównaniu ze stałym zażywaniem, przerwanie stosowania na przestrzeni 2 lat przed studium wiązało się z 3-krotnym wzrostem ryzyka zachorowania. Risch podkreśla, że zażywanie aspiryny może być ryzykowne samo w sobie, dlatego plusy i minusy każdorazowo powinno się rozważać indywidualnie. « powrót do artykułu
×
×
  • Dodaj nową pozycję...