Jump to content
Forum Kopalni Wiedzy

Search the Community

Showing results for tags ' ryzyko'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Found 22 results

  1. Właściciele kotów od dawna toczą spór o to, czy należy zwierzęta wypuszczać na zewnątrz czy też nie. Na łamach Biology Letters ukazały się wyniki badań, które jednej ze stron dają mocny argument do ręki. Naukowcy stwierdzili bowiem, że koty, które są wypuszczane na zewnątrz z trzykrotnie większym prawdopodobieństwem są nosicielami patogenów i pasożytów, niż koty pozostające w domach. Wyniki badań powinny być ostrzeżeniem dla ludzi, gdyż mogą się zarazić od kota. Co interesujące, im dalej od równika mieszka kot wypuszczany na zewnątrz, z tym większym prawdopodobieństwem się zarazi. Każdy stopień szerokości geograficznej od równika zwiększa prawdopodobieństwo infekcji o 4%, mówi główna autorka badań, Kayleigh Chalkowski z Auburn University w Alabamie. Można by pomyśleć, że skoro w tropikach żyje więcej zwierząt, ryzyko zarażenia jest tam większe. Okazuje się jedna, że jest na odwrót, dodaje. Na potrzeby swoich badań Chwalkowski i jej zespół przeanalizowali około 20 studiów, których autorzy porównywali odsetek zarażeń pomiędzy kotami trzymanymi w domach, a kotami wypuszczanymi. Badania były analizowane pod kątem występowania 19 różnych patogenów u kotów w kilkunastu krajach, w tym w Hiszpanii, Kanadzie, Australii, Szwajcarii, Niemczech, Pakistanie, Brazylii, Holandii i na St. Kitts. To pierwsze studium, w którym zauważono, że czynnikiem ryzyka infekcji u kotów jest szerokość geograficzna, na której żyją, mówi Chwalkowski. Wpływ szerokości geograficzne był widoczny dla niemal wszystkich patogenów, w tym i takich, które są przenoszone na ludzi. Było to niezależne od tego, w jaki sposób zarażał się sam kot – przez kontakt z glebą, innym kotem czy upolowanym gryzoniem lub ptakiem. Mówiąc wprost, niezależnie od tego, gdzie mieszkasz ze swoim kotem, trzymanie go w pomieszczeniu jest dobre dla jego zdrowia, podsumowuje Chwalkowski. Specjaliści szacują, że na całym świecie żyje około 500 milionów kotów domowych. « powrót do artykułu
  2. Mężczyźni, którzy z powodu łagodnego rozrostu gruczołu krokowego (prostaty) przyjmują blokery 5-alfa reduktazy, mogą być bardziej zagrożeni cukrzycą typu 2. Naukowcy z Uniwersytetu w Edynburgu i Uniwersyteckiego College'u Londyńskiego (UCL) wyjaśniają, że blokery 5-alfa reduktazy zmniejszają wytwarzanie androgenów, co pomaga walczyć z takimi objawami, jak zmniejszony przepływ cewkowy. Wcześniejsze badania sugerowały, że inhibitory 5-alfa reduktazy mogą wpływać na metabolizm i zmniejszać reakcję organizmu na insulinę (insulinowrażliwość), co jest wczesnym objawem cukrzycy. Akademicy analizowali dane medyczne ok. 55 tys. Brytyjczyków, którym w ciągu 11 lat przepisano blokery 5-alfa reduktazy. Okazało się, że leki wiązały się z podwyższonym o ok. 30% ryzykiem rozwoju cukrzycy. Podobny efekt zaobserwowano przy badaniu powtórzonym na danych medycznych grupy mężczyzn z Tajwanu. Wyniki sugerują, że mężczyzn przyjmujących inhibitory 5-alfa reduktazy należy monitorować pod kątem sygnałów ostrzegawczych cukrzycy, tak by móc w porę zmienić zalecenia. Odkryliśmy, że leki często przepisywane na łagodny rozrost gruczołu krokowego [np. dutasteryd czy finasteryd] mogą podwyższać ryzyko cukrzycy typu 2. Te rezultaty mają szczególne znaczenie dla skryningu starszych mężczyzn, którzy [ze względu na wiek] i tak są już bardziej zagrożeni cukrzycą typu 2. Będziemy kontynuować badania, by zrozumieć długoterminowe skutki i móc lepiej identyfikować pacjentów z grupy podwyższonego ryzyka - podsumowuje prof. Ruth Andrew z Uniwersytetu w Edynburgu. « powrót do artykułu
  3. Obniżanie poziomu złego cholesterolu LDL zmniejsza ryzyko zawału i udaru. Za idealne uznaje się poziomy poniżej 100 mg/dl. Czy jednak stężenie LDL może być zbyt niskie? Okazuje się, że prawdopodobnie tak, bo kobiety z LDL poniżej 70 mg/dl są ponad 2-krotnie bardziej zagrożone udarem krwotocznym niż kobiety z poziomem LDL wynoszącym 100-130 mg/dl. Autorzy raportu z pisma Neurology odkryli również, że panie z najniższym poziomem trójglicerydów miały podwyższone ryzyko udaru krwotocznego w porównaniu do ochotniczek z najwyższym ich stężeniem. Naukowcy podkreślają, że udary krwotoczne są o wiele rzadsze od udarów niedokrwiennych. Są trudniejsze w leczeniu, a przez to bardziej śmiertelne. Obniżanie poziomu cholesterolu i trójglicerydów, np. przez modyfikację diety bądź zażywanie statyn, to popularna metoda zapobiegania chorobom sercowo-naczyniowym. Nasze duże badanie pokazuje jednak, że u kobiet bardzo niskie stężenia także niosą za sobą pewne ryzyko. Kobiety mają wyższe ryzyko udaru niż mężczyźni, po części dlatego, że żyją dłużej, dlatego jasne sprecyzowanie metod obniżania ryzyka jest bardzo istotne - podkreśla Pamela Rist z Brigham and Women's Hospital w Bostonie. Badanie objęło 27.937 kobiet w wieku 45 i starszych, uczestniczek Women's Health Study, u których całkowity cholesterol (LDL, HDL i trójglicerydy) określono na początku studium. Naukowcy analizowali dane medyczne, by określić, ile pań przeszło udar krwotoczny. Średni okres, w którym śledzono losy ochotniczek, wynosił 19 lat. W sumie zidentyfikowano 137 przypadków udaru krwotocznego. Udar krwotoczny wystąpił u 9 z 1069 kobiet z poziomem cholesterolem rzędu 70 mg/dl bądź niższym, w porównaniu do 40 z 10.067 ze stężeniem cholesterolu między 100 a 130 mg/dl. Po wzięciu poprawki na inne czynniki, które mogą wpływać na ryzyko udaru, np. na wiek, palenie czy nadciśnienie, stwierdzono, że kobiety z bardzo niskim poziomem LDL są 2,2-krotnie bardziej zagrożone udarem krwotocznym. W przypadku trójglicerydów panie podzielono na 4 grupy. Kobiety z grupy z najniższym stężeniem miały poziom na czczo wynoszący 74 mg/dl lub mniej albo poziom nie na czczo wynoszący 85 mg/dl bądź mniej. U kobiet z najwyższego kwartyla poziom na czczo wynosił ponad 156 mg/dl, a nie na czczo ponad 188 mg/dl. Amerykanie zauważyli, że udar krwotoczny miały 34 (0,6%) kobiety spośród 5.714 z najniższym stężeniem trójglicerydów, w porównaniu do 29 (0,4%) spośród 7.989 z najwyższym ich stężeniem. Po wzięciu poprawki na inne potencjalnie istotne czynniki, naukowcy stwierdzili, że przedstawicielki najniższego kwartyla były 2-krotnie bardziej zagrożone udarem. Dla cholesterolu całkowitego i dobrego cholesterolu HDL nie stwierdzono różnic dot. ryzyka udaru krwotocznego. Kobiety z bardzo niskim poziomem LDL lub niskim stężeniem trójglicerydów powinny być monitorowane przez lekarza pod kątem innych modyfikowalnych czynników ryzyka udaru. Chodzi np. o nadciśnienie i palenie [...]. Potrzebne są też dalsze badania, które pokażą, jak obniżyć zagrożenie udarem krwotocznym u pań z bardzo niskim poziomem LDL i niskim stężeniem trójglicerydów - zaznacza Rist. Ograniczeniem studium jest fakt, że poziomy cholesterolu i trójglicerydów mierzono tylko raz, na początku badań. Poza tym gdy mierzono te wartości, wiele ochotniczek przeszło już menopauzę, przez co akademicy nie sprawdzili, czy status menopauzalny w jakiś sposób modyfikuje związek miedzy poziomami cholesterolu oraz trójglicerydów i udarem krwotocznym. « powrót do artykułu
  4. Kobiety, które zaczynają później miesiączkować, a także wcześniej przechodzą menopauzę lub są poddawane histerektomii, mogą być bardziej zagrożone demencją. Naukowcy, których wyniki ukazały się on-line w piśmie Neurology, wykryli bowiem związek między krótszym okresem reprodukcyjnym i podwyższonym ryzykiem demencji. Ponieważ kobiety są o 50% bardziej zagrożone demencją, ważne jest, by badać wszelkie specyficzne dla nich czynniki ryzyka, które ostatecznie mogą nas doprowadzić do opracowania nowych metod interwencji - podkreśla dr Paola Gilsanz z Kaiser Permanente. Studium objęło 6137 kobiet. Wypełniały one kwestionariusze zdrowotne. Przechodziły też badania medyczne. Ochotniczki pytano, kiedy miały pierwszą miesiączkę, kiedy przeszły menopauzę i czy miały histerektomię. Dla każdej z pań wyliczano długość okresu reprodukcyjnego. Amerykanie wykorzystali też medyczne bazy danych, by ustalić, u których kobiet zdiagnozowano później demencję. Średni wiek pierwszej miesiączki wynosił 13 lat, a menopauzy 45. Średnia liczba lat płodnych wynosiła zaś 32. U 34% przeprowadzono histerektomię. Gdy analizowano tylko kobiety, którym nie usuwano macicy, średni wiek menopauzy i długość okresu reprodukcyjnego były nieco wyższe i wynosiły, odpowiednio, 47 i 34. Demencję zdiagnozowano u 42% badanych. Okazało się, że kobiety, które miały menarche w wieku 16 lat bądź później, były o 23% bardziej zagrożone demencją niż panie, które miały pierwszą miesiączkę w wieku 13 lat. Wśród 258 pań, które miały pierwszy okres w wieku 16 lat bądź później, na demencję zapadło potem 120; dla porównania, tę samą diagnozę postawiono u 511 spośród 1188 kobiet, które zaczęły miesiączkować w wieku 13 lat. Ustalono także, że dla kobiet, które przeszły naturalną menopauzę przed ukończeniem 47. r.ż., ryzyko wystąpienia demencji było o 19% wyższe niż u pań, które weszły w okres przekwitania w wieku 47 lat lub później. W pierwszej z wymienionych grup (1645) demencję stwierdzono u 700 osób, zaś w drugiej (2402) u 1052. Kiedy wyliczono długość okresu reprodukcyjnego (a więc liczbę lat od wieku menarche do wieku menopauzy), okazało się, że kobiety, u których był on krótszy niż 34 lata, miały o 20% wyższe ryzyko demencji niż panie przekraczające cezurę 34 lat. Z 1072 kobiet, u których doliczono się mniej niż 34 lat reprodukcyjnych, 728 zapadło na demencję, w porównaniu do 1024 z 2345 wchodzących w menopauzę w wieku 47 lat bądź później. Akademicy podali także, że u kobiet, które przeszły histerektomię, ryzyko demencji było o 8% wyższe niż w grupie nieprzechodzącej tej procedury. Podczas analiz naukowcy brali poprawkę na inne czynniki oddziałujące na jednostkowe ryzyko demencji, np. na palenie, cukrzycę czy nadciśnienie. Nasze wyniki pokazują, że mniejsza ekspozycja na estrogen w ciągu życia jest powiązana z podwyższonym ryzykiem demencji. Mimo że nasze badanie było duże, nie dysponowaliśmy wystarczającą ilością danych, by wziąć poprawkę na inne czynniki, które mogą wpływać na poziom estrogenu, np. ciąże, hormonalną terapię zastępczą czy antykoncepcję. Potrzebne są więc kolejne studia - podsumowuje Gilsanz. « powrót do artykułu
  5. Naukowcy z Chin i Uniwersytetu Australii Południowej analizowali związki między spożyciem owoców i warzyw bogatych w przeciwutleniacze a obniżeniem ryzyka zaćmy związanej z wiekiem (ang. age-related cataract, ARC). Dr Ming Li z Australii i akademicy z Xi'an Jiaotong University analizowali 20 badań z całego świata. Przyglądano się wpływowi witamin A, C i E oraz karotenoidów (beta-karotenu, luteiny i zeaksantyny) na ryzyko zaćmy. Mimo pewnych niespójności między badaniami z losowaniem do grup i kohortowymi (dotyczyły one witaminy E i beta-karotenu), wyniki stanowią silne poparcie dla korzyści związanych ze spożyciem owoców cytrusowych, papryki, marchwi, pomidorów i ciemnozielonych warzyw, takich jak szpinak, brokuły czy jarmuż. Zaćma związana z wiekiem to wiodąca przyczyna problemów wzrokowych seniorów z całego świata. Operacje są skuteczną, ale drogą metodą przywracania wzroku [...] - podkreśla Li. Starzenie społeczeństw sprawia, że wszelkie rozwiązania są na wagę złota. Gdybyśmy mogli opóźnić początek ARC o 10 lat, liczba osób potrzebujących zabiegu spadłaby o połowę. « powrót do artykułu
  6. Dieta niskowęglowodanowa może zwiększyć ryzyko migotania przedsionków (ang. atrial fibrillation, AF). Osoby, które regularnie pozyskują z węglowodanów mniej niż 45% kalorii, zapadają na migotanie przedsionków o 18% częściej niż ludzie, którzy spożywają umiarkowane ilości węglowodanów (taką postać ma ok. 45-52% przyjmowanych przez nich kalorii). Chińscy naukowcy podkreślają, że ryzyko AF było podwyższone bez względu na rodzaj białek czy tłuszczów, którymi zastępowano węglowodany. Zespół dr. Xiaodonga Zhuanga z Sun Yat-Sen University przeanalizował dane z badania amerykańskich Narodowych Instytutów Zdrowia, które objęło niemal 14 tys. osób. Na początku studium nikt nie miał migotania przedsionków. Losy ochotników śledzono średnio przez 22 lata. W tym okresie AF wystąpiło u ok. 1900 ludzi. Wszyscy wypełniali kwestionariusze żywieniowe, dzięki czemu akademicy mogli ich podzielić na 3 grupy: o niskim, umiarkowanym i dużym spożyciu węglowodanów. Pierwsza grupa spożywała z węglowodanami mniej niż 45% kalorii, druga między 45 a 52%, a trzecia powyższej 52%. Uzyskane wyniki pasują do wcześniejszych ustaleń innych naukowców, sugerując, że zarówno nisko-, jak i wysokowęglowodanowe diety są powiązane z wyższym ryzkiem przedwczesnego zgonu. Dr Laurence Epstein z Northwell Health, który komentował wyniki chińskich kolegów, dodaje, że choć na razie można mówić tylko o korelacji, a nie związku przyczynowo-skutkowym, istnieje kilka wyjaśnień, czemu dieta niskowęglowodanowa miałaby powodować AF. Jak tłumaczy, diety niskowęglowodanowe dają tak szybki spadek wagi, bo wiążą się z usuwaniem płynów z organizmu, a odwodnienie może prowadzić do migotania przedsionków. Oprócz tego naukowiec wspomina o nieprawidłowościach elektrolitowych, które także wpływają na rytm serca i o niższym spożyciu warzyw, owoców i pełnych ziaren, które zmniejszają stan zapalny (stan zapalny powiązano z AF). Epstein dodaje, że może liczyć się również przyczyna, dla której ktoś przechodzi na niskowęglowodanową dietę. Możesz przestrzegać niskowęglowodanowej diety, jeśli jesteś diabetykiem i próbujesz kontrolować poziom cukru we krwi. Cukrzyca jest zaś czynnikiem ryzyka AF. Szesnastego marca Zhuang przedstawi swoje ustalenia na konferencji Amerykańskiego College'u Kardiologii w Nowym Orleanie. Zarówno Zhuang, jak i komentatorzy podkreślają, że by określić mechanizmy zaobserwowanego zjawsika, należy przeprowadzić dalsze pogłębione badania. Wszyscy wskazują też, że należy pamiętać o tym, by dieta była zrównoważona. « powrót do artykułu
  7. Wiele wskazuje na to, że wrodzona/wczesna ślepota korowa całkowicie eliminuje ryzyko rozwoju schizofrenii. U osób ze schizofrenią częściej diagnozuje się np. problemy dotyczące siatkówki, a także inne wzorce poruszania oczami lub częstość mrugania. Dotychczasowe ustalenia, pochodzące głównie ze studiów przypadków, sugerowały, że wrodzona bądź wczesna ślepota korowa (wynikająca z uszkodzenia pól wzrokowych kory potylicznej w warunkach prawidłowej anatomii i fizjologii oka) może nawet całkowicie chronić przed schizofrenią. Zgodnie z wiedzą autorów publikacji ze Schizophrenia Research, nie udokumentowano bowiem ani jednego przypadku schizofrenii u osoby ze ślepotą korową. Warto jednak zauważyć, że większość naukowców zastrzega się, że brak dowodów nie jest dowodem braku [danego zjawiska] - podkreśla prof. Vera Morgan z Uniwersytetu Australii Zachodniej. Zespół Morgan wykorzystał dane z Australii Zachodniej, by oszacować zapadalność na schizofrenię wśród ludzi z wrodzoną ślepotą korową i wczesną ślepotą peryferyjną bądź korową. Za wczesną uznawano chorobę rozpoczynającą się przed 6. r.ż. Ślepota korowa może być wrodzona lub nabyta. Najczęściej spowodowana jest 1) niedotlenieniem w wyniku zatoru jednej lub obu tętnic mózgowych tylnych, a także 2) chorobą zakrzepowo-zatorową tętnicy podstawnej mózgu. Do przyczyn ślepoty peryferyjnej zalicza się wrodzone wady soczewki czy jaskrę. Dane pochodziły z szerszego projektu, badającego czynniki ryzyka schizofrenii i chorób pokrewnych w grupie prawie 500 tys. osób urodzonych w Australii Zachodniej między 1980 a 2001 r.; to oznacza, że w okresie analizy badani mieli 14-35 lat. U 9120 osób zdiagnozowaną jakąś chorobę psychiczną; u 1870 stwierdzono schizofrenię. Oprócz tego doliczono się 66 przypadków ślepoty korowej i 613 ślepoty peryferyjnej. U 8 osób ze ślepotą obwodową rozwinęła się psychoza (także schizofrenia). W grupie ze ślepotą korową nie odnotowano schizofrenii ani żadnej innej choroby psychicznej. Ponieważ wrodzona/wczesna ślepota korowa jest bardzo rzadka, nawet przy półmilionowej próbie nie można wyciągnąć ostatecznego wniosku odnośnie do wpływu na schizofrenię. Nie da się jednak zaprzeczyć, że badania Morgan uprawomocniają wcześniejsze doniesienia, że wczesna ślepota zmniejsza, a nawet eliminuje ryzyko choroby psychicznej. Australijczycy nie są pewni, czemu się tak dzieje. Trudno wskazać precyzyjny mechanizm, ale sądzimy, że zabezpieczające działanie ma coś wspólnego z kompensacyjną reorganizacją mózgu, która zachodzi w odpowiedzi na wrodzoną bądź wczesną ślepotę korową. Z tego powodu pewne funkcje, które są upośledzone w schizofrenii, mogą u tych pacjentów ulegać wzmocnieniu. Akademicy podkreślają, że wczesna ślepota prowadzi do wzmocnienia percepcji słuchowej, uwagi słuchowej, pamięci czy funkcji językowych, a te często nie działają dobrze u pacjentów ze schizofrenią. Morgan dodaje, że badanie koncentrowało się na ludziach niewidomych od urodzenia lub od wczesnych lat życia, bo w tym wieku plastyczność mózgu jest większa. Zespół dodaje, że opisany fenomen wymaga ściśle zaplanowanych badań klinicznych. « powrót do artykułu
  8. Ludzie, w których diecie jest stosunkowo mało kwasów palimitynowego i stearynowego - występujących przede wszystkim w mięsie nasyconych kwasów tłuszczowych z liczbą atomów węgla równą bądź większą od 16 - i którzy zamiast tego sięgają białka roślinne, wydają się mniej zagrożeni zawałem serca. Osoby, które jedzą więcej nasyconych kwasów tłuszczowych o krótszych łańcuchach (z liczbą atomów węgla równą bądź mniejszą od 14), które zwykle występują w nabiale, także są mniej zagrożone zawałem. Nasza analiza długoterminowej diety dużych grup ludzi z 2 państw pokazuje, że rodzaj spożywanych nasyconych kwasów tłuszczowych ma znaczenie dla zdrowia sercowo-naczyniowego - podkreśla dr Ivonne Sluijs z Uniwersytetu w Utrechcie. W ramach studium oceniano, czy nasycone kwasy tłuszczowe o długości łańcucha węglowego wynoszącej od 4 do 18 atomów wiążą się z ryzykiem wystąpienia zawału. Przeanalizowano dane ok. 75 tys. osób z Danii i Wielkiej Brytanii; 22.050 z EPIC-Norfolk i 53.375 z EPIC-Denmark. W okresie objętym obserwacją - średnio 13,6 roku w Danii i 18,8 w Wielkiej Brytanii - zawał wystąpił u blisko 3,5 tys. osób. Odkryliśmy, że jedzenie relatywnie małych ilości kwasów tłuszczowych o dłuższym łańcuchu i spożywanie zamiast tego białek roślinnych wiązało się z niższym ryzykiem [zawału]. Zastąpienie tych tłuszczów nasyconych innymi źródłami energii, np. węglowodanami, nie wpływało na ryzyko wystąpienia zawału - opowiada dr Sluijs. Naukowcy dodają, że choć dietę kształtują narodowość i inne czynniki, i w Danii, i w Wielkiej Brytanii najczęściej spożywanym nasyconym kwasem tłuszczowym okazał się kwas palmitynowy z 16 atomami węgla. Za nim uplasował się kwas stearynowy z 18 atomami węgla (oba występują w produktach mięsnych). Nasycone kwasy tłuszczowe z krótszymi łańcuchami węglowymi (z nabiału) były spożywane rzadziej. Autorzy raportu z International Journal of Cardiology przypominają, że odkąd w latach 60. powiązano wysokotłuszczową dietę z podwyższonym poziomem złego cholesterolu LDL i chorobą niedokrwienną serca (ChNS), specjaliści zalecali ograniczanie spożycia nasyconych kwasów tłuszczowych. W ostatnich latach pojawiły się jednak wątpliwości. Pewne doniesienia sugerowały, że różne rodzaje nienasyconych kwasów tłuszczowych mogą mieć różny wpływ na poziom cholesterolu i rozwój ChNS. Choć analizy ekipy Sluijs wydają się to potwierdzać, akademicy przestrzegają przed zmianą diety. Nie wiemy, czy te kwasy tłuszczowe są rzeczywiście przyczyną różnic w zakresie występowania zawału. By zgłębić tę kwestię, potrzebujemy eksperymentów, podczas których konsumpcja nasyconych kwasów tłuszczowych byłaby bardziej kontrolowana i, na przykład, porównywana ze spożyciem nienasyconych kwasów tłuszczowych - podkreśla Sluijs. « powrót do artykułu
  9. KopalniaWiedzy.pl

    Optymizm chroni przed cukrzycą typu 2.

    Optymizm może obniżać ryzyko rozwoju cukrzycy typu 2. Autorzy artykułu z pisma Menopause podkreślają, że w USA cukrzycę ma ponad 30 mln obywateli (9,4%). Chorobowość rośnie z wiekiem i w grupie 65+ wynosi 25,5%. Cukrzyca typu 2. stanowi 90-95% przypadków diagnozowanych u dorosłych. Czynnikami ryzyka są m.in. otyłość czy brak aktywności fizycznej. Coraz więcej dowodów sugeruje, że z podwyższonym ryzykiem cukrzycy wiążą się też depresja i cynizm. Duży poziom wrogości powiązano zaś z wysokim stężeniem glukozy na czczo, insulinoopornością i cukrzycą. Niewiele badań poświęcono jednak ochronnym cechom osobowości. W ramach najnowszego studium analizowano przypadki 139.924 kobiet w wieku pomenopauzalnym (uczestniczek Women's Health Initiative, WHI), które na początku nie miały cukrzycy. W ciągu 14 lat zidentyfikowano 19.240 przypadków cukrzycy typu 2. Okazało się, że w porównaniu do kobiet z najniższego kwartyla optymizmu (najmniej optymistycznych), u pań z najwyższego kwartyla (najbardziej optymistycznych) ryzyko wystąpienia nowych przypadków cukrzycy było o 12% niższe. W porównaniu do badanych z najniższego kwartyla negatywnej reaktywności emocjonalnej i wrogości, kobiety z najwyższego kwartyla były, odpowiednio, o 9 i 17% bardziej zagrożone cukrzycą. Związek między wrogością i ryzykiem cukrzycy był silniejszy u pań, które nie były otyłe. Wiele wskazuje więc na to, że niski optymizm, a także silny negatywizm i wrogość wiążą się z podwyższonym ryzykiem nowych przypadków cukrzycy u kobiet w wieku pomenopauzalnym (czynniki te działają niezależnie od podstawowych zachowań zdrowotnych i depresji). Ponieważ cechy osobowościowe są stałe na przestrzeni życia, kobiety z grupy podwyższonego ryzyka cukrzycy, które przejawiają niski poziom optymizmu oraz duży negatywizm i wrogość, powinny być objęte strategiami prewencyjnymi dostosowanymi do ich typu osobowości - podsumowuje dr JoAnn Ponkerton, dyrektorka wykonawcza Północnoamerykańskiego Towarzystwa Menopauzy. « powrót do artykułu
  10. Wg radiologów, pewnego dnia rezonans magnetyczny (MRI) może pomóc w przewidywaniu ryzyka demencji. W ramach niewielkiego badania naukowcy ze Szkoły Medycznej Uniwersytetu Waszyngtona w St. Louis i Uniwersytetu Kalifornijskiego w San Francisco wykazali, że skany MRI pozwalają z 89% trafnością przewidzieć, u kogo w ciągu 3 lat rozwinie się demencja. Obecnie trudno jest powiedzieć, czy dana starsza osoba, która znajduje się w normie poznawczej lub cierpi na łagodne zaburzenia poznawcze [ang. mild cognitive impairment, MCI], będzie prawdopodobnie mieć demencję. My zademonstrowaliśmy, że za pomocą pojedynczego rezonansu da się przewidzieć demencję średnio 2,6 roku przed wystąpieniem klinicznie wykrywalnych objawów utraty pamięci - podkreśla dr Cyrus A. Raji. Neurolodzy mogą oszacować ryzyko choroby Alzheimera za pomocą Krótkiej Skali Stanu Psychicznego (Mini-Mental State Examination, MMSE) albo za pomocą badania wersji genu apolipoproteiny E (ApoE4 zwiększa je nawet 12-krotnie). W ramach opisywanego studium trafność tych metod sięgała 70-80%. Pozytonowa tomografia emisyjna (PET), która unaocznia blaszki beta-amyloidu, to dobra, ale droga metoda wykrywania wczesnych przejawów choroby Alzheimera. Poza tym badanemu trzeba podać substancję promieniotwórczą, a nie wszystkie szpitale mają coś takiego na stanie. Ponieważ MRI jest szeroko dostępne, Raji i współpracownicy postanowili przeanalizować skany w poszukiwaniu objawów fizycznych zbliżającego się pogorszenia formy poznawczej. Amerykanie bazowali na jednym z rodzajów rezonansu magnetycznego - obrazowaniu tensora dyfuzji, które mierzy dyfuzję cząsteczek wody w tkance. Zależało im na ocenie stanu zdrowia istoty białej. Obrazowanie tensora dyfuzji to sposób na pomiar przemieszczania się cząsteczek wody wzdłuż szlaków istoty białej. Dzięki danym zgromadzonym w ramach Alzheimer's Disease Neuroimaging Initiative zidentyfikowano 10 osób, których zdolności poznawcze pogorszyły się w ciągu 2 lat. Pod względem wieku i płci dopasowano do nich równoliczna grupę z niezmieniającymi się zdolnościami poznawczymi. Średni wiek dla obu grup wynosił 73 lata. Później naukowcy przeanalizowali wyniki obrazowania tensora dyfuzji dla wszystkich 20 osób. Okazało się, że pacjenci, u których nastąpiło pogorszenie formy poznawczej, mieli znacząco więcej oznak uszkodzenia istoty białej. Akademicy powtórzyli analizy na innej grupie 61 ludzi (tym razem posłużyli się bardziej precyzyjną metodą pomiaru integralności istoty białej). Patrząc na mózg jako całość, mogli przewidzieć ryzyko spadku formy poznawczej z 89% trafnością. Gdy skupiali się na częściach mózgu, które najczęściej wykazują uszkodzenia, trafność rosła do 95%. Raji podkreśla, że teraz należy powtórzyć badania na większej próbie i opracować skomputeryzowane narzędzia, które mogłyby porównywać skany pacjentów ze standardem. « powrót do artykułu
  11. Osoby, u których migreny poprzedza aura wzrokowa, są bardziej zagrożone migotaniem przedsionków (ang. atrial fibrillation, AF). Aura wzrokowa bywa też nazywana oczną bądź klasyczną. Zaburzenia wzrokowe przejawiają się np. jako mroczki, jasne plamy, błyskające światła, problemy z ostrością widzenia czy migocące zygzakowate linie. Ponieważ migotanie przedsionków jest częstą przyczyną udarów powodowanych przez zakrzepy, a wcześniejsze badania wskazały na związek między migreną z aurą i udarem, chcieliśmy sprawdzić, czy u osób z migrenami z aurą występuje wyższy wskaźnik migotania przedsionków - opowiada dr Souvik Sen z Uniwersytetu Południowej Karoliny. Autorzy publikacji z pisma Neurology wyjaśniają, że 11.939 osób w średnim wieku 60 lat bez wcześniejszego migotania przedsionków bądź udaru oceniano pod kątem bólów głowy. W grupie tej 9.405 osób nie cierpiało na bóle głowy, a 1516 miewało migreny (u 426 ochotników występowały migreny z aurą). Losy badanych śledzono do 20 lat. W czasie trwania studium migotanie przedsionków wystąpiło u 1623 (17%) osób bez bólów głowy, 80 z 440 (18%) osób z migrenami z aurą oraz u 152 z 1105 (14%) pacjentów z migreną bez aury. Po wzięciu poprawki na wiek, płeć, ciśnienie, palenie i inne czynniki, które mogą wpływać na ryzyko migotania przedsionków, okazało się, że prawdopodobieństwo wystąpienia migotania przedsionków jest u osób z migreną z aurą o 30% wyższe niż w grupie bez bólów głowy i o 40% wyższe niż u ludzi z migrenami bez aury. Jak wyjaśniają Amerykanie, oznacza to że migotanie przedsionków może wystąpić u 9 na 1000 ludzi z migreną z aurą, w porównaniu do 7 na 1000 osób z migreną bez aury. Naukowcy stwierdzili także, że wskaźnik udarów w grupie migrenowej z aurą wynosi 4 osoby na 1000 rocznie, w porównaniu do 2:1000 w grupie migrenowej bez aury oraz 3:1000 w grupie bez bólów głowy. Ważne, by odnotować, że pacjenci z migrenami z aurą mogą być bardziej zagrożeni migotaniem przedsionków przez problemy z autonomicznym układem nerwowym, który pomaga kontrolować serce i naczynia krwionośne. Potrzeba więcej badań, by określić, czy ludzie z migrenami z aurą powinni przechodzić badania przesiewowe ukierunkowane na AF. Akademicy wspominają o kilku ograniczeniach swojego badania. Po pierwsze, może nim być przyjęta definicja migreny, która eliminowała np. osoby z historią migren w młodszym wieku. Po drugie, naukowcy dysponowali ograniczonymi informacjami nt. leków przeciwmigrenowych, które mogą wpływać na tętno. « powrót do artykułu
  12. Migające światła i melodie wygrywane przez automaty w kasynach sprzyjają ryzykownemu podejmowaniu decyzji. Badanie psychologów z Uniwersytetu Kolumbii Brytyjskiej, którego wyniki ukazały się w piśmie JNeurosci, pokazują, że cechy audiowizualne kasyn mogą bezpośrednio wpływać na decyzje gracza i sprzyjać podejmowaniu bardziej ryzykownych decyzji. Odkryliśmy, że gdy naszej laboratoryjnej grze hazardowej towarzyszyły cechy audiowizualne kasyn, wybory ludzi były w mniejszym stopniu podyktowane szansą wygranej. Ogólnie, bez względu na prawdopodobieństwo wygranej, ludzie podejmują większe ryzyko w grach bardziej przypominających te dostępne w kasynach - podkreśla dr Mariya Cherkasova. Opisywane badanie to pokłosie wcześniejszych ustaleń z eksperymentów na szczurach. Okazało się bowiem, że gryzonie są skłonne podjąć większe ryzyko, gdy nagrodom w postaci jedzenia towarzyszą migające światła i wygrywanie melodyjki. By sprawdzić, czy ludzie zachowują się tak samo, Kanadyjczycy poprosili ponad 100 dorosłych, żeby zagrali w gry hazardowe z czuciową informacją zwrotną wzorowaną na dzwonkach i gwizdkach wykorzystywanych do sygnalizowania wygranej w przypadku jednorękich bandytów. Okazało się, że obrazy związane z pieniędzmi i dźwięki wydawane przez automaty mogą bezpośrednio wpływać na decyzje. Wykorzystując technologie śledzenia ścieżki wzroku, byliśmy w stanie wykazać, że gdy wygranej towarzyszą wyobrażenia pieniędzy i melodyjki z kasyna, ludzie zwracają mniejszą uwagę na informacje o szansach na wygraną w konkretnym zakładzie. Zauważyliśmy też, że u ochotników występowało większe rozszerzenie źrenic, co sugeruje, że ludzie są bardziej pobudzeni, kiedy wygrana jest sparowana ze wskazówkami czuciowymi - wyjaśnia prof. Catharine Winstanley. Kanadyjczycy stwierdzili, że gdy nie było wskazówek sensorycznych, podejmując decyzje, badani byli bardziej powściągliwi. Uzyskane wyniki pokazują, czemu osobom z tendencjami do hazardu tak trudno oprzeć się urokowi kasyna. Nasze rezultaty stanowią ważną część układanki, która wyjaśnia, w jaki sposób tworzy się i utrzymuje uzależnienie od patologicznego hazardu. Choć bodźce świetlne i dźwiękowe mogą się wydawać nieszkodliwe, teraz widzimy, że wskazówki tego rodzaju mogą wywoływać tendencyjność uwagi i sprzyjać ryzykownemu zachowaniu - podsumowuje Winstanley.   « powrót do artykułu
  13. KopalniaWiedzy.pl

    Kluczowe zmiany 34. tygodnia

    W 34. tygodniu ciąży kobiece ciało przechodzi zmianę, która znacząco obniża ryzyko raka piersi na późniejszych etapach życia. Należy jednak pamiętać, że dotyczy to wczesnych ciąż przed trzydziestką. Wcześniejsze badania wykazały, że mając dziecko przed trzydziestką, kobiety mogą obniżyć ryzyko wystąpienia raka piersi na późniejszych etapach życia. Najnowsze studium naukowców z Danii i Norwegii zidentyfikowało tydzień ciąży, w którym zachodzą kluczowe zmiany. Jeśli urodzisz w 33. tygodniu ciąży, masz dziecko, co samo w sobie jest wspaniałe, ale nie zyskujesz bonusu niższego ryzyka raka piersi na resztę życia - twierdzi Mads Melbye z Uniwersytetu w Kopenhadze. Melbye i zespół analizowali dużą bazę danych blisko 4 mln Dunek i Norweżek (obejmowała ona okres prawie 40 lat). Można w niej było sprawdzić wiek, w którym dana kobieta urodziła, jak bardzo ciąża była wtedy zaawansowana i czy później dana osoba zachorowała na raka sutka. Okazało się, że u kobiet, które urodziły w 34. tygodniu ciąży i później, ryzyko raka piersi było o 13,6% niższe niż u kobiet, które nie miały dzieci. Dla ciąż, które zakończyły się wcześniej (trwających 33 tygodnie i krócej), spadek ryzyka był mniejszy i wynosił 2,4%. Melbye podkreśla, że zmiany, jakie zachodzą wtedy w kobiecym organizmie, pozostają owiane tajemnicą. Nie wiemy, co [dokładnie] się wtedy dzieje, ale wiedząc, że kluczowe jest osiągnięcie 34. tygodnia ciąży, naukowcy mogą się skupić na konkretnym wąskim okresie. Duńczyk podejrzewa, że po 34. tygodniu ciąży kobiece ciało może wysyłać sygnał zwiększający odporność na środowiskowe przyczyny raka piersi. [...] To musi mieć coś wspólnego ze specyficznym biologicznym skutkiem, osiąganym przez komórki w 34. tygodniu. By sprawdzić, czy nie chodzi o unikatowy wpływ 1. ciąży, autorzy publikacji z pisma Nature Communications analizowali też drugi, trzeci i dodatkowe porody. Okazało się, że dla ciąż trwających 33 tygodnie i krócej spadek długoterminowego ryzyka raka piersi wynosił 1,2%, a dla ciąż trwających 34 tygodnie i dłużej aż 16,3%. Opisywane zjawisko występowało także u kobiet, które po 34. tygodniu urodziły martwe dziecko, co oznacza, że zmiana nie jest powiązana z karmieniem piersią. « powrót do artykułu
  14. Alkohol jest jedną z głównych przyczyn śmierci i chorób na całym świecie. Autorzy badań Global Burden of Disease, których wyniki opublikowano właśnie na łamach The Lancet, informują, że alkohol odpowiada za niemal 10% zgonów wśród osób w wieku 15–49 lat. W ramach badań oceniono spożycie oraz skutki zdrowotne alkoholu w 195 krajach w latach 1990–2016. Autorzy analizy doszli do wniosku, że nie istnieje bezpieczny poziom spożycia alkoholu, a wszelki jego korzystny wpływ na zdrowie jest znacznie mniejszy niż wpływ niekorzystny, szczególnie zaś szkodliwe jest ryzyko związane z wystąpieniem nowotworów. Badania wykazały, że osoby w wieku 15–49 lat, które spożywają codziennie standardową dawkę alkoholu, są narażone, już po roku spożywania alkoholu, na 0,5% większe ryzyko wystąpienia jednego z 23 problemów zdrowotnych związanych z alkoholem. Wcześniej prowadzone badania wykazały, że niskie dawki alkoholu mają w pewnym stopni korzystny wpływ na nasze zdrowie, jednak okazuje się, że jeśli weźmiemy pod uwagę całościowy wpływ alkoholu na organizm, ryzyko przewyższa korzyści. Szczególnie silne jest tutaj ryzyko związane z wystąpieniem nowotworów, zranień i chorób zakaźnych, co niweluje wszelkie prozdrowotne skutki, takie jak np. ochronę kobiet przed chorobą niedokrwienną serca. Co prawda ryzyko związane ze spożywaniem małych ilości alkoholu, jednej standardowej dawki dziennie, jest niewielkie, jednak gwałtownie rośnie ono w miarę zwiększania dawki, mówi główny autor badań doktor Max Griswold z Institute for Health Metrics and Evaluation z University of Washington. Zespół Griswolda przeanalizował wyniki 694 badań, na podstawie których stwierdził, na ile powszechnie alkohol jest używany, oraz wyniki 592 badań obejmujących 28 milionów osób, które pozwoliły ocenić ryzyko związane z konsumpcją alkoholu. Za standardową dzienną dawkę przyjęto 10 gramów alkoholu. Z badań tych dowiadujemy się, że alkohol spożywa 32,5% ludzkości, czyli około 2,4 miliarda osób. Do picia alkoholu przyznaje się 25% kobiet (900 milionów) i 39% mężczyzn (1,5 miliarda). Średnio przeciętna kobieta spożywa 0,73 dawki standardowej dziennie, a przeciętny mężczyzna – 1,7 dawki. Spożycie alkoholu znacząco różni się pomiędzy krajami. Absolutnymi rekordzistami są tutaj Duńczycy, gdzie alkohol pije 95,3% kobiet i 97,1% mężczyzn. Na drugim biegunie znajdziemy Pakistan i Bangladesz. W pierwszym z tych krajów jedynie 0,8% mężczyzn pije alkohol, a w drugim alkoholem raczy się tylko 0,3% kobiet. Najwyższe wśród mężczyzn spożycie alkoholu na głowę jest w Rumunii (8,2 dawki dziennie), a najniższe w Pakistanie (0,0008 dawki dziennie). Wśród kobiet najwięcej piją Ukrainki (4,2 dawki dziennie), a najmniej Iranki (0,003 dawki). W 2016 roku spożycie alkoholu było siódmym głównym czynnikiem ryzyka przedwczesnych zgonów i chorób. Alkohol przyczynił się do 2,2% zgonów u kobiet i 6,8% zgonów wśród mężczyzn. Inaczej wygląda zaś sytuacja w grupie wiekowej 15–49 lat. Tutaj alkohol jest główną przyczyną przedwczesnych zgonów i w 2016 roku spowodował 3,8% zgonów wśród kobiet i 12,2% zgonów wśród mężczyzn. Główne przyczyny zgonów spowodowanych użyciem alkoholu przez tę grupę wiekową to: gruźlica (1,4% zgonów), wypadki drogowe (1,2%) oraz samodzielne zrobienie sobie krzywy (1,1%). Wśród osób powyżej 50. roku życia główną przyczyną śmierci związaną ze spożyciem alkoholu są nowotwory, odpowiedzialne za 27,1% zgonów wśród kobiet i 18,9% zgonów wśród mężczyzn. Problemy zdrowotne trapiące osoby po 50. roku życia a związane ze spożywaniem alkoholu różnią się w zależności od miejsca zamieszkania. W krajach bogatych ludzie umierają na nowotwory wywoływane przez alkohol, w krajach ubogich są zabijani przez gruźlicę, marskość wątroby i inne choroby wątroby. Zaś w krajach o średnich dochodach zgony spowodowane spożyciem alkoholu są powodowane głównie przez udary. Jak już wspomnieliśmy, spożywanie jednej standardowej dawki alkoholu dziennie powoduje, że po roku jesteśmy narażeni na o 0,5% większe ryzyko zapadnięcia na chorobę związaną ze spożyciem alkoholu. Ryzyko gwałtownie rośnie w miarę zwiększania dawki. I tak przy 2 dawkach dziennie jest ono już o 7% wyższe, a przy pięciu dawkach dziennie – o 37% wyższe. Powyższe badania są najszerzej zakrojonymi badaniami nad spożyciem alkoholu i skutkami zdrowotnymi w skali całego świata. Pomimo swoich ograniczeń, takich jak nieuwzględnienie spożycia alkoholu wśród osób poniżej 15. roku życia czy niemożność uwzględnienia produkcji i spożycia nielegalnego alkoholu, stanowią niezwykle ważne źródło wiedzy na temat tej używki. Nie szacowano też skutków okresowego picia na umór, które znacząco zwiększa ryzyko zgonów i chorób. Autorzy zestawili też kilka interesujących statystyk. Dzięki nim wiemy, w których krajach alkohol jest najbardziej, a w których najmniej popularny oraz gdzie spożywa się go najwięcej, a gdzie najmniej. I tak, największy odsetek mężczyzn pijących alkohol mieszka w Danii (97,1%), Norwegii (94,3%), Argentynie (94,3%), Niemczech (94,3%), Polsce (93,8%), Francji (93,1%), Korei Południowej (91,3%), Szwajcarii (91,2%), Grecji (90,8%) i Islandii (90,3%). Najmniej panów pije alkohol w Pakistanie (0,9%), Bangladeszu (1,0%), Egipcie (1,1%), Mali (2,5%), Maroku (3,0%), Senegalu (3,2%), Mauretanii (3,2%), Syrii (5,0%), Indonezji (7,2%) i Pakistanie (7,9%). Kraje o największym spożyciu alkoholu wśród kobiet to Dania (95,3%), Norwegia (91,4%), Niemcy (90,0%), Argentyna (89,9%), Nowa Zelandia (88,5%), Szwajcaria (88,4%), Słowacja (87,2%), Francja (86,9%), Szwecja (86,1%) i Islandia (84,8%). Najmniej pijących kobiet mieszka zaś w Bangladeszu (0,3%), Maroku (1,1%), Pakistanie (1,5%), Egipcie (1,5%), Nepalu (1,5%), Syrii (1,6%), Bhutanie (1,9%), Mjanmie (2,3%), Tunezji (2,3%) i Senegalu (2,6%). Światowymi rekordzistami w liczbie spożywanych dziennych dawek alkoholu są panowie z Rumunii (8,2 dawki), Portugalii (7,3), Luksemburga (7,3), Litwy (7,0), Ukrainy (7,0), Bośni i Hercegowiny (6,5), Białorusi (6,0), Estonii (6,0), Hiszpanii (5,8) i Węgier (5,5). Najmniej piją zaś panowie z Pakistanu (0,0008 dawki dziennie), Iranu (0,004), Kuwejtu (0,02), Komorów (0,02), Libii (0,02), Bangladeszu (0,03), Palestyny (0,04), Mauretanii (0,05), Jemenu (0,05) i Arabii Saudyjskiej (0,05). Najwięcej piją zaś kobiety z takich krajów jak Ukraina (4,2 dawki dziennie), Andora (3,4), Luksemburg (3,4), Białoruś (3,4), Szwecja (3,2), Dania (3,2), Irlandia (3,1), Wielka Brytania (3,0), Niemcy (2,9) i Szwajcaria (2,8). Najmniej piją panie w Iranie (0,0003 dawki dziennie), Kuwejcie (0,01), Mauretanii (0,02), Libii (0,02), Pakistanie (0,03), Timorze Wschodnim (0,04), Palestynie (0,04), Jemenie (0,04), Tunezji (0,04) i Syrii (0,05). « powrót do artykułu
  15. U dzieci z alergiami ryzyko wystąpienia powikłanego zapalenia wyrostka robaczkowego jest niższe. Odkryliśmy, że u dzieci, które w ciągu dekady przeszły w Lund operację usunięcia wyrostka robaczkowego [appendektomię], najczęstsze postaci alergii, takie jak alergie na pyłek i sierść zwierzęcą, wiązały się z 3-krotnie niższym ryzykiem rozwoju powikłanego zapalenia wyrostka. Obniżone ryzyko utrzymywało się także po uwzględnieniu innych potencjalnie istotnych czynników, np. młodszego wieku i dłużej utrzymujących się objawów - opowiada Martin Salö z Uniwersytetu w Lund i Skåne University Hospital. Jedna trzecia chorujących dzieci ma bardziej powikłane zapalenia wyrostka, które wymagają dłuższego pobytu w szpitalu, a czasem kilku zabiegów operacyjnych. Nie wiadomo, czemu u niektórych dzieci się tak dzieje i czy można temu zapobiegać. Jedna z teorii głosi, że dzieci z alergiami mają niższe ryzyko powikłanego zapalenia wyrostka, bo ich odpowiedź immunologiczna różni się od reakcji występującej u dzieci bez alergii. Dotąd nie badano jednak szczegółowo tego zagadnienia. Wyniki naszego studium stanowią poparcie dla teorii, że powikłane zapalenie wyrostka ma inną immunopatogenezę [...]. Rezultaty zapewniają też wskazówki, które, mamy nadzieję, mogą doprowadzić do opracowania nowych pomocy diagnostycznych, np. testów z krwi. W badaniu uwzględniono dzieci w wieku poniżej 15 lat (605), które między 1 stycznia 2007 r. a 31 lipca 2017 r. przeszły appendektomię w Skåne University Hospital. Porównywano wyniki osób z alergią IgE-zależną (102) i bez niej (503). Okazało się, że w 1. z grup bardziej powikłane zapalenie wyrostka wystąpiło u 19,6%, a w 2. - aż u 46,9%. « powrót do artykułu
  16. Wiele wskazuje na to, że uraz lub intensywny stres zwiększają ryzyko chorób autoimmunologicznych. Porównując ponad 106 tys. osób z zaburzeniami stresowymi z ponad 1 mln zdrowych ludzi, naukowcy odkryli, że stres wiąże się z o 36% wyższym ryzykiem wystąpienia 41 chorób autoimmunologicznych, w tym łuszczycy, reumatoidalnego zapalenia stawów czy choroby Leśniowskiego-Crohna. "Osoby, u których po urazie bądź pod wpływem innych stresorów, występują silne reakcje emocjonalne, powinny poszukać pomocy medycznej, gdyż istnieje ryzyko przewlekłości tych objawów i dalszego pogorszenia stanu zdrowia, np. rozwoju chorób autoimmunologicznych" - wyjaśnia dr Huan Song z Uniwersytetu Islandzkiego w Reykjavíku. Song dodaje, że w przypadku zaburzeń stresowych sprawdzają się leki i terapia poznawczo-behawioralna. Podając pacjentom z zespołem stresu pourazowego (ang. post-traumatic stress disorder, PTSD) selektywne inhibitory zwrotnego wychwytu serotoniny, można by więc obniżać ryzyko choroby autoimmunologicznej, zwłaszcza gdyby były one zażywane w pierwszym roku po postawieniu diagnozy. Współautorka artykułu z Journal of the American Medical Association zaznacza, że badanie miało charakter obserwacyjny, na razie nie można więc mówić o wywoływaniu przez stres chorób autoimmunologicznych, tylko o korelacji. W ramach studium zespół Song analizował przypadki pacjentów ze Szwecji, u których w latach 1981-2013 zdiagnozowano zaburzenia powiązane ze stresem, w tym PTSD, ostrą reakcję na stres czy zaburzenia adaptacyjne. Porównywano ich z rodzeństwem oraz zdrowymi przedstawicielami populacji generalnej. Choć nie wiadomo, czemu stres może zwiększać ryzyko chorób autoimmunologicznych, eksperci mają parę pomysłów. Wspominają m.in. o wpływie stresu na tryb życia, np. na ilość snu czy spożycie substancji psychoaktywnych, oraz o bezpośrednich oddziaływaniach na układ nerwowy. « powrót do artykułu
  17. KopalniaWiedzy.pl

    Kwaśny smak ryzyka

    Kwaśne smaki skłaniają ludzi do podejmowania większego ryzyka. Naukowcy z Uniwersytetu Sussex sugerują, że osoby mające awersję do ryzyka, np. cierpiące na zaburzenia lękowe czy depresję, mogłyby skorzystać na diecie wzbogaconej o kwaśne pokarmy i napoje. W ten sposób można by je "zachęcić" do takich zachowań, jak wychodzenie z domu czy rozmowa z obcym. Autorzy publikacji z pisma Scientific Reports twierdzą też, że przedstawiciele zawodów, w których podejmowanie ryzyka ma poważne konsekwencje, np. piloci, mogliby dla odmiany skorzystać na ograniczeniu kwaśnego smaku w diecie. Poszczególne osoby różnie rozumieją podejmowanie ryzyka. Dla jednych będzie to skok z samolotu z dużej wysokości, a dla innych zwykłe wyjście z domu. Choć niektórzy mają negatywne skojarzenia, de facto podejmowanie ryzyka to jedno z podstawowych działań prowadzących do szczęśliwszego życia - podkreśla dr Chi Thanh Vi. Dr Marianna Obrist dodaje, że kwaśny nie popycha ludzi do bezmyślnego ryzykowania. Chodzi raczej o zdolność modulowania zachowań związanych z podejmowaniem ryzyka i zachęcanie osób z awersją do ryzyka do wykorzystywania nowych możliwości, pojawiających się okazji. Pozostaje to w zgodzie z wcześniejszymi badaniami, które wskazywały, że pacjenci z zaburzeniami psychicznymi, np. lękiem czy depresją [...], mogą odnieść korzyści ze stosowania olejku cytrynowego (co istotne, dodatkowo łagodzi on stres). W najnowszym studium wzięło udział 168 ochotników z Wielkiej Brytanii i Wietnamu. Dawano im 20 ml roztworu reprezentującego jedną z pięciu podstawowych grup smakowych albo wodę mineralną. Później wszyscy brali udział w teście balonu BART. Badanego prosi się o pompowanie serii wirtualnych balonów (liczba ruchów pompki jest wskaźnikiem preferencji ryzyka). Im więcej powietrza w balonie, tym więcej pieniędzy można zdobyć. Jeśli jednak balon pęknie, traci się wszystkie przeliczane na pieniądze punkty. Ochotnicy mogli w dowolnym momencie wypłacić swoją wygraną albo pompować dalej (o tym, czy kolejne kliknięcie myszą prowadziło do powiększenia balonu i nagrody, czy do pęknięcia, decydował algorytm). Podczas brytyjskiej części badań, w której wzięło udział 46 kobiet w średnim wieku 25 lat, zauważono, że kwaśny sprzyjał podejmowaniu dużego ryzyka, słodki i umami wspierały niską tendencję do podejmowania ryzyka, a gorzki i słony działały neutralnie (nie wspierały ani ryzykownego, ani bezpiecznego zachowania). Średnio badane, które wypiły kwas cytrynowy, wykonywały większą liczbę ruchów pompki: dla niepękniętych balonów klikały aż 39,36 razy. To o wiele więcej niż w przypadku jakiegokolwiek innego smaku: 39,08% więcej niż dla słodkiego (sacharozy), 20,50% więcej niż dla goryczy (kofeiny), 16,03% więcej niż dla słonego (chlorku sodu)i 40,29% więcej niż dla umami (glutaminianu sodu). Akademicy zauważyli, że kwaśny sprzyjał ryzykownym zachowaniom bez względu na indywidualny poziom impulsywności i poszukiwania wrażeń oraz na style myślenia (analityczny czy intuicyjny). By lepiej zrozumieć wpływ smaku na podejmowanie ryzyka, naukowcy wzięli pod uwagę międzykulturowe różnice w zakresie percepcji smaku, a zwłaszcza umami. Ten sam eksperyment powtórzono więc w Wietnamie, który zajmuje 3. miejsce na świecie pod względem spożycia glutaminianu sodu. Okazało się, że i tutaj smak kwaśny sprzyjał podejmowaniu największego ryzyka. Co zaskakujące, w odróżnieniu od próby brytyjskiej, i słodycz, i umami sprzyjały bardziej ryzykownym decyzjom. Psycholodzy podkreślają, że eksperymenty sugerują, że wpływ smaku na podejmowanie ryzyka może się utrzymywać do 20 minut. Wg nich, przy większym stężeniu może być jednak jeszcze dłuższy. Wiemy, co zachodzi w mózgu podczas odczuwania danego smaku. Wiemy też, co się dzieje, gdy ktoś podejmuje decyzję odnośnie do kierunku działania. Brakuje nam jednak szlaku, który by wyjaśnił, jak smak może wpłynąć na proces podejmowania decyzji - podsumowuje Vi. « powrót do artykułu
  18. U mężczyzn w średnim wieku dieta wysokobiałkowa wiąże się z lekko podwyższonym ryzykiem niewydolności serca. Naukowcy podkreślają, że choć dieta wysokobiałkowa jest popularna, przeprowadzono niewiele badań nad jej ewentualnym wpływem na ryzyko niewydolności serca u mężczyzn. Ponieważ wiele osób uznaje korzyści zdrowotne diety wysokobiałkowej za pewnik, ważne, byśmy dobrze znali jej potencjalne plusy i minusy. [Warto wiedzieć, że] wcześniejsze badania powiązały diety bogate w białko - zwłaszcza ze źródeł zwierzęcych - z podwyższonym ryzykiem cukrzycy typu 2., a nawet zgonu - opowiada dr Jyrki Virtanen z Uniwersytetu Wschodniej Finlandii. Autorzy publikacji z pisma Circulation: Heart Failure badali 2441 mężczyzn, którzy w momencie rozpoczęcia studium mieli od 42 do 60 lat. Średnio obserwowano ich przez 22 lata. W tym okresie zdiagnozowano 334 przypadki niewydolności serca. Okazało się, że 70% spożywanego białka pochodziło ze źródeł zwierzęcych, a tylko 27,7% ze źródeł roślinnych. Finowie podkreślają, że wyższe spożycie białka z większości źródeł wiązało się z lekko podwyższonym ryzykiem niewydolności serca. Tylko białka z jajek i ryb nie wiązały się z takim ryzykiem. W oparciu o ilość spożywanego dziennie białka mężczyzn podzielono na 4 grupy. Gdy porównano panów jedzących najwięcej i najmniej białka, okazało się, że u tych pierwszych ryzyko niewydolności serca było o 33% wyższe dla wszystkich źródeł białka, 43% wyższe dla białka zwierzęcego, 49% wyższe dla białek z nabiału i 17% wyższe dla białek roślinnych. Jako że to jedno z pierwszych badań wspominających o korelacji między białkiem z diety a ryzykiem niewydolności serca, potrzeba kolejnych studiów, które pokażą, czy zmniejszenie spożycia protein może wspomóc profilaktykę niewydolności serca - podsumowuje doktorantka Heli E.K. Virtanen. « powrót do artykułu
  19. Jeden z najwybitniejszych ekspertów od ekologii i nauk przyrodniczych, profesor William Laurance z australijskiego James Cook University, ostrzega, że chiński plan „Jeden pas i jedna droga” to najbardziej ryzykowne pod względem ekologicznym przedsięwzięcie podjęte przez człowieka. Chiny mają olbrzymie ambicje. Ale wraz z nimi idzie olbrzymia odpowiedzialność, mówi Laurance. W artykule opublikowanym na łamach Nature Sustainability uczony dołącza do głosów naukowców, którzy wzywają Chiny stworzenia szczegółowego planu strategicznego oraz rygorystycznej oceny wpływu wspomnianej inicjatywy na środowisko. W ciągu najbliższych 30 lat w ramach projektu „Jeden pas i jedna droga” Chiny chcą przeprowadzić nawet 7000 projektów infrastrukturalnych i zainwestować 8 bilionów dolarów. Chiński plan obejmuje swoim zasięgiem co najmniej 64 państwa w Azji, Afryce, Europie i regionie Pacyfiku. Zdaniem World Wildlife Found jego realizacja będzie miała wpływ na ponad 1700 obszarów o krytycznej bioróżnorodności i na setki zagrożonych gatunków. Chiny twierdzą, że projekt „Jeden pas i jedna droga” będzie wzorem odpowiedzialnego rozwoju. Jednak by tak się stało Chiny musiałyby całkowicie zmienić swoje podejście do robienia interesów. Wiele chińskich firm i projektów finansowych jest bardzo słabo kontrolowanych przez ich rząd, pozwala się im na wszystko, bo są to bardzo dochodowe przedsięwzięcia, mówi profesor Laurance. Przez ostatnie dwie dekady widziałem niezliczone przykłady agresywnej, a nawet grabieżczej eksploatacji prowadzonej przez chińskie firmy. Szczególnie ma ona miejsce w krajach rozwijających się o słabych instrumentach kontrolnych, dodaje uczony. Autorzy krytycznego artykułu podkreślają, że Chiny stoją przed unikatową szansą zmiany swojego modelu rozwoju i zostania rzeczywistym światowym liderem odpowiedzialnego rozwoju. Chiny znacznie bardziej dbają o swoje własne środowisko niż o środowisko w innych krajach, zauważa Laurance. Wyprodukowali już całe góry dokumentacji i obietnic dotyczących projektu „Jeden pas i jedna droga”, jednak dokumentacja nie spowoduje, że lamparty z dnia na dzień przeniosą się w inne miejsce. Chiny stoją przed olbrzymią szansą, jeśli jednak będą postępowały tak jak zwykle, to koszty środowiskowe i ekonomiczne będą dla inwestorów przerażające. « powrót do artykułu
  20. U dzieci i dorosłych leczonych pewnymi doustnymi antybiotykami znacząco rośnie ryzyko kamicy nerkowej. Najwyższe ryzyko występuje u młodszych pacjentów i u osób, które niedawno zetknęły się z antybiotykami. "W ciągu minionych 30 lat ogólna częstość występowania kamieni nerkowych wzrosła o 70%. Szczególnie ostre wzrosty widać wśród młodzieży i młodych kobiet [kiedyś kamienie nerkowe były u dzieci rzadkie]" - opowiada Gregory E. Tasian, urolog pediatryczny ze Szpitala Dziecięcego w Filadelfii. Przyczyny tych wzrostów są nieznane, ale nasze badania sugerują, że pewną rolę odgrywają doustne antybiotyki (zwłaszcza kiedy pod uwagę weźmie się fakt, że dzieciom antybiotyki są przepisywane częściej niż dorosłym) - dodaje Michelle Denburg, nefrolog pediatryczny. Autorzy publikacji z Journal of the American Society of Nephrology przejrzeli elektroniczną bazę medyczną z Wielkiej Brytanii. Można w niej znaleźć informacje na temat 13 mln dorosłych i dzieci, którzy między 1994 a 2015 r. zgłosili się do lekarza rodzinnego z Health Improvement Network. Naukowcy analizowali wcześniejszą ekspozycję na antybiotyki u ok. 26 tys. pacjentów z kamicą nerkową. Porównywali ich do blisko 260-tys. grupy kontrolnej. Okazało się, że z diagnozą kamicy nerkowej wiązało się 5 klas doustnych antybiotyków: sulfonamidy, cefalosporyny, fluorochinolony, nitrofurantoina i penicyliny o szerokim spektrum działania. Po wzięciu poprawki na szereg czynników, w tym na wiek, płeć, rasę, zakażenia układu moczowego, zażywanie innych leków i występowanie innych chorób, okazało się, że pacjenci zażywający sulfonamidy mieli kamienie nerkowe ponad 2-krotnie częściej od osób z grupy kontrolnej. Największe ryzyko kamicy występowało u dzieci i młodzieży. Mimo że ryzyko kamieni nerkowych spadało z czasem, pozostawało podwyższone parę lat po antybiotykoterapii. Amerykanie podkreślają, że choć naukowcy już od jakiegoś czasu wiedzą, że antybiotyki oddziałują na ludzki mikrobiom i że zaburzania mikroflory jelit oraz układu moczowego wiążą się z występowaniem kamieni nerkowych, dotąd nikt nie ujawnił korelacji między zażywaniem antybiotyków a kamicą. Zespół Tasiana kontynuuje badania nad mikrobiomem dzieci i nastolatków z kamicą nerkową. Długofalowym celem jest przeprowadzenie badań populacyjnych. « powrót do artykułu
  21. Analiza zachowań niemal 600 000 osób wykazała, że spożywanie ponad 100 gramów alkoholu tygodniowo zwiększa ryzyko przedwczesnej śmierci. Pół litra alkoholu to odpowiednik około 2,5 litra piwa lub 0,9 litra wina. Analizą objęto mieszkańców 19 krajów, u których nie występowały wcześniej choroby układu krążenia. Wykazała ona, że alkohol wiąże się ze zwiększonym ryzykiem zgonu z jakiejkolwiek przyczyny. Autorzy studiów donoszą że np. 40-latkowie, którzy regularnie każdego tygodnia spożywają 200-350 gramów alkoholu (5-9 litrów piwa) żyją o 1-2 lat krócej niż ich rówieśnicy, którzy alkoholu nie piją. Picie takich ilości alkoholu powiązano z wyższym ryzykiem udaru i zawału serca. Badania te jasno pokazują, że spożywanie alkoholu nie wiąże się z żadnymi korzyściami zdrowotnymi, stwierdził Tim Chico z University of Sheffield. « powrót do artykułu
  22. Wiele wskazuje na to, że seniorzy, którzy wolniej chodzą, znajdują się w grupie podwyższonego ryzyka demencji. Brytyjscy naukowcy analizowali dane zebrane w ramach English Longitudinal Study of Aging. Autorzy publikacji z Journal of the American Geriatrics Society skupili się na informacjach z lat 2002-15. Oceniali prędkość chodu blisko 4 tys. (3932) ochotników w wieku 60+ w latach 2002-03 i 2004-05 i sprawdzali, czy zapadli oni na demencję, czy nie. Okazało się, że ludzie chodzący wolniej i doświadczający w 2-letnim okresie większego spadku prędkości chodu byli bardziej zagrożeni demencją. U osób, które na początku studium miały obniżone zdolności poznawcze (rozumowanie i podejmowanie decyzji) i których zdolności szybciej pogarszały się w czasie studium, także częściej diagnozowano demencję. Akademicy podkreślają, że zmiana prędkości chodu i zmiany poznawcze nie wywierały interakcyjnego wpływu na ryzyko demencji. « powrót do artykułu
×