Jump to content
Forum Kopalni Wiedzy

Search the Community

Showing results for tags ' ryzyko'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Found 28 results

  1. Wysokie spożycie błonnika w czasie ciąży wiąże się z obniżonym ryzykiem celiakii u dzieci. Eksperci z Norwegii stwierdzili, że na każdy 10-g wzrost ilości błonnika w diecie ciężarnej przypadał 8% spadek ryzyka celiakii u dziecka. W grupie z największym spożyciem błonnika (powyżej 45 g dziennie) ryzyko było o 34% niższe, w porównaniu do grupy z najniższym spożyciem (poniżej 19 g dziennie). Z najniższym ryzykiem wiązało się raczej spożycie błonnika z owoców i warzyw niż ze zbóż. W ramach studium analizowano przypadki ponad 88 tys. dzieci urodzonych w latach 1999-2009. Naukowcy mierzyli spożycie włókna i glutenu przez matkę w czasie ciąży. Potem sprawdzali, czy w okresie, w którym monitorowano losy badanych (średnio 11 lat), u dziecka stwierdzono celiakię. Obecnie mamy bardzo mało danych na temat zależności między matczynym spożyciem błonnika lub glutenu w czasie ciąży a ryzykiem celiakii u dzieci. Ponieważ to pierwsze badania dot. matczynego spożycia błonnika, na razie nie możemy rekomendować konkretnych schematów dietetycznych [...]. Konieczne są dalsze badania. My zajmujemy się teraz sprawdzeniem, czy spożycie włókien przez matkę wpływa na mikrobiom jelitowy dziecka; to bowiem jedno z potencjalnych wyjaśnień uzyskanych wyników - komentuje dr Ketil Størdal z Norweskiego Instytutu Zdrowia Publicznego. Co istotne, akademicy stwierdzili również, że spożycie przez kobietę glutenu w czasie ciąży nie wiązało się z wyższym ryzykiem celiakii. "Nasze wyniki nie stanowią poparcia dla ograniczania spożycia glutenu przez kobiety w ciąży". Zespół, który zaprezentował swoje ustalenia na dorocznej konferencji Europejskiego Towarzystwa Gastroenterologii Pediatrycznej, podkreśla, że zdiagnozowane przypadki stanowią niewielki odsetek ogólnej liczby chorych i że większość dzieci pozostaje niezdiagnozowana. Jak najwcześniejsze zdiagnozowanie celiakii jest kluczowe dla zapewnienia dziecku optymalnego wzrostu i rozwoju; do powikłań niezdiagnozowanej choroby trzewnej należą bowiem upośledzenie wzrostu i przybierania na wadze, opóźnione dojrzewanie, anemia z niedoboru żelaza, przewlekłe zmęczenie czy osteoporoza. « powrót do artykułu
  2. Wcześniejsze badania zademonstrowały, że kamienie żółciowe wiążą się z podwyższonym ryzykiem udaru. Autorzy nowego studium, które właśnie ukazało się w Journal of Gastroenterology and Hepatology, odkryli, że na szczęście usunięcie pęcherzyka żółciowego może to ryzyko obniżyć. Naukowcy analizowali ryzyko udaru wśród 310.712 pacjentów z kamicą pęcherzykową z Tajwanu; połowa z nich przeszła operację usunięcia pęcherzyka (cholecystektomię). Między 2000 a 2012 r. udar wystąpił u 19.096 osób, których nie poddano operacji i u 11.913 osób po cholecystektomii. Akademicy wyliczyli, że u chorych po cholecystektomii ryzyko udaru było nawet o 40% niższe; obniżone ryzyko obserwowano niezależnie od wieku i innych chorób. Można rozważać prewencyjne działania u pacjentów z kamicą pęcherzykową; dotyczy to szczególne chorych prezentujących czynniki ryzyka udaru. « powrót do artykułu
  3. Spożywanie kubka borówek amerykańskich dziennie ogranicza czynniki ryzyka chorób sercowo-naczyniowych. Sezon na te owoce zbliża się dużymi krokami, więc nic tylko je zrywać, kupować i zjadać. Wyniki opublikowane w American Journal of Clinical Nutrition pokazują, że spożywanie 150 g borówek amerykańskich dziennie zmniejsza ryzyko choroby sercowo-naczyniowej nawet o 15%. Naukowcy z Uniwersytetu Wschodniej Anglii chcieli sprawdzić, czy borówki mają jakiś wpływ na zespół metaboliczny. Zespół metaboliczny znacząco podwyższa ryzyko choroby serca, udaru i cukrzycy. By kontrolować to ryzyko, często przepisuje się statyny i inne leki - opowiada prof. Aedin Cassidy. Skądinąd wiadomo, że zmiany dotyczące stylu życia, np. diety, także są pomocne. Wcześniejsze badania wskazywały, że ludzie, którzy regularnie jadają borówki, są w mniejszym stopniu zagrożeni różnymi chorobami, w tym cukrzycą typu 2. czy chorobami sercowo-naczyniowymi. Dzieje się tak m.in. dlatego, że owoce te zawierają sporo antocyjanów, czyli flawonoidów odpowiedzialnych za ich niebieską i czerwoną barwę. My chcieliśmy sprawdzić, czy jedzenie borówek przyniesie korzyści również osobom, które znajdują się w grupie ryzyka tych schorzeń. Zespół badał efekty codziennego spożycia borówek u 138 osób w wieku 50-75 lat z nadwagą bądź otyłością oraz zespołem metabolicznym. Porównywano korzyści związane ze spożywaniem odpowiednika 150 g (kubka) i 75 g (1/2 kubka) owoców. W półrocznym eksperymencie wykorzystywano liofilizat borówek. Ochotników wylosowano do 3 grup. Jedna spożywała 26 g liofilizatu, druga 13 g liofilizatu i 13 g placebo, a trzecia samo placebo. Placebo zostało wyprodukowane przez US National Food Lab; jego głównymi składnikami były glukoza, maltodekstryna i fruktoza. Proszek miał fioletową barwę. Odkryliśmy, że spożywanie kubka borówek dziennie poprawia funkcję naczyń [śródbłonka] i zmniejsza sztywność tętnic; różnica jest na tyle istotna, że ryzyko choroby sercowo-naczyniowej obniża się o 12-15% - podkreśla dr Peter Curtis. Co zaskakujące, mniejsza porcja (75 g) nie zapewniła korzyści. Możliwe, że by dobrze wpłynąć na serce otyłych populacji z grup ryzyka, potrzeba większych porcji niż w populacji generalnej. « powrót do artykułu
  4. Specjaliści od lat alarmują, że nadmierne spożycie czerwonego mięsa przyczynia się do wielu chronicznych schorzeń. Ostatnie badania pokazały jednak, że ludzie, którzy w ramach zdrowej diety śródziemnomorskiej jedzą nieprzetworzone czerwone mięso, mogą obniżać ryzyko zachorowania na stwardnienie rozsiane (SR). Naukowcy z Curtin University i Narodowego Uniwersytetu Australijskiego przeanalizowali dane 840 uczestników Ausimmune Study. Oceniali, czy istnieje korelacja między dietą śródziemnomorską obejmującą nieprzetworzone czerwone mięso, np. jagnięcinę czy wołowinę, a zmniejszonym ryzykiem pierwszego epizodu demielinizacji. Dr Lucinda Black z Curtin University podkreśla, że na świecie liczba osób ze zdiagnozowanym SR rośnie, co może sugerować, że przyczyniają się do tego czynniki środowiskowe, takie jak za mała ekspozycja na słońce i niski poziom witaminy D czy kiepska dieta. Wcześniejsze badania sugerowały, że dieta śródziemnomorska może pomóc w obniżeniu ryzyka pewnych chorób, w tym chorób sercowo-naczyniowych, cukrzycy, nowotworów, alzheimera lub demencji, i wydłużeniu życia. Brak jednak rozstrzygających dowodów, które wskazywałyby, że dieta śródziemnomorska redukuje również ryzyko SR. Nasze badanie pokazało, że spożywanie w ramach diety śródziemnomorskiej porcji (65 g) nieprzetworzonego czerwonego mięsa dziennie może być korzystne dla osób z grupy wysokiego ryzyka SR. Nie wiadomo, czemu połączone ze zdrową dietą czerwone mięso może obniżyć ryzyko stwardnienia rozsianego, ale [warto pamiętać o tym, że] czerwone mięso zawiera makro- i mikroskładniki, w tym białko, żelazo, cynk, selen, potas, witaminę D oraz witaminy z grupy B, z których spora część jest ważna dla prawidłowego funkcjonowania neurologicznego. Prof. Robyn Lucas z Narodowego Uniwersytetu Australijskiego dodaje, że bardzo mało wiadomo o tym, jak ludzie mogą obniżyć ryzyko zachorowania na SR. Uprzednie badania wykazały jednak, że ważne są niepalenie i wystawianie się na oddziaływanie słońca, tak by mieć prawidłowy poziom witaminy D. Teraz można dodać do tego dietę śródziemnomorską, obejmującą umiarkowaną ilość nieprzetworzonego, chudego czerwonego mięsa. « powrót do artykułu
  5. Od dawna trwają poszukiwania czynników wyzwalających, które mogą podwyższać ryzyko cukrzycy typu 1. Okazuje się, że jednym z nich są koksakiwirusy. Za podwyższonym ryzykiem stoi czynnik transkrypcyjny - czynnik indukowany hipoksją (HIF-1, ang. hypoxia inducible factor), a konkretnie jego podjednostka alfa (HIF-1 jest heterodimerem złożonym z dwóch podjednostek – HIF-1α i HIF-1β - które należą do grupy czynników transkrypcyjnych). Naukowcy odkryli bowiem, że myszy, w których komórkach beta nie występuje HIF-1α, mają po zakażeniu wirusami, w tym koksakiwirusami, o wiele wyższe ryzyko wystąpienia cukrzycy typu 1. Brak HIF-1α nasila obumieranie komórek beta i zwiększa zapadalność na cukrzycę typu 1. Zdrowe komórki beta regenerują się po stresach, takich jak infekcje wirusowe, i cukrzyca się nie rozwija. Jeśli jednak komórki beta nie radzą sobie dobrze z takim sytuacjami, może to wyzwalać proces immunologiczny prowadzący do cukrzycy typu 1. - opowiada prof. Jenny Gunton z Westmead Institute for Medical Research. Nasze studium wykazało także, że podwyższone ryzyko cukrzycy może być wynikiem ekspozycji na inne stresory, np. na toksyny. [...] Ustaliliśmy, że HIF-1α odgrywa ważną rolę, gdy ważą się losy komórek beta (gdy decyduje się, czy dojdzie do ich śmierci, czy regeneracji). Wyniki opublikowane na łamach pisma Cell Reports wskazują na potencjał HIF-1α przy opracowywaniu nowych metod terapii. Niewykluczone też, że szczepienie przeciwko koksakiwirusom pomoże w zapobieganiu cukrzycy typu 1. w grupie podwyższonego ryzyka. Choć w cukrzycy typu 1. jest silny komponent genetyczny, same geny nie mogą wyjaśnić rosnących światowych wskaźników cukrzycy. Obecnie jednym lekarstwem na to schorzenie są przeszczepy całych trzustek bądź wysp trzustkowych. Ludzie muszą [więc] przez całe życie przyjmować insulinę. Nic więc dziwnego, że istnienie strategii zapobiegawczych wydaje się ekscytujące. « powrót do artykułu
  6. Mierzenie poziomu enzymu PDIA1 - izomerazy disiarczkowej 1 (PDIA1) - w osoczu może się stać użyteczną metodą określania predyspozycji do chorób sercowo-naczyniowych także u zdrowych osób, które nie są otyłe, nie cierpią na cukrzycę, nie palą i mają prawidłowy poziom cholesterolu. Nasze badanie pokazało, że osoby z niskim poziomem PDIA1 w osoczu cechuje bardziej zapalny profil białkowy. W związku z tym są one w większym stopniu zagrożone zakrzepicą. Dla odmiany ludzie z wysokim poziomem PDIA1 mają więcej białek związanych z [...] homeostazą i normalnym funkcjonowaniem organizmu - opowiada prof. Francisco Rafael Martins Laurindo ze Szkoły Medycznej Uniwersytetu w São Paulo. Brazylijczycy analizowali próbki osocza 35 zdrowych ochotników bez historii chorób chronicznych i ostrych. Żadna z badanych osób nie paliła, a także nie zażywała przewlekle leków czy narkotyków. Na przestrzeni 10-15 miesięcy osocze pobierano 10-15-krotnie w kilkudniowych bądź kilkutygodniowych odstępach. U większości osób poziom krążących PDI mieścił się w wąskim zakresie. W grupie 5 ochotników stężenie PDIA1 mierzono 3 razy w ciągu 9 godzin. I w tym przypadku zmienność poziomu enzymu była nieistotna (pomijalna). Pomiary pokazały, że niektórzy mieli bardzo wysokie poziomy PDIA1, podczas gdy u innych były one bardzo niskie, prawie niemierzalne. Gdy testy powtarzano, u tych samych osób wartości prawie się nie zmieniały - opowiada Laurindo. Naukowcy mierzyli także poziomy PDIA1 w 90 próbkach osocza z banku (pochodziły one od pacjentów z chorobą sercowo-naczyniową). Analizy stale wykazywały niski poziom PDIA1. W dalszym etapie studium Brazylijczycy przeprowadzili badania proteomiczne. Chcieli w ten sposób sprawdzić, jak stężenie PDIA1 koreluje z jednostkową sygnaturą białkową. Akademicy zauważyli, że gdy hodowlę żylnych komórek śródbłonka potraktowano osoczem z niskim poziomem PDIA1, adhezja i migracja były zaburzone; porównań dokonywano do komórek potraktowanych osoczem bogatym w enzym. Na podstawie tych wyników ekipa Laurindy doszła do wniosku, że stężenie PDIA1 w osoczu to swego rodzaju okno do osoczowej sygnatury białkowej związanej z funkcją śródbłonka. Może więc ono wskazywać na jednostkową predyspozycję do choroby sercowo-naczyniowej. Badanie nie wykazało korelacji między poziomem PDIA1 i znanymi czynnikami ryzyka chorób sercowo-naczyniowych, np. stężeniem cholesterolu czy trójglicerydów. W przyszłości Brazylijczycy zamierzają zbadać poziom PDIA1 w ostrej chorobie niedokrwiennej serca. Chcą też zbadać innych przedstawicieli rodziny izomeraz disiarczkowych białek (ang. protein disulfide isomerase family). Dzięki temu można się będzie dowiedzieć, czy wszystkie te enzymy są potencjalnym markerami podatności na choroby sercowo-naczyniowe. « powrót do artykułu
  7. Właściciele kotów od dawna toczą spór o to, czy należy zwierzęta wypuszczać na zewnątrz czy też nie. Na łamach Biology Letters ukazały się wyniki badań, które jednej ze stron dają mocny argument do ręki. Naukowcy stwierdzili bowiem, że koty, które są wypuszczane na zewnątrz z trzykrotnie większym prawdopodobieństwem są nosicielami patogenów i pasożytów, niż koty pozostające w domach. Wyniki badań powinny być ostrzeżeniem dla ludzi, gdyż mogą się zarazić od kota. Co interesujące, im dalej od równika mieszka kot wypuszczany na zewnątrz, z tym większym prawdopodobieństwem się zarazi. Każdy stopień szerokości geograficznej od równika zwiększa prawdopodobieństwo infekcji o 4%, mówi główna autorka badań, Kayleigh Chalkowski z Auburn University w Alabamie. Można by pomyśleć, że skoro w tropikach żyje więcej zwierząt, ryzyko zarażenia jest tam większe. Okazuje się jedna, że jest na odwrót, dodaje. Na potrzeby swoich badań Chwalkowski i jej zespół przeanalizowali około 20 studiów, których autorzy porównywali odsetek zarażeń pomiędzy kotami trzymanymi w domach, a kotami wypuszczanymi. Badania były analizowane pod kątem występowania 19 różnych patogenów u kotów w kilkunastu krajach, w tym w Hiszpanii, Kanadzie, Australii, Szwajcarii, Niemczech, Pakistanie, Brazylii, Holandii i na St. Kitts. To pierwsze studium, w którym zauważono, że czynnikiem ryzyka infekcji u kotów jest szerokość geograficzna, na której żyją, mówi Chwalkowski. Wpływ szerokości geograficzne był widoczny dla niemal wszystkich patogenów, w tym i takich, które są przenoszone na ludzi. Było to niezależne od tego, w jaki sposób zarażał się sam kot – przez kontakt z glebą, innym kotem czy upolowanym gryzoniem lub ptakiem. Mówiąc wprost, niezależnie od tego, gdzie mieszkasz ze swoim kotem, trzymanie go w pomieszczeniu jest dobre dla jego zdrowia, podsumowuje Chwalkowski. Specjaliści szacują, że na całym świecie żyje około 500 milionów kotów domowych. « powrót do artykułu
  8. Mężczyźni, którzy z powodu łagodnego rozrostu gruczołu krokowego (prostaty) przyjmują blokery 5-alfa reduktazy, mogą być bardziej zagrożeni cukrzycą typu 2. Naukowcy z Uniwersytetu w Edynburgu i Uniwersyteckiego College'u Londyńskiego (UCL) wyjaśniają, że blokery 5-alfa reduktazy zmniejszają wytwarzanie androgenów, co pomaga walczyć z takimi objawami, jak zmniejszony przepływ cewkowy. Wcześniejsze badania sugerowały, że inhibitory 5-alfa reduktazy mogą wpływać na metabolizm i zmniejszać reakcję organizmu na insulinę (insulinowrażliwość), co jest wczesnym objawem cukrzycy. Akademicy analizowali dane medyczne ok. 55 tys. Brytyjczyków, którym w ciągu 11 lat przepisano blokery 5-alfa reduktazy. Okazało się, że leki wiązały się z podwyższonym o ok. 30% ryzykiem rozwoju cukrzycy. Podobny efekt zaobserwowano przy badaniu powtórzonym na danych medycznych grupy mężczyzn z Tajwanu. Wyniki sugerują, że mężczyzn przyjmujących inhibitory 5-alfa reduktazy należy monitorować pod kątem sygnałów ostrzegawczych cukrzycy, tak by móc w porę zmienić zalecenia. Odkryliśmy, że leki często przepisywane na łagodny rozrost gruczołu krokowego [np. dutasteryd czy finasteryd] mogą podwyższać ryzyko cukrzycy typu 2. Te rezultaty mają szczególne znaczenie dla skryningu starszych mężczyzn, którzy [ze względu na wiek] i tak są już bardziej zagrożeni cukrzycą typu 2. Będziemy kontynuować badania, by zrozumieć długoterminowe skutki i móc lepiej identyfikować pacjentów z grupy podwyższonego ryzyka - podsumowuje prof. Ruth Andrew z Uniwersytetu w Edynburgu. « powrót do artykułu
  9. Obniżanie poziomu złego cholesterolu LDL zmniejsza ryzyko zawału i udaru. Za idealne uznaje się poziomy poniżej 100 mg/dl. Czy jednak stężenie LDL może być zbyt niskie? Okazuje się, że prawdopodobnie tak, bo kobiety z LDL poniżej 70 mg/dl są ponad 2-krotnie bardziej zagrożone udarem krwotocznym niż kobiety z poziomem LDL wynoszącym 100-130 mg/dl. Autorzy raportu z pisma Neurology odkryli również, że panie z najniższym poziomem trójglicerydów miały podwyższone ryzyko udaru krwotocznego w porównaniu do ochotniczek z najwyższym ich stężeniem. Naukowcy podkreślają, że udary krwotoczne są o wiele rzadsze od udarów niedokrwiennych. Są trudniejsze w leczeniu, a przez to bardziej śmiertelne. Obniżanie poziomu cholesterolu i trójglicerydów, np. przez modyfikację diety bądź zażywanie statyn, to popularna metoda zapobiegania chorobom sercowo-naczyniowym. Nasze duże badanie pokazuje jednak, że u kobiet bardzo niskie stężenia także niosą za sobą pewne ryzyko. Kobiety mają wyższe ryzyko udaru niż mężczyźni, po części dlatego, że żyją dłużej, dlatego jasne sprecyzowanie metod obniżania ryzyka jest bardzo istotne - podkreśla Pamela Rist z Brigham and Women's Hospital w Bostonie. Badanie objęło 27.937 kobiet w wieku 45 i starszych, uczestniczek Women's Health Study, u których całkowity cholesterol (LDL, HDL i trójglicerydy) określono na początku studium. Naukowcy analizowali dane medyczne, by określić, ile pań przeszło udar krwotoczny. Średni okres, w którym śledzono losy ochotniczek, wynosił 19 lat. W sumie zidentyfikowano 137 przypadków udaru krwotocznego. Udar krwotoczny wystąpił u 9 z 1069 kobiet z poziomem cholesterolem rzędu 70 mg/dl bądź niższym, w porównaniu do 40 z 10.067 ze stężeniem cholesterolu między 100 a 130 mg/dl. Po wzięciu poprawki na inne czynniki, które mogą wpływać na ryzyko udaru, np. na wiek, palenie czy nadciśnienie, stwierdzono, że kobiety z bardzo niskim poziomem LDL są 2,2-krotnie bardziej zagrożone udarem krwotocznym. W przypadku trójglicerydów panie podzielono na 4 grupy. Kobiety z grupy z najniższym stężeniem miały poziom na czczo wynoszący 74 mg/dl lub mniej albo poziom nie na czczo wynoszący 85 mg/dl bądź mniej. U kobiet z najwyższego kwartyla poziom na czczo wynosił ponad 156 mg/dl, a nie na czczo ponad 188 mg/dl. Amerykanie zauważyli, że udar krwotoczny miały 34 (0,6%) kobiety spośród 5.714 z najniższym stężeniem trójglicerydów, w porównaniu do 29 (0,4%) spośród 7.989 z najwyższym ich stężeniem. Po wzięciu poprawki na inne potencjalnie istotne czynniki, naukowcy stwierdzili, że przedstawicielki najniższego kwartyla były 2-krotnie bardziej zagrożone udarem. Dla cholesterolu całkowitego i dobrego cholesterolu HDL nie stwierdzono różnic dot. ryzyka udaru krwotocznego. Kobiety z bardzo niskim poziomem LDL lub niskim stężeniem trójglicerydów powinny być monitorowane przez lekarza pod kątem innych modyfikowalnych czynników ryzyka udaru. Chodzi np. o nadciśnienie i palenie [...]. Potrzebne są też dalsze badania, które pokażą, jak obniżyć zagrożenie udarem krwotocznym u pań z bardzo niskim poziomem LDL i niskim stężeniem trójglicerydów - zaznacza Rist. Ograniczeniem studium jest fakt, że poziomy cholesterolu i trójglicerydów mierzono tylko raz, na początku badań. Poza tym gdy mierzono te wartości, wiele ochotniczek przeszło już menopauzę, przez co akademicy nie sprawdzili, czy status menopauzalny w jakiś sposób modyfikuje związek miedzy poziomami cholesterolu oraz trójglicerydów i udarem krwotocznym. « powrót do artykułu
  10. Kobiety, które zaczynają później miesiączkować, a także wcześniej przechodzą menopauzę lub są poddawane histerektomii, mogą być bardziej zagrożone demencją. Naukowcy, których wyniki ukazały się on-line w piśmie Neurology, wykryli bowiem związek między krótszym okresem reprodukcyjnym i podwyższonym ryzykiem demencji. Ponieważ kobiety są o 50% bardziej zagrożone demencją, ważne jest, by badać wszelkie specyficzne dla nich czynniki ryzyka, które ostatecznie mogą nas doprowadzić do opracowania nowych metod interwencji - podkreśla dr Paola Gilsanz z Kaiser Permanente. Studium objęło 6137 kobiet. Wypełniały one kwestionariusze zdrowotne. Przechodziły też badania medyczne. Ochotniczki pytano, kiedy miały pierwszą miesiączkę, kiedy przeszły menopauzę i czy miały histerektomię. Dla każdej z pań wyliczano długość okresu reprodukcyjnego. Amerykanie wykorzystali też medyczne bazy danych, by ustalić, u których kobiet zdiagnozowano później demencję. Średni wiek pierwszej miesiączki wynosił 13 lat, a menopauzy 45. Średnia liczba lat płodnych wynosiła zaś 32. U 34% przeprowadzono histerektomię. Gdy analizowano tylko kobiety, którym nie usuwano macicy, średni wiek menopauzy i długość okresu reprodukcyjnego były nieco wyższe i wynosiły, odpowiednio, 47 i 34. Demencję zdiagnozowano u 42% badanych. Okazało się, że kobiety, które miały menarche w wieku 16 lat bądź później, były o 23% bardziej zagrożone demencją niż panie, które miały pierwszą miesiączkę w wieku 13 lat. Wśród 258 pań, które miały pierwszy okres w wieku 16 lat bądź później, na demencję zapadło potem 120; dla porównania, tę samą diagnozę postawiono u 511 spośród 1188 kobiet, które zaczęły miesiączkować w wieku 13 lat. Ustalono także, że dla kobiet, które przeszły naturalną menopauzę przed ukończeniem 47. r.ż., ryzyko wystąpienia demencji było o 19% wyższe niż u pań, które weszły w okres przekwitania w wieku 47 lat lub później. W pierwszej z wymienionych grup (1645) demencję stwierdzono u 700 osób, zaś w drugiej (2402) u 1052. Kiedy wyliczono długość okresu reprodukcyjnego (a więc liczbę lat od wieku menarche do wieku menopauzy), okazało się, że kobiety, u których był on krótszy niż 34 lata, miały o 20% wyższe ryzyko demencji niż panie przekraczające cezurę 34 lat. Z 1072 kobiet, u których doliczono się mniej niż 34 lat reprodukcyjnych, 728 zapadło na demencję, w porównaniu do 1024 z 2345 wchodzących w menopauzę w wieku 47 lat bądź później. Akademicy podali także, że u kobiet, które przeszły histerektomię, ryzyko demencji było o 8% wyższe niż w grupie nieprzechodzącej tej procedury. Podczas analiz naukowcy brali poprawkę na inne czynniki oddziałujące na jednostkowe ryzyko demencji, np. na palenie, cukrzycę czy nadciśnienie. Nasze wyniki pokazują, że mniejsza ekspozycja na estrogen w ciągu życia jest powiązana z podwyższonym ryzykiem demencji. Mimo że nasze badanie było duże, nie dysponowaliśmy wystarczającą ilością danych, by wziąć poprawkę na inne czynniki, które mogą wpływać na poziom estrogenu, np. ciąże, hormonalną terapię zastępczą czy antykoncepcję. Potrzebne są więc kolejne studia - podsumowuje Gilsanz. « powrót do artykułu
  11. Naukowcy z Chin i Uniwersytetu Australii Południowej analizowali związki między spożyciem owoców i warzyw bogatych w przeciwutleniacze a obniżeniem ryzyka zaćmy związanej z wiekiem (ang. age-related cataract, ARC). Dr Ming Li z Australii i akademicy z Xi'an Jiaotong University analizowali 20 badań z całego świata. Przyglądano się wpływowi witamin A, C i E oraz karotenoidów (beta-karotenu, luteiny i zeaksantyny) na ryzyko zaćmy. Mimo pewnych niespójności między badaniami z losowaniem do grup i kohortowymi (dotyczyły one witaminy E i beta-karotenu), wyniki stanowią silne poparcie dla korzyści związanych ze spożyciem owoców cytrusowych, papryki, marchwi, pomidorów i ciemnozielonych warzyw, takich jak szpinak, brokuły czy jarmuż. Zaćma związana z wiekiem to wiodąca przyczyna problemów wzrokowych seniorów z całego świata. Operacje są skuteczną, ale drogą metodą przywracania wzroku [...] - podkreśla Li. Starzenie społeczeństw sprawia, że wszelkie rozwiązania są na wagę złota. Gdybyśmy mogli opóźnić początek ARC o 10 lat, liczba osób potrzebujących zabiegu spadłaby o połowę. « powrót do artykułu
  12. Dieta niskowęglowodanowa może zwiększyć ryzyko migotania przedsionków (ang. atrial fibrillation, AF). Osoby, które regularnie pozyskują z węglowodanów mniej niż 45% kalorii, zapadają na migotanie przedsionków o 18% częściej niż ludzie, którzy spożywają umiarkowane ilości węglowodanów (taką postać ma ok. 45-52% przyjmowanych przez nich kalorii). Chińscy naukowcy podkreślają, że ryzyko AF było podwyższone bez względu na rodzaj białek czy tłuszczów, którymi zastępowano węglowodany. Zespół dr. Xiaodonga Zhuanga z Sun Yat-Sen University przeanalizował dane z badania amerykańskich Narodowych Instytutów Zdrowia, które objęło niemal 14 tys. osób. Na początku studium nikt nie miał migotania przedsionków. Losy ochotników śledzono średnio przez 22 lata. W tym okresie AF wystąpiło u ok. 1900 ludzi. Wszyscy wypełniali kwestionariusze żywieniowe, dzięki czemu akademicy mogli ich podzielić na 3 grupy: o niskim, umiarkowanym i dużym spożyciu węglowodanów. Pierwsza grupa spożywała z węglowodanami mniej niż 45% kalorii, druga między 45 a 52%, a trzecia powyższej 52%. Uzyskane wyniki pasują do wcześniejszych ustaleń innych naukowców, sugerując, że zarówno nisko-, jak i wysokowęglowodanowe diety są powiązane z wyższym ryzkiem przedwczesnego zgonu. Dr Laurence Epstein z Northwell Health, który komentował wyniki chińskich kolegów, dodaje, że choć na razie można mówić tylko o korelacji, a nie związku przyczynowo-skutkowym, istnieje kilka wyjaśnień, czemu dieta niskowęglowodanowa miałaby powodować AF. Jak tłumaczy, diety niskowęglowodanowe dają tak szybki spadek wagi, bo wiążą się z usuwaniem płynów z organizmu, a odwodnienie może prowadzić do migotania przedsionków. Oprócz tego naukowiec wspomina o nieprawidłowościach elektrolitowych, które także wpływają na rytm serca i o niższym spożyciu warzyw, owoców i pełnych ziaren, które zmniejszają stan zapalny (stan zapalny powiązano z AF). Epstein dodaje, że może liczyć się również przyczyna, dla której ktoś przechodzi na niskowęglowodanową dietę. Możesz przestrzegać niskowęglowodanowej diety, jeśli jesteś diabetykiem i próbujesz kontrolować poziom cukru we krwi. Cukrzyca jest zaś czynnikiem ryzyka AF. Szesnastego marca Zhuang przedstawi swoje ustalenia na konferencji Amerykańskiego College'u Kardiologii w Nowym Orleanie. Zarówno Zhuang, jak i komentatorzy podkreślają, że by określić mechanizmy zaobserwowanego zjawsika, należy przeprowadzić dalsze pogłębione badania. Wszyscy wskazują też, że należy pamiętać o tym, by dieta była zrównoważona. « powrót do artykułu
  13. Wiele wskazuje na to, że wrodzona/wczesna ślepota korowa całkowicie eliminuje ryzyko rozwoju schizofrenii. U osób ze schizofrenią częściej diagnozuje się np. problemy dotyczące siatkówki, a także inne wzorce poruszania oczami lub częstość mrugania. Dotychczasowe ustalenia, pochodzące głównie ze studiów przypadków, sugerowały, że wrodzona bądź wczesna ślepota korowa (wynikająca z uszkodzenia pól wzrokowych kory potylicznej w warunkach prawidłowej anatomii i fizjologii oka) może nawet całkowicie chronić przed schizofrenią. Zgodnie z wiedzą autorów publikacji ze Schizophrenia Research, nie udokumentowano bowiem ani jednego przypadku schizofrenii u osoby ze ślepotą korową. Warto jednak zauważyć, że większość naukowców zastrzega się, że brak dowodów nie jest dowodem braku [danego zjawiska] - podkreśla prof. Vera Morgan z Uniwersytetu Australii Zachodniej. Zespół Morgan wykorzystał dane z Australii Zachodniej, by oszacować zapadalność na schizofrenię wśród ludzi z wrodzoną ślepotą korową i wczesną ślepotą peryferyjną bądź korową. Za wczesną uznawano chorobę rozpoczynającą się przed 6. r.ż. Ślepota korowa może być wrodzona lub nabyta. Najczęściej spowodowana jest 1) niedotlenieniem w wyniku zatoru jednej lub obu tętnic mózgowych tylnych, a także 2) chorobą zakrzepowo-zatorową tętnicy podstawnej mózgu. Do przyczyn ślepoty peryferyjnej zalicza się wrodzone wady soczewki czy jaskrę. Dane pochodziły z szerszego projektu, badającego czynniki ryzyka schizofrenii i chorób pokrewnych w grupie prawie 500 tys. osób urodzonych w Australii Zachodniej między 1980 a 2001 r.; to oznacza, że w okresie analizy badani mieli 14-35 lat. U 9120 osób zdiagnozowaną jakąś chorobę psychiczną; u 1870 stwierdzono schizofrenię. Oprócz tego doliczono się 66 przypadków ślepoty korowej i 613 ślepoty peryferyjnej. U 8 osób ze ślepotą obwodową rozwinęła się psychoza (także schizofrenia). W grupie ze ślepotą korową nie odnotowano schizofrenii ani żadnej innej choroby psychicznej. Ponieważ wrodzona/wczesna ślepota korowa jest bardzo rzadka, nawet przy półmilionowej próbie nie można wyciągnąć ostatecznego wniosku odnośnie do wpływu na schizofrenię. Nie da się jednak zaprzeczyć, że badania Morgan uprawomocniają wcześniejsze doniesienia, że wczesna ślepota zmniejsza, a nawet eliminuje ryzyko choroby psychicznej. Australijczycy nie są pewni, czemu się tak dzieje. Trudno wskazać precyzyjny mechanizm, ale sądzimy, że zabezpieczające działanie ma coś wspólnego z kompensacyjną reorganizacją mózgu, która zachodzi w odpowiedzi na wrodzoną bądź wczesną ślepotę korową. Z tego powodu pewne funkcje, które są upośledzone w schizofrenii, mogą u tych pacjentów ulegać wzmocnieniu. Akademicy podkreślają, że wczesna ślepota prowadzi do wzmocnienia percepcji słuchowej, uwagi słuchowej, pamięci czy funkcji językowych, a te często nie działają dobrze u pacjentów ze schizofrenią. Morgan dodaje, że badanie koncentrowało się na ludziach niewidomych od urodzenia lub od wczesnych lat życia, bo w tym wieku plastyczność mózgu jest większa. Zespół dodaje, że opisany fenomen wymaga ściśle zaplanowanych badań klinicznych. « powrót do artykułu
  14. Ludzie, w których diecie jest stosunkowo mało kwasów palimitynowego i stearynowego - występujących przede wszystkim w mięsie nasyconych kwasów tłuszczowych z liczbą atomów węgla równą bądź większą od 16 - i którzy zamiast tego sięgają białka roślinne, wydają się mniej zagrożeni zawałem serca. Osoby, które jedzą więcej nasyconych kwasów tłuszczowych o krótszych łańcuchach (z liczbą atomów węgla równą bądź mniejszą od 14), które zwykle występują w nabiale, także są mniej zagrożone zawałem. Nasza analiza długoterminowej diety dużych grup ludzi z 2 państw pokazuje, że rodzaj spożywanych nasyconych kwasów tłuszczowych ma znaczenie dla zdrowia sercowo-naczyniowego - podkreśla dr Ivonne Sluijs z Uniwersytetu w Utrechcie. W ramach studium oceniano, czy nasycone kwasy tłuszczowe o długości łańcucha węglowego wynoszącej od 4 do 18 atomów wiążą się z ryzykiem wystąpienia zawału. Przeanalizowano dane ok. 75 tys. osób z Danii i Wielkiej Brytanii; 22.050 z EPIC-Norfolk i 53.375 z EPIC-Denmark. W okresie objętym obserwacją - średnio 13,6 roku w Danii i 18,8 w Wielkiej Brytanii - zawał wystąpił u blisko 3,5 tys. osób. Odkryliśmy, że jedzenie relatywnie małych ilości kwasów tłuszczowych o dłuższym łańcuchu i spożywanie zamiast tego białek roślinnych wiązało się z niższym ryzykiem [zawału]. Zastąpienie tych tłuszczów nasyconych innymi źródłami energii, np. węglowodanami, nie wpływało na ryzyko wystąpienia zawału - opowiada dr Sluijs. Naukowcy dodają, że choć dietę kształtują narodowość i inne czynniki, i w Danii, i w Wielkiej Brytanii najczęściej spożywanym nasyconym kwasem tłuszczowym okazał się kwas palmitynowy z 16 atomami węgla. Za nim uplasował się kwas stearynowy z 18 atomami węgla (oba występują w produktach mięsnych). Nasycone kwasy tłuszczowe z krótszymi łańcuchami węglowymi (z nabiału) były spożywane rzadziej. Autorzy raportu z International Journal of Cardiology przypominają, że odkąd w latach 60. powiązano wysokotłuszczową dietę z podwyższonym poziomem złego cholesterolu LDL i chorobą niedokrwienną serca (ChNS), specjaliści zalecali ograniczanie spożycia nasyconych kwasów tłuszczowych. W ostatnich latach pojawiły się jednak wątpliwości. Pewne doniesienia sugerowały, że różne rodzaje nienasyconych kwasów tłuszczowych mogą mieć różny wpływ na poziom cholesterolu i rozwój ChNS. Choć analizy ekipy Sluijs wydają się to potwierdzać, akademicy przestrzegają przed zmianą diety. Nie wiemy, czy te kwasy tłuszczowe są rzeczywiście przyczyną różnic w zakresie występowania zawału. By zgłębić tę kwestię, potrzebujemy eksperymentów, podczas których konsumpcja nasyconych kwasów tłuszczowych byłaby bardziej kontrolowana i, na przykład, porównywana ze spożyciem nienasyconych kwasów tłuszczowych - podkreśla Sluijs. « powrót do artykułu
  15. Optymizm może obniżać ryzyko rozwoju cukrzycy typu 2. Autorzy artykułu z pisma Menopause podkreślają, że w USA cukrzycę ma ponad 30 mln obywateli (9,4%). Chorobowość rośnie z wiekiem i w grupie 65+ wynosi 25,5%. Cukrzyca typu 2. stanowi 90-95% przypadków diagnozowanych u dorosłych. Czynnikami ryzyka są m.in. otyłość czy brak aktywności fizycznej. Coraz więcej dowodów sugeruje, że z podwyższonym ryzykiem cukrzycy wiążą się też depresja i cynizm. Duży poziom wrogości powiązano zaś z wysokim stężeniem glukozy na czczo, insulinoopornością i cukrzycą. Niewiele badań poświęcono jednak ochronnym cechom osobowości. W ramach najnowszego studium analizowano przypadki 139.924 kobiet w wieku pomenopauzalnym (uczestniczek Women's Health Initiative, WHI), które na początku nie miały cukrzycy. W ciągu 14 lat zidentyfikowano 19.240 przypadków cukrzycy typu 2. Okazało się, że w porównaniu do kobiet z najniższego kwartyla optymizmu (najmniej optymistycznych), u pań z najwyższego kwartyla (najbardziej optymistycznych) ryzyko wystąpienia nowych przypadków cukrzycy było o 12% niższe. W porównaniu do badanych z najniższego kwartyla negatywnej reaktywności emocjonalnej i wrogości, kobiety z najwyższego kwartyla były, odpowiednio, o 9 i 17% bardziej zagrożone cukrzycą. Związek między wrogością i ryzykiem cukrzycy był silniejszy u pań, które nie były otyłe. Wiele wskazuje więc na to, że niski optymizm, a także silny negatywizm i wrogość wiążą się z podwyższonym ryzykiem nowych przypadków cukrzycy u kobiet w wieku pomenopauzalnym (czynniki te działają niezależnie od podstawowych zachowań zdrowotnych i depresji). Ponieważ cechy osobowościowe są stałe na przestrzeni życia, kobiety z grupy podwyższonego ryzyka cukrzycy, które przejawiają niski poziom optymizmu oraz duży negatywizm i wrogość, powinny być objęte strategiami prewencyjnymi dostosowanymi do ich typu osobowości - podsumowuje dr JoAnn Ponkerton, dyrektorka wykonawcza Północnoamerykańskiego Towarzystwa Menopauzy. « powrót do artykułu
  16. Wg radiologów, pewnego dnia rezonans magnetyczny (MRI) może pomóc w przewidywaniu ryzyka demencji. W ramach niewielkiego badania naukowcy ze Szkoły Medycznej Uniwersytetu Waszyngtona w St. Louis i Uniwersytetu Kalifornijskiego w San Francisco wykazali, że skany MRI pozwalają z 89% trafnością przewidzieć, u kogo w ciągu 3 lat rozwinie się demencja. Obecnie trudno jest powiedzieć, czy dana starsza osoba, która znajduje się w normie poznawczej lub cierpi na łagodne zaburzenia poznawcze [ang. mild cognitive impairment, MCI], będzie prawdopodobnie mieć demencję. My zademonstrowaliśmy, że za pomocą pojedynczego rezonansu da się przewidzieć demencję średnio 2,6 roku przed wystąpieniem klinicznie wykrywalnych objawów utraty pamięci - podkreśla dr Cyrus A. Raji. Neurolodzy mogą oszacować ryzyko choroby Alzheimera za pomocą Krótkiej Skali Stanu Psychicznego (Mini-Mental State Examination, MMSE) albo za pomocą badania wersji genu apolipoproteiny E (ApoE4 zwiększa je nawet 12-krotnie). W ramach opisywanego studium trafność tych metod sięgała 70-80%. Pozytonowa tomografia emisyjna (PET), która unaocznia blaszki beta-amyloidu, to dobra, ale droga metoda wykrywania wczesnych przejawów choroby Alzheimera. Poza tym badanemu trzeba podać substancję promieniotwórczą, a nie wszystkie szpitale mają coś takiego na stanie. Ponieważ MRI jest szeroko dostępne, Raji i współpracownicy postanowili przeanalizować skany w poszukiwaniu objawów fizycznych zbliżającego się pogorszenia formy poznawczej. Amerykanie bazowali na jednym z rodzajów rezonansu magnetycznego - obrazowaniu tensora dyfuzji, które mierzy dyfuzję cząsteczek wody w tkance. Zależało im na ocenie stanu zdrowia istoty białej. Obrazowanie tensora dyfuzji to sposób na pomiar przemieszczania się cząsteczek wody wzdłuż szlaków istoty białej. Dzięki danym zgromadzonym w ramach Alzheimer's Disease Neuroimaging Initiative zidentyfikowano 10 osób, których zdolności poznawcze pogorszyły się w ciągu 2 lat. Pod względem wieku i płci dopasowano do nich równoliczna grupę z niezmieniającymi się zdolnościami poznawczymi. Średni wiek dla obu grup wynosił 73 lata. Później naukowcy przeanalizowali wyniki obrazowania tensora dyfuzji dla wszystkich 20 osób. Okazało się, że pacjenci, u których nastąpiło pogorszenie formy poznawczej, mieli znacząco więcej oznak uszkodzenia istoty białej. Akademicy powtórzyli analizy na innej grupie 61 ludzi (tym razem posłużyli się bardziej precyzyjną metodą pomiaru integralności istoty białej). Patrząc na mózg jako całość, mogli przewidzieć ryzyko spadku formy poznawczej z 89% trafnością. Gdy skupiali się na częściach mózgu, które najczęściej wykazują uszkodzenia, trafność rosła do 95%. Raji podkreśla, że teraz należy powtórzyć badania na większej próbie i opracować skomputeryzowane narzędzia, które mogłyby porównywać skany pacjentów ze standardem. « powrót do artykułu
  17. Osoby, u których migreny poprzedza aura wzrokowa, są bardziej zagrożone migotaniem przedsionków (ang. atrial fibrillation, AF). Aura wzrokowa bywa też nazywana oczną bądź klasyczną. Zaburzenia wzrokowe przejawiają się np. jako mroczki, jasne plamy, błyskające światła, problemy z ostrością widzenia czy migocące zygzakowate linie. Ponieważ migotanie przedsionków jest częstą przyczyną udarów powodowanych przez zakrzepy, a wcześniejsze badania wskazały na związek między migreną z aurą i udarem, chcieliśmy sprawdzić, czy u osób z migrenami z aurą występuje wyższy wskaźnik migotania przedsionków - opowiada dr Souvik Sen z Uniwersytetu Południowej Karoliny. Autorzy publikacji z pisma Neurology wyjaśniają, że 11.939 osób w średnim wieku 60 lat bez wcześniejszego migotania przedsionków bądź udaru oceniano pod kątem bólów głowy. W grupie tej 9.405 osób nie cierpiało na bóle głowy, a 1516 miewało migreny (u 426 ochotników występowały migreny z aurą). Losy badanych śledzono do 20 lat. W czasie trwania studium migotanie przedsionków wystąpiło u 1623 (17%) osób bez bólów głowy, 80 z 440 (18%) osób z migrenami z aurą oraz u 152 z 1105 (14%) pacjentów z migreną bez aury. Po wzięciu poprawki na wiek, płeć, ciśnienie, palenie i inne czynniki, które mogą wpływać na ryzyko migotania przedsionków, okazało się, że prawdopodobieństwo wystąpienia migotania przedsionków jest u osób z migreną z aurą o 30% wyższe niż w grupie bez bólów głowy i o 40% wyższe niż u ludzi z migrenami bez aury. Jak wyjaśniają Amerykanie, oznacza to że migotanie przedsionków może wystąpić u 9 na 1000 ludzi z migreną z aurą, w porównaniu do 7 na 1000 osób z migreną bez aury. Naukowcy stwierdzili także, że wskaźnik udarów w grupie migrenowej z aurą wynosi 4 osoby na 1000 rocznie, w porównaniu do 2:1000 w grupie migrenowej bez aury oraz 3:1000 w grupie bez bólów głowy. Ważne, by odnotować, że pacjenci z migrenami z aurą mogą być bardziej zagrożeni migotaniem przedsionków przez problemy z autonomicznym układem nerwowym, który pomaga kontrolować serce i naczynia krwionośne. Potrzeba więcej badań, by określić, czy ludzie z migrenami z aurą powinni przechodzić badania przesiewowe ukierunkowane na AF. Akademicy wspominają o kilku ograniczeniach swojego badania. Po pierwsze, może nim być przyjęta definicja migreny, która eliminowała np. osoby z historią migren w młodszym wieku. Po drugie, naukowcy dysponowali ograniczonymi informacjami nt. leków przeciwmigrenowych, które mogą wpływać na tętno. « powrót do artykułu
  18. Migające światła i melodie wygrywane przez automaty w kasynach sprzyjają ryzykownemu podejmowaniu decyzji. Badanie psychologów z Uniwersytetu Kolumbii Brytyjskiej, którego wyniki ukazały się w piśmie JNeurosci, pokazują, że cechy audiowizualne kasyn mogą bezpośrednio wpływać na decyzje gracza i sprzyjać podejmowaniu bardziej ryzykownych decyzji. Odkryliśmy, że gdy naszej laboratoryjnej grze hazardowej towarzyszyły cechy audiowizualne kasyn, wybory ludzi były w mniejszym stopniu podyktowane szansą wygranej. Ogólnie, bez względu na prawdopodobieństwo wygranej, ludzie podejmują większe ryzyko w grach bardziej przypominających te dostępne w kasynach - podkreśla dr Mariya Cherkasova. Opisywane badanie to pokłosie wcześniejszych ustaleń z eksperymentów na szczurach. Okazało się bowiem, że gryzonie są skłonne podjąć większe ryzyko, gdy nagrodom w postaci jedzenia towarzyszą migające światła i wygrywanie melodyjki. By sprawdzić, czy ludzie zachowują się tak samo, Kanadyjczycy poprosili ponad 100 dorosłych, żeby zagrali w gry hazardowe z czuciową informacją zwrotną wzorowaną na dzwonkach i gwizdkach wykorzystywanych do sygnalizowania wygranej w przypadku jednorękich bandytów. Okazało się, że obrazy związane z pieniędzmi i dźwięki wydawane przez automaty mogą bezpośrednio wpływać na decyzje. Wykorzystując technologie śledzenia ścieżki wzroku, byliśmy w stanie wykazać, że gdy wygranej towarzyszą wyobrażenia pieniędzy i melodyjki z kasyna, ludzie zwracają mniejszą uwagę na informacje o szansach na wygraną w konkretnym zakładzie. Zauważyliśmy też, że u ochotników występowało większe rozszerzenie źrenic, co sugeruje, że ludzie są bardziej pobudzeni, kiedy wygrana jest sparowana ze wskazówkami czuciowymi - wyjaśnia prof. Catharine Winstanley. Kanadyjczycy stwierdzili, że gdy nie było wskazówek sensorycznych, podejmując decyzje, badani byli bardziej powściągliwi. Uzyskane wyniki pokazują, czemu osobom z tendencjami do hazardu tak trudno oprzeć się urokowi kasyna. Nasze rezultaty stanowią ważną część układanki, która wyjaśnia, w jaki sposób tworzy się i utrzymuje uzależnienie od patologicznego hazardu. Choć bodźce świetlne i dźwiękowe mogą się wydawać nieszkodliwe, teraz widzimy, że wskazówki tego rodzaju mogą wywoływać tendencyjność uwagi i sprzyjać ryzykownemu zachowaniu - podsumowuje Winstanley.   « powrót do artykułu
  19. W 34. tygodniu ciąży kobiece ciało przechodzi zmianę, która znacząco obniża ryzyko raka piersi na późniejszych etapach życia. Należy jednak pamiętać, że dotyczy to wczesnych ciąż przed trzydziestką. Wcześniejsze badania wykazały, że mając dziecko przed trzydziestką, kobiety mogą obniżyć ryzyko wystąpienia raka piersi na późniejszych etapach życia. Najnowsze studium naukowców z Danii i Norwegii zidentyfikowało tydzień ciąży, w którym zachodzą kluczowe zmiany. Jeśli urodzisz w 33. tygodniu ciąży, masz dziecko, co samo w sobie jest wspaniałe, ale nie zyskujesz bonusu niższego ryzyka raka piersi na resztę życia - twierdzi Mads Melbye z Uniwersytetu w Kopenhadze. Melbye i zespół analizowali dużą bazę danych blisko 4 mln Dunek i Norweżek (obejmowała ona okres prawie 40 lat). Można w niej było sprawdzić wiek, w którym dana kobieta urodziła, jak bardzo ciąża była wtedy zaawansowana i czy później dana osoba zachorowała na raka sutka. Okazało się, że u kobiet, które urodziły w 34. tygodniu ciąży i później, ryzyko raka piersi było o 13,6% niższe niż u kobiet, które nie miały dzieci. Dla ciąż, które zakończyły się wcześniej (trwających 33 tygodnie i krócej), spadek ryzyka był mniejszy i wynosił 2,4%. Melbye podkreśla, że zmiany, jakie zachodzą wtedy w kobiecym organizmie, pozostają owiane tajemnicą. Nie wiemy, co [dokładnie] się wtedy dzieje, ale wiedząc, że kluczowe jest osiągnięcie 34. tygodnia ciąży, naukowcy mogą się skupić na konkretnym wąskim okresie. Duńczyk podejrzewa, że po 34. tygodniu ciąży kobiece ciało może wysyłać sygnał zwiększający odporność na środowiskowe przyczyny raka piersi. [...] To musi mieć coś wspólnego ze specyficznym biologicznym skutkiem, osiąganym przez komórki w 34. tygodniu. By sprawdzić, czy nie chodzi o unikatowy wpływ 1. ciąży, autorzy publikacji z pisma Nature Communications analizowali też drugi, trzeci i dodatkowe porody. Okazało się, że dla ciąż trwających 33 tygodnie i krócej spadek długoterminowego ryzyka raka piersi wynosił 1,2%, a dla ciąż trwających 34 tygodnie i dłużej aż 16,3%. Opisywane zjawisko występowało także u kobiet, które po 34. tygodniu urodziły martwe dziecko, co oznacza, że zmiana nie jest powiązana z karmieniem piersią. « powrót do artykułu
  20. Alkohol jest jedną z głównych przyczyn śmierci i chorób na całym świecie. Autorzy badań Global Burden of Disease, których wyniki opublikowano właśnie na łamach The Lancet, informują, że alkohol odpowiada za niemal 10% zgonów wśród osób w wieku 15–49 lat. W ramach badań oceniono spożycie oraz skutki zdrowotne alkoholu w 195 krajach w latach 1990–2016. Autorzy analizy doszli do wniosku, że nie istnieje bezpieczny poziom spożycia alkoholu, a wszelki jego korzystny wpływ na zdrowie jest znacznie mniejszy niż wpływ niekorzystny, szczególnie zaś szkodliwe jest ryzyko związane z wystąpieniem nowotworów. Badania wykazały, że osoby w wieku 15–49 lat, które spożywają codziennie standardową dawkę alkoholu, są narażone, już po roku spożywania alkoholu, na 0,5% większe ryzyko wystąpienia jednego z 23 problemów zdrowotnych związanych z alkoholem. Wcześniej prowadzone badania wykazały, że niskie dawki alkoholu mają w pewnym stopni korzystny wpływ na nasze zdrowie, jednak okazuje się, że jeśli weźmiemy pod uwagę całościowy wpływ alkoholu na organizm, ryzyko przewyższa korzyści. Szczególnie silne jest tutaj ryzyko związane z wystąpieniem nowotworów, zranień i chorób zakaźnych, co niweluje wszelkie prozdrowotne skutki, takie jak np. ochronę kobiet przed chorobą niedokrwienną serca. Co prawda ryzyko związane ze spożywaniem małych ilości alkoholu, jednej standardowej dawki dziennie, jest niewielkie, jednak gwałtownie rośnie ono w miarę zwiększania dawki, mówi główny autor badań doktor Max Griswold z Institute for Health Metrics and Evaluation z University of Washington. Zespół Griswolda przeanalizował wyniki 694 badań, na podstawie których stwierdził, na ile powszechnie alkohol jest używany, oraz wyniki 592 badań obejmujących 28 milionów osób, które pozwoliły ocenić ryzyko związane z konsumpcją alkoholu. Za standardową dzienną dawkę przyjęto 10 gramów alkoholu. Z badań tych dowiadujemy się, że alkohol spożywa 32,5% ludzkości, czyli około 2,4 miliarda osób. Do picia alkoholu przyznaje się 25% kobiet (900 milionów) i 39% mężczyzn (1,5 miliarda). Średnio przeciętna kobieta spożywa 0,73 dawki standardowej dziennie, a przeciętny mężczyzna – 1,7 dawki. Spożycie alkoholu znacząco różni się pomiędzy krajami. Absolutnymi rekordzistami są tutaj Duńczycy, gdzie alkohol pije 95,3% kobiet i 97,1% mężczyzn. Na drugim biegunie znajdziemy Pakistan i Bangladesz. W pierwszym z tych krajów jedynie 0,8% mężczyzn pije alkohol, a w drugim alkoholem raczy się tylko 0,3% kobiet. Najwyższe wśród mężczyzn spożycie alkoholu na głowę jest w Rumunii (8,2 dawki dziennie), a najniższe w Pakistanie (0,0008 dawki dziennie). Wśród kobiet najwięcej piją Ukrainki (4,2 dawki dziennie), a najmniej Iranki (0,003 dawki). W 2016 roku spożycie alkoholu było siódmym głównym czynnikiem ryzyka przedwczesnych zgonów i chorób. Alkohol przyczynił się do 2,2% zgonów u kobiet i 6,8% zgonów wśród mężczyzn. Inaczej wygląda zaś sytuacja w grupie wiekowej 15–49 lat. Tutaj alkohol jest główną przyczyną przedwczesnych zgonów i w 2016 roku spowodował 3,8% zgonów wśród kobiet i 12,2% zgonów wśród mężczyzn. Główne przyczyny zgonów spowodowanych użyciem alkoholu przez tę grupę wiekową to: gruźlica (1,4% zgonów), wypadki drogowe (1,2%) oraz samodzielne zrobienie sobie krzywy (1,1%). Wśród osób powyżej 50. roku życia główną przyczyną śmierci związaną ze spożyciem alkoholu są nowotwory, odpowiedzialne za 27,1% zgonów wśród kobiet i 18,9% zgonów wśród mężczyzn. Problemy zdrowotne trapiące osoby po 50. roku życia a związane ze spożywaniem alkoholu różnią się w zależności od miejsca zamieszkania. W krajach bogatych ludzie umierają na nowotwory wywoływane przez alkohol, w krajach ubogich są zabijani przez gruźlicę, marskość wątroby i inne choroby wątroby. Zaś w krajach o średnich dochodach zgony spowodowane spożyciem alkoholu są powodowane głównie przez udary. Jak już wspomnieliśmy, spożywanie jednej standardowej dawki alkoholu dziennie powoduje, że po roku jesteśmy narażeni na o 0,5% większe ryzyko zapadnięcia na chorobę związaną ze spożyciem alkoholu. Ryzyko gwałtownie rośnie w miarę zwiększania dawki. I tak przy 2 dawkach dziennie jest ono już o 7% wyższe, a przy pięciu dawkach dziennie – o 37% wyższe. Powyższe badania są najszerzej zakrojonymi badaniami nad spożyciem alkoholu i skutkami zdrowotnymi w skali całego świata. Pomimo swoich ograniczeń, takich jak nieuwzględnienie spożycia alkoholu wśród osób poniżej 15. roku życia czy niemożność uwzględnienia produkcji i spożycia nielegalnego alkoholu, stanowią niezwykle ważne źródło wiedzy na temat tej używki. Nie szacowano też skutków okresowego picia na umór, które znacząco zwiększa ryzyko zgonów i chorób. Autorzy zestawili też kilka interesujących statystyk. Dzięki nim wiemy, w których krajach alkohol jest najbardziej, a w których najmniej popularny oraz gdzie spożywa się go najwięcej, a gdzie najmniej. I tak, największy odsetek mężczyzn pijących alkohol mieszka w Danii (97,1%), Norwegii (94,3%), Argentynie (94,3%), Niemczech (94,3%), Polsce (93,8%), Francji (93,1%), Korei Południowej (91,3%), Szwajcarii (91,2%), Grecji (90,8%) i Islandii (90,3%). Najmniej panów pije alkohol w Pakistanie (0,9%), Bangladeszu (1,0%), Egipcie (1,1%), Mali (2,5%), Maroku (3,0%), Senegalu (3,2%), Mauretanii (3,2%), Syrii (5,0%), Indonezji (7,2%) i Pakistanie (7,9%). Kraje o największym spożyciu alkoholu wśród kobiet to Dania (95,3%), Norwegia (91,4%), Niemcy (90,0%), Argentyna (89,9%), Nowa Zelandia (88,5%), Szwajcaria (88,4%), Słowacja (87,2%), Francja (86,9%), Szwecja (86,1%) i Islandia (84,8%). Najmniej pijących kobiet mieszka zaś w Bangladeszu (0,3%), Maroku (1,1%), Pakistanie (1,5%), Egipcie (1,5%), Nepalu (1,5%), Syrii (1,6%), Bhutanie (1,9%), Mjanmie (2,3%), Tunezji (2,3%) i Senegalu (2,6%). Światowymi rekordzistami w liczbie spożywanych dziennych dawek alkoholu są panowie z Rumunii (8,2 dawki), Portugalii (7,3), Luksemburga (7,3), Litwy (7,0), Ukrainy (7,0), Bośni i Hercegowiny (6,5), Białorusi (6,0), Estonii (6,0), Hiszpanii (5,8) i Węgier (5,5). Najmniej piją zaś panowie z Pakistanu (0,0008 dawki dziennie), Iranu (0,004), Kuwejtu (0,02), Komorów (0,02), Libii (0,02), Bangladeszu (0,03), Palestyny (0,04), Mauretanii (0,05), Jemenu (0,05) i Arabii Saudyjskiej (0,05). Najwięcej piją zaś kobiety z takich krajów jak Ukraina (4,2 dawki dziennie), Andora (3,4), Luksemburg (3,4), Białoruś (3,4), Szwecja (3,2), Dania (3,2), Irlandia (3,1), Wielka Brytania (3,0), Niemcy (2,9) i Szwajcaria (2,8). Najmniej piją panie w Iranie (0,0003 dawki dziennie), Kuwejcie (0,01), Mauretanii (0,02), Libii (0,02), Pakistanie (0,03), Timorze Wschodnim (0,04), Palestynie (0,04), Jemenie (0,04), Tunezji (0,04) i Syrii (0,05). « powrót do artykułu
  21. U dzieci z alergiami ryzyko wystąpienia powikłanego zapalenia wyrostka robaczkowego jest niższe. Odkryliśmy, że u dzieci, które w ciągu dekady przeszły w Lund operację usunięcia wyrostka robaczkowego [appendektomię], najczęstsze postaci alergii, takie jak alergie na pyłek i sierść zwierzęcą, wiązały się z 3-krotnie niższym ryzykiem rozwoju powikłanego zapalenia wyrostka. Obniżone ryzyko utrzymywało się także po uwzględnieniu innych potencjalnie istotnych czynników, np. młodszego wieku i dłużej utrzymujących się objawów - opowiada Martin Salö z Uniwersytetu w Lund i Skåne University Hospital. Jedna trzecia chorujących dzieci ma bardziej powikłane zapalenia wyrostka, które wymagają dłuższego pobytu w szpitalu, a czasem kilku zabiegów operacyjnych. Nie wiadomo, czemu u niektórych dzieci się tak dzieje i czy można temu zapobiegać. Jedna z teorii głosi, że dzieci z alergiami mają niższe ryzyko powikłanego zapalenia wyrostka, bo ich odpowiedź immunologiczna różni się od reakcji występującej u dzieci bez alergii. Dotąd nie badano jednak szczegółowo tego zagadnienia. Wyniki naszego studium stanowią poparcie dla teorii, że powikłane zapalenie wyrostka ma inną immunopatogenezę [...]. Rezultaty zapewniają też wskazówki, które, mamy nadzieję, mogą doprowadzić do opracowania nowych pomocy diagnostycznych, np. testów z krwi. W badaniu uwzględniono dzieci w wieku poniżej 15 lat (605), które między 1 stycznia 2007 r. a 31 lipca 2017 r. przeszły appendektomię w Skåne University Hospital. Porównywano wyniki osób z alergią IgE-zależną (102) i bez niej (503). Okazało się, że w 1. z grup bardziej powikłane zapalenie wyrostka wystąpiło u 19,6%, a w 2. - aż u 46,9%. « powrót do artykułu
  22. Wiele wskazuje na to, że uraz lub intensywny stres zwiększają ryzyko chorób autoimmunologicznych. Porównując ponad 106 tys. osób z zaburzeniami stresowymi z ponad 1 mln zdrowych ludzi, naukowcy odkryli, że stres wiąże się z o 36% wyższym ryzykiem wystąpienia 41 chorób autoimmunologicznych, w tym łuszczycy, reumatoidalnego zapalenia stawów czy choroby Leśniowskiego-Crohna. "Osoby, u których po urazie bądź pod wpływem innych stresorów, występują silne reakcje emocjonalne, powinny poszukać pomocy medycznej, gdyż istnieje ryzyko przewlekłości tych objawów i dalszego pogorszenia stanu zdrowia, np. rozwoju chorób autoimmunologicznych" - wyjaśnia dr Huan Song z Uniwersytetu Islandzkiego w Reykjavíku. Song dodaje, że w przypadku zaburzeń stresowych sprawdzają się leki i terapia poznawczo-behawioralna. Podając pacjentom z zespołem stresu pourazowego (ang. post-traumatic stress disorder, PTSD) selektywne inhibitory zwrotnego wychwytu serotoniny, można by więc obniżać ryzyko choroby autoimmunologicznej, zwłaszcza gdyby były one zażywane w pierwszym roku po postawieniu diagnozy. Współautorka artykułu z Journal of the American Medical Association zaznacza, że badanie miało charakter obserwacyjny, na razie nie można więc mówić o wywoływaniu przez stres chorób autoimmunologicznych, tylko o korelacji. W ramach studium zespół Song analizował przypadki pacjentów ze Szwecji, u których w latach 1981-2013 zdiagnozowano zaburzenia powiązane ze stresem, w tym PTSD, ostrą reakcję na stres czy zaburzenia adaptacyjne. Porównywano ich z rodzeństwem oraz zdrowymi przedstawicielami populacji generalnej. Choć nie wiadomo, czemu stres może zwiększać ryzyko chorób autoimmunologicznych, eksperci mają parę pomysłów. Wspominają m.in. o wpływie stresu na tryb życia, np. na ilość snu czy spożycie substancji psychoaktywnych, oraz o bezpośrednich oddziaływaniach na układ nerwowy. « powrót do artykułu
  23. Kwaśne smaki skłaniają ludzi do podejmowania większego ryzyka. Naukowcy z Uniwersytetu Sussex sugerują, że osoby mające awersję do ryzyka, np. cierpiące na zaburzenia lękowe czy depresję, mogłyby skorzystać na diecie wzbogaconej o kwaśne pokarmy i napoje. W ten sposób można by je "zachęcić" do takich zachowań, jak wychodzenie z domu czy rozmowa z obcym. Autorzy publikacji z pisma Scientific Reports twierdzą też, że przedstawiciele zawodów, w których podejmowanie ryzyka ma poważne konsekwencje, np. piloci, mogliby dla odmiany skorzystać na ograniczeniu kwaśnego smaku w diecie. Poszczególne osoby różnie rozumieją podejmowanie ryzyka. Dla jednych będzie to skok z samolotu z dużej wysokości, a dla innych zwykłe wyjście z domu. Choć niektórzy mają negatywne skojarzenia, de facto podejmowanie ryzyka to jedno z podstawowych działań prowadzących do szczęśliwszego życia - podkreśla dr Chi Thanh Vi. Dr Marianna Obrist dodaje, że kwaśny nie popycha ludzi do bezmyślnego ryzykowania. Chodzi raczej o zdolność modulowania zachowań związanych z podejmowaniem ryzyka i zachęcanie osób z awersją do ryzyka do wykorzystywania nowych możliwości, pojawiających się okazji. Pozostaje to w zgodzie z wcześniejszymi badaniami, które wskazywały, że pacjenci z zaburzeniami psychicznymi, np. lękiem czy depresją [...], mogą odnieść korzyści ze stosowania olejku cytrynowego (co istotne, dodatkowo łagodzi on stres). W najnowszym studium wzięło udział 168 ochotników z Wielkiej Brytanii i Wietnamu. Dawano im 20 ml roztworu reprezentującego jedną z pięciu podstawowych grup smakowych albo wodę mineralną. Później wszyscy brali udział w teście balonu BART. Badanego prosi się o pompowanie serii wirtualnych balonów (liczba ruchów pompki jest wskaźnikiem preferencji ryzyka). Im więcej powietrza w balonie, tym więcej pieniędzy można zdobyć. Jeśli jednak balon pęknie, traci się wszystkie przeliczane na pieniądze punkty. Ochotnicy mogli w dowolnym momencie wypłacić swoją wygraną albo pompować dalej (o tym, czy kolejne kliknięcie myszą prowadziło do powiększenia balonu i nagrody, czy do pęknięcia, decydował algorytm). Podczas brytyjskiej części badań, w której wzięło udział 46 kobiet w średnim wieku 25 lat, zauważono, że kwaśny sprzyjał podejmowaniu dużego ryzyka, słodki i umami wspierały niską tendencję do podejmowania ryzyka, a gorzki i słony działały neutralnie (nie wspierały ani ryzykownego, ani bezpiecznego zachowania). Średnio badane, które wypiły kwas cytrynowy, wykonywały większą liczbę ruchów pompki: dla niepękniętych balonów klikały aż 39,36 razy. To o wiele więcej niż w przypadku jakiegokolwiek innego smaku: 39,08% więcej niż dla słodkiego (sacharozy), 20,50% więcej niż dla goryczy (kofeiny), 16,03% więcej niż dla słonego (chlorku sodu)i 40,29% więcej niż dla umami (glutaminianu sodu). Akademicy zauważyli, że kwaśny sprzyjał ryzykownym zachowaniom bez względu na indywidualny poziom impulsywności i poszukiwania wrażeń oraz na style myślenia (analityczny czy intuicyjny). By lepiej zrozumieć wpływ smaku na podejmowanie ryzyka, naukowcy wzięli pod uwagę międzykulturowe różnice w zakresie percepcji smaku, a zwłaszcza umami. Ten sam eksperyment powtórzono więc w Wietnamie, który zajmuje 3. miejsce na świecie pod względem spożycia glutaminianu sodu. Okazało się, że i tutaj smak kwaśny sprzyjał podejmowaniu największego ryzyka. Co zaskakujące, w odróżnieniu od próby brytyjskiej, i słodycz, i umami sprzyjały bardziej ryzykownym decyzjom. Psycholodzy podkreślają, że eksperymenty sugerują, że wpływ smaku na podejmowanie ryzyka może się utrzymywać do 20 minut. Wg nich, przy większym stężeniu może być jednak jeszcze dłuższy. Wiemy, co zachodzi w mózgu podczas odczuwania danego smaku. Wiemy też, co się dzieje, gdy ktoś podejmuje decyzję odnośnie do kierunku działania. Brakuje nam jednak szlaku, który by wyjaśnił, jak smak może wpłynąć na proces podejmowania decyzji - podsumowuje Vi. « powrót do artykułu
  24. U mężczyzn w średnim wieku dieta wysokobiałkowa wiąże się z lekko podwyższonym ryzykiem niewydolności serca. Naukowcy podkreślają, że choć dieta wysokobiałkowa jest popularna, przeprowadzono niewiele badań nad jej ewentualnym wpływem na ryzyko niewydolności serca u mężczyzn. Ponieważ wiele osób uznaje korzyści zdrowotne diety wysokobiałkowej za pewnik, ważne, byśmy dobrze znali jej potencjalne plusy i minusy. [Warto wiedzieć, że] wcześniejsze badania powiązały diety bogate w białko - zwłaszcza ze źródeł zwierzęcych - z podwyższonym ryzykiem cukrzycy typu 2., a nawet zgonu - opowiada dr Jyrki Virtanen z Uniwersytetu Wschodniej Finlandii. Autorzy publikacji z pisma Circulation: Heart Failure badali 2441 mężczyzn, którzy w momencie rozpoczęcia studium mieli od 42 do 60 lat. Średnio obserwowano ich przez 22 lata. W tym okresie zdiagnozowano 334 przypadki niewydolności serca. Okazało się, że 70% spożywanego białka pochodziło ze źródeł zwierzęcych, a tylko 27,7% ze źródeł roślinnych. Finowie podkreślają, że wyższe spożycie białka z większości źródeł wiązało się z lekko podwyższonym ryzykiem niewydolności serca. Tylko białka z jajek i ryb nie wiązały się z takim ryzykiem. W oparciu o ilość spożywanego dziennie białka mężczyzn podzielono na 4 grupy. Gdy porównano panów jedzących najwięcej i najmniej białka, okazało się, że u tych pierwszych ryzyko niewydolności serca było o 33% wyższe dla wszystkich źródeł białka, 43% wyższe dla białka zwierzęcego, 49% wyższe dla białek z nabiału i 17% wyższe dla białek roślinnych. Jako że to jedno z pierwszych badań wspominających o korelacji między białkiem z diety a ryzykiem niewydolności serca, potrzeba kolejnych studiów, które pokażą, czy zmniejszenie spożycia protein może wspomóc profilaktykę niewydolności serca - podsumowuje doktorantka Heli E.K. Virtanen. « powrót do artykułu
  25. Jeden z najwybitniejszych ekspertów od ekologii i nauk przyrodniczych, profesor William Laurance z australijskiego James Cook University, ostrzega, że chiński plan „Jeden pas i jedna droga” to najbardziej ryzykowne pod względem ekologicznym przedsięwzięcie podjęte przez człowieka. Chiny mają olbrzymie ambicje. Ale wraz z nimi idzie olbrzymia odpowiedzialność, mówi Laurance. W artykule opublikowanym na łamach Nature Sustainability uczony dołącza do głosów naukowców, którzy wzywają Chiny stworzenia szczegółowego planu strategicznego oraz rygorystycznej oceny wpływu wspomnianej inicjatywy na środowisko. W ciągu najbliższych 30 lat w ramach projektu „Jeden pas i jedna droga” Chiny chcą przeprowadzić nawet 7000 projektów infrastrukturalnych i zainwestować 8 bilionów dolarów. Chiński plan obejmuje swoim zasięgiem co najmniej 64 państwa w Azji, Afryce, Europie i regionie Pacyfiku. Zdaniem World Wildlife Found jego realizacja będzie miała wpływ na ponad 1700 obszarów o krytycznej bioróżnorodności i na setki zagrożonych gatunków. Chiny twierdzą, że projekt „Jeden pas i jedna droga” będzie wzorem odpowiedzialnego rozwoju. Jednak by tak się stało Chiny musiałyby całkowicie zmienić swoje podejście do robienia interesów. Wiele chińskich firm i projektów finansowych jest bardzo słabo kontrolowanych przez ich rząd, pozwala się im na wszystko, bo są to bardzo dochodowe przedsięwzięcia, mówi profesor Laurance. Przez ostatnie dwie dekady widziałem niezliczone przykłady agresywnej, a nawet grabieżczej eksploatacji prowadzonej przez chińskie firmy. Szczególnie ma ona miejsce w krajach rozwijających się o słabych instrumentach kontrolnych, dodaje uczony. Autorzy krytycznego artykułu podkreślają, że Chiny stoją przed unikatową szansą zmiany swojego modelu rozwoju i zostania rzeczywistym światowym liderem odpowiedzialnego rozwoju. Chiny znacznie bardziej dbają o swoje własne środowisko niż o środowisko w innych krajach, zauważa Laurance. Wyprodukowali już całe góry dokumentacji i obietnic dotyczących projektu „Jeden pas i jedna droga”, jednak dokumentacja nie spowoduje, że lamparty z dnia na dzień przeniosą się w inne miejsce. Chiny stoją przed olbrzymią szansą, jeśli jednak będą postępowały tak jak zwykle, to koszty środowiskowe i ekonomiczne będą dla inwestorów przerażające. « powrót do artykułu
×
×
  • Create New...