Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Popularny dodatek do żywności wywołuje cukrzycę i otyłość?

Rekomendowane odpowiedzi

Konsumpcja propionianu, popularnego dodatku do żywności, który jest szeroko używany w wypiekach czy dodatkach smakowych, zwiększa poziom hormonów odpowiedzialnych za otyłość i cukrzycę. Badania, z których płyną takie wnioski, prowadzili naukowcy z Harvard T.H. Chan School of Public Health we współpracy ze specjalistami z Brigham and Women’s Hospital oraz Centrum Medycznego Sheba w Izraelu. Wyniki ich badań opublikowano w najnowszym numerze Science Translational Medicine.

Uczeni wykorzystali dane z randomizowanych badań z użyciem placebo na ludziach i myszach. Wskazują one, że propionian, dodawany do żywności jako kwas propionowy (E280), propionian sodu (E281), propionian wapnia (E282) rozpoczyna całą kaskadę przemian metabolicznych, które prowadzą do pojawienia się insulinooporrności oraz hiperinsulinemii. Myszy, wystawione na długotrwałe działanie propionianu przybierały na wadze oraz stawały się oporne na działanie insuliny.
Zrozumienie, w jaki sposób dodatki do żywności wpływają na metabolizm na poziomie komórkowym i molekularnym, może pozwolić nam na opracowanie efektywnych sposobów zapobiegania otyłości i cukrzycy, stwierdził profesor Gökhan S. Hotamışlıgil.

Na całym świecie na cukrzycę cierpi ponad 400 milionów osób. Ocenia się, że pomimo walki z tą chorobą, do roku 2040 odsetek przypadków cukrzycy wzroście o 40%. Gwałtownie rosnąca liczba osób otyłych i cierpiących na cukrzycę wskazują, że przyczynami obu chorób są czynniki środowiskowe i przyczyny dietetyczne. Naukowcy sugerują, że dodatki do żywności również mogą odgrywać rolę, ale w tym kierunku prowadzono dotychczas niewiele badań.

W ramach najnowszych badań naukowcy skupili się na propionianach, krótkołańcuchowych kwasach tłuszczowych, które zapobiegają pleśnieniu żywności. Gdy podali je myszom okazało się, że doszło do szybkiej aktywacji układu współczulnego, co doprowadziło do zwiększonego poziomu hormonów, w tym glukagonu, norepinefryny i niedawno odkrytego białka wiążącego kwasy tłuszczowe 4 (FABP4). To z kolei spowodowało zwiększenie produkcji glukozy i pojawienie się hiperglikemii. Co więcej, okazało się, że gdy myszom długotrwale podawano propioniany w ilościach będących ekwiwalentem typowego ich spożywania przez ludzi, to myszy przybrały na wadze i pojawiła się u nich insulinooporność.

Uczeni, chcąc sprawdzić, czy uzyskane wyniki da się przełożyć na ludzi, zaangażowali do pomocy 14 zdrowych ochotników, którzy wzięli udział w podwójnie ślepej próbie z użyciem placebo. Uczestników losowo przypisano do dwóch grup. Jedna z nich otrzymała posiłek do którego dodano 1 gram propionianu, a w posiłku drugiej grupy znalazło się placebo. Przed posiłkiem, 15 minut po jego spożyciu, a następnie do 30 minut przez kolejne 4 godziny od badanych pobierano krew.

Okazało się, że u osób, które spożyły propionian, wkrótce po posiłku doszło do znacznego zwiększenia poziomu norepinefryny, glukagonu i FABP4. To wskazuje, że związek ten może wywoływać reakcje metaboliczne zwiększające u ludzi ryzyko pojawienia się cukrzycy i otyłości.

Dramatyczny wzrost przypadków otyłości i cukrzycy, z którym mamy do czynienia w ciągu ostatnich 50 lat sugeruje, że stoją za tym przyczyny środowiskowe oraz zwyczaje dietetyczne. Jednym z czynników, na które trzeba zwrócić uwagę, są dodatki do żywności. Każdego dnia jesteśmy wystawieni na działanie setek takich związków chemicznych, z których większość nigdy nie była szczegółowo testowana pod kątem długotrwałych skutków na poziomie metabolicznym, zauważa profesor Amir Tirosh, dyrektor Wydziału Endokrynologii w Centrum Medycznym Sheba.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Niskocukrowa dieta matki w czasie ciąży oraz dziecka przez dwa lata po urodzeniu, znacząco zmniejsza ryzyko rozwoju cukrzycy i nadciśnienia u dorosłego człowieka. Naukowcy z Uniwersytetu Kalifornijskiego w Berkeley, Uniwersytetu Południowej Kalifornii (USC) w Los Angeles i kanadyjskiego McGill University w Montrealu zauważyli, że dzieci, które przez pierwszych 1000 dni od poczęcia spożywały niewiele cukru, miały o 35% mniejsze ryzyko rozwoju cukrzycy typu II i o 20% mniejsze ryzyko rozwoju nadciśnienia w dorosłym życiu.
      Już ograniczenie ekspozycji na cukier przed urodzeniem wiązało się z obniżeniem ryzyka wystąpienia tych chorób, a ograniczenie cukru po urodzeniu dodatkowo zwiększa uzyskane korzyści. Naukowcy wykorzystali w swoich badaniach niezamierzony naturalny eksperyment, jakim była II wojna światowa. Sprawdzili, jak ówczesna polityka racjonowania cukru wpłynęła długoterminowo na zdrowie obywateli.
      W Wielkiej Brytanii racjonowanie cukru rozpoczęto w 1942 roku, a zakończono je dopiero we wrześniu 1953 roku. Naukowcy wykorzystali bazę danych U.K. Biobank. Znajdują się w niej dane genetyczne, medyczne, informacje dotyczące stylu życia i innych czynników ryzyka olbrzymiej liczby obywateli. Dzięki niej mogli porównać zdrowie dorosłych mieszkańców Wielkiej Brytanii z czasów przed ograniczenia sprzedaży cukru i po niej.
      Badania długoterminowych skutków spożywania cukru dodawanego do żywności jest trudne. Ciężko jest bowiem znaleźć takie sytuacje, gdy duże grupy społeczeństwa na początkowych etapach życia mają do czynienia z różnymi składnikami odżywczymi, a potem śledzić tych losy tych ludzi przez kolejnych 50 czy 60 lat, mówi główna autorka badań, Tadeja Gracner z USC.
      Gdy cukier był racjonowany, średnie spożycie na głowę wynosiło 40 gramów dziennie. Po zakończeniu ograniczeń zwiększyło się ono do około 80 gramów dziennie. Co ważne dla badań, racjonowanie żywności w czasie wojny nie wiązało się z ekstremalnymi ograniczeniami składników odżywczych. W tym czasie dieta przeciętnego mieszkańca Wielkiej Brytanii była mniej więcej zgodna z obecnymi zaleceniami WHO czy amerykańskiego Departamentu Rolnictwa, które radzą, by dzieci do 2. roku życia nie spożywały w ogóle dodatkowego cukru, a spożycie u dorosłych nie przekraczało 50 gramów (12 łyżeczek) dziennie.
      Natychmiastowy olbrzymi wzrost spożycia cukru po zniesieniu restrykcji, który nie wiązał się ze wzrostem spożycia innych rodzajów żywności, stał się więc interesującym przypadkiem naturalnego eksperymentu. Ludzie zostali wystawieni na ekspozycję różnych ilości cukru na samym początku życia, w zależności od tego, czy zostali poczęci bądź urodzili się przed czy po wrześniu 1953 roku. To pozwoliło na porównanie tych, którzy zostali poczęci lub urodzili się w czasach, gdy cukier racjonowano, z tymi, z czasów po zniesieniu ograniczeń.
      Naukowcy porównali więc tak wyodrębnione dwie grupy osób i stwierdzili, że ci, którzy przez 1000 dni od poczęcia spożywali mniej cukru, byli narażeni na mniejsze ryzyko cukrzycy i nadciśnienia. Jednak to nie wszystko. W grupie tej, jeśli już ktoś zapadł an cukrzycę, to pojawiała się ona cztery lata później, a w przypadku nadciśnienia było to dwa lata później, niż chorowały osoby spożywające więcej cukru w ciągu pierwszych 1000 dni życia. Co ważne, już mniejsze spożycie cukru w łonie matki zapewniało korzyści zdrowotne kilkadziesiąt lat później. Wyniki badań pokazują, jak ważne jest znaczące zmniejszenia spożycia cukru przez kobietę w ciąży, gdyż ograniczenie cukru dziecku po urodzeniu jest o tyle trudne, że cukier dodawany jest bardzo wielu produktów spożywczych, a dzieci są bez przerwy bombardowane reklamami słodyczy.
      Średnie miesięczne koszty ekonomiczne cukrzycy w USA wynoszą 1000 USD na osobę. Ponadto cukrzyca skraca oczekiwany czas życia, a im wcześniej się pojawi, tym większa jest utrata lat życia. Wynosi ona 3-4 lata na każdą dekadę, zatem osoba, która zapadła na cukrzycę w wieku 30 lat może żyć o 6–8 lat krócej, niż osoba, u której choroba pojawiła się w wieku 50 lat.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dzieci i młodzież w wieku 10-19 lat, u których zdiagnozowano COVID-19 są narażone na większe ryzyko rozwoju cukrzycy typu 2. w ciągu 6 miesięcy po diagnozie, niż ich rówieśnicy, którzy zapadli na inne choroby układu oddechowego. Takie wnioski płyną z badań przeprowadzonych przez naukowców z Wydziału Medycyny Case Western Reserve University. Uczeni przeprowadzili metaanalizę wpływu COVID-19 na ryzyko rozwoju cukrzycy typu 2. u dorosłych, a następnie postanowili poszerzyć swoją wiedzę o wpływ infekcji na osoby młodsze.
      Badacze przeanalizowali przypadki 613 602 pacjentów pediatrycznych. Dokładnie połowę – 306 801 – stanowiły osoby, u których zdiagnozowano COVID-19, w drugiej grupie znaleźli się młodzi ludzie, którzy zachorowali na inne choroby układu oddechowego. Poza tym obie grupy były do siebie podobne. Dodatkowo utworzono też dwie podgrupy po 16 469 pacjentów, w których znalazły się osoby z otyłością oraz COVID-19 lub inną chorobą układu oddechowego.
      Naukowcy porównali następnie liczbę nowo zdiagnozowanych przypadków cukrzycy typu 2. w obu grupach. Pod uwagę brano diagnozy, które postawiono miesiąc, trzy miesiące i sześć miesięcy po wykryciu pierwszej z chorób. Okazało się, że ryzyko rozwoju cukrzycy u osób, które zachorowały na COVID-19 było znacznie wyższe. Po 1 miesiącu było ono większe o 55%, po trzech miesiącach o 48%, a po pół roku – o 58%. Jeszcze większe było u osób otyłych. W przypadku dzieci i nastolatków, które były otyłe i zapadły na COVID-19 ryzyko zachorowania na cukrzycę było o 107% wyższe po 1 miesiącu, o 100% wyższe po drugim i o 127% wyższe po pół roku. Największe jednak niebezpieczeństwo związane z rozwojem cukrzycy wisiało nad tymi, którzy z powodu COVID-19 byli hospitalizowani. Ryzyko to było większe – odpowiednio do czasu po diagnozie COVID-19 – o 210%, 174% i 162%.
      Obecnie nie wiadomo, jaki może być związek COVID-19 z cukrzycą. Tym bardziej, że przeprowadzone badania to analiza retrospektywna, która nie pozwala na wykazanie związku przyczynowo-skutkowego. Potrzeba więc dalszych badań, które pozwolą określić, czy zachorowanie na COVID-19 w jakikolwiek sposób wpływa na układy związane z działaniem glukozy czy insuliny w naszym organizmie.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Od niemal 100 lat kolejne badania laboratoryjne pokazują, że zwierzęta, które jedzą mniej lub jedzą rzadziej, żyją dłużej. Naukowcy próbują zrozumieć zarówno mechanizm tego zjawiska, jak i opracować metody najlepszego zaimplementowania go u ludzi. Na łamach Nature opublikowano właśnie wyniki ważnych badań, jakie naukowcy z The Jackson Laboratory i ich współpracownicy, przeprowadzili na niemal 1000 myszach, które były karmione różnymi dietami. Myszy dobrano tak, by były genetycznie różnorodne, co miało oddawać zróżnicowanie genetyczne ludzkiej  populacji.
      Badania pokazały, że spożywanie mniejszej liczby kalorii ma większy wpływ na długość życia niż okresowe głodówki. Naukowcy stwierdzili, że spożywanie niewielkiej ilości kalorii wydłużało życie myszy niezależnie od ich poziomu glukozy i odsetka tłuszczu w organizmie. Co zaskakujące, najdłużej żyły te zwierzęta, które na restrykcyjnej diecie straciły najmniej na wadze. Myszy, które najbardziej schudły, miały mniej energii, osłabione układy rozrodczy oraz odpornościowy i żyły krócej niż te, które schudły najmniej.
      Nasze badania pokazują, jak ważna jest odporność. Najbardziej odporne zwierzęta utrzymały wagę nawet w obliczu ograniczenia liczby kalorii i one żyły najdłużej. Uzyskane przez nas wyniki sugerują, że umiarkowane ograniczenie kalorii może być dobrym sposobem na uzyskanie równowagi pomiędzy zachowaniem zdrowia i wydłużeniem życia, mówi główny autor badań, profesor Gary Churchill.
      Uczony i jego zespół podzielili badane przez siebie samice myszy do pięciu grup. W pierwszej z nich zwierzęta mogły jeść ile chciały i kiedy chciały, druga z grup otrzymywała 60%, a trzecia 80% dawki kalorii typowej dla myszy. Kolejnym dwóm grupom nie podawano w ogóle jedzenia przez jeden lub dwa następujące po sobie dni w tygodniu, a w pozostałe dni mogły jeść ile chciały.
      Okazało się, że zwierzęta, które mogły jeść ile chciały żyły średnio 25 miesięcy. Te, którym urządzano głodówkę żyły średnio 28 miesięcy. W grupie, która spożywała 80% kalorii średnia długość życia wyniosła 30 miesięcy, a w grupie spożywającej 60% kalorii było to 34 miesiące. W każdej z grup zaobserwowano też bardzo duży rozrzut długości życia. Na przykład w tej, gdzie zwierzęta spożywały najmniej kalorii myszy żyły od kilku miesięcy po 4,5 roku.
      Gdy naukowcy sprawdzili, skąd tak wielki różnica, okazało się, że czynniki genetyczne mają większy wpływ na długość życia niż dieta. Te wciąż niezidentyfikowane czynniki odgrywały też decydującą rolę we wpływie diety na długość życia. Te myszy, które były najbardziej odporne, które pomimo stresu i zmniejszonej liczby przyjmowanych kalorii utrzymały wagę, odsetek tkanki tłuszczowej i zdrowy układ odpornościowy oraz te, które na starość nie straciły tkanki tłuszczowej, żyły najdłużej. Jeśli chcesz żyć długo, możesz kontrolować pewne elementy, takie jak dieta. Jednak tym, co naprawdę zapewnia długie życie są geny po bardzo starej babci, mówi Churchill.
      Wyniki badań podają w wątpliwość tradycyjne poglądy na to, dlaczego niektóre diety wydłużają życie. Okazuje się bowiem, że takie czynniki jak masa ciała, odsetek tkanki tłuszczowej, poziom glukozy we krwi i temperatura nie wyjaśniają związku pomiędzy ograniczeniem liczby kalorii a długością życia. Z badań wynika, że z dłuższym życiem są w większym stopniu powiązane zdrowie układu odpornościowego oraz cechy charakterystyczne czerwonych krwinek. To zaś sugeruje, że badania nad długością ludzkiego życia – podczas których często stosuje się pomiary wskaźników metabolicznych – mogą pomijać ważne aspekty zdrowego starzenia się.
      O ile ograniczenie kalorii wydłuża życie, to nasze badania wskazują, że utrata wagi w wyniku ograniczenia kalorii jest niekorzystna dla długości życia. Okazuje się zatem, że jeśli prowadzimy badania nad lekami wydłużającymi życie i widzimy, że przyjmujący je ludzie tracą wagę oraz mają lepszy profil metaboliczny, może to nie być dobrym prognostykiem dotyczącym ich przyszłej długości życia, wyjaśnia Churchill.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W średniowieczu religia odgrywała dużą rolę w różnych aspektach życia. Większość informacji na ten temat pochodzi z dokumentów, które w znacznej mierze opisują życie elit ówczesnych społeczeństw. Na szczęście współczesne metody badawcze pozwalają zarówno na zweryfikowanie tego co wiemy i wnioskujemy z dokumentów oraz zdobycie nowych informacji. Jedną z takich metod jest badanie izotopów w szkieletach zmarłych osób, co pozwala na przykład określić ich dietę.
      Grupa francuskich naukowców postanowiła porównać dietę osób o różnym statusie społecznym: pochowanych na cmentarzu dla elity w Saint-Jean de Todon oraz osób z niższych klas społecznych, które spoczęły w Saint-Victor-la-Coste. Oba cmentarze były używane pomiędzy IX a XIII wiekiem.
      W IX/X wieku zachodni monastycyzm przeżywał poważny kryzys. Klasztory były zależne od lokalnych możnych, którzy wykorzystywali swoją pozycję, traktując zarówno klasztory jak i kościoły jako majątki rodzinne, obsadzając tam swoich krewnych, którzy żyli na podobieństwo stanu rycerskiego. Duchowieństwo bardziej zajmowało się gromadzeniem majątku, polityką i wojnami niż sprawami Kościoła. Na porządku dziennym było posiadanie przez księży rodzin, kupno urzędów kościelnych, prowadzenie praktycznie świeckiego trybu życia. Sytuację postanowił zmienić papież Sylwester II. Wsparli go benedyktyni z założonego w 910 roku klasztoru w Cluny. Z czasem ruch kluniacki stał się jedną z największych sił religijnych Europy, a reforma kluniacka doprowadziła do skupienia się klasztorów na pracy, modlitwie i opiece nad ubogimi.
      W ramach reformy zmieniono wiele aspektów życia klasztornego, w tym dietę, a zmiany te dotyczyły również – z odpowiednimi zmianami – także innych duchownych oraz osób świeckich. Zakonnikom zabroniono spożycia mięsa z wyjątkiem mięsa ryb, ograniczono ilość chleba, wina i warzyw, jakie mogły jeść kościelne elity. Ograniczenia narzucono też świeckim. Mogli oni jeść mięso z wyjątkiem dni postnych, chociaż nie dotyczyło to osób starych, chorych i dzieci.
      Autorzy badań – opierając się na danych historycznych – wysunęli hipotezę, że osoby z elity miały bardziej zróżnicowaną dietę, bogatą w białko zwierzęce, dieta mnichów była głównie wegetariańska z regularnym dostępem do ryb, natomiast dieta przeciętnego człowieka opierała się głównie na warzywach, z okazjonalnym spożywaniem ryb lub mięsa innych zwierząt.
      Analizy stabilnych izotopów wykazały, że członkowie elity z Saint-Jean de Todon jedli głównie owies, jęczmień, żyto, pszenicę, ale mieli też regularny dostęp do białka zwierzęcego. Badacze zauważyli tez, że kobiety spożywały zwykle mniej białka zwierzęcego, niż mężczyźni, co jest zgodne z założeniami reformy kluniackiej, która dzieliła dietę w zależności od płci, wieku i statusu społecznego. Okazało się również, że niezależnie od tego, czy zmarła osoba została pochowana w grobie oznaczonym czy nieoznaczonym – co może wskazywać na różny status społeczny – dieta badanych z Saint-Jean de Todon była podobna.
      Nieco inne wyniki dała analiza szczątków osób z Saint-Victor-la-Costa. Tam wszyscy, niezależnie od płci czy innych czynników, spożywali podobną dietę, opartą głównie na zbożach i warzywach.
      Bardzo interesujące zjawisko zauważono natomiast w przypadku dzieci. Okazało się, że dzieci pochowane na cmentarzu Saint-Jean de Tondon były karmione piersią lub odstawiane od piersi w wieku 2-4 lat. Natomiast dzieci z cmentarza Saint-Victor-la-Coste były odstawiane od piersi już w wieku 1-2 lat.
      Uzyskane przez nas dane można porównać z zapiskami historycznymi i sprawdzić, czy i w jakim stopniu reguły określone przez Kościół były przestrzegana w różnych regionach, parafiach czy klasach społecznych, stwierdzają autorzy badań. Obecnie prowadzą oni podobne analizy na innych pobliskich cmentarzach, by lepiej zrozumieć związek pomiędzy statusem społecznym a zasadami religijnymi. Planują też przetestować kolejne osoby z obu wspomnianych cmentarzy, by sprawdzić, jak dieta okolicznej ludności zmieniała się w czasie.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Pająki są uznawane za klasyczne drapieżniki owadożerne, tymczasem okazuje się, że ich dieta jest o wiele bardziej złożona i od czasu do czasu decydują się one nawet na posiłek wegetariański.
      Naukowcy już od jakiegoś czasu zdawali sobie sprawę, że niektóre pająki starają się wzbogacać menu rybami, żabami, a nawet nietoperzami. Teraz zespół z Uniwersytetu w Bazylei, Brandeis University oraz Uniwersytetu w Cardiff wykazał, że stawonogi te jadają również rośliny. Biolodzy przejrzeli pod tym kątem literaturę przedmiotu. Dzięki ich systematycznemu przeglądowi udowodniono, że różnego rodzaju rośliny (np. storczyki, drzewa, trawy czy paprocie) wchodzą w skład diety aż 10 rodzin pająków. Zjadane są różne ich elementy: nektar, pyłek, nasiona, tkanka liści, spadź i sok mleczny.
      Najważniejszą grupą pająków o wegetariańskich zwyczajach są skakunowate (Salticidae). To im przypisano aż 60% przypadków roślinożerności udokumentowanych w studium. Takim zwyczajom wydaje się sprzyjać kilka czynników: życie wśród roślin, mobilność, a także świetna zdolność wykrywania odpowiedniego pożywienia roślinnego.
      Pająki żywiące się roślinami występują na wszystkich kontynentach poza Antarktydą. Opisywane zachowanie jest jednak częściej dokumentowane w cieplejszych strefach. Autorzy publikacji z Journal of Arachnology dywagują, że może się tak dziać, bo spora liczba doniesień o wegetariańskiej diecie dotyczy nektaru, a rośliny produkujące duże jego ilości są tam bardziej rozpowszechnione.
      Zdolność pająków do pozyskiwania składników odżywczych z roślin poszerza ich bazę pokarmową. Może to być mechanizm, który pozwala przetrwać okresy niedoboru owadów. Ponadto dywersyfikacja jest korzystna z żywieniowego punktu widzenia, bo optymalizuje podaż dietetyczną - podsumowuje Martin Nyffeler z Uniwersytetu w Bazylei.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...