Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Pracując na modelu zwierzęcym, amerykańscy naukowcy wykazali, że niedożywione noworodki o niskiej wadze są zaprogramowane na to, by jeść więcej. Dzieje się tak z powodu utraty neuronów w rejonie podwzgórza odpowiedzialnym za kontrolę ilości zjadanego pożywienia. To pomogłoby wyjaśnić, czemu niska waga urodzeniowa często łączy się z otyłością na późniejszych etapach życia (Brain Research).

Specjaliści z Centrum Medycznego Uniwersytetu Kalifornijskiego w Los Angeles podejrzewają, że jeśli dieta matki jest zbyt uboga, przejadanie się zostaje zapisane na poziomie nerwowych komórek macierzystych jeszcze przed narodzinami dziecka.

Zespół porównywał zwierzęta z niską i prawidłową wagą urodzeniową. Okazało się, że u tych pierwszych podział i różnicowanie nerwowych komórek macierzystych zachodzą w mniejszym stopniu. W ramach wcześniejszych badań ustalono, że niska waga urodzeniowa i przyspieszony wzrost wyrównujący w późniejszym okresie wiążą się z podwyższonym ryzykiem osteoporozy, otyłości, cukrzycy typu 2., nadciśnienia i chorób sercowo-naczyniowych w dorosłości.

Dr Mina Desai podkreśla, że prawidłowe odżywianie kobiet w czasie ciąży stanowi, jak widać, doskonałą metodę zapobiegania otyłości i wynikającym z niej chorobom. Ponieważ naukowcy stwierdzili, że przy nieprawidłowej diecie zmianie ulega rozwój nerwowych komórek macierzystych, sugeruje to, że ograniczony wzrost płodowy wiąże się ze zmianami poznawczymi i/lub w zachowaniu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ta sama uwaga co do "tluszczu z powodu urazy". Badaczka pomija kwestie uzaleznienia od jedzenia, ktora nie bierze sie w prostej lini ani z niedozywienia ani z przekarmiania (jak twierdza niektorzy). Dlatego terapia uzaleznien nie opiera sie na szukaniu przyczyn.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Jedną z cech współczesnego „śmieciowego jedzenia” jest fakt, że trudno mu się oprzeć i przestać jeść. Produkty tego typu zawierają starannie dobraną ilość soli, słodyczy i tłuszczu. Naukowcy ukuli na ich określenie termin „hipersmaczne”. Uczeni z University of Kansas przeprowadzili badania, z których wynika, że te marki żywności, które należały do przemysłu tytoniowego – a w latach 80. intensywnie inwestował on w amerykański przemysł spożywcy – celowo rozpowszechniały na rynku „hipersmaczne” produkty.
      Hipersmacznej żywności trudno się oprzeć. Zawiera ona składniki powiązane ze smakiem, takie jak tłuszcze, cukry, sód lub inne węglowodory, które są dobrane w odpowiednich proporcjach, mówi główna autorka badań, profesor psychologii Terra Fazzino, która specjalizuje się w badaniach nad uzależnieniami. Już wcześniej wykazała ona, że 68% żywności oferowanej na rynku USA jest „hipersmaczna”. To takie połączenie składników, by zwiększyć przyjemność z jedzenia i by trudno było przestać jeść. Odczucia związane ze spożywaniem takich pokarmów są inne niż wówczas, gdy jemy coś zawierającego dużo tłuszczu, ale nie zawierającego cukru, soli czy innych rafinowanych węglowodanów.
      Trudno jest obecnie znaleźć pokarmy, które nie są „hipersmaczne”. Jestesmy otoczeni żywnością, a większość z niej jest „hipersmaczna”. Z kolei pokarmy, które takie nie są – jak świeże owoce czy warzywa – są mniej dostępne i droższe. Tak naprawdę nie mamy zbyt dużego wyboru jeśli chcielibyśmy uniknąć żywności „hipersmacznej”, dodaje Fazzino.
      Żywność „hipersmaczna” zawiera taką kombinację składników, która zapewnia wrażenia, jakich nie uzyskamy, spożywając te składniki osobno. Problem w tym, że takie kombinacje składników nie występują w naturze, więc nasze organizmy nie są na nie przygotowanie. Składniki te bez przerwy pobudzają centra nagrody w mózgu i zakłócają sygnały świadczące o najedzeniu. Dlatego tak trudno im się oprzeć, wyjaśnia uczona. Skutki takiego postępowania są widoczne w postaci epidemii otyłości. Żywność można tak przygotować, by człowiek zjadł więcej, niż planował. To nie do końca jest kwestia świadomego wyboru i uważania na to, co się je. Ta żywność oszukuje nasz organizm i powoduje, że jemy więcej niż chcemy.
      Teraz uczona wraz ze swoim zespołem postanowiła odpowiedzieć na pytanie, w jaki sposób przemysł tytoniowy promował i rozpowszechniał żywność „hipersmaczną”. Naukowcy wykorzystali publicznie dostępne informacje dotyczące struktur własnościowych w przemyśle spożywczym oraz dane Departamentu Rolnictwa dotyczące składu żywności. W ten sposób przyjrzeli się, jak wiele żywności oferowanej przez przemysł tytoniowy zostało przygotowane tak, by było „hipersmaczne”.
      Okazało się, że w latach 1988–2001 żywność produkowana przez firmy należące do przemysłu tytoniowego była klasyfikowana jako hipersmaczna z 29% większym prawdopodobieństwem z powodu odpowiedniego stosunku tłuszczu i sodu oraz z 80% większym prawdopodobieństwem z powodu stosunku węglowodanów i sodu niż żywność produkowana przez firmy nienależące do przemysłu tytoniowego.
      Na podstawie naszych danych nie możemy określić intencji przemysłu tytoniowego. Jednak możemy stwierdzić, że przemysł tytoniowy konsekwentnie rozwijał „hipersmaczną” żywność w czasach, gdy był wiodąca siłą na rynku spożywczym. Było to działanie celowe i inne od działań marek, które nie należały do przemysłu tytoniowego, stwierdza Fazzino.
      Inspiracją do przeprowadzonych przez niż badań były wcześniejsze prace uczonych z Uniwersytetu Kalifornijskiego w San Francisco. Przed 4 laty wykazali oni, że firmy RJ Reynolds i Philip Morris – wiodący producenci papierosów – wykorzystywały podczas przygotowywania i promowania dzieciom słodzonych napojów gazowanych takie same strategie, których wcześniej używały przy wyrobach tytoniowych. Używano nawet tych samych kolorów i dodatków, które zostały opracowane na potrzeby produkcji i marketingu papierosów.
      Koncerny tytoniowe wycofały się z amerykańskiego rynku żywności w pierwszych latach XXI wieku. Jednak ich dziedzictwo przetrwało. Wiele stworzonych przez nie linii produktów oraz technik marketingowych nakierowanych na dzieci jest wciąż używanych. W roku 2018, jak zauważa Fazzino, wciąż ponad 57% żywności jest klasyfikowana jako „hipersmaczna” ze względu na stosunek tłuszczu i sodu, a ponad 17% ze względu na stosunek węglowodanów i sodu. To oznacza, że – niezależnie od wcześniejszej struktury własnościowej firm spożywczych – żywność „hipersmaczna” jest bardzo ważnym składnikiem amerykańskiej diety.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Nieodpowiednia dieta była przyczyną 14,1 milionów zachorowań na cukrzycę typu 2. w 2018 roku, informują naukowcy z Tufts University. Na podstawie stworzonego przez siebie modelu dotyczącego zwyczajów dietetycznych mieszkańców 184 krajów, uczeni uznali, że złe odżywianie się odpowiada za 70% nowych przypadków cukrzycy typu 2. Badania, w których uwzględniono dane z lat 1990–2018 zostały opublikowane na łamach Nature Medicine. Autorom badań udało się określić te zwyczaje żywieniowe, które w największym stopniu przyczyniają się do rozwoju cukrzycy.
      Uwzględnili w swoich badaniach 11 czynników powiązanych z dietą i stwierdzili, że 3 z nich odgrywają nieproporcjonalnie dużą rolę w rozwoju cukrzycy. Są nimi niedostateczne spożycie pełnego ziarna, zbyt duże spożycie oczyszczonego ryżu i pszenicy oraz zbyt duże spożycie przetworzonego mięsa. Mniejszy wpływ na rozwój choroby miało spożywanie zbyt dużych ilości soków owocowych, zbyt małych ilości warzyw zawierających niewiele skrobi oraz orzechów i nasion.
      Nasze badania sugerują, że zła jakość węglowodanów w diecie to główna przyczyna rozwoju cukrzycy typu 2., mówi profesor Dariush Mozaffarian, jeden z głównych autorów badań.
      Naukowcy zauważyli, że we wszystkich 184 badanych krajach doszło w latach 1990–2018 do wzrostu zachorowań na cukrzycę typu 2. Ma to niekorzystny wpływ na całe społeczeństwo, od osób chorych, poprzez ich rodziny, po systemy opieki zdrowotnej.
      Analiza wykazała też, że zła dieta jest częściej przyczyną zachorowań na cukrzycę wśród mężczyzn niż kobiet, wśród osób młodszych niż starszych i wśród mieszkańców miast niż wsi. Największy wzrost zachorowań notuje się w Europie Środkowej i Wschodniej oraz Azji Centralnej. Niechlubne rekordy dzierżą tutaj Polska i Rosja, gdzie dieta pełna jest czerwonego mięsa, mięsa przetworzonego oraz ziemniaków. To właśnie w tych krajach zanotowano największy odsetek przypadków cukrzycy typu 2. powiązanych z nieprawidłową dietą. Drugim obszarem częstych zachorowań jest Ameryka Łacińska i Karaiby, szczególnie Kolumbia i Meksyk. Tam za zachorowania odpowiadają głównie słodzone napoje, przetworzone mięso oraz niskie spożycie pełnych ziaren.
      Regionami, w których dieta ma mały wpływ na cukrzycę typu 2. są kraje Azji Południowej i Afryki Subsaharyjskiej, a z 30 najbardziej zaludnionych krajów świata najmniej przypadków cukrzycy powiązanej z dietą występuje w Indiach, Nigerii i Etiopii.
      Z innych ostatnio publikowanych analiz podobnego typu dowiadujemy się, że zła dieta odpowiada za 40% przypadków cukrzycy typu 2. Autorzy nowych badań mówią, że różnica wynika z faktu, iż w swojej analizie jako pierwsi uwzględnili rafinowane ziarna, a ponadto wykorzystali nowsze dane pochodzące m.in. z badań zwyczajów dietetycznych poszczególnych osób, a nie tylko z danych na temat produkcji rolnej w różnych krajach.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Jeden z mitów dietetycznych głosi, że osoby, które więcej jedzą wieczorami, są bardziej podatne na przybranie na wadze i mają mniejszą szansę na jej zrzucenie. Badania przeprowadzone przez profesorów Alexandrę Johnstone z University of Aberdeen i Jonathana Johnstona z University of Surrey dowodzą, że energia z pożywienia jest podobnie użytkowana, niezależnie od tego, jak w ciągu dnia rozłożymy sobie liczbę spożywanych kalorii. Innymi słowy, bez samego ograniczenia liczby spożywanych kalorii nie powinniśmy liczyć na schudnięcie.
      Analizy zwyczajów dotyczących odżywiania się wskazują, że wiele osób większość kalorii spożywanych w ciągu dnia przyjmuje wieczorem. Johnstone i Johnston opublikowali właśnie na łamach Cell Metabolism pierwsze brytyjskie badania, w ramach których porównano wpływ spożywania większości dziennej dawki kalorii w ramach śniadań z ich spożywaniem w ramach kolacji.
      W badaniach wzięło udział 30 ochotników. Wszyscy oni mieli nadwagę lub byli otyli, jednak poza tym byli zdrowi. Badani przez 10 tygodni żywili się wyłącznie tym, co dostarczali im naukowcy.
      Przez pierwszy tydzień ochotnicy spożywali dietę potrzebną do utrzymania wagi. Otrzymywali 1,5 raza więcej kalorii niż wynosiło ich zapotrzebowanie energetyczne w czasie odpoczynku. Liczbę tę ustalono indywidualnie dla każdego z badanych. To standardowa liczba kalorii potrzebna do podtrzymania codziennych czynności życiowych. Kalorie były równomiernie rozłożone pomiędzy trzema posiłkami dziennie.
      Przez kolejne 4 tygodnie uczestnicy badań byli podzieleni na 2 grupy. W jednej z nich znalazło się 14 osób, które 45% dziennej dawki kalorii zjadały na śniadanie, 35% na obiad i 20% na kolację. w grupie drugiej było 16 osób, które na śniadanie zjadały 20% dawki kalorii, na obiad otrzymywały 35%, a na kolację zjadały 45% kalorii. Tutaj każdy z badanych otrzymał tyle kalorii, ile potrzebował jego organizm w czasie odpoczynku. Z tłuszczu pochodziło 35% kalorii, 30% dostarczano z białek, a 35% z węglowodanów.
      Po czterech tygodniach obie grupy jadły tak, jak w pierwszym tygodniu, a następnie – na ostatnie 4 tygodnie – zamieniono im dietę, czyli osoby, które wcześniej były w grupie jedzącej duże śniadania, trafiły do grupy jedzącej duże kolacje.
      Po każdym z czterotygodniowych etapów – przypomnijmy, że w ich trakcie badani otrzymywali tylko tyle kalorii, ile wynosiło ich zapotrzebowanie w czasie spoczynku – uczestników badania ważono. Okazało się, że osoby, które jadły większe śniadania niż kolacje straciły średnio 3,33 kg, a osoby jedzące większe kolacje niż śniadania straciły średnio 3,38 kg.
      Mimo, że różny rozkład kalorii w ciągu dnia nie wpływał na utratę wagi, to naukowcy zauważyli inną istotną rzecz. Osoby, które jadły większe śniadania czuły się bardziej najedzone przez resztę dnia. Przez ostatnie trzy dni każdej z diet badanym kilkukrotnie w ciągu dnia dawano do wypełnienia ankietę, w której swój poziom głodu oceniali na skali od O do 100, gdzie 0 oznaczało w pełni najedzony. Badani, gdy jedli duże śniadanie oceniali średnio swój poziom głodu na 30, a podczas jedzenia dużych kolacji – na 33. Jedzenie dużych śniadań wiązało się też z mniejszą chęcią na sięgnięcie po coś do zjedzenia, niższym poziomem stymulującego apetyt hormonu greliny i wyższymi poziomami hormonów odpowiedzialnych za uczucie najedzenia.
      To ważne badania, gdyż obala przekonanie, że różny rozkład liczby kalorii w ciągu dnia prowadzi do różnic w wydatkowaniu energii. Zasadniczym elementem odchudzania się, jest kontrola apetytu. Nasze badania sugerują, że osoby jedzące więcej kalorii na śniadanie, czują się bardziej najedzone, niż gdy jedzą więcej kalorii na kolację – stwierdzają autorzy badań.
      Spożywanie większej liczby kalorii na śniadanie a nie na kolację, może być dobrą strategią jeśli chcemy stracić na wadze, ale nie dlatego, że organizm w inny sposób korzysta z energii, ale dlatego, że czujemy się mniej głodni, więc możemy rzadziej podjadać.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Przed przybyciem wikingów niewielu mieszkańców Wysp Brytyjskich jadło duże ilości mięsa. Brak też dowodów, by anglosaskie elity spożywały go więcej, niż wieśniacy, stwierdzają autorzy najnowszych badań. Wszystko wskazuje na to, że władcy Wysp żywili się głównie dietą wegetariańską, chociaż od czasu do czasu wieśniacy urządzali dla nich wystawne mięsne uczty.
      Popularne wyobrażenia o władcach dawnych królestw znajdujących się na Wyspach Brytyjskich rysują nam obraz elity zasiadającej przy suto zastawionych stołach. Nawet historycy od dawna utrzymują, że w czasach anglosaskich członkowie rodów królewskich i inni szlachetnie urodzeni spożywali znacznie więcej mięsa niż reszta mieszkańców, a wolni chłopi musieli przez cały rok dostarczać im duże ilości pożywienia w ramach systemu podatkowego zwanego feorm.
      Na łamach pisma Anglo-Saxon England ukazały się właśnie artykuły pod wielce znaczącymi tytułami Food and Power in Early Medieval England: Rethinking Feorm i Food and Power in Early Medieval England: a lack of (isotopic) enrichment.
      Wszystko zaczęło się od wykładu ówczesnej doktorantki bioarcheologii Sam Leggett z University of Cambridge. Przeanalizowała ona sygnatury izotopów znalezione w kościach 2023 osób pochowanych w Anglii pomiędzy V a XI wiekiem. Następnie porównała te sygnatury z dowodami na status społeczny zmarłych, takimi jak dobra grobowe, pozycja ciała i orientacja grobu. Na podstawie swoich badań stwierdziła, że nie istnieje korelacja pomiędzy statusem społecznym, a dietą bogatą w białko. Prezentacja zaintrygowała historyka Toma Lamberta. Wiedział on bowiem, że wiele średniowiecznych tekstów oraz badań naukowych wskazuje, iż anglosaskie elity spożywały olbrzymie ilości mięsa.
      Lambert i Leggett rozpoczęli więc wspólny projekt badawczy, by dowiedzieć się, jak było naprawdę. Uczeni zaczęli od odczytania listy pożywienia skompilowanej za czasów króla Wesseksu, Ine (688–726). Był on jednym z największych władców przed Alfredem Wielkim. Jego dziełem jest m.in. pierwszy zbiór praw, który miał duży wpływ na kształtowanie się angielskiego społeczeństwa.
      Naukowcy dokładnie przeanalizowali listę, by dowiedzieć się, ile pożywienia na niej zapisano i jaka była jego wartość kaloryczna. Stwierdzili, że na liście znajduje się pożywienie o łącznej zawartości 1,24 miliona kalorii, z czego połowę stanowi białko zwierzęce. Wymieniono tam 300 bochenków chleba (o wadze 300 g każdy), więc naukowcy założyli, że każdy z uczestników uczty otrzymał 1 bochenek, zatem na liście znajduje się pożywienie dla 300 osób. Z przeliczenia wynikało, że każdy z gości mógł zjeść 0,7 kg baraniny, wołowiny i drobiu, niemal 0,4 kg łososia i węgorza. Podano też po ok. 150 gramów sera i masła, 200 gramów miodu oraz 2,1 litra piwa na głowę. W sumie każdy z gości spożył 4140 kcal. Następnie uczeni przeanalizowali 10 podobnych list z południa Anglii i zauważyli ten sam wzorzec: umiarkowana ilość pieczywa, duża ilość mięsa, dość sporo piwa oraz żadnych wzmianek o warzywach.
      Jednak, jak podkreślają uczeni, skala i proporcje tych dostaw wskazują, że było to pożywienie na okazjonalne, wielkie uczty, a nie zwykłe dostawy żywności dla domu królewskiego. Wbrew temu, co dotychczas sądzono, nie był to standardowy spis dostaw.
      Doktor Sam Leggett dodaje, że nie znalazła żadnych dowodów, by ci ludzie codziennie jedli tak duże ilości mięsa. Jeśli by tak było, to znaleźlibyśmy izotopowe dowody na nadmiar protein, a w kościach widoczne byłyby ślady schorzeń takich jak dna moczanowa. Niczego takiego nie stwierdziliśmy. Wręcz przeciwnie, wszystkie dowody wskazują na to, że w czasach anglosaskich codzienna dieta wszystkich warstw społecznych była do siebie bardziej podobna, niż nam się wydaje. Ludzie jedli głównie pieczywo, niewiele mięsa i sera, zupy jarzynowe z pełnymi ziarnami i niewielką ilością mięsa. Również dieta królów opierała się głównie na zbożach. I nawet dla nich okazją do zjedzenia większej ilości mięsa były uczty organizowane przy wyjątkowych okazjach. Musiały być to duże wydarzenia społeczne, podczas których na rożnach pieczono całe woły. We wschodniej Anglii znaleziono ślady takich palenisk. Jednak nie tylko królowie brali udział w tych bogatych biesiadach.
      Generalnie uważa się, że średniowieczne uczty były zarezerwowane dla elity. Jednak te listy pokazują, że w ucztach musiało uczestniczyć co najmniej 300 osób. A to oznacza, że brało w nich udział wielu chłopów. Uczty te miały olbrzymie znaczenie polityczne, wyjaśnia Lambert. Historyk zajął się też samym terminem feorm. Obecnie uważa się, że oznacza on rentę w naturze płaconą władcom przez wolnych chłopów. Renta ta, w ramach której chłopi dostarczali na dwór m.in. produkty rolne, miała być głównym źródłem pożywienia dworu królewskiego. Z czasem, gdy królestwa się rozrastały, przywilej pobierania takiej renty przyznawano lokalnym elitom, wzmacniając ich więź z dworem.
      Lambert zbadał znaczenie słowa feorm w różnych kontekstach i doszedł do wniosku, że wyraz ten odnosi się do uczty, a nie do formy podatku. To niezwykle ważne spostrzeżenie. Zapłata narzuconego z góry podatku nie wymaga bowiem osobistej obecności władcy czy feudała i nie ma związku z okazywaniem przez niego szacunku chłopom. Jednak feorm rozumiany jako wspólna uczta, zupełnie zmienia dynamikę relacji feudał-chłop. Mamy tutaj bowiem zarówno osobiste zaangażowanie władcy w relację z poddanym, jak i okazję do podziękowania poddanym za służbę. Wyobraźmy sobie władców podróżujących, by wziąć udział w wielkich ucztach organizowanych przez wolnych chłopów, ludzi posiadających własną ziemię, a czasem i niewolników. Można by to porównać do obiadów, jakie kandydaci na prezydenta USA wydają w czasie kampanii wyborczej. Miało to olbrzymie znaczenie polityczne, wyjaśnia Lambert.
      Taka zmiana rozumienia terminu feorm ma daleko idące znaczenie dla badań nad historią średniowiecza i całością historii politycznej Anglii. Rzuca bowiem nowe światło na kwestie związane z początkami rozwoju systemu monarchistycznego Anglii, polityki opierającej się na patronacie i własności ziemskiej, jest też ważnym elementem w dyskusji nad przyczynami zniknięcia klasy wolnych chłopów.
      Legett i Lambert czekają teraz na wyniki badań izotopowych z Winchester Mortuary Chests, gdzie prawdopodobnie spoczywają król Wesseksu Egbert (IX w.), Knut Wielki (XI w.) i inni anglosascy władcy.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Specjaliści od dawna poszukują bezpośredniego związku pomiędzy aktywnością neuronów w mózgu, a aktywnością bakterii w układzie pokarmowym. Francuscy uczeni z Instytutu Pasteura poinformowali właśnie na łamach Science, że w modelu zwierzęcym neurony w podwzgórzu bezpośrednio wykrywają zmiany aktywności bakterii w jelitach i odpowiednio dostosowują do tego apetyt i temperaturę ciała myszy. To dowodzi, że istnieje bezpośrednia komunikacja pomiędzy mikrobiomem jelit a mózgiem. Być może uda się to wykorzystać do opracowania metod walki z cukrzycą czy otyłością.
      Związki uwalniane przez mikrobiom trafiają do krwi i mogą wpływać na różne procesy fizjologiczne gospodarza, takie jak działanie układu odpornościowego, metabolizm czy funkcje mózgu. Metabolity mikroorganizmów, w tym krótkołańcuchowe kwasy tłuszczowe i pochodne tryptofanu, regulują bardzo wiele procesów. Składowe strukturalne mikroorganizmów są jednak wykrywane przez receptory wykrywające wzorce (PRR), które sygnalizują obecność wirusów, bakterii i grzybów na błonach śluzowych, w tkankach i komórkach. Wiemy, że składniki bakteryjne wpływają na działanie mózgu, a PRR są powiązane z zaburzeniami jego pracy. Jednak nie wiemy, czy neurony w mózgu mogą bezpośrednio wykrywać komponenty bakteryjne i czy bakterie mogą regulować procesy fizjologiczne poprzez regulowanie neuronów w mózgu, stwierdzają autorzy badań.
      Naukowcy skupili się na receptorze NOD2 obecnym w komórkach odpornościowych. Należy on do grupy rozpoznających wzorce receptorów wewnątrzkomórkowych. Receptor ten wykrywa muropeptydy wchodzące w skład ścian komórkowych bakterii. Wiadomo, że u myszy, w neuronach których nie dochodzi do ekspresji Nod2, pojawiają się zmiany odnośnie spożywania pokarmu, zakładania gniazda i temperatury ciała. Naukowcy wykorzystali więc techniki obrazowania, by zidentyfikować te obszary mózgu, które reagują na doustne podawanie muropeptydów. Sprawdzali też, jak zmieniała się aktywność neuronów po podaniu myszom muropeptydów. Stworzyli też genetycznie zmodyfikowane myszy, w których podwzgórzach nie dochodziło do ekspresji Nod2. To właśnie podwzgórze reguluje temperaturę ciała i przyjmowanie pokarmów.
      Na podstawie tak prowadzonych eksperymentów stwierdzili, że do ekspresji receptora NOD2 dochodzi w różnych regionach mózgu myszy, w szczególności zaś w podwzgórzu. A w kontakcie z muropeptydami ekspresja ta jest tłumiona.
      Muropeptydy obecne w jelitach, krwi i mózgu to dowody na proliferację bakterii. To niezwykłe odkrycie pokazuje, że fragmenty bakterii bezpośrednio wpływają na tak ważny ośrodek w mózgu, jakim jest podwzgórze, o którym wiemy, że reguluje kluczowe funkcje organizmu, jak temperatura, reprodukcja, głód i pragnienie, stwierdzają naukowcy.
      Uczeni mają nadzieję, że dzięki zdobytej wiedzy i przyszłym interdyscyplinarnym badaniom – w które powinni zostać zaangażowani neurolodzy, immunolodzy i mikrobiolodzy – powstaną w przyszłości nowe leki skuteczniej zwalczające takie zaburzenia metaboliczne jak otyłość i cukrzyca.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...