Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

W mózgu znaleziono obszar odpowiedzialny za apetyt na białko. Może to pomóc w leczeniu otyłości

Recommended Posts

Uczeni z Uniwersytetów w Aberdeen i Leicester zidentyfikowali w mózgu obszar, który napędza zapotrzebowanie na pożywienie bogate w białko. Odkrycie może mieć znaczenie dla rozwoju personalizowanych terapii otyłości. Nie od dzisiaj bowiem wiadomo, że dieta niskobiałkowa jest powiązana z otyłością.

Naukowcy zauważyli, że gdy szczury trzymano na diecie niskobiałkowej, doszło do większej aktywizacji pola brzusznego nakrywki (VTA), czyli jądra limbicznego śródmózgowia, obszaru odpowiedzialnego za aktywne poszukiwanie jedzenia.

Z badań wynika, że gdy wcześniej ograniczy się dostarczanie protein, VTA staje się bardziej wrażliwe na proteiny niż na inne składniki odżywcze. To zaś sugeruje, że mózgi zwierząt działają tak, by upewnić się, że dostawy białka zostaną utrzymane na odpowiednim poziomie. Taka adaptacja jest zrozumiała, gdyż niedobór białka może mieć katastrofalne skutki zdrowotne. Ponadto wcześniejsze badania wiązały niski poziom białek z otyłością. Nie wiadomo było jednak, jak na zjawisko to wpływa mózg.

Współautor badań doktor Fabien Naneix mówi: Odkryliśmy, że zmniejszenie podaży białka zwiększyło preferencje ku żywności, w której jest więcej białka niż węglowodanów. Ta preferencja ku białkom jest powiązana z większą odpowiedzią VTA i gdy zwierzęta przestawia się z normalnej zbilansowanej diety na dietę niskobiałkową, dochodzi do indukowania preferencji ku białkom, jednak zmiany w VTA wymagają intensywnego procesu uczenia się.

Nasze badania są pierwszymi, łączącymi preferencje ku białkom ze specyficzną aktywnością mózgu. Wiemy,że VTA odgrywa kluczową rolę w procesach pobierania innych składników odżywczych. Teraz wykazaliśmy, że dotyczy to również białek.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Naukowcy z Kolonii zaproponowali nowatorskie podejście do leczenia zaburzeń jedzenia. Wykazali, że neurony AgRP (agouti-related peptide neurons) kontrolują uwalnianie endogennych lizofosfolipidów. Te z kolei kontrolują pobudzanie komórek nerwowych w korze mózgowej stymulujących pobieranie żywności. W całym procesie kluczową rolę odgrywa szlak sygnałowy kontrolowany przez enzym o nazwie autotaksyna (ATX), odpowiedzialny za produkcję kwasu lizofosfatydowego (LPA). Uczeni stwierdzili więc, że w walce z kompulsywnym objadaniem się i otyłością mogłyby pomóc inhibitory autotaksyny.
      Zespół pod kierunkiem profesorów Johanessa Vogta (Uniwersytet w Kolonii), Roberta Nitscha (Uniwersytet w Münster) oraz Thomasa Horvatha (Yale School of Medicine) wykazała, że u ludzi z zaburzonym szlakiem sygnałowym LPA częściej występują otyłość oraz cukrzyca typu II. Dodali do tego spostrzeżenie, że to kontrola pobudzenia neuronów w korze mózgowej przez LPA odgrywa kluczową rolę w kontrolowaniu zachowań związanych z odżywianiem się. Neurony AgRP regulują poziom lizofosfatydylocholiny (LPC) w krwi. LPC dociera do mózgu, gdzie autotaksyna zamienia ją w LPA, stymulujący specyficzne neurony w mózgu, co prowadzi do zwiększenia przyjmowania żywności.
      Przeprowadzone eksperymenty na myszach wykazały, że po okresie postu w krwi zwierząt pojawiło się więcej LPC, co prowadziło do zwiększenia stymulacji LPA w mózgu. Myszy aktywnie poszukiwały jedzenia. Gdy naukowcy podali im inhibitory autotaksyny, poziomy LPC i LPA spadły. Z kolei myszy otyłe, którym regularnie podawano inhibitory autotaksyny, straciły na wadze.
      Zarówno po manipulacji genetycznej, jak i po podaniu inhibitorów ATX zauważyliśmy zarówno znaczące zmniejszenie nadmiernego przyjmowania pożywienia jak i otyłości. Prowadzone przez nas od lat badania nad działaniem LPA na mózg okazały się przydatne również w kontrolowania zachowań związanych z jedzeniem, mówi profesor Vogt. Z kolei profesor Nitsch wskazuje, że dzięki temu może powstać lek do walki z otyłością. Uzyskane przez nas wyniki pokazują, że osoby z zaburzonym szlakiem sygnałowym LPA z większym prawdopodobieństwem są otyłe i cierpią na cukrzycę typu II. To pokazuje, że inhibitory ATX mogą być skutecznym lekiem. Wraz z Instytutem Hansa Knölla w Jenie prowadzimy prace nad stworzeniem takich inhibitorów dla ludzi.
      Więcej na ten temat można przeczytać na łamach Nature.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Gdy na początku XX wieku naukowcy zaczęli wykorzystywać elektrody do rejestrowania aktywności mózgu, zauważyli sygnały, które nazwali „falami mózgowymi”. Od tamtej pory są one przedmiotem intensywnych badań. Wiemy, że fale są przejawem zsynchronizowanej aktywności neuronów, a zmiany w intensywności fal reprezentują zmniejszającą się i zwiększającą aktywność grup neuronów. Powstaje pytanie, czy i w jaki sposób fale te uczestniczą w przekazywaniu informacji.
      Kwestię tę postanowił rozstrzygnąć doktorant Tal Dalal z Multidyscyplinarnego Centrum Badań nad Mózgiem na Uniwersytecie Bar-Ilan. Z artykułu opublikowanego na łamach Cell Reports [PDF] dowiadujemy się, że badacze zmienili poziom synchronizacji fal mózgowych w obszarze przekazywania informacji. Następnie sprawdzili, jak wpłynęło to na przekazanie informacji i jak została ona zrozumiana przez obszar mózgu, do którego dotarła.
      Badacze skupili się na części mózgu zawiadującej układem węchowym. Charakteryzuje się ona bowiem silną aktywnością fal mózgowych, a za ich synchronizację odpowiada w tym regionie szczególny typ neuronów. Uczeni wykorzystali metody optogenetyczne, pozwalające na włączanie i wyłączanie aktywności neuronów za pomocą impulsów światła. Dzięki temu mogli obserwować, w jaki sposób włączenie i wyłączenie synchronizacji w jednym regionie wpływało na przekazywanie informacji do innego obszaru mózgu.
      Manipulacji dokonywano w miejscu (nazwijmy je regionem początkowym), w którym dochodzi do wstępnego przetwarzania informacji z układu węchowego. Stamtąd informacja, zsynchronizowana lub niezsynchronizowana, trafiała do kolejnego obszaru (region II), gdzie odbywa się jej przetwarzanie na wyższym poziomie.
      Naukowcy odkryli, że zwiększenie synchronizacji neuronów w regionie początkowym prowadziło do znaczącej poprawy tempa transmisji i przetwarzania informacji w regionie II. Gdy zaś poziom synchronizacji zmniejszono, do regionu II trafiała niepełna informacja.
      Naukowcy dokonali też niespodziewanego odkrycia. Ze zdumieniem zauważyliśmy, że aktywowanie neuronów odpowiedzialnych za synchronizację, prowadziło do spadku ogólnej aktywności w regionie początkowym, więc można się było spodziewać, że do regionu II trafi mniej informacji. Jednak fakt, że dane wyjściowe zostały lepiej zsynchronizowane kompensował zmniejszoną aktywność, a nawet zapewniał lepszą transmisję, mówi Dalal.
      Autorzy badań doszli więc do wniosku, że synchronizacja jest niezwykle ważna dla przekazywania i przetwarzania informacji. To zaś może wyjaśniać, dlaczego zmniejszenie poziomu synchronizacji neuronów, co objawia się mniejszą intensywnością fal mózgowych, może prowadzić do deficytów poznawczych widocznych np. w chorobie Alzheimera. Dotychczasowe badania pokazywały, że istnieje korelacja pomiędzy zmniejszonym poziomem synchronizacji, a chorobami neurodegeneracyjnymi, ale nie wiedzieliśmy, dlaczego tak się dzieje. Teraz wykazaliśmy, że synchronizacja bierze udział w przekazywaniu i przetwarzaniu informacji, więc to może być powód obserwowanych deficytów u pacjentów, mówi Dalal.
      Badania prowadzone przez Dalala i profesora Rafiego Haddada mogą doprowadzić do pojawienia się nowych terapii w chorobach neurodegeneracyjnych. Nie można wykluczyć, że w przyszłości uda się przywrócić odpowiednią sychnchronizację fal mózgowych u chorych.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Szybką i bezbłędną klasyfikację białek, wykrywanie w nich miejsc wiążących potencjalne leki, identyfikowanie białek występujących na powierzchni wirusów, a także badania np. RNA, umożliwia nowe narzędzie bioinformatyczne opracowane przez naukowców z Wydziału Biologii UW.
      BioS2Net, czyli Biological Sequence and Structure Network, jest zaawansowanym algorytmem wykorzystującym uczenie maszynowe, pozwalającym na klasyfikację nowo poznanych białek nie tylko na podstawie podobieństwa sekwencji aminokwasowych, ale także ich struktury przestrzennej. Publikacja na jego temat ukazała się na łamach pisma International Journal of Molecular Sciences.
      Narzędzie opracował zespół kierowany przez dr. Takao Ishikawę z Zakładu Biologii Molekularnej Wydziału Biologii UW we współpracy z naukowcem z Wydziału Matematyki, Informatyki i Mechaniki UW. Jak mówią sami autorzy, jego głównym zastosowaniem jest usprawniona klasyfikacja białek, ponieważ obecnie stosowany system klasyfikacji strukturalnej opiera się na żmudnej pracy polegającej na porównywaniu struktur nowych białek do tych już skategoryzowanych.
      Istnieje co prawda jego zautomatyzowany odpowiednik, jednak jest on bardzo restrykcyjny i bierze pod uwagę wyłącznie podobieństwo sekwencji białek, całkowicie pomijając ich strukturę. Takie narzędzie jak BioS2Net potencjalnie ma szansę znacząco usprawnić cały proces – wyjaśnia dr Ishikawa. Dodatkowo opracowana przez nas architektura może zostać użyta (po niewielkich przeróbkach) do innych zadań, niekoniecznie związanych z klasyfikacją. Przykładowo można by jej użyć do wykrywania w białku miejsc wiążących potencjalne leki lub do identyfikacji białek występujących na powierzchni wirusów.
      Można sobie np. wyobrazić sytuację, w której dotychczas zaklasyfikowane do innych grup białka, dzięki zastosowaniu BioS2Net zostaną skategoryzowane jako bardzo podobne do siebie pod względem budowy powierzchni, mimo innego zwinięcia łańcucha białkowego wewnątrz struktury. I wówczas niewykluczone, że cząsteczka oddziałująca z jednym białkiem (np. jako lek) okaże się także skutecznym interaktorem dla drugiego – wymienia dalsze potencjalne zastosowania praktyczne narzędzia dr Ishikawa. Innym ciekawym zastosowaniem mogłoby być np. wykrywanie miejsc wiążących w białkach, które mogą stanowić albo cel dla leków, albo punkt interakcji z białkiem wirusowym.
      Działanie BioS2Net opiera się na wykonywanych po sobie operacjach matematycznych, które bazują na danych o konkretnym białku. Do pracy narzędzie potrzebuje tychże danych (im więcej, tym lepiej), odpowiedniego oprogramowania zdolnego do wykonywania skomplikowanych obliczeń związanych z treningiem sieci neuronowej oraz sporej ilości czasu.
      W efekcie BioS2Net tworzy unikatową reprezentację każdego białka w postaci wektora o stałym rozmiarze. Można to porównać do czegoś w rodzaju kodu kreskowego opisującego każde z poznanych białek – tłumaczy dr Ishikawa. Narzędzie świetnie nadaje się do klasyfikacji białek na podstawie sekwencji aminokwasowej oraz struktury przestrzennej. Szczególnie istotne jest to, że można dzięki niemu wykryć białka o podobnej strukturze trójwymiarowej, ale o odmiennym „foldzie”, czyli innym sposobie zwinięcia łańcucha białkowego.
      Dotychczas stosowane metody przydzielałyby takie białka do osobnych grup. Tymczasem znane są przypadki, gdy tego typu cząsteczki pełnią podobne funkcje. I do wykrywania takich grup białek może się przydać BioS2Net – dodaje.
      Jak mówi naukowiec, nowe białka odkrywa się cały czas. Zdecydowana większość z nich, jeśli już ma opisaną strukturę przestrzenną, jest deponowana w bazie danych Protein Data Bank, do której każdy ma dostęp przez Internet. Warto jednak zwrócić uwagę, że proces odkrywania nowych białek rozpoczyna się o wiele wcześniej, już na etapie sekwencjonowania genomu. W bazach danych genomów często można spotkać się z adnotacją ’hypothetical protein’ (pol. hipotetyczne białko). Istnieją algorytmy komputerowe, które na podstawie sekwencji nukleotydowych w zsekwencjonowanym genomie przewidują obszary przypominające geny, które potencjalnie kodują informację o białkach. I takich potencjalnych białek znamy bardzo wiele. Ich funkcje można częściowo przewidzieć na podstawie podobieństwa do cząsteczek już wcześniej opisanych, ale do pełnego poznania takiej roli i mechanizmu działania często jednak należy najpierw ustalić ich strukturę, co wymaga miesięcy lub lat eksperymentów – opowiada badacz z UW.
      W przypadku białek podobna sekwencja aminokwasów z reguły przekłada się na podobną strukturę. Do niedawna był to wręcz dogmat w biologii strukturalnej. Dzisiaj jednak wiadomo – mówi dr Ishikawa – że wiele białek jest inherentnie nieustrukturyzowanych (IDP; ang. intrinsically disordered protein) albo przynajmniej zwiera w sobie tego typu rejony. Takie białka mogą przyjmować różne struktury w zależności od tego z jakimi innymi białkami w danym momencie oddziałują.
      Dodatkowo bardzo istotny jest cały kontekst, w jakim białko ulega pofałdowaniu. Przykładowo, obecność tzw. białek opiekuńczych, czy nawet samo tempo syntetyzowania białka w komórce, może mieć niemały wpływ na ostateczny jego kształt, a zatem też na funkcje. Nie zmienia to jednak faktu, że cechą fundamentalną każdego białka jest jego sekwencja aminokwasowa – podkreśla.
      A dlaczego w ogóle poznanie dokładnej budowy cząsteczki białka jest takie ważne? Autor publikacji wyjaśnia, że białka, realizując swoje zadania w komórce, zawsze przyjmują określoną strukturę. Np. jeśli chcemy zaprojektować nowy lek, który będzie oddziaływał z określonym białkiem, to fundamentalne znaczenie ma określenie struktury tego drugiego. W trakcie pandemii SARS-CoV-2 trzeba było np. określić strukturę wirusowego białka S (tzw. kolca) m.in. po to, aby można było zaproponować cząsteczkę swoiście z nim oddziałującą, a przez to zmniejszyć wydajność zakażania komórek człowieka – mówi. Podsumowując: badanie struktury białek ma ogromne znaczenie dla poznania ich funkcji i mechanizmu działania, a także innych cząsteczek z nimi oddziałujących.
      Jeśli chodzi o sam BioS2Net, to najpierw należy ściągnąć z bazy danych i przetworzyć informacje o danym białku. Przetwarzanie służy temu, aby wszystkie cechy białka, takie jak współrzędne atomów, rodzaje aminokwasów, profil ewolucyjny itd., zamienić na liczby, które będą zrozumiałe dla komputera. Każdy pojedynczy atom cząsteczki jest opisywany przez kilkadziesiąt liczb, które wyrażają wspomniane cechy.
      Następnie liczby te wprowadza się do sieci neuronowej, która analizuje każdy z atomów oraz ich najbliższych sąsiadów, biorąc pod uwagę zarówno ich ułożenie przestrzenne, jak i sekwencyjne. Kolejny etap to łączenie grup atomów w jeden „superatom”, który zawiera w sobie całą wyuczoną lokalną informację. Proces ten powtarza się do momentu aż ów „superatom” będzie zawierał zagregowane informacje o całym białku. To jest nasz kod kreskowy, który wykorzystujemy potem do klasyfikacji białka, używając standardowych sieci neuronowych – zaznacza dr Ishikawa.
      Zapytany o dokładność nowego narzędzia biolog wyjaśnia, że jeśli chodzi o wytworzenie unikatowego wektora reprezentującego poszczególne białka, to BioS2Net robi to bezbłędnie, tzn. że każde białko jest reprezentowane w jedyny możliwy sposób i żadna inna cząsteczka nie będzie opisana w taki sam sposób.
      Natomiast, gdy zastosowaliśmy BioS2Net do klasyfikacji białek, osiągnęliśmy wynik nawet 95,4 proc. trafności w porównaniu do obowiązującej klasyfikacji wg bazy danych. Oznacza to, że w ponad 95 przypadków na 100 BioS2Net był w stanie prawidłowo przyporządkować białko do danej grupy. Tutaj jednak warto wspomnieć, że ta obowiązująca klasyfikacja opiera się na podobieństwie sekwencji aminokwasowych i pomija informacje strukturalne – tłumaczy autor publikacji.
      Naukowcy podkreślają, że poza głównym zastosowaniem, czyli klasyfikacją białek, BioS2Net będzie mógł służyć także do analizowania innych cząsteczek biologicznych, w tym RNA. Uważamy, że narzędzie można by też wykorzystywać do klasyfikacji zupełnie innych danych biologicznych, np. map chromosomów w jądrze komórkowym. Właściwie to nasza architektura może być przydatna wszędzie tam, gdzie jest zdefiniowana struktura i sekwencja – mówią.
      Dr Ishikawa dodaje, że BioS2Net powstał w ramach pracy licencjackiej pierwszego autora (jego Alberta Roethla) wykonanej pod kierunkiem. Warto to podkreślić, bo to ważny sygnał, że licencjat niekoniecznie jest pracą dyplomową, którą po prostu trzeba zrobić, ale czymś, co ma potencjał naukowy i może zostać opublikowane w międzynarodowym czasopiśmie – zaznacza naukowiec.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W jaki sposób mózg decyduje, jak najlepiej poruszać naszym ciałem? Okazuje się, że dla układu nerwowego to spore wyzwanie, gdyż mamy setki mięśni, które muszą być koordynowane setki razy na sekundę, a liczba możliwych wzorców koordynacji, z których musi wybierać mózg, jest większa niż liczba ruchów na szachownicy, mówi profesor Max Donelan z kanadyjskiego Simon Fraser University. Donelan i jego zespół badali, w jaki sposób ciało adaptuje się d nowych ruchów. A ich badania mogą mieć znaczenie zarówno dla treningu sportowców, jak i rehabilitacji niepełnosprawnych.
      Naukowcy zauważają, że bardzo często doświadczamy zmian zarówno w naszym organizmie, jak i w środowisku zewnętrznym. Być może lubisz biegać w niedzielę rano, Twoje mięśnie będą tym bardziej zmęczone im dłuższy dystans przebiegniesz. A może w czasie wakacji biegasz po plaży, gdzie podłoże jest luźne i nierówne w porównaniu z chodnikiem, po którym codziennie chodzisz. Od dawna jesteśmy w stanie rejestrować zmiany w sposobie poruszania się, ale dotychczas chyba nie docenialiśmy, w jaki sposób nasz organizm do takich zmian się adaptuje, stwierdza Donelan.
      Chcąc przyjrzeć się tym zmianom kanadyjscy neurolodzy podjęli współpracę z inżynierami z Uniwersytetu Stanforda, którzy specjalizują się w tworzeniu egzoszkieletów.
      Badania kanadyjsko-amerykańskiego zespołu przyniosły bardzo interesujące wyniki. Okazało się, że system nerwowy, ucząc się wzorców koordynacji nowych ruchów, najpierw rozważa i sprawdza wiele różnych wzorców. Stwierdzono to, mierząc zmienność zarówno samego ruchu ciała jako takiego, jak i ruchów poszczególnych mięśni i stawów. W miarę, jak układ nerwowy adaptuje się do nowego ruchu, udoskonala go, a jednocześnie zmniejsza zmienność. Naukowcy zauważyli, że gdy już nasz organizm nauczy się nowego sposobu poruszania się, wydatek energetyczny na ten ruch spada aż o 25%.
      Z analiz wynika również, że organizm odnosi korzyści zarówno z analizy dużej liczby możliwych wzorców ruchu, jak i ze zmniejszania z czasem liczby analizowanych wzorców. Zawężanie poszukiwań do najbardziej efektywnych wzorców pozwala bowiem na zaoszczędzenie energii.
      Zrozumienie, w jaki sposób mózg szuka najlepszych sposobów poruszania ciałem jest niezwykle ważne zarówno dla ultramaratończyka, przygotowującego się do biegu w trudnym terenie, jak i dla pacjenta w trakcie rehabilitacji po uszkodzeniu rdzenia kręgowego czy wylewu. Na przykład trener, który będzie wiedział, w którym momencie organizm jego podopiecznego zaadaptował się do nowego programu treningowego, będzie wiedział, kiedy można wdrożyć kolejne nowe elementy. A twórcy egzoszkieletów pomagających w rehabilitacji dowiedzą się, w którym momencie można przed pacjentem postawić nowe zadania, bo dobrze opanował wcześniejsze.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...