Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Wydajność mięśni zależy m.in. od zdolności wykorzystania węglowodanów jako źródła energii. Ćwiczenia wpływają na nią korzystnie, a otyłość czy przewlekłe choroby wręcz przeciwnie. Naukowcy z Sanford-Burnham Medical Research Institute odkryli mechanizm, dzięki któremu można u myszy przeprogramować geny metaboliczne mięśni, wpływając na ich umiejętność zużywania cukrów. Niewykluczone, że w ten sposób będzie się w przyszłości zapobiegać bądź leczyć cukrzycę, zespół metaboliczny i otyłość.

Zasadniczo te transgeniczne myszy są w stanie magazynować węglowodany i spalać je w stopniu występującym tylko u wytrenowanych sportowców - wyjaśnia dr Daniel P. Kelly.

Mięśnie wyhodowanych przez Amerykanów myszy wytwarzają białko PPARβ/δ. Jest ono receptorem jądrowym, a więc czynnikiem transkrypcyjnym, który przez przyłączanie ligandów reguluje ekspresję genów metabolicznych mięśni w odpowiedzi na bodźce zewnętrzne.

Wcześniejsze badania pokazały, że gryzonie z wyższym poziomem PPARβ/δ w mięśniach cechuje większa wydolność wysiłkowa. Jak napisali w artykule opublikowanym na łamach Genes & Development członkowie zespołu Kelly'ego, mięśnie zwierząt z grupy PPARβ/δ przewyższają mięśnie zwykłych zwierząt pod względem zdolności wychwytywania cukru z krwiobiegu, a także magazynowania go i wykorzystywania w formie energii. Myszy PPARβ/δ są supersprawne. W porównaniu do przeciętnych gryzoni, biegną dłużej i szybciej, a w ich mięśniach powstaje mniej kwasu mlekowego.

Główną rolę w mechanizmie odkrytym przez ekipę z Sanford-Burnham Medical Research Institute odgrywają kompleksy tworzone przez 3 białka: 1) PPARβ/δ, 2) AMPK (kinazę aktywowaną 5'AMP) oraz 3) czynnik transkrypcyjny MEF2A, który pomaga w aktywowaniu miocytospecyficznych genów. Wspólnie białka włączają ekspresję genu kodującego dehydrogenazę mleczanową - enzym kierujący cukropochodne metabolity do mitochondriów, gdzie możliwe jest całkowite spalanie "surowca".

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Szybką i bezbłędną klasyfikację białek, wykrywanie w nich miejsc wiążących potencjalne leki, identyfikowanie białek występujących na powierzchni wirusów, a także badania np. RNA, umożliwia nowe narzędzie bioinformatyczne opracowane przez naukowców z Wydziału Biologii UW.
      BioS2Net, czyli Biological Sequence and Structure Network, jest zaawansowanym algorytmem wykorzystującym uczenie maszynowe, pozwalającym na klasyfikację nowo poznanych białek nie tylko na podstawie podobieństwa sekwencji aminokwasowych, ale także ich struktury przestrzennej. Publikacja na jego temat ukazała się na łamach pisma International Journal of Molecular Sciences.
      Narzędzie opracował zespół kierowany przez dr. Takao Ishikawę z Zakładu Biologii Molekularnej Wydziału Biologii UW we współpracy z naukowcem z Wydziału Matematyki, Informatyki i Mechaniki UW. Jak mówią sami autorzy, jego głównym zastosowaniem jest usprawniona klasyfikacja białek, ponieważ obecnie stosowany system klasyfikacji strukturalnej opiera się na żmudnej pracy polegającej na porównywaniu struktur nowych białek do tych już skategoryzowanych.
      Istnieje co prawda jego zautomatyzowany odpowiednik, jednak jest on bardzo restrykcyjny i bierze pod uwagę wyłącznie podobieństwo sekwencji białek, całkowicie pomijając ich strukturę. Takie narzędzie jak BioS2Net potencjalnie ma szansę znacząco usprawnić cały proces – wyjaśnia dr Ishikawa. Dodatkowo opracowana przez nas architektura może zostać użyta (po niewielkich przeróbkach) do innych zadań, niekoniecznie związanych z klasyfikacją. Przykładowo można by jej użyć do wykrywania w białku miejsc wiążących potencjalne leki lub do identyfikacji białek występujących na powierzchni wirusów.
      Można sobie np. wyobrazić sytuację, w której dotychczas zaklasyfikowane do innych grup białka, dzięki zastosowaniu BioS2Net zostaną skategoryzowane jako bardzo podobne do siebie pod względem budowy powierzchni, mimo innego zwinięcia łańcucha białkowego wewnątrz struktury. I wówczas niewykluczone, że cząsteczka oddziałująca z jednym białkiem (np. jako lek) okaże się także skutecznym interaktorem dla drugiego – wymienia dalsze potencjalne zastosowania praktyczne narzędzia dr Ishikawa. Innym ciekawym zastosowaniem mogłoby być np. wykrywanie miejsc wiążących w białkach, które mogą stanowić albo cel dla leków, albo punkt interakcji z białkiem wirusowym.
      Działanie BioS2Net opiera się na wykonywanych po sobie operacjach matematycznych, które bazują na danych o konkretnym białku. Do pracy narzędzie potrzebuje tychże danych (im więcej, tym lepiej), odpowiedniego oprogramowania zdolnego do wykonywania skomplikowanych obliczeń związanych z treningiem sieci neuronowej oraz sporej ilości czasu.
      W efekcie BioS2Net tworzy unikatową reprezentację każdego białka w postaci wektora o stałym rozmiarze. Można to porównać do czegoś w rodzaju kodu kreskowego opisującego każde z poznanych białek – tłumaczy dr Ishikawa. Narzędzie świetnie nadaje się do klasyfikacji białek na podstawie sekwencji aminokwasowej oraz struktury przestrzennej. Szczególnie istotne jest to, że można dzięki niemu wykryć białka o podobnej strukturze trójwymiarowej, ale o odmiennym „foldzie”, czyli innym sposobie zwinięcia łańcucha białkowego.
      Dotychczas stosowane metody przydzielałyby takie białka do osobnych grup. Tymczasem znane są przypadki, gdy tego typu cząsteczki pełnią podobne funkcje. I do wykrywania takich grup białek może się przydać BioS2Net – dodaje.
      Jak mówi naukowiec, nowe białka odkrywa się cały czas. Zdecydowana większość z nich, jeśli już ma opisaną strukturę przestrzenną, jest deponowana w bazie danych Protein Data Bank, do której każdy ma dostęp przez Internet. Warto jednak zwrócić uwagę, że proces odkrywania nowych białek rozpoczyna się o wiele wcześniej, już na etapie sekwencjonowania genomu. W bazach danych genomów często można spotkać się z adnotacją ’hypothetical protein’ (pol. hipotetyczne białko). Istnieją algorytmy komputerowe, które na podstawie sekwencji nukleotydowych w zsekwencjonowanym genomie przewidują obszary przypominające geny, które potencjalnie kodują informację o białkach. I takich potencjalnych białek znamy bardzo wiele. Ich funkcje można częściowo przewidzieć na podstawie podobieństwa do cząsteczek już wcześniej opisanych, ale do pełnego poznania takiej roli i mechanizmu działania często jednak należy najpierw ustalić ich strukturę, co wymaga miesięcy lub lat eksperymentów – opowiada badacz z UW.
      W przypadku białek podobna sekwencja aminokwasów z reguły przekłada się na podobną strukturę. Do niedawna był to wręcz dogmat w biologii strukturalnej. Dzisiaj jednak wiadomo – mówi dr Ishikawa – że wiele białek jest inherentnie nieustrukturyzowanych (IDP; ang. intrinsically disordered protein) albo przynajmniej zwiera w sobie tego typu rejony. Takie białka mogą przyjmować różne struktury w zależności od tego z jakimi innymi białkami w danym momencie oddziałują.
      Dodatkowo bardzo istotny jest cały kontekst, w jakim białko ulega pofałdowaniu. Przykładowo, obecność tzw. białek opiekuńczych, czy nawet samo tempo syntetyzowania białka w komórce, może mieć niemały wpływ na ostateczny jego kształt, a zatem też na funkcje. Nie zmienia to jednak faktu, że cechą fundamentalną każdego białka jest jego sekwencja aminokwasowa – podkreśla.
      A dlaczego w ogóle poznanie dokładnej budowy cząsteczki białka jest takie ważne? Autor publikacji wyjaśnia, że białka, realizując swoje zadania w komórce, zawsze przyjmują określoną strukturę. Np. jeśli chcemy zaprojektować nowy lek, który będzie oddziaływał z określonym białkiem, to fundamentalne znaczenie ma określenie struktury tego drugiego. W trakcie pandemii SARS-CoV-2 trzeba było np. określić strukturę wirusowego białka S (tzw. kolca) m.in. po to, aby można było zaproponować cząsteczkę swoiście z nim oddziałującą, a przez to zmniejszyć wydajność zakażania komórek człowieka – mówi. Podsumowując: badanie struktury białek ma ogromne znaczenie dla poznania ich funkcji i mechanizmu działania, a także innych cząsteczek z nimi oddziałujących.
      Jeśli chodzi o sam BioS2Net, to najpierw należy ściągnąć z bazy danych i przetworzyć informacje o danym białku. Przetwarzanie służy temu, aby wszystkie cechy białka, takie jak współrzędne atomów, rodzaje aminokwasów, profil ewolucyjny itd., zamienić na liczby, które będą zrozumiałe dla komputera. Każdy pojedynczy atom cząsteczki jest opisywany przez kilkadziesiąt liczb, które wyrażają wspomniane cechy.
      Następnie liczby te wprowadza się do sieci neuronowej, która analizuje każdy z atomów oraz ich najbliższych sąsiadów, biorąc pod uwagę zarówno ich ułożenie przestrzenne, jak i sekwencyjne. Kolejny etap to łączenie grup atomów w jeden „superatom”, który zawiera w sobie całą wyuczoną lokalną informację. Proces ten powtarza się do momentu aż ów „superatom” będzie zawierał zagregowane informacje o całym białku. To jest nasz kod kreskowy, który wykorzystujemy potem do klasyfikacji białka, używając standardowych sieci neuronowych – zaznacza dr Ishikawa.
      Zapytany o dokładność nowego narzędzia biolog wyjaśnia, że jeśli chodzi o wytworzenie unikatowego wektora reprezentującego poszczególne białka, to BioS2Net robi to bezbłędnie, tzn. że każde białko jest reprezentowane w jedyny możliwy sposób i żadna inna cząsteczka nie będzie opisana w taki sam sposób.
      Natomiast, gdy zastosowaliśmy BioS2Net do klasyfikacji białek, osiągnęliśmy wynik nawet 95,4 proc. trafności w porównaniu do obowiązującej klasyfikacji wg bazy danych. Oznacza to, że w ponad 95 przypadków na 100 BioS2Net był w stanie prawidłowo przyporządkować białko do danej grupy. Tutaj jednak warto wspomnieć, że ta obowiązująca klasyfikacja opiera się na podobieństwie sekwencji aminokwasowych i pomija informacje strukturalne – tłumaczy autor publikacji.
      Naukowcy podkreślają, że poza głównym zastosowaniem, czyli klasyfikacją białek, BioS2Net będzie mógł służyć także do analizowania innych cząsteczek biologicznych, w tym RNA. Uważamy, że narzędzie można by też wykorzystywać do klasyfikacji zupełnie innych danych biologicznych, np. map chromosomów w jądrze komórkowym. Właściwie to nasza architektura może być przydatna wszędzie tam, gdzie jest zdefiniowana struktura i sekwencja – mówią.
      Dr Ishikawa dodaje, że BioS2Net powstał w ramach pracy licencjackiej pierwszego autora (jego Alberta Roethla) wykonanej pod kierunkiem. Warto to podkreślić, bo to ważny sygnał, że licencjat niekoniecznie jest pracą dyplomową, którą po prostu trzeba zrobić, ale czymś, co ma potencjał naukowy i może zostać opublikowane w międzynarodowym czasopiśmie – zaznacza naukowiec.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W X wieku Arabowie wprowadzili do Europy cukier trzcinowy, a być może również uprawiali trzcinę cukrową na Sycylii. Pojawienie się cukru miało olbrzymi wpływ na kuchnię oraz zdrowie mieszkańców Europy, szczególnie na stan ich uzębienia. O ile początkowo na podbitych przez muzułmanów obszarach Półwyspu Iberyjskiego cukier spożywała głównie elita, to już za czasów dynastii Nasrydów (1230–1493) w emiracie Granady cukier był dość szeroko rozpowszechniony.
      Naukowcy z Uniwersytetów w Granadzie i Bernie postanowili sprawdzić, jaki wpływ na mieszkańców państwa Nasrydów miało rozpowszechnienie się cukru. Uczeni zbadali zęby dzieci i młodzieży, poddanych Nasrydów, z dwóch stanowisk archeologicznych, La Torrecilla i Talará. Porównali je z reprezentatywną próbką równie młodych mieszkańców Półwyspu Iberyjskiego, którzy żyli w okresie od epoki brązu po średniowiecze i nie mieli dostępu do cukru. W sumie przebadano 770 zębów pochodzących od 115 osób, które podzielono na trzy grupy. W pierwszej z nich (grupie A) znalazły się dzieci poniżej 2. roku życia, w drugiej (B) dzieci i młodzież posiadający wyłącznie zęby mleczne, w trzeciej (C) zaś – dzieci i młodzież z zębami stałymi i mlecznymi.
      Badania wykazały, że pod rządami Nasrydów próchnica była częstym problemem wśród młodych ludzi. W próbce porównawczej, osób nie mających dostępu do cukru, zdarzała się ona rzadko. Spostrzeżenia te zgadzają się ze źródłami pisanymi z epoki, mówiącymi o używaniu cukru w diecie oraz jako środka uspokajającego, ułatwiającego odstawienie dziecka od piersi. Zauważone różnice w częstotliwości występowania próchnicy wśród poddanych Nasrydów – częściej próchnica atakowała w Talará – mają prawdopodobnie związek ze statusem społeczno-ekonomicznym obu populacji.
      Zanim Arabowie rozpoczęli podbój Półwyspu Iberyjskiego, zajęli wyspy na Morzu Śródziemnym. Zdobyli m.in. Kretę i Sycylię. W X wieku Ibn Hawqal informuje, że na mokradłach w pobliżu Palermo uprawiana jest trzcina cukrowa. Dysponujemy też relacją z XII wieku, w której Abu Abd Allah Muhammad al-Idrisi opisuje miasta na Cyprze, wspomina o tamtejszych targach i sprzedawanych na nich cukrze. Nic jednak nie mówi o uprawach trzciny cukrowej na Sycylii, na której przez jakiś czas mieszkał. Z kolei gdy w 1291 roku padła Akka, krzyżowcy, kupcy, zakonnicy i rzemieślnicy przenieśli się na Cypr, gdzie – korzystając ze swoich doświadczeń z uprawą trzciny cukrowej w Palestynie – również uprawiali cukier. Specjalizowali się w tym szczególnie rządzący Cyprem Luzynianowie, kupcy weneccy oraz joannici.
      Pierwsze uprawy trzciny cukrowej na Półwyspie Iberyjskim pojawiły się w X wieku. Zostały założone pomiędzy miejscowościami Velez-Malaga a Almerią oraz w dolnym biegu Gwadalkiwiru, na południe od Sewilli. Był to jednak produkt egzotyczny i przed nastaniem Nasrydów, uprawy prowadzone były na małą skalę. Zresztą te w okolicach Gwadalkiwiru długo się nie utrzymały. Po rekonkwiście duże uprawy trzciny cukrowej istniały pomiędzy XIV a XVII wiekiem w Walencji. Jeszcze w 2017 roku produkcja trzciny cukrowej w Hiszpanii wyniosła 1100 ton. Roślina ta uprawiana jest więc na terenie dzisiejszej Hiszpanii od ponad 1000 lat. I od ponad 1000 lat wpływa ona na stan uzębienia mieszkańców.
      Przeprowadzone badania wyraźnie pokazują, jak zgubny dla zębów jest cukier. Na przykład na stanowiskach kultury El Argar z epoki brązu zidentyfikowano tylko 3 przypadki próchnicy (1,1%), a na średniowiecznym stanowisku Tejuela były to 2 przypadki (1,5%). Tamtejsze społeczności miały jedynie dostęp do miodu, który co prawda zawiera dużo cukrów, ale w jego skład wchodzą też substancje zwalczające bakterie wywołujące próchnicę. Tymczasem odsetek próchnicy w królestwie Nasrydów był wyraźnie wyższy i wynosił on 10,9% w La Torrecilla i 27,2% w Talará. Naukowcy przyjrzeli się też – pochodzącym z innych badań – danym nt. społeczności z Anglii i Italii, które żyły od czasów rzymskich po średniowiecze i również nie miały dostępu do cukru. Odsetek próchnicy wynosił tam od 0 do 7 procent.
      Podobnie jak współcześnie, próchnica atakowała najczęściej zęby trzonowe. Częściej też obserwowano ją w grupie wiekowej C niż B, co ma związek z dłuższą ekspozycją starszej grupy na działanie bakterii wywołujących próchnicę. U dzieci poniżej 2. roku życia (grupa A) znaleziono tylko 1 przypadek próchnicy. Nie może to dziwić, gdyż były one najkrócej wystawione na działanie cukru, ponadto przez większą część życia były karmione piersią.
      Dostępne dane na temat rozpowszechnienia próchnicy w badanej populacji muzułmańskiej wskazują, że jej dieta bardzo sprzyjała rozwojowi próchnicy, szczególnie w Talará. Dzieci nie tylko jadły słodycze, ale prawdopodobnie cukier był używany do uspokajania najmłodszych. Al-Jatib [żyjący w XIV-wiecznej Granadzie autor Kitāb al-Wusūl – red.], zaleca by około 2-letnim dzieciom w okresie odstawiania ich od piersi podawać kulki z chleba wypełnione cukrem. Dzieciom dawano też do ssania trzcinę cukrową. [...] Próchnica częściej trapiła mieszkańców Talará niż La Torrecilla, co można wytłumaczyć tym, iż w Talará żyła bogatsza społeczność, która mogła sobie pozwolić na kupno cukru. Ponadto Talará znajdowała się bliżej plantacji trzciny cukrowej, przy drodze, którą cukier docierał do Granady. Łatwiej więc tam było o dostęp do świeżej trzciny, którą mogły ssać dzieci – czytamy w podsumowaniu badań.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Można ocalić życie setek tysięcy ludzi, a liczbę zachorowań zmniejszyć o kilka milionów, zmniejszając ilość cukru w sprzedawanej żywności – czytamy na łamach pisma Circulation. Jeśli zmniejszymy ilość cukru o 20% w pakowanej żywności i o 40% w napojach, to w ciągu życia jednego dorosłego pokolenia w USA liczba takich zdarzeń jak ataki serca czy udary zmniejszy się o 2,48 miliona przypadków. Jednak to nie wszystko.
      Naukowcy z Massachusetts General Hospital, Wydziału Zdrowia Nowego Jorku oraz Uniwersytetów Tufts i Harvarda donoszą, że taka redukcja cukru w żywności doprowadziłaby do zmniejszenia liczby przedwczesnych zgonów o 480 000, a liczby przypadków cukrzycy o 750 000.
      Zmniejszenie ilości cukru w dostępnej w sklepach gotowej żywności i napojach miałoby większy pozytywny wpływ na zdrowie Amerykanów, niż inne propozycje zwalczające nadmierne spożycie cukru, jak nałożenie większych podatków, obowiązek oznaczania ilości cukru czy zakaz słodzonych napojów w szkołach, mówi główny autor badań Siyi Shangguan.
      Naukowcy badali, jaki wpływ na zdrowie Amerykanów miałoby wdrożenie projektu ograniczenia spożycia cukru, zaproponowane przez organizację o nazwie US National Salt and Sugar Reduction Initiative (NSSRI). To koalicja ponad 100 lokalnych, stanowych i ogólnokrajowych organizacji zajmujących się promowaniem zdrowego trybu życia. W 2018 roku NSSRI zarysowała wstępny projekt zmniejszenia ilości cukru w 15 kategoriach żywności i napojów, a przed kilkoma miesiącami zaproponowała szczegółowy plan zakładający, że przemysł dobrowolnie zacznie zmieniać receptury produkowanej żywności.
      Teraz naukowcy stworzyli model, za pomocą którego zbadali, jaki wpływ miałoby wdrożenie planu NSSRI. Z oblićżeń wynika, że dziesięć lat po wdrożeniu planu Amerykanie zaoszczędziliby 4,28 miliarda dolarów na kosztach leczenia, a za życia obecnej dorosłej populacji (w wieku 35–79 lat) oszczędności te sięgnęłyby 118,04 miliarda USD. Dodając do tego zmniejszenie kosztów spadku produktywności osób chorujących z powodu nadmiernej konsumpcji cukru, całkowite oszczędności sięgnęłyby kwoty 160,88 miliarda USD. Autorzy wyliczeń podkreślają, że rzeczywiste oszczędności byłyby prawdopodobnie znacznie większe, gdyż przyjęto bardzo ostrożne założenia. Co więcej, nawet gdyby przemysł wdrożył tylko część rozwiązań proponowanych rzez NSSRI, można by osiągnąć znaczące oszczędności.
      Badacze zauważyli też, że pierwsze pozytywne skutki ekonomiczne pojawiłyby się w 6. roku od wdrożenia propozycji NSSRI, a koszty wdrożenia zaczęłyby się zwracać w 9. roku od wdrożenia.
      Zmniejszenie ilości cukru miałoby też pozytywny wpływ na inne szkodliwe dla zdrowia składniki. Zmiana sposobu produkcji żywności i jej składu spowodowałaby też bowiem zmniejszenie ilości tłuszczów trans i sodu. Propozycje NSSRI to najbardziej na świecie przemyślany i całościowy, a jednocześnie możliwy do osiągnięcia, projekt zmiany składu żywności, mówi Shangguan.
      Cukier jest dodawany do olbrzymiej liczby produktów spożywczych. Występuje tam, gdzie nigdy byśmy się go nie spodziewali. Nadmierne jego spożycie jest związane z występowaniem zarówno cukrzycy, jak i chorób układu krążenia. Problemem jest też ogólnoświatowa epidemia otyłości. W Polsce nadwagę ma aż 60% osób. Tymczasem aż 25% Polaków jada fast-foody kilka razy w miesiącu, a 33% pije słodzone napoje co najmniej kilka razy w tygodniu. Cukrzycę ma około 3 milionów dorosłych Polaków, a choroby układu krążenia są w Polsce główną przyczyną śmierci. Każdego roku umiera z ich powodu około 180 000 osób w naszym kraju, co stanowi ponad 40% wszystkich zgonów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W łódzkim Bionanoparku powstanie laboratorium firmy NapiFeryn Bio Tech. Będzie w nim produkowane białko z rzepaku, które może zrewolucjonizować i rynek spożywczy, i naszą dietę. W działającej już prototypowej linii produkcyjnej powstaje tygodniowo kilka kilogramów izolatu białkowego (>90% białka) i koncentratu białkowo-błonnikowego (ok. 30% białka). Oba te produkty mogą być stosowane jako dodatki do słodyczy, makaronów, sosów, napojów, pieczywa czy wegańskich zamienników mięsa.
      Rzepak, w odróżnieniu od soi, uprawiany jest lokalnie – nie trzeba go importować ani zwiększać jego upraw, ponieważ w procesie pozyskiwania białka wykorzystuje się pozostałości po tłoczeniu oleju rzepakowego. Jest to alternatywne rozwiązanie dla białka zwierzęcego, przyjazne naturze – zostawia znacznie mniejszy ślad węglowy, stwierdziła Magdalena Kozłowska, prezes NapiFeryn BioTech. Białko z rzepaku ma doskonałe wartości odżywcze. Jest łatwo trawione i przyswajalne przez ludzki organizm.
      Dotychczasową przeszkodą w stosowaniu go w przemyśle spożywczym był jego charakterystyczny, gorzki posmak. Technologia opatentowana przez nas całkowicie ten problem usuwa. Nasze białko jest nie tylko zdrowe, ale też smaczne, mówi Piotr Wnukowski, wiceprezes firmy.
      Co prawda produkt jest testowany też przez firmę w eksperymentalnej kuchni, jednak NapiFeryn BioTech nie chce produkować żywności, ale licencjonować swój produkt koncernom spożywczym. Produkty zawierające białko rzepakowe mogą trafić do sklepów już w ciągu 2-3 lat.
      Izolat z białka z rzepaku został uznany za produkt bezpieczny i jest dopuszczony przez UE do stosowania w przemyśle spożywczym.Obecnie firma przygotowuje się do zarejestrowania koncentratu błonnikowo-białkowego.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Uczeni z Uniwersytetów w Aberdeen i Leicester zidentyfikowali w mózgu obszar, który napędza zapotrzebowanie na pożywienie bogate w białko. Odkrycie może mieć znaczenie dla rozwoju personalizowanych terapii otyłości. Nie od dzisiaj bowiem wiadomo, że dieta niskobiałkowa jest powiązana z otyłością.
      Naukowcy zauważyli, że gdy szczury trzymano na diecie niskobiałkowej, doszło do większej aktywizacji pola brzusznego nakrywki (VTA), czyli jądra limbicznego śródmózgowia, obszaru odpowiedzialnego za aktywne poszukiwanie jedzenia.
      Z badań wynika, że gdy wcześniej ograniczy się dostarczanie protein, VTA staje się bardziej wrażliwe na proteiny niż na inne składniki odżywcze. To zaś sugeruje, że mózgi zwierząt działają tak, by upewnić się, że dostawy białka zostaną utrzymane na odpowiednim poziomie. Taka adaptacja jest zrozumiała, gdyż niedobór białka może mieć katastrofalne skutki zdrowotne. Ponadto wcześniejsze badania wiązały niski poziom białek z otyłością. Nie wiadomo było jednak, jak na zjawisko to wpływa mózg.
      Współautor badań doktor Fabien Naneix mówi: Odkryliśmy, że zmniejszenie podaży białka zwiększyło preferencje ku żywności, w której jest więcej białka niż węglowodanów. Ta preferencja ku białkom jest powiązana z większą odpowiedzią VTA i gdy zwierzęta przestawia się z normalnej zbilansowanej diety na dietę niskobiałkową, dochodzi do indukowania preferencji ku białkom, jednak zmiany w VTA wymagają intensywnego procesu uczenia się.
      Nasze badania są pierwszymi, łączącymi preferencje ku białkom ze specyficzną aktywnością mózgu. Wiemy,że VTA odgrywa kluczową rolę w procesach pobierania innych składników odżywczych. Teraz wykazaliśmy, że dotyczy to również białek.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...