Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Nasz język wykazuje powinowactwo do tłuszczu, co umożliwia jego wykrywanie. Osoby z różnymi wariantami genu CD36 wykazują różną wrażliwość na "tłusty" smak (Journal of Lipid Research).

Ostatecznym celem jest zrozumienie, jak nasze postrzeganie tłuszczu w pokarmach może wpłynąć na to, jakie produkty/dania wybieramy i w jakich ilościach je spożywamy. W ramach omawianego studium odkryliśmy, że jedną z potencjalnych przyczyn zmienności osobniczej jest to, jak ludzie wyczuwają tłuszcz. Jak wykazano ostatnio, może być tak, że konsumując więcej tłuszczu, stajemy się na niego mniej wrażliwi i by osiągnąć satysfakcję, musimy zwiększać konsumpcję - opowiada dr Nada A. Abumrad ze Szkoły Medycznej Uniwersytetu Waszyngtona w St. Louis.

Amerykanie ustalili, że osoby, które wytwarzają więcej odpowiadającego za wychwyt kwasów tłuszczowych białka CD36, łatwo wyczuwają obecność tłuszczu. Okazało się, że badani produkujący najwięcej CD36 byli 8-krotnie bardziej wrażliwi, jeśli chodzi o wykrywanie tłuszczu niż osoby produkujące go o połowę mniej.

W studium wzięło udział 21 ludzi ze wskaźnikiem masy ciała wynoszącym 30 lub więcej. Poproszono ich o spróbowanie roztworów z 3 kubków. Jeden zawierał niewielką ilość oleju. Pozostałe napełniono substancjami przypominającymi konsystencją olej, które w rzeczywistości nim nie były. Zadanie polegało na wytypowaniu zawartości różniącej się od reszty.

Z każdym z ochotników wielokrotnie przeprowadzaliśmy ten sam 3-kubkowy test, by określić próg, przy którym identyfikuje tłuszcz w roztworze - wyjaśnia dr M. Yanina Pepino. By wyeliminować wskazówki wzrokowe i zapachowe, eksperyment przebiegał przy czerwonym świetle, a badani mieli na nosie klamerkę.

Wcześniej naukowcy sądzili, że ludzie rozpoznają tłuszcz dzięki konsystencji, ale wyniki studium zespołu z Uniwersytetu Waszyngtona sugerują, że tłuszcz wpływa na język tak samo, jak substancje odpowiadające za smaki.

Badania nad funkcją CD36 u ludzi poprzedziły eksperymenty na zwierzętach. Wykazały one, że gdy wyhodowano zwierzęta pozbawione działającego CD36, nie preferowały one tłustych pokarmów. Brak białka sprawiał też, że miały problemy z trawieniem tłuszczów. Uważa się, że do 20% ludzi dysponuje wariantem genu CD36 warunkującym wytwarzanie mniejszych ilości białka CD36.

U zwierząt dieta oddziałuje na ilość produkowanego CD36. Jeśli u ludzi byłoby tak samo, wysokotłuszczowa dieta mogłaby prowadzić do ograniczenia produkcji CD36 i spadku wrażliwości na tłuszcz - wyjaśnia Pepino. Ilość powstającego w organizmie CD36 zależy zatem zarówno od genów, jak i od diety.

Podczas testów Pepino i Abumrad podawały ludziom wolne kwasy tłuszczowe i trójglicerydy. Podczas badań na zwierzętach ustalono, że białko CD36 jest aktywowane przez kwasy tłuszczowe, ale nie przez trójglicerydy, jednak ludzie wyczuwali smak i tych, i tych. Pepino sądzi, że przyczyną jest działalność enzymu śliny lipazy, który rozkłada trójglicerydy, uwalniając kwasy tłuszczowe w momencie, gdy pokarm pozostaje jeszcze w ustach. Gdy badanym podano orlistat, lek blokujący enzymy trawienne należące do lipaz, nadal mogli oni wyczuwać kwasy tłuszczowe, ale utrudniało to detekcję trójglicerydów.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Szybką i bezbłędną klasyfikację białek, wykrywanie w nich miejsc wiążących potencjalne leki, identyfikowanie białek występujących na powierzchni wirusów, a także badania np. RNA, umożliwia nowe narzędzie bioinformatyczne opracowane przez naukowców z Wydziału Biologii UW.
      BioS2Net, czyli Biological Sequence and Structure Network, jest zaawansowanym algorytmem wykorzystującym uczenie maszynowe, pozwalającym na klasyfikację nowo poznanych białek nie tylko na podstawie podobieństwa sekwencji aminokwasowych, ale także ich struktury przestrzennej. Publikacja na jego temat ukazała się na łamach pisma International Journal of Molecular Sciences.
      Narzędzie opracował zespół kierowany przez dr. Takao Ishikawę z Zakładu Biologii Molekularnej Wydziału Biologii UW we współpracy z naukowcem z Wydziału Matematyki, Informatyki i Mechaniki UW. Jak mówią sami autorzy, jego głównym zastosowaniem jest usprawniona klasyfikacja białek, ponieważ obecnie stosowany system klasyfikacji strukturalnej opiera się na żmudnej pracy polegającej na porównywaniu struktur nowych białek do tych już skategoryzowanych.
      Istnieje co prawda jego zautomatyzowany odpowiednik, jednak jest on bardzo restrykcyjny i bierze pod uwagę wyłącznie podobieństwo sekwencji białek, całkowicie pomijając ich strukturę. Takie narzędzie jak BioS2Net potencjalnie ma szansę znacząco usprawnić cały proces – wyjaśnia dr Ishikawa. Dodatkowo opracowana przez nas architektura może zostać użyta (po niewielkich przeróbkach) do innych zadań, niekoniecznie związanych z klasyfikacją. Przykładowo można by jej użyć do wykrywania w białku miejsc wiążących potencjalne leki lub do identyfikacji białek występujących na powierzchni wirusów.
      Można sobie np. wyobrazić sytuację, w której dotychczas zaklasyfikowane do innych grup białka, dzięki zastosowaniu BioS2Net zostaną skategoryzowane jako bardzo podobne do siebie pod względem budowy powierzchni, mimo innego zwinięcia łańcucha białkowego wewnątrz struktury. I wówczas niewykluczone, że cząsteczka oddziałująca z jednym białkiem (np. jako lek) okaże się także skutecznym interaktorem dla drugiego – wymienia dalsze potencjalne zastosowania praktyczne narzędzia dr Ishikawa. Innym ciekawym zastosowaniem mogłoby być np. wykrywanie miejsc wiążących w białkach, które mogą stanowić albo cel dla leków, albo punkt interakcji z białkiem wirusowym.
      Działanie BioS2Net opiera się na wykonywanych po sobie operacjach matematycznych, które bazują na danych o konkretnym białku. Do pracy narzędzie potrzebuje tychże danych (im więcej, tym lepiej), odpowiedniego oprogramowania zdolnego do wykonywania skomplikowanych obliczeń związanych z treningiem sieci neuronowej oraz sporej ilości czasu.
      W efekcie BioS2Net tworzy unikatową reprezentację każdego białka w postaci wektora o stałym rozmiarze. Można to porównać do czegoś w rodzaju kodu kreskowego opisującego każde z poznanych białek – tłumaczy dr Ishikawa. Narzędzie świetnie nadaje się do klasyfikacji białek na podstawie sekwencji aminokwasowej oraz struktury przestrzennej. Szczególnie istotne jest to, że można dzięki niemu wykryć białka o podobnej strukturze trójwymiarowej, ale o odmiennym „foldzie”, czyli innym sposobie zwinięcia łańcucha białkowego.
      Dotychczas stosowane metody przydzielałyby takie białka do osobnych grup. Tymczasem znane są przypadki, gdy tego typu cząsteczki pełnią podobne funkcje. I do wykrywania takich grup białek może się przydać BioS2Net – dodaje.
      Jak mówi naukowiec, nowe białka odkrywa się cały czas. Zdecydowana większość z nich, jeśli już ma opisaną strukturę przestrzenną, jest deponowana w bazie danych Protein Data Bank, do której każdy ma dostęp przez Internet. Warto jednak zwrócić uwagę, że proces odkrywania nowych białek rozpoczyna się o wiele wcześniej, już na etapie sekwencjonowania genomu. W bazach danych genomów często można spotkać się z adnotacją ’hypothetical protein’ (pol. hipotetyczne białko). Istnieją algorytmy komputerowe, które na podstawie sekwencji nukleotydowych w zsekwencjonowanym genomie przewidują obszary przypominające geny, które potencjalnie kodują informację o białkach. I takich potencjalnych białek znamy bardzo wiele. Ich funkcje można częściowo przewidzieć na podstawie podobieństwa do cząsteczek już wcześniej opisanych, ale do pełnego poznania takiej roli i mechanizmu działania często jednak należy najpierw ustalić ich strukturę, co wymaga miesięcy lub lat eksperymentów – opowiada badacz z UW.
      W przypadku białek podobna sekwencja aminokwasów z reguły przekłada się na podobną strukturę. Do niedawna był to wręcz dogmat w biologii strukturalnej. Dzisiaj jednak wiadomo – mówi dr Ishikawa – że wiele białek jest inherentnie nieustrukturyzowanych (IDP; ang. intrinsically disordered protein) albo przynajmniej zwiera w sobie tego typu rejony. Takie białka mogą przyjmować różne struktury w zależności od tego z jakimi innymi białkami w danym momencie oddziałują.
      Dodatkowo bardzo istotny jest cały kontekst, w jakim białko ulega pofałdowaniu. Przykładowo, obecność tzw. białek opiekuńczych, czy nawet samo tempo syntetyzowania białka w komórce, może mieć niemały wpływ na ostateczny jego kształt, a zatem też na funkcje. Nie zmienia to jednak faktu, że cechą fundamentalną każdego białka jest jego sekwencja aminokwasowa – podkreśla.
      A dlaczego w ogóle poznanie dokładnej budowy cząsteczki białka jest takie ważne? Autor publikacji wyjaśnia, że białka, realizując swoje zadania w komórce, zawsze przyjmują określoną strukturę. Np. jeśli chcemy zaprojektować nowy lek, który będzie oddziaływał z określonym białkiem, to fundamentalne znaczenie ma określenie struktury tego drugiego. W trakcie pandemii SARS-CoV-2 trzeba było np. określić strukturę wirusowego białka S (tzw. kolca) m.in. po to, aby można było zaproponować cząsteczkę swoiście z nim oddziałującą, a przez to zmniejszyć wydajność zakażania komórek człowieka – mówi. Podsumowując: badanie struktury białek ma ogromne znaczenie dla poznania ich funkcji i mechanizmu działania, a także innych cząsteczek z nimi oddziałujących.
      Jeśli chodzi o sam BioS2Net, to najpierw należy ściągnąć z bazy danych i przetworzyć informacje o danym białku. Przetwarzanie służy temu, aby wszystkie cechy białka, takie jak współrzędne atomów, rodzaje aminokwasów, profil ewolucyjny itd., zamienić na liczby, które będą zrozumiałe dla komputera. Każdy pojedynczy atom cząsteczki jest opisywany przez kilkadziesiąt liczb, które wyrażają wspomniane cechy.
      Następnie liczby te wprowadza się do sieci neuronowej, która analizuje każdy z atomów oraz ich najbliższych sąsiadów, biorąc pod uwagę zarówno ich ułożenie przestrzenne, jak i sekwencyjne. Kolejny etap to łączenie grup atomów w jeden „superatom”, który zawiera w sobie całą wyuczoną lokalną informację. Proces ten powtarza się do momentu aż ów „superatom” będzie zawierał zagregowane informacje o całym białku. To jest nasz kod kreskowy, który wykorzystujemy potem do klasyfikacji białka, używając standardowych sieci neuronowych – zaznacza dr Ishikawa.
      Zapytany o dokładność nowego narzędzia biolog wyjaśnia, że jeśli chodzi o wytworzenie unikatowego wektora reprezentującego poszczególne białka, to BioS2Net robi to bezbłędnie, tzn. że każde białko jest reprezentowane w jedyny możliwy sposób i żadna inna cząsteczka nie będzie opisana w taki sam sposób.
      Natomiast, gdy zastosowaliśmy BioS2Net do klasyfikacji białek, osiągnęliśmy wynik nawet 95,4 proc. trafności w porównaniu do obowiązującej klasyfikacji wg bazy danych. Oznacza to, że w ponad 95 przypadków na 100 BioS2Net był w stanie prawidłowo przyporządkować białko do danej grupy. Tutaj jednak warto wspomnieć, że ta obowiązująca klasyfikacja opiera się na podobieństwie sekwencji aminokwasowych i pomija informacje strukturalne – tłumaczy autor publikacji.
      Naukowcy podkreślają, że poza głównym zastosowaniem, czyli klasyfikacją białek, BioS2Net będzie mógł służyć także do analizowania innych cząsteczek biologicznych, w tym RNA. Uważamy, że narzędzie można by też wykorzystywać do klasyfikacji zupełnie innych danych biologicznych, np. map chromosomów w jądrze komórkowym. Właściwie to nasza architektura może być przydatna wszędzie tam, gdzie jest zdefiniowana struktura i sekwencja – mówią.
      Dr Ishikawa dodaje, że BioS2Net powstał w ramach pracy licencjackiej pierwszego autora (jego Alberta Roethla) wykonanej pod kierunkiem. Warto to podkreślić, bo to ważny sygnał, że licencjat niekoniecznie jest pracą dyplomową, którą po prostu trzeba zrobić, ale czymś, co ma potencjał naukowy i może zostać opublikowane w międzynarodowym czasopiśmie – zaznacza naukowiec.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Jedną z najtrudniejszych umiejętności językowych jest rozumienie składni zdań złożonych. W 2019 roku naukowcy zauważyli, że istnieje korelacja pomiędzy wysokimi umiejętnościami używania narzędzi, a zdolnością do rozumienia złożonej składni. Szwedzko-francuski zespół naukowy informuje, że obie te umiejętności – sprawnego posługiwania się narzędziami oraz złożoną składnią – korzystają z tych samych zasobów neurologicznych w tym samym regionie mózgu. To jednak nie wszystko. Okazało się, że rozwijanie jednej z tych umiejętności wpływa na drugą.
      Uczeni z francuskiego Narodowego Instytutu Zdrowia i Badań Medycznych (Inserm), Narodowego Centrum Badań Naukowych (CNRS), Université Claude Bernard Lyon 1, Université Lumière Lyon 2 i Karolinska Institutet zauważyli, że trening w posługiwaniu się narzędziami poprawia zdolność rozumienia złożonych zdań. I na odwrót. Jeśli ćwiczymy rozumienie złożonych zdań, poprawiają się nasze umiejętności posługiwania się narzędziami. Odkrycie to można będzie wykorzystać podczas rehabilitacji osób, które częściowo utraciły zdolności językowe.
      Przez długi czas uważano, że używanie języka to niezwykle złożona umiejętność, która wymaga wyspecjalizowanych obszarów mózgu. Jednak w ostatnich latach pogląd ten ulega zmianie. Kolejne badania wskazują, że ośrodki kontroli niektórych funkcji językowych, na przykład odpowiadające za rozumienie słów, są też zaangażowane w kontrolowanie funkcji motorycznych. Jednak badania obrazowe nie dostarczały dowodów na istnienie związku pomiędzy używaniem języka i narzędzi. Z drugiej jednak strony badania paloneurobiologiczne wykazały, że obszary mózgu odpowiedzialne za posługiwanie się językiem rozwijały się u naszych przodków w okresach większego rozwoju technologicznego, gdy wśród naszych praszczurów rozpowszechniało się użycie narzędzi.
      Naukowcy, analizujący dostępne dane, zaczęli się zastanawiać czy jest możliwe, by używanie narzędzi, operowanie którymi wymaga wykonywania złożonych ruchów, było kontrolowane przez te same obszary mózgu co używanie funkcji językowych.
      W 2019 roku Claudio Brozzoli z Inserm i Alice C. Roy z CNRS wykazali, że osoby, które szczególnie dobrze posługują się narzędziami, zwykle też lepiej posługują się złożoną składnią zdań w języku szwedzkim. Naukowcy postanowili bliżej przyjrzeć się temu zjawisku i zaplanowali serię eksperymentów, w czasie których wykorzystano m.in. rezonans magnetyczny. Badanych proszono o wykonanie testów związanych z użyciem 30-centymetrowych szczypiec oraz zdań złożonych w języku francuskim. Dzięki temu uczeni zidentyfikowali obszary mózgu odpowiedzialne za wykonywanie każdego z tych zadań oraz wspólnych dla obu zadań.
      Jako pierwsi stwierdzili, że używanie narzędzi i złożonej składni aktywuje ten sam obszar w jądrze podstawnym w mózgu. Wówczas zaczęli zastanawiać się, czy ćwicząc jedną z tych umiejętności, można by wpływać na drugą.
      Uczestników badań poproszono więc o wypełnienie testów rozumienia złożonych zdań. Testy takie wypełniali 30 minut przed i 30 minut po ćwiczeniu ze szczypcami. Ćwiczenie to polegało na użyciu dużych szczypiec do umieszczenia niewielkich kołków w otworach odpowiadających im kształtem, ale o różnej orientacji. Przed i po takim ćwiczeniu porównywano, jak uczestnicy badań radzą sobie z rozumieniem prostszego i bardziej złożonego zdania. Okazało się, że po ćwiczeniu ze szczypcami badani lepiej radzili sobie ze zrozumieniem trudniejszych zdań. Z kolei w grupie kontrolnej, która używała dłoni do wkładania kołków w otworach, nie zauważono tego typu poprawy rozumienia zdań.
      Teraz naukowcy opracowują protokoły rehabilitacji osób, które utraciły część umiejętności językowych, ale zachowały zdolności motoryczne. Jednocześnie zauważają, że ich badania lepiej pomagają nam zrozumieć ewolucję H. sapiens. Gdy nasi przodkowie zaczęli wytwarzać i używać narzędzi, znacznie zmieniło ich to mózg i wpłynęło na zdolności poznawcze, co mogło doprowadzić do pojawienia się innych funkcji, jak zdolności językowe, stwierdzają naukowcy.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W łódzkim Bionanoparku powstanie laboratorium firmy NapiFeryn Bio Tech. Będzie w nim produkowane białko z rzepaku, które może zrewolucjonizować i rynek spożywczy, i naszą dietę. W działającej już prototypowej linii produkcyjnej powstaje tygodniowo kilka kilogramów izolatu białkowego (>90% białka) i koncentratu białkowo-błonnikowego (ok. 30% białka). Oba te produkty mogą być stosowane jako dodatki do słodyczy, makaronów, sosów, napojów, pieczywa czy wegańskich zamienników mięsa.
      Rzepak, w odróżnieniu od soi, uprawiany jest lokalnie – nie trzeba go importować ani zwiększać jego upraw, ponieważ w procesie pozyskiwania białka wykorzystuje się pozostałości po tłoczeniu oleju rzepakowego. Jest to alternatywne rozwiązanie dla białka zwierzęcego, przyjazne naturze – zostawia znacznie mniejszy ślad węglowy, stwierdziła Magdalena Kozłowska, prezes NapiFeryn BioTech. Białko z rzepaku ma doskonałe wartości odżywcze. Jest łatwo trawione i przyswajalne przez ludzki organizm.
      Dotychczasową przeszkodą w stosowaniu go w przemyśle spożywczym był jego charakterystyczny, gorzki posmak. Technologia opatentowana przez nas całkowicie ten problem usuwa. Nasze białko jest nie tylko zdrowe, ale też smaczne, mówi Piotr Wnukowski, wiceprezes firmy.
      Co prawda produkt jest testowany też przez firmę w eksperymentalnej kuchni, jednak NapiFeryn BioTech nie chce produkować żywności, ale licencjonować swój produkt koncernom spożywczym. Produkty zawierające białko rzepakowe mogą trafić do sklepów już w ciągu 2-3 lat.
      Izolat z białka z rzepaku został uznany za produkt bezpieczny i jest dopuszczony przez UE do stosowania w przemyśle spożywczym.Obecnie firma przygotowuje się do zarejestrowania koncentratu błonnikowo-białkowego.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Uczeni z Uniwersytetów w Aberdeen i Leicester zidentyfikowali w mózgu obszar, który napędza zapotrzebowanie na pożywienie bogate w białko. Odkrycie może mieć znaczenie dla rozwoju personalizowanych terapii otyłości. Nie od dzisiaj bowiem wiadomo, że dieta niskobiałkowa jest powiązana z otyłością.
      Naukowcy zauważyli, że gdy szczury trzymano na diecie niskobiałkowej, doszło do większej aktywizacji pola brzusznego nakrywki (VTA), czyli jądra limbicznego śródmózgowia, obszaru odpowiedzialnego za aktywne poszukiwanie jedzenia.
      Z badań wynika, że gdy wcześniej ograniczy się dostarczanie protein, VTA staje się bardziej wrażliwe na proteiny niż na inne składniki odżywcze. To zaś sugeruje, że mózgi zwierząt działają tak, by upewnić się, że dostawy białka zostaną utrzymane na odpowiednim poziomie. Taka adaptacja jest zrozumiała, gdyż niedobór białka może mieć katastrofalne skutki zdrowotne. Ponadto wcześniejsze badania wiązały niski poziom białek z otyłością. Nie wiadomo było jednak, jak na zjawisko to wpływa mózg.
      Współautor badań doktor Fabien Naneix mówi: Odkryliśmy, że zmniejszenie podaży białka zwiększyło preferencje ku żywności, w której jest więcej białka niż węglowodanów. Ta preferencja ku białkom jest powiązana z większą odpowiedzią VTA i gdy zwierzęta przestawia się z normalnej zbilansowanej diety na dietę niskobiałkową, dochodzi do indukowania preferencji ku białkom, jednak zmiany w VTA wymagają intensywnego procesu uczenia się.
      Nasze badania są pierwszymi, łączącymi preferencje ku białkom ze specyficzną aktywnością mózgu. Wiemy,że VTA odgrywa kluczową rolę w procesach pobierania innych składników odżywczych. Teraz wykazaliśmy, że dotyczy to również białek.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Tkanka tłuszczowa kojarzy się z otyłością i chorobami. Istnieje jednak tłuszcz „dobry” i „zły”. Biała tkanka tłuszczowa służy magazynowaniu energii i to ona obciąża nasz organizm. Z kolei „dobry” tłuszcz, czyli brunatna tkanka, spala tłuszcz i służy utrzymywaniu prawidłowej ciepłoty ciała. Najnowsze badania pokazują, ze brunatny tłuszcz chroni nasze zdrowie.
      Dotychczas jednak nie było jasne, czy posiadacze większej ilości brunatnej tkanki tłuszczowej cieszą się lepszym zdrowiem.
      Badania nad brunatną tkaną tłuszczową nie są łatwe, gdyż trudno zidentyfikować osoby posiadające jej większe ilości. Tkanka ta jest bowiem ukryta głęboko w organizmie.
      Trudne nie oznacza jednak niemożliwe. Na łamach nowego numeru Nature Medicine znajdziemy raport z badań na ponad 52 000 osób przeprowadzonych przez naukowców z Rockefeller University. To największe tego typu badania na dorosłych ludziach. Wynika z nich, że osoby, które posiadają wykrywalne ilości brunatnej tkanki tłuszczowej są narażeni na mniejsze ryzyko chorób kardiologicznych i metabolicznych – od cukrzycy typu 2. po chorobę niedokrwienną serca.
      Po raz pierwszy udało się znaleźć związek pomiędzy tą tkanką a mniejszym ryzykiem rozwoju pewnych chorób. To potwierdza, że brunatna tkanka tłuszczowa może być wykorzystana w leczeniu, mówi profesor Paul Cohen.
      Brunatna tkanka tłuszczowa jest badana od dekad u zwierząt i noworodków. Dopiero w 2009 roku okazało się, że posiadają ją również dorośli. Zwykle znajduje się wokół szyi i ramion. Jednak prowadzenie szeroko zakrojonych badań tej tkanki było praktycznie niemożliwe. Widać ją bowiem jedynie na skanach z pozytonowej tomografii emisyjnej (PET). To kosztowne badania i, co najważniejsze, wiążą się z przyjęciem dawki promieniowania. Nikt nie chce wystawiać zdrowych ludzi na promieniowanie, wyjaśnia główny autor badań Tobias Becher.
      To właśnie Becher wpadł na pomysł, jak zidentyfikować ludzi posiadających brunatną tkankę tłuszczową. W pobliżu jego laboratorium znajduje się Memorial Sloan Kettering Cancer Center. Każdego roku tysiące ludzi jest tam diagnozowanych za pomocą PET pod kątem podejrzenia nowotworu. Becher wiedział, że gdy radiolodzy zauważą u badanej osoby brunatną tkankę tłuszczową, rutynowo oznaczają ten fakt, by nie pomylić jej z guzem. "Zdaliśmy sobie sprawę z tego, że tam mogą znajdować się dane pozwalające na badania nad brunatną tkanką tłuszczową na skalę całej populacji", mówi uczony.
      Becher we współpracy z Heiko Schoderem i Andreasem Wibmerem z Memorial Sloan Kettering przejrzeli 130 000 obrazów PET należących do ponad 52 000 pacjentów. U niemal 10% zauważono brunatną tkankę tłuszczową. Profesor Cohen mówi, że to zapewne zaniżona liczba, gdyż pacjentom przed badaniem mówiono, by unikanli zimna, ćwiczenia i kofeiny, a czynniki te prawdopodobnie zwiększają aktywność tkanki, zatem u części pacjentów mogła być ona w chwili badania niewidoczna.
      Gdy naukowcy przeanalizowali dane dotycząc osób posiadających i nieposiadających brunatnej tkanki tłuszczowej okazało się, że ci, u których znajdowały się wykrywalne poziomy tej tkanki, występowało widocznie mniejsze ryzyko wystąpienia różnych chorób. Na przykład na cukrzycę cierpiało tylko 4,6% osób posiadających brunatną tkankę tłuszczową, podczas gdy u osób, u których jej nie wykryto odsetek zachorowań był ponaddwukrotnie wyższy i wynosił 9,5%. Nieprawidłowy poziom cholesterolu we krwi miało 18,9% posiadaczy brunatnej tkanki tłuszczowej oraz 22,2% osób jej nieposiadających.
      Uczeni zaobserwowali też – czego nie zauważono w żadnych wcześniejszych badaniach – że osoby z brunatną tkanką tłuszczową rzadziej chorują na nadciśnienie, niewydolność serca oraz chorobę niedokrwienną serca. Innym niespodziewanym odkryciem było spostrzeżenie, że tkanka tłuszczowa może chronić przed schorzeniami powodowanymi otyłością. Ogólnie rzecz biorąc osoby otyłe są narażone na większe ryzyko rozwoju chorób serca i chorób metabolicznych. Jednak badania wykazały, że u otyłych posiadających brunatną tkankę tłuszczową ryzyko tych chorób jest podobne jak u osób o prawidłowej masie ciała. To tak, jakby były one chronione przed negatywnymi skutkami nadmiaru białej tkanki tłuszczowej, mówi Cohen.
      Obecnie naukowcy nie wiedzą, jaki jest dokładny mechanizm dobroczynnego wpływu brunatnej tkanki tłuszczowej. Istnieją jednak pewne wskazów. Wiemy na przykład, że komórki brunatnej tkanki tłuszczowej zużywają glukozę. Być może obniżają w ten sposób poziom glukozy we krwi, której nadmiar jest jednym z głównych powodów rozwoju cukrzycy.
      Jednak mniej zrozumiały jest wpływ brunatnej tkanki tłuszczowej na nadciśnienie. Być może brunatna tkanka tłuszczowa robi coś więcej niż tylko zużywa glukozę i spala kalorię. Może ma swój udział w działaniu hormonów, zastanawia się Cohen.
      Naukowcy z Rockefeller University chcą bliżej przyjrzeć się brunatnej tkance tłuszczowej. Mają m.in. zamiar poszukać genetycznych przyczyn, dla których jedni ludzie mają jej więcej niż inni. To zaś może być pierwszym krokiem w opracowaniu leków stymulujących aktywność brunatnej tkanki tłuszczowej w leczeniu otyłości i innych chorób.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...