Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Co definiuje nas, ludzi, jako odrębny i wyjątkowy gatunek? Myślenie abstrakcyjne, język - takie są najczęstsze odpowiedzi. Od dawna było wiadomo, które obszary mózgu odpowiadają za umiejętności językowe, ale tylko mniej więcej. Próby dokładniejszego określenia które to są obszary i co dokładnie robią napotykały na trudności. Wyniki otrzymywane przy użyciu dotychczasowych metod były niepewne i budzące wątpliwości. Potrzeba było innej metodyki badań, jaką zaproponowała Evelina Fedorenko, doktorantka znanego MIT.

Wiadomo było, że za poszczególne aspekty języka najprawdopodobniej odpowiadają różne obszary mózgu. Wskazywały na to badania osób, które po wypadkach cierpiały na rzadkie i specyficzne trudności w mówieniu: na przykład niemożność układania zdań w czasie przeszłym. Ale próby precyzyjnego umiejscowienia tych obszarów spełzały na niczym. Aktualne techniki obrazowania pracy mózgu dawały mało wiarygodne wyniki. Za przyczynę takiego stanu rzeczy uznano fakt, że dotychczasowe badania opierały się na uśrednionych statystycznie analizach badań wielu osób, co mogło wprowadzać szum statystyczny i zniekształcać wyniki.

Sposobem na obejście problemu było uprzednie zdefiniowanie „regionów zainteresowania" osobno u każdej z badanych osób. Aby tego dokonać, rozwiązywali oni zadania aktywizujące różne funkcje poznawcze. Opracowane w tym celu przez Evelinę Fedorenko zadanie wymagało czytania na zmianę sensownych zdań oraz ciągu pseudosłów, możliwych do wymówienia, ale nie mających żadnego sensu.

Na otrzymanych obrazach aktywności mózgu wystarczyło teraz odjąć obszary aktywowane przez pseudosłowa od obszarów uruchamianych przez pełne zdania, żeby precyzyjnie - dla każdego badanego oddzielnie - określić obszary umiejętności językowych. Nowe podejście do badań mózgi pozwoli bardziej precyzyjnie określać obszary kory mózgowej odpowiedzialne za konkretne, poszczególne zdolności poznawcze: muzyczne, matematyczne i inne. Zestaw narzędzi do takich badań został udostępniony na domowej stronie Eveliny Fedorenko. Ma ona nadzieję, że akumulacja wyników przeprowadzanych w laboratoriach na całym świecie przyspieszy rozwój nauk o mózgu.

Artykuł omawiający wyniki badań przeprowadzonych na McGovern Institute for Brain Research at MIT ukazał się w periodyku Journal of Neurophysiology.

Share this post


Link to post
Share on other sites

Też się zdziwiłem, że takie proste i aż zwątpiłem, czy czasem nie piszę oczywistości – nie jestem znawcą tematu, więc musze polegać na tym, co badacz/placówka badawcza sami o sobie napiszą. Ale czasem na najprostsze rozwiązania wpaść najtrudniej.

Share this post


Link to post
Share on other sites

To rozwiązanie dyskutowano już w latach 30. XX wieku, ale dopiero teraz pojawiły się metody pozwalające je zastosować.

Share this post


Link to post
Share on other sites

Na czym to polega, że niektóre genialne rozwiązania potrafią być tak proste, że aż banalne. Przypomina to anegdotę o tym,że najlepsze rozwiązania powstają, gdy do grona znawców twierdzących, że jest coś niemożliwe dołącza ktoś, kto o tym nie wie.

Przy okazji pozdrawiam Jurgi, który jak widzę znowu "nocnomarkuje"

Share this post


Link to post
Share on other sites

Warto też zauważyć, że niekoniecznie muszą się znaleźć obszary wspólne dla wszystkich ludzi. Einstein, jak i wielu sawantów, podkreślał, że nie myśli słowami, tylko konceptami.

 

Dla mnie analogicznie jest z językami obcymi. Około 50% ludzi zapytanych, czy podczas mówienia w obcym języku czują się kimś zupełnie innym, odpowiada: tak, jak w ogóle można o to pytać? Pozostałe 50% daje odpowiedź zupełnie odwrotną. Łączy się z tym kolejny, ciekawy fakt: jeśli rozmawiamy z kimś po polsku, to będziemy mieli trudności opisać go po angielsku; jeśli zaś rozmawiamy z kimś po angielsku, to trudno będzie nam go opisać po polsku. Polega na to na tym, że tworzymy sobie mentalne obrazy wg danego słownictwa. W pewnych obszarach językowych nie ma dokładnych odpowiedników - np. NIE MA dokładnych odpowiedników polskich słów "upierdliwy" czy "szczupły" - każde podobne słowo w angielskim niesie jakieś dodatkowe znaczenie, lub jego części brakuje.

 

Ja też np. staram się myśleć znaczeniami, a nie słowami (chociaż człek zawsze robi po trochu), przez co często mam poczucie, że dane słowo (w polskim, angielskim czy francuskim) nie wyraża tego, co chcę powiedzieć, i często mi się wypowiedź istnym pidżynem staje.

 

Ciekawe, jak z tego wybrną ;-)

Share this post


Link to post
Share on other sites

Zauważyłem kilka razy, że osoby bieglej posługujące się obcym językiem często trudniej mają przetłumaczyć coś z niego na ojczysty. Chyba właśnie dlatego, że zakresy znaczeniowe słów nie pokrywają się dokładnie. Klasyczny przykład: jak na angielski przetłumaczyć słowo „milczeć”? Nie ma dokładnego odpowiednika, a niby takie banalne słowo.

Share this post


Link to post
Share on other sites

Zauważyłem kilka razy, że osoby bieglej posługujące się obcym językiem często trudniej mają przetłumaczyć coś z niego na ojczysty. Chyba właśnie dlatego, że zakresy znaczeniowe słów nie pokrywają się dokładnie. Klasyczny przykład: jak na angielski przetłumaczyć słowo „milczeć”? Nie ma dokładnego odpowiednika, a niby takie banalne słowo.

 

Dokładnie, milczeć to słowo, które jest konstruktem typowo kulturowym. Amerykanie i Anglicy nie umieją wspólnie milczeć - w ich kulturze milczenie jest oznaką niezręczności i nieumiejętności do podtrzymania rozmowy. W Europie Środkowej rozmowa nie musi być podtrzymywana mówieniem.

 

Na translatoryce mieliśmy kiedyś wyróżnione trzy etapy biegłości tłumacza:

1. Etap pierwszy - brakuje Ci słów, żeby wszystko dokładnie przetłumaczyć

2. Etap drugi - znasz wystarczająco dużo słów, żeby wszystko przetłumaczyć

3. Etap trzeci - znasz tak dużo słów, że żadne nie pasuje Ci do kontekstu, zamiast tłumaczyć - siedzisz i gapisz się w monitor

 

Dlatego też oglądanie ze mną czegokolwiek z napisami jest mordęgą, o ile to nie jest fellow linguist (to brzmi lepiej po angielsku!) z którym się wspólnie nabijamy z niezręczności tłumaczy (a tutaj, żeby było śmieszniej, próbowałem napisać "tłumaczów").

 

Język to przesadzona sprawa.

Share this post


Link to post
Share on other sites

3. Etap trzeci - znasz tak dużo słów, że żadne nie pasuje Ci do kontekstu, zamiast tłumaczyć - siedzisz i gapisz się w monitor

:D czyli wszędzie tak, co za dużo to niezdrowo.

Share this post


Link to post
Share on other sites

Zauważyłem kilka razy, że osoby bieglej posługujące się obcym językiem często trudniej mają przetłumaczyć coś z niego na ojczysty. Chyba właśnie dlatego, że zakresy znaczeniowe słów nie pokrywają się dokładnie. Klasyczny przykład: jak na angielski przetłumaczyć słowo „milczeć”? Nie ma dokładnego odpowiednika, a niby takie banalne słowo.

 

Sprawdzenie twojej hipotezy wymagałoby chyba badan porównawczych nad osobami dwujęzycznymi od urodzenia i takimi, które innych języków uczyły się choćby trzy lata później.

Share this post


Link to post
Share on other sites

Sprawdzenie twojej hipotezy wymagałoby chyba badan porównawczych nad osobami dwujęzycznymi od urodzenia i takimi, które innych języków uczyły się choćby trzy lata później.

 

Znam takie osoby. Mają podobny problem, ale w nieco innej skali. Zresztą prawie zawsze osoby dwu- i trójjęzyczne mają jakiś dominujący język (w którym najczęściej myślą).

Share this post


Link to post
Share on other sites
3. Etap trzeci - znasz tak dużo słów, że żadne nie pasuje Ci do kontekstu, zamiast tłumaczyć - siedzisz i gapisz się w monitor

 

Uśmiałem się. Chyba zaczynam wkraczać w ten etap. :D)

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Podczas gdy dorośli przetwarzają różne zadania w wyspecjalizowanych obszarach mózgu w jednej z półkul, niemowlęta i dzieci używają do tego celu obu półkul. To może być przyczyną, dla której dzieci znacznie łatwiej regenerują się po urazach mózgu niż dorośli. Autorzy najnowszych badań skupili się na języku i odkryli, że dzieci podczas przetwarzania języka mówionego używają obu półkul mózgu.
      To bardzo dobra wiadomość dla dzieci, które odniosły urazy mózgu. Użycie obu półkul zapewnia mechanizm kompensujący po urazie. Na przykład, jeśli w wyniku udaru zaraz po urodzeniu dojdzie do uszkodzenia lewej półkuli mózgu, dziecko nauczy się języka korzystając z prawej półkuli. Dziecko z mózgowym porażeniem dziecięcym, które uszkodzi tylko jedną półkulę, może rozwinąć wszystkie potrzebne zdolności poznawcze w drugiej półkuli. Nasze badania pokazują, jak to jest możliwe, mówi profesor Elissa L. Newport, dyrektor Center for Brain Plasticity and Recovery, które jest wspólnym przedsięwzięciem Georgetown University i MedStar National Rehabilitation Network.
      Niemal wszyscy dorośli przetwarzają mowę tylko w lewej półkuli. Potwierdzają to zarówno badania obrazowe jak i fakt, że po udarze, który dotknął lewą półkulę, ludzie często tracą zdolność do przetwarzania mowy.
      Jednak u bardzo małych dzieci uraz jednej tylko półkuli rzadko prowadzi do utraty zdolności językowych. Nawet, jeśli dochodzi do poważnego zniszczenia lewej półkuli, dzieci nadal potrafią korzystać z języka. To zaś sugeruje – jak zauważa Newport – że dzieci przetwarzają język w obu półkulach. Jednak tradycyjne metody obrazowania nie pozwalały na obserwowanie tego zjawiska. Nie było jasne, czy dominacja lewej półkuli w zakresie zdolności językowych jest widoczna już od urodzenia, czy rozwija się z wiekiem, stwierdza uczona.
      Teraz, dzięki funkcjonalnemu rezonansowi magnetycznemu udało się wykazać, że u małych dzieci żadna z półkul nie ma w tym zakresie przewagi. Lateralizacja pojawia się z wiekiem. Ustala się ona w wieku 10-11 lat.
      W najnowszych badaniach udział wzięło 39 zdrowych dzieci w wieku 4–13 lat, których wyniki porównano z 14 dorosłymi w wieku 18–29 lat. Obie grupy zmierzyły się z zadaniem polegającym na rozumieniu zdań. W czasie rozwiązywania zadania każdy z uczestników poddany był skanowaniu za pomocą fMRI, a wyniki potraktowano indywidualnie. Później stworzono mapę aktywności mózgu dla grup wiekowych 4–6 lat, 7–9 lat, 10–13 lat i 18–29 lat.
      Badacze stwierdzili, że wyniki uśrednione dla każdej z grup pokazują, iż nawet u małych dzieci występuje preferencja (lateralizacja) lewej półkuli mózgu w czasie przetwarzania mowy. Jednak znaczny odsetek najmłodszych dzieci wykazuje silną aktywację prawej półkuli mózgu. U osób dorosłych prawa półkula aktywuje się podczas rozpoznawania ładunku emocjonalnego niesionego z głosem. Natomiast u dzieci bierze ona udział i w rozpoznawaniu mowy i w rozpoznawaniu ładunku emocjonalnego.
      Naukowcy sądzą, że jeśli udałoby im się przeprowadzić podobne badania u jeszcze młodszych dzieci, to obserwowaliby jeszcze większe zaangażowanie prawej półkuli mózgu w przetwarzanie języka.
      Obecnie Newport i jej grupa skupiają się na badaniach przetwarzania mowy w prawej półkuli mózgu u nastolatków i młodych dorosłych, u których lewa półkula mózgu została poważnie uszkodzona podczas udaru zaraz po urodzeniu.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Fizycy z MIT opracowali kwantowy „ściskacz światła”, który redukuje szum kwantowy w laserach o 15%. To pierwszy taki system, który pracuje w temperaturze pokojowej. Dzięki temu możliwe będzie wyprodukowanie niewielkich przenośnych systemów, które będzie można dobudowywać do zestawów eksperymentalnych i przeprowadzać niezwykle precyzyjne pomiary laserowe tam, gdzie szum kwantowy jest obecnie poważnym ograniczeniem.
      Sercem nowego urządzenia jest niewielka wnęka optyczna znajdująca się w komorze próżniowej. We wnęce umieszczono dwa lustra, z których średnia jednego jest mniejsza niż średnica ludzkiego włosa. Większe lustro jest zamontowane na sztywno, mniejsze zaś znajduje się na ruchomym wsporniku przypominającym sprężynę. I to właśnie kształt i budowa tego drugiego, nanomechanicznego, lustra jest kluczem do pracy całości w temperaturze pokojowej. Wpadające do wnęki światło lasera odbija się pomiędzy lustrami. Powoduje ono, że mniejsze z luster, to na wsporniku zaczyna poruszać się w przód i w tył. Dzięki temu naukowcy mogą odpowiednio dobrać właściwości kwantowe promienia wychodzącego z wnęki.
      Światło lasera opuszczające wnękę zostaje ściśnięte, co pozwala na dokonywanie bardziej precyzyjnych pomiarów, które mogą przydać się w obliczeniach kwantowych, kryptologii czy przy wykrywaniu fal grawitacyjnych.
      Najważniejszą cechą tego systemu jest to, że działa on w temperaturze pokojowej, a mimo to wciąż pozwala na dobieranie parametrów z dziedziny mechaniki kwantowej. To całkowicie zmienia reguły gry, gdyż teraz będzie można wykorzystać taki system nie tylko w naszym laboratorium, które posiada wielkie systemy kriogeniczne, ale w laboratoriach na całym świecie, mówi profesor Nergis Mavalvala, dyrektor wydziału fizyki w MIT.
      Lasery emitują uporządkowany strumień fotonów. Jednak w tym uporządkowaniu fotony mają pewną swobodę. Przez to pojawiają się kwantowe fluktuacje, tworzące niepożądany szum. Na przykład liczba fotonów, które w danym momencie docierają do celu, nie jest stała, a zmienia się wokół pewnej średniej w sposób, który jest trudny do przewidzenia. Również czas dotarcia konkretnych fotonów do celu nie jest stały.
      Obie te wartości, liczba fotonów i czas ich dotarcia do celu, decydują o tym, na ile precyzyjne są pomiary dokonywane za pomocą lasera. A z zasady nieoznaczoności Heisenberga wynika, że nie jest możliwe jednoczesne zmierzenie pozycji (czasu) i pędu (liczby) fotonów.
      Naukowcy próbują radzić sobie z tym problemem poprzez tzw. kwantowe ściskanie. To teoretyczne założenie, że niepewność we właściwościach kwantowych lasera można przedstawić za pomocą teoretycznego okręgu. Idealny okrąg reprezentuje równą niepewność w stosunku do obu właściwości (czasu i liczby fotonów). Elipsa, czyli okrąg ściśnięty, oznacza, że dla jednej z właściwości niepewność jest mniejsza, dla drugiej większa.
      Jednym ze sposobów, w jaki naukowcy realizują kwantowe ściskanie są systemy optomechaniczne, które wykorzystują lustra poruszające się pod wpływem światła lasera. Odpowiednio dobierając właściwości takich systemów naukowcy są w stanie ustanowić korelację pomiędzy obiema właściwościami kwantowymi, a co za tym idzie, zmniejszyć niepewność pomiaru i zredukować szum kwantowy.
      Dotychczas optomechaniczne ściskanie wymagało wielkich instalacji i warunków kriogenicznych. Działo się tak, gdyż w temperaturze pokojowej energia termiczna otaczająca system mogła mieć wpływ na jego działanie i wprowadzała szum termiczny, który był silniejszy od szumu kwantowego, jaki próbowano redukować. Dlatego też takie systemy pracowały w temperaturze zaledwie 10 kelwinów (-263,15 stopni Celsjusza). Tam gdzie potrzebna jest kriogenika, nie ma mowy o niewielkim przenośnym systemie. Jeśli bowiem urządzenie może pracować tylko w wielkiej zamrażarce, to nie możesz go z niej wyjąć i uruchomić poza nią, wyjaśnia Mavalvala.
      Dlatego też zespół z MIT pracujący pod kierunkiem Nancy Aggarval, postanowił zbudować system optomechaczniczny z ruchomym lustrem wykonanym z materiałów, które absorbują minimalne ilości energii cieplnej po to, by nie trzeba było takiego systemu chłodzić. Uczeni stworzyli bardzo małe lustro o średnicy 70 mikrometrów. Zbudowano je z naprzemiennie ułożonych warstw arsenku galu i arsenku galowo-aluminowego. Oba te materiały mają wysoce uporządkowaną strukturę atomową, która zapobiega utratom ciepła. Materiały nieuporządkowane łatwo tracą energię, gdyż w ich strukturze znajduje się wiele miejsc, gdzie elektrony mogą się odbijać i zderzać. W bardziej uporządkowanych materiałach jest mniej takich miejsc, wyjaśnia Aggarwal.
      Wspomniane wielowarstwowe lustro zawieszono na wsporniku o długości 55 mikrometrów. Całości nadano taki kształt, by absorbowała jak najmniej energii termicznej. System przetestowano na Louisiana State University. Dzięki niemu naukowcy byli w stanie określić kwantowe fluktuacje liczby fotonów względem czasu ich przybycia do lustra. Pozwoliło im to na zredukowanie szumu o 15% i uzyskanie bardziej precyzyjnego „ściśniętego” promienia.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Rezonans magnetyczny i tomografia komputerowa to często zalecane metody badań obrazowych, które mimo pewnych podobieństw odpowiadają na inne medyczne pytania. Jeśli chcemy się dowiedzieć, na czym dokładnie polegają i jakie występują między nimi różnice, zapraszamy do artykułu!
      Nowoczesne technologie obrazowania
      Zarówno rezonans magnetyczny (RM), jaki i tomografia komputerowa (TK), wykorzystują nowoczesne technologie obrazowania, które z niebywałą dokładnością pozwalają odwzorować struktury znajdujące się wewnątrz ludzkiego ciała. Badaniu mogą być poddane poszczególne części ciała, konkretne narządy lub w razie potrzeby całe ciało - np. w celu wykrycia ewentualnych przerzutów nowotworowych. Pełną listę badań z zakresu RM i TK można znaleźć pod adresem Badania.znanylekarz.pl - po wybraniu konkretnego badania można wyszukać oferujące je placówki diagnostyczne, porównać ceny i od razu umówić się na wykonanie badania w dogodnym terminie.
      W obu przypadkach przebieg badania wygląda bardzo podobnie. Pacjent układa się na specjalnym stole, który wsuwany jest automatycznie do urządzenia z okrągłym otworem, przypominającym tunel. Technik, który nadzoruje badanie przebywa w osobnym pomieszczeniu i zdalnie wydaje pacjentowi polecenia dotyczące np. wstrzymania oddechu w odpowiednim momencie. Na tym kończą się jednak podobieństwa.
      Istotną różnicę stanowi technologia stosowana podczas badania. We wnętrzu tomografu zainstalowane są lampy rentgenowskie odpowiedzialne za wykonywane serii prześwietleń pod różnymi kątami. W rezonansie zaś to zadanie spoczywa na falach radiowych i wytworzonemu w tych specyficznych warunkach polu magnetycznemu. Towarzyszą temu głośne dźwięki, czego absolutnie nie zaobserwujemy podczas tomografii.
      Kiedy tomografia? Kiedy rezonans?
      To, na jakie badanie zostaniemy wysłani, zależy od decyzji lekarza, między innymi z tego powodu, że tomografia - ze względu na szkodliwe promieniowanie rentgenowskie - wymaga skierowania. W małej ilości nie jest ono szkodliwe, ale jeśli to badanie jest wykonywane zbyt często, może prowadzić do nieodwracalnych zmian w organizmie, uszkadzając DNA w komórkach, co w konsekwencji przyczynia się nawet do rozwoju nowotworów. Lekarz więc musi ocenić, czy przyczyna medyczna wymaga wykonania tomografii, czy raczej nie jest to konieczne.
      Zupełnie inaczej wygląda to w przypadku rezonansu magnetycznego, gdyż wykorzystywane w czasie tego badania fale radiowe nie są niebezpieczne dla tkanek. Oczywiście z pewnymi wyjątkami, które dotyczą osób, którym wszczepiono na przykład rozrusznik serca czy pompę insulinową. Rezonans może zaburzyć ich działanie.
      Czym jeszcze różnią się oba badania?
      Ważną różnicą jest także czas badania. Rezonans potrafi trwać nawet dwa razy dłużej od tomografii, co sprawia, że w przypadku nagłego zdarzenia (jak wypadek) przeprowadza się tomografię, by szybko przekonać się, z jakimi zmianami w organizmie mamy do czynienia. Tomografia to jednocześnie tańsza i powszechniejsza metoda badania.
      Co istotne, mimo że obie metody są bardzo dokładne, to jednak rezonans zapewnia większe możliwości, pozwalając zobaczyć także tkanki, których nie da się sprawdzić podczas tomografii. Często więc rezonans jest ważnym uzupełnieniem tomografii, zapewniając uzyskanie dokładniejszej diagnozy.
      Podsumowując, zarówno rezonans magnetyczny, jak i tomografia komputerowa są niezbędnymi badaniami, by precyzyjnie sprawdzić stan organizmu. Konieczność ich wykonania warto jednak skonsultować z lekarzem, który oceni, czy nie ma żadnego ryzyka dla zdrowia w związku z technologią stosowaną w każdym z nich. 

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Okazuje się, że na utratę wagi w wyniku zmiany stylu życia na zdrowszy oraz na rozkład tłuszczu w organizmie wpływa wrażliwość mózgu na insulinę. Długoterminowe badania prowadzone  Niemieckie Centrum Badań nad Cukrzycą, Centrum Helmholza w Monachium oraz Szpital Uniwersytecki w Tybindze wykazały, że jeśli nasz mózg jest wrażliwy na obecność insuliny, możemy bardziej stracić na wadze, pozbyć się niezdrowego tłuszczu brzusznego i łatwiej utrzymać niską wagę przez lata. Jeśli jednak nasz mózg słabo reaguje na insulinę, to początkowo stracimy mniej kilogramów, z czasem ponownie przybierzemy na wadze, a na brzuchu zgromadzimy więcej tkanki tłuszczowej.
      Osoby o mózgach bardziej wrażliwych na insulinę zyskiwały na stosowaniu diety i ćwiczeń. Znacznie traciły na wadze i pozbywały się tkanki tłuszczowej z brzucha. Nawet gdy przestawały ćwiczyć i stosować dietę, to w czasie kolejnych dziewięciu lat gdy je obserwowaliśmy, przybierały niewiele tłuszczu, mówi doktor Martin Heni ze Szpitala Uniwersyteckiego w Tybindze, który stał na czele grupy badawczej.
      Z kolei u osób o mózgu mało wrażliwym lub niewrażliwym na insulinę zanotowano niewielką utratę wagi w ciągu 9 miesięcy od zmiany stylu życia na zdrowszy.
      Uczestnicy badań na 24 miesiące zmienili styl życia na taki, który sprzyjał zmniejszeniu wagi. Po 9 miesiącach przeciętna osoba, której mózg był wrażliwy na insulinę, straciła na wadze około 4,5 kilogramów, a osoba o niewrażliwym mózgu – około 0,5 kg. W kolejnych miesiącach osoby z mózgami wrażliwymi nadal traciły na wadze i po 24 miesiącach średnia utrata wagi wynosiła u nich niemal 6 kg. Przez kolejnych 76 miesięcy osoby te nie stosowały już nowego stylu życia, a mimo to przybrały na wadze jedynie około 0,5 kg.
      Zupełnie inaczej wyglądała sytuacja w przypadku osób o mózgach mało wrażliwych lub niewrażliwych na insulinę. Na wadze traciły jedynie przez 9 miesięcy. Następnie do 24. miesiąca stosowania zdrowszego trybu życia ich waga rosła i po 24 miesiącach była o około 1 kg wyższa niż przed rozpoczęciem badań. Utrzymywała się na wyższym poziomie przez kolejnych 76 miesięcy.
      Podobnie rzecz się miała z tłuszczem brzusznym. Osoby o bardziej wrażliwych mózgach traciły go więcej w wyniku ćwiczeń i diety bogatej w włókna roślinne, a po przerwaniu zdrowego trybu życia wolniej ponownie go zyskiwały. Tkanka tłuszczowa na brzuchu jest bardzo niekorzystna, gdyż jej obecność jest silnie powiązana z cukrzycą, ryzykiem chorób układu krążenia i nowotworów.
      Jak zauważyli autorzy w podsumowaniu swoich badań spostrzeżenia te wykraczają poza zakres chorób metabolicznych i wskazują na konieczność opracowania strategii radzenia sobie z opornością ludzkiego mózgu na insulinę.

      « powrót do artykułu
    • By Szkoda Mojego Czasu
      Przepraszam, że nie w temacie, ale chyba powinniśmy się zacząć poważnie bać "ekspertów" od zdrowia publicznego.  Poniżej wypowiedź jednego, a jeszcze niżej wykres jak  naprawdę wygląda ilość już wykrytych mutacji w stosunku do innych wirusów.
      "Profesor odniósł się również do doniesień na temat mutowania koronawirusa SARS-CoV-2: - Ten wirus mutuje bardzo niewiele, jest relatywnie stały, nie zaskakuje nas i na razie niczym nie grozi. Zmiany w mutacji są bardzo niewielkie - powiedział. Horban porównał też SARS-CoV-2 do wirusa grypy. Ten drugi mutuje znacznie szybciej i "właściwie to jest co roku nowy wirus i nie jesteśmy w stanie zrobić szczepionki, która zabezpieczy nas raz na zawsze".

×
×
  • Create New...