Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'kora wzrokowa' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 11 wyników

  1. Jak nauczyć się bez większego wysiłku, a nawet świadomości, rzucać jak czołowy koszykarz albo grać na pianinie? Japońsko-amerykański zespół naukowców opracował bazującą na fMRI metodę, która stanowi twórcze rozwinięcie zwykłego neurotreningu i wg części specjalistów, wygląda jak żywcem wyjęta z filmu Matrix. Naukowcy z Uniwersytetu w Bostonie (BU) i ATR Computational Neuroscience Laboratories w Kioto zauważyli, że można wykorzystać informację zwrotną z kory wzrokowej i modyfikować jej aktywność w taki sposób, by upodobniła się do idealnego wzorca danej czynności/zadania. Pola wzrokowe, które odpowiadają za postrzeganie ruchu, koloru, kształtu, są u dorosłego wystarczająco plastyczne, by umożliwić wzrokowe uczenie percepcyjne - podkreśla Takeo Watanabe z BU. Niektóre wcześniejsze badania potwierdziły związek między poprawą osiągnięć wzrokowych a zmianami w polach wzrokowych, podczas gdy inni naukowcy odkrywali korelacje w obrębie wyższych ośrodków wzrokowych i decyzyjnych. Żadne z tych studiów nie sprawdzało jednak bezpośrednio, czy początkowe pola wzrokowe są wystarczająco plastyczne, aby umożliwić uczenie percepcyjne. Podczas eksperymentów japońsko-amerykański zespół wykorzystał zatem informację zwrotną z funkcjonalnego rezonansu magnetycznego. Badano, czy doprowadzając raz po raz do aktywacji związanej ze specyficzną cechą wzrokową, można doprowadzić do poprawy w postrzeganiu tej cechy, mimo że w rzeczywistości w ogóle jej nie prezentowano. Okazało się, że tak, w dodatku poprawa ma charakter długoterminowy. Co ważne, metoda działa, nawet gdy badany nie zdaje sobie sprawy, czego właściwie się uczy. W przyszłości naukowcy chcą sprawdzić, czy metoda działa także w odniesieniu do zmysłów innych niż wzrok.
  2. Im dalej od równika, tym ludzie mają większe oczy i mózgi. Naukowcy z Uniwersytetu Oksfordzkiego tłumaczą, że ma to związek nie tyle z inteligencją, co z powiększeniem rejonów wzrokowych, które pozwalają sobie poradzić z mniejszą ilością światła w krajach z zachmurzonym niebem i dłuższymi zimami (Biology Letters). Brytyjczycy mierzyli oczodoły oraz objętość mózgu dla 55 czaszek z kolekcji muzealnych (najstarsze pochodziły z XIX wieku). Czaszki reprezentowały 12 populacji z całego świata: Anglii, Australii, Wysp Kanaryjskich, Chin, Francji, Indii, Kenii, Mikronezji, Skandynawii, Somalii, Ugandy i USA. Później akademicy zestawiali wymiary gałek ocznych i mózgu z szerokością geograficzną centralnego punktu w kraju ich pochodzenia. Okazało się, że i jedno, i drugie bezpośrednio zależało od oddalenia od równika. Największe były mózgoczaszki Skandynawów, a najmniejsze Mikronezyjczyków. W miarę oddalania od równika zmniejsza się ilość dostępnego światła, dlatego ludzie musieli wytwarzać w toku ewolucji coraz większe oczy. Mózgi również musiały stać się większe, by poradzić sobie z dodatkowymi danymi wzrokowymi. Większy mózg nie oznacza, że ludzie z większych szerokości geograficznych są mądrzejsi. Oznacza to jedynie, że potrzebują większych mózgów, by dobrze widzieć w okolicach, gdzie żyją – tłumaczy antropolog Eiluned Pearce. Ponieważ ludzie mieszkają na dużych szerokościach geograficznych Europy i Azji od zaledwie kilkudziesięciu tysięcy lat, wydaje się, że ich systemy wzrokowe zaskakująco szybko przystosowały się do zachmurzonego nieba […] i długich zim w tych okolicach – dodaje współautor badań prof. Robin Dunbar. Ostrość wzroku w warunkach oświetlenia dziennego jest stała na wszystkich szerokościach geograficznych, co zasugerowało naukowcom, że gdy ludzie opanowywali nowe rejony globu, system przetwarzania wzrokowego przystosowywał się do różnych warunków oświetleniowych właśnie w opisany wyżej sposób. Próbując zrozumieć zaobserwowane zjawiska, akademicy wzięli też pod uwagę wyjaśnienia alternatywne dla kompensacji gorszego oświetlenia wzrostem wielkości oczu i mózgu. Powołali się na efekt filogenetyczny (czyli ewolucyjne powiązania między różnymi liniami rozwojowymi ludzi), fakt, że osoby żyjące na większych szerokościach geograficznych są w ogóle większe, a także na możliwość, że powiększenie objętości oczodołu ma związek z niskimi temperaturami (tłuszcz musi pełnić rolę izolacji dla gałki ocznej).
  3. Międzynarodowy zespół naukowców badał mózg człowieka doświadczającego zjawiska doliny niesamowitości. Ludziom, którzy oglądali nagrania wideo 1) androida Repliee Q2, który wzbudzał w nich odrazę/lęk, 2) człowieka oraz 3) robota wyglądającego jak robot, wykonywano funkcjonalny rezonans magnetyczny. Wyniki sugerują, że przyczyną nieprzyjemnych wrażeń w zetknięciu z androidem jest niezgodność pomiędzy wyglądem a ruchami. Ayse Pinar Saygin z Uniwersytetu Kalifornijskiego w San Diego postanowiła sprawdzić, czy układ postrzegania działania (ang. action perception system, APS) jest bardziej dostrojony do ludzkiego wyglądu czy ruchu. Zbadano 20 osób w wieku od 20 do 36 lat, które nie pracowały z robotami i nie wyjeżdżały do Japonii, gdzie częściej można spotkać roboty i gdzie cieszą się one większą akceptacją społeczną. Ze studium wykluczono też ludzi, którzy mieli przyjaciół lub rodzinę w Kraju Kwitnącej Wiśni. Ochotnikom pokazano 12 filmów z Repliee Q2, która wykonywała codzienne czynności: machała, sięgała po szklankę z wodą lub podnosiła kartkę ze stołu. Wyświetlano także filmy z osobą, na której wyglądzie wzorowano androida. Wykonywała ona te same czynności, co Repliee Q2, podobnie zresztą jak uproszczona wersja androida (pozbawiono ją wierzchniej warstwy, widać było przewody, metalowe łączenia itp.). Pojawiał się więc człowiek wyglądający i poruszający się jak człowiek, robot wyglądający jak człowiek, lecz wykonujący mechaniczne ruchy i robot wyglądający i działający jak robot. Na początku eksperymentu, jeszcze poza skanerem MRI, wolontariuszom pokazano po jednym filmie z każdego scenariusza i powiedziano, kto jest kim. Podczas oglądania androida w obu półkulach rozświetlała się część płata ciemieniowego, która łączy korę wzrokową przetwarzającą ruchy ciała z rejonem kory ruchowej zawierającym neurony lustrzane. Wg naukowców, mózg uaktywniał się, wykrywając niezgodność między ludzkim wyglądem a ruchem w stylu robota. Mózg nie wydaje się nastawiony na zwracanie szczególnej uwagi na sam biologiczny wygląd lub biologiczny ruch. Wydaje się za to, że sprawdza, czy zostają spełnione oczekiwania, czyli czy wygląd i ruch są odpowiednie. Gdy androidy staną się bardziej popularne, niewykluczone, że nasz mózg się do nich przyzwyczai i zestawienie biologiczny wygląd-mechaniczny ruch nie będzie traktowane jako niespójność. Saygin uważa, że badanie mózgowych reakcji potencjalnych odbiorców androida pozwoli w przyszłości zaoszczędzić pieniądze, które w innym razie wydano by na źle odbierane projekty. Obecnie trwają prace nad tańszym od rezonansu magnetycznego EEG. Podczas eksperymentów naukowcy postarają się wskazać istotne elementy zapisu aktywności elektrycznej (m.in. odpowiedniki zwiększonej aktywności płatów ciemieniowych).
  4. Dorośli wykrywają zbliżające się obiekty, które znajdują się na kolizyjnym kursie. Wiedzą, że muszą się uchylić, bo inaczej dojdzie do zderzenia. Niemowlęta nie reagują w ten sposób, co skłoniło naukowców do zastanowienia, kiedy w toku rozwoju pojawia się ta ważna umiejętność. Wszystko wskazuje na to, że wtedy, gdy bobasy zaczynają raczkować i stają się bardziej mobilne (Naturwissenschaften). Ruud van der Weel i Audrey van der Meer z Norwegian University of Science and Technology w Trondheim posłużyli się EEG i zbadali 18 dzieci w wieku od 5 do 11 miesięcy. Na monitorze komputera oglądały one zbliżającą się wielokolorową kropkę, która poruszała się z różną prędkością. Naukowcy nagrywali ruchy obu gałek ocznych. Zbliżający się obiekt rzuca na siatkówkę powiększający się obraz. Dla mózgu to informacja, że nadciąga jakiś przedmiot. Na tej podstawie może on też wnioskować, jak blisko niebezpieczeństwo się znajduje. W płacie potylicznym uaktywnia się kora wzrokowa. Norwegowie stwierdzili, że u niemowląt w korze wzrokowej także pojawiała się taka aktywność. Starsze dzieci (10-11-miesięczne) były w stanie o wiele szybciej przetworzyć informację niż niemowlęta młodsze w wieku 5-7 miesięcy. Świadczy to o tym, że u 10-11-miesięcznych bobasów istnieją już dobrze wykształcone obwody neuronalne, służące do rozpoznawania zbliżających się obiektów. Nie ma ich jednak jeszcze u 5-7-miesięczniaków. Dzieci w wieku 8-9 miesięcy znajdują się na etapie przejściowym. Psycholodzy podkreślają, że 7-8 miesięcy to przeciętny wiek, w którym dzieci zaczynają raczkować. Fakt, że rozwój mózgu i zachowania idą łeb w łeb, ma duży sens. Gdy niemowlę zdobywa większą kontrolę nad lokomocją, jego percepcyjne zdolności wykrywania zbliżającego się niebezpieczeństwa również wzrastają.
  5. Nasz mózg dostosowuje tor przesyłania sygnałów nerwowych do zaistniałej sytuacji, np. zablokowania używanych wcześniej ścieżek, w ciągu zaledwie kilku sekund. Jest zatem bardziej elastyczny niż dotąd sądzono, a zawdzięczamy to sieci uśpionych połączeń (Journal of Neuroscience). Daniel Dilks z MIT posłużył się plamką ślepą. Jest to miejsce na siatkówce, do którego dochodzi nerw wzrokowy. Nie ma tam żadnych fotoreceptorów, stąd niewrażliwość na światło. Luki w polu widzenia obu oczu nie pokrywają się, dzięki czemu braki jednego są uzupełniane przez dane napływające z drugiego. Sprawa komplikuje się, gdy zasłonimy jedno oko i tak właśnie postąpili Amerykanie. Ustalili, gdzie znajduje się plamka ślepa w drugim oku 48 ochotników. Następnie prezentowali im prostokąty, które znajdowały się na prawo od niej (tuż obok). Zadanie polegało na określeniu długości obu boków po upływie różnego czasu od momentu zasłonięcia oka. Okazało się, że błyskawicznie następowało rozciągnięcie krawędzi figury. Po odsłonięciu oka zaburzenia widzenia proporcji ustępowały tak szybko, jak się pojawiły. Ponieważ zmiana była natychmiastowa, mózg musiał wykorzystać istniejące wcześniej połączenia. Członkowie ekipy Dilksa sugerują, że neurony, które w normalnych okolicznościach wykorzystują dane z drugiego oka do wypełnienia luki w widzeniu, po zasłonięciu go zachowują się jak złodzieje. Sprawdzają, co mają sąsiedzi i sobie to "pożyczają". Kiedy czasowo odcięliśmy dopływ danych do kory wzrokowej, ochotnicy wspominali o przemianie kwadratów w prostokąty. Byliśmy zaskoczeni, stwierdzając, że wrażenie przeniesionego widzenia pojawiło się w ciągu zaledwie 2 sekund. [...] Stało się to tak szybko, iż uważamy, że mózg stale rekalibruje system połączeń – wyjaśnia Nancy Kanwisher. Dilks po raz pierwszy zauważył zjawisko rozciągania kwadratu u pacjenta po przebytym udarze, w wyniku którego część kory wzrokowej została pozbawiona danych wejściowych. Uraz doprowadził do wytworzenia ślepego obszaru w jego polu widzenia. Kiedy kwadrat demonstrowano poza tym rejonem, chory postrzegał prostokąt. Jego kora wzrokowa była pozbawiona dopływu danych przez dłuższy czas, nie wiedzieliśmy więc, jak szybko dorosły mózg zmienia się w wyniku deprywacji. Stąd pomysł na eksperyment ze zdrowymi ludźmi.
  6. Japońscy naukowcy jako pierwsi w historii przedstawili na ekranie komputera obrazy uzyskane z mózgów ludzi. Specjaliści z ATR Computational Neuroscience Laboratories najpierw pokazali grupie testowanych osób sześć liter, składających się na słowo "neuron". Później, za pomocą pomiarów aktywności fal mózgowych, szczególnie z kory wzrokowej, byli w stanie wyodrębnić każdą z tych liter. W swoim oświadczeniu specjaliści z Kioto orzekli, że pewnego dnia rozwój techniki pozwoli na nagrywanie i odtwarzanie snów. Będzie to możliwe dzięki odczytaniu i odpowiedniej interpretacji sygnałów elektrycznych biegnących w mózgu. Japończycy byli w stanie zrobić to z sygnałami przekazanymi przez oko do kory wzrokowej. Niewykluczone zatem, że w przyszłości możliwe będzie zrozumienie także sygnałów z innych obszarów.
  7. Neurony lustrzane, które uaktywniają się zarówno podczas samodzielnego wykonywania jakiejś czynności, jak i podczas obserwowania czyichś działań, zdążono już powiązać z empatią, moralnością, siłą oddziaływania filmów erotycznych, a nawet autyzmem. O ile jednak u małp można było obserwować aktywność pojedynczych neuronów tego typu, o tyle ich istnienie u ludzi wykazano bardzo okrężną drogą, bo podczas ogólnego badania funkcjonalnym rezonansem magnetycznym (fMRI). Ilan Dinstein z New York University uważa, że jest to podejście niedokładne, a uzyskane w ten sposób wyniki wcale nie muszą być prawdziwe. Gdy widzimy, że podczas działania i obserwowania działania innej osoby uaktywnia się ten sam rejon mózgu, wcale nie mamy gwarancji, że wyładowują się te same neurony. Dlatego przypisywanie im np. odpowiedzialności za autyzm jest, wg niego, przedwczesne. By sprawdzić, które neurony uaktywniają się w czasie samodzielnej gry i obserwowania zabawy w kamień, nożyce, papier, nowojorczycy i akademicy z Uniwersytetu Waszyngtońskiego w Seattle zebrali grupę ochotników. Na czas eksperymentu umieszczono ich w skanerze fMRI. Wolontariusze rozgrywali aż 360 partii z przeciwnikiem nagranym na wideo. W tym czasie program komputerowy uczył się rozpoznawać wzorce aktywności mózgowej, powiązane z wykonywaniem określonego gestu i obserwowaniem go w wykonaniu drugiej osoby. Obserwowano 3 rejony: korę ruchową, wzrokową i przednią bruzdę śródciemieniową (ang. anterior intraparietal sulcus, aiPS), która zgodnie z wcześniejszymi doniesieniami, miała być siedliskiem licznych neuronów lustrzanych. Po zakończeniu nauki badacze sprawdzali, czy na podstawie analizy samej aktywności program potrafi stwierdzić, czy człowiek gestykuluje, czy ogląda ruchy czyichś dłoni. Podczas analizy aktywności kory wzrokowej program z dużą trafnością (72%) typował obserwowany gest. Równie dobrze nazywał gest wykonywany przez ochotnika, odcyfrowując wzorce aktywności jego kory ruchowej. Gdyby aiPS rzeczywiście była siedliskiem neuronów lustrzanych, powinna się uaktywniać jednakowo podczas działania i w czasie obserwacji działań, a komputer powinien umieć określić gest widziany przez wolontariusza i na odwrót. Tymczasem trafność oszacowań graniczyła z przypadkiem. Wg Dinsteina świadczy to o tym, że aiPS jest w dużej mierze zapełniona mieszanką neuronów ruchowych i wzrokowych, które lekceważono we wcześniejszych badaniach. Oznacza to, że neurony lustrzane są rzadsze niż do tej pory sądzono.
  8. Powszechnie wiadomo (i potwierdzają to badania), że u osób niewidomych pozostałe zmysły znacznie się wyostrzają. Dotychczas nie było jednak wiadomo, jak do tego dochodzi. Badacze z Beth Israel Deaconess Medical Center (BIDMC) uchylili rąbka tajemnicy dzięki interesującemu eksperymentowi. Przeprowadzone doświadczenie wyjaśnia częściowo mechanizm kompensacji utraconej zdolności widzenia, lecz także dowodzi, że proces ten zachodzi bardzo szybko i jest odwracalny. Jak tłumaczy dr Alvaro Pascual-Leone, jeden z autorów badania, zdolność mózgu do reorganizacji jest znacznie większa, niż dotychczas sądzono. W naszym badaniu wykazaliśmy, że nawet u osoby dorosłej część mózgu odpowiedzialna za widzenie szybko dostosowuje się do przetwarzania [informacji o] dotyku w reakcji na całkowitą utratę zdolności widzenia. Szybkość i dynamiczna natura zaobserwowanych zmian sugeruje, że dzieje się to nie dzięki tworzeniu nowych połączeń nerwowych, które zajmowałoby znaczną ilość czasu, lecz dzięki prezentowaniu przez korę wzrokową nowych zdolności, które są ukryte, gdy wzrok jest sprawny. W jednym z poprzednich badań naukowcy z BIDMC udowodnili, że osoby, którym zasłoni się oczy, już po pięciu dniach znacznie skuteczniej odczytują tekst zapisany alfabetem Braille'a. Wykonane później testy wykazały, że ich kora mózgowa przeszła znaczne zmiany. Badacze podążyli tym tropem i postanowili okreslić naturę tych zmian. Do badania zaproszono 47 ochotników. Połowie z nich zasłonięto całkowicie oczy na pięć dni, pozostałym zaś - tylko na czas wykonywanych testów. Badani z obu grup uczyli się intensywnie (przez cztery do sześciu godzin dziennie) alfabetu Braille'a pod okiem instruktorów z Carroll Center for the Blind. Wykonano u nich także obrazowanie metodą funkcjonalnego rezonansu magnetycznego, pozwalające na określenie aktywności poszczególnych części mózgu. Eksperyment wykazał, że osoby, którym zasłonięto oczy na pięć pełnych dni, nie tylko radzą sobie znacznie lepiej z odczytywaniem informacji zapisanych alfabetem Braille'a, lecz także ich mózgi przeszły znaczną reorganizację. Ich kora wzrokowa wykazywała ogromną aktywność w reakcji na dotyk. Także jej pobudzanie metodą przezczaszkowej stymulacji magnetycznej (ang. transcranial magnetic stimulation - TMS) znacznie zakłócało możliwość odbioru informacji związanych z dotykiem, co dodatkowo potwierdza zmiany zachodzące w układzie nerwowym. Co ciekawe, już w 24 godziny po zakończeniu eksperymentu mózg uczestników eksperymentu wracał do normalnego trybu funkcjonowania. Jak ocenia dr Lotfi Merabet, główna autorka badania, ta wyjątkowo szybka adaptacja oznacza, że funkcje normalnie hamowane w obrębie kory wzrokowej zostają "wyciągnięte na powierzchnię", gdy zachodzi taka potrzeba. Dodaje: jesteśmy przekonani, że z czasem te funkcje zostają utrzymane i wzmocnione, prowadząc ostatecznie do trwałych zmian strukturalnych. Wykonany eksperyment podważa więc przekonanie niektórych badaczy o trwałym podziale funkcjonalnym mózgu na części o wyraźnej specjalizacji. Wyniki badań opublikowano w najnowszym numerze czasopisma PLoS One.
  9. Profesor Mark Changizi z Rensselaer Polytechnic Institute opracowuje technikę, dzięki której nasze oczy i układ wzrokowy stałyby się programowalnym komputerem (Perception). Naukowcowi zależy na ujarzmieniu ich mocy obliczeniowych. Wymagałoby to napisania programu, który demonstrowałby reprezentację, poszczególne piętra układu wzrokowego przeprowadzałyby analizę obrazu, skutkiem czego byłoby postrzeganie wybranego obiektu. W idealnych okolicznościach wystarczyłby rzut okiem na złożone bodźce (oprogramowanie) i nasz układ wzrokowy (hardware) automatycznie i bez większego wysiłku wygenerowałby obraz, czyli efekt końcowy wyliczeń i przetwarzania danych. Naukowiec osiągnął już mały sukces, tworząc wzrokowe reprezentacje obwodów cyfrowych. Składają się one z sześcianów (tranzystorów), których odcień informuje nas, czy reprezentują one 0, czy 1. Changizi stworzył też wizualne bramki NOT, OR i AND oraz prostokąty reprezentujące ścieżki w układzie scalonym, którymi wędruje sygnał. Nasz układ wzrokowy w każdej sekundzie przetwarza olbrzymie ilości informacji, więc teoretycznie rzut oka na rysunek powinien skutkować pojawieniem się wyniku obliczeń. Oczywiście bardzo złożona plątanina sześcianów, ścieżek i bramek wygląda zbyt skomplikowanie, byśmy mogli ją "rozszyfrować". Changizi uważa jednak, że korę wzrokową można by wytrenować podobnie, jak trenujemy się w czytaniu. Koncepcja Changiziego to kolejny, po komputerach z DNA czy sieciach neuronowych, pomysł na skonstruowanie maszyny liczącej wykorzystującej biologię człowieka.
  10. Zwierzęta, a więc i ludzie, postrzegają głębię dzięki temu, że mają dwoje oczu. Ponieważ sztuka ta udaje się także w przypadku wykorzystania tylko jednego oka, naukowcy zastanawiali się, jak to możliwe. Wszystko stało się jasne, gdy badacze z Uniwersytetu w Rochester zidentyfikowali niewielką część mózgu, która przetwarza obraz z jednego oka, ruch ciała i ruch gałki ocznej (Nature). Wygląda na to, że neurony z tego obszaru mózgu łączą wskazówki wzrokowe z niewzrokowymi i w ten wyjątkowy sposób określają głębię obrazu – tłumaczy szef zespołu naukowego, profesor Greg DeAngelis. Wg niego, poza rozbieżnością dwuoczną (ang. binocular disparity), czyli przemieszczaniem poziomym obrazów względem siebie na siatkówkach obu oczu, mózg dysponuje też komórkami nerwowymi odpowiadającymi za ocenę ruchu ciała, perspektywy i tego, jak obiekty przemieszczają się przed i za innymi. Wszystko to pozwala mu stworzyć w głowie odbicie trójwymiarowego świata. Opisany mechanizm neuronalny bazuje na tzw. względnej paralaksie ruchu (ang. relative motion parallax). Jak można przeczytać w słowniku PWN-u, jest to źródło informacji o głębi, które polega na tym, że względna odległość obiektów od obserwatora determinuje zakres i kierunek ich względnego ruchu na siatkówce (obrazy przemieszczają się z różną prędkością). Kiedy fiksujemy wzrok na jakimś przedmiocie, każdy wykonywany ruch powoduje, że obiekty zlokalizowane przed nim wydają się przemieszczać w kierunku przeciwnym, a za nim w tym samym, co wybrany przez nas. Rejonem mózgu opisanym przez naukowców z Rochester jest obszar MT (ang. middle temporal) w korze skroniowej. Oczywiście, dochodzi do błędów, ale zazwyczaj mechanizm dobrze się sprawdza. Gdy gałka oczna może się poruszać, śledząc ogólny ruch grupy obiektów, neurony MT uzyskują dostatecznie dużo danych, aby stwierdzić, że wśród obiektów przemieszczających się w tym samym kierunku pędzący najszybciej znajduje się najbliżej, a najwolniej – najdalej od obserwatora.
  11. Nie od dzisiaj wiadomo, że podczas snu utrwalamy sobie wspomnienia nabyte w ciągu dnia. Amerykańscy uczeni postanowili sprawdzić, czy podobnie dzieje się w przypadku innych ssaków. W 2001 roku Matthew A. Wilson i Daoyun Ji z należącego do MIT Picower Institute for Learning and Memory prowadzili badania, które wykazały podwyższoną aktywność hipokampu u śpiących szczurów. Hipokamp odpowiada właśnie za pamięć. Obecnie ci sami uczeni postanowili sprawdzić, czy szczury śnią. Naukowcy podłączyli do mózgu szczurów elektrody i zaczęli rejestrować wyniki. Okazało się, że w czasie snu aktywizuje się nie tylko hipokamp, ale i kora wzrokowa. Co więcej, porównanie aktywności poszczególnych neuronów u szczurów, które przemierzały labirynt, a później spały, wykazało, że we śnie dochodzi do aktywizacji dokładnie tych samych neuronów. Uczeni wysnuli z tego wniosek, że zwierzęta nie tylko utrwalały sobie zdobytą w labiryncie wiedzę, ale śniło im się, że po nim wędrują.
×
×
  • Dodaj nową pozycję...