Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Pytanie, jak bardzo różni się świat postrzegany przez różne osoby, jest pewnie jednym z najstarszych pytań filozoficznych. O ile w większości zgadzamy się, że sposób myślenia i postrzegania pojęć abstrakcyjnych różni się mocno, to instynktownie oczekujemy, że będąc stworzeniami tego samego gatunku, przynajmniej widzimy świat tak samo. Badania naukowe powoli odzierają nas z tego złudzenia. Psycholodzy z Wellcome Trust Centre for Neuroimaging (University College London) wykazali, że ludzie ulegają złudzeniom optycznym w bardzo różnym stopniu, co więcej, stopień ten bezpośrednio zależy od rozmiaru zaangażowanej w przetwarzanie obrazu pierwotnej kory wzrokowej.

Trójka naukowców: Samuel Schwarzkopf, Chen Song oraz Geraint Rees przebadała trzydzieścioro zdrowych ochotników na okoliczność postrzegania popularnych optycznych iluzji i siły, z jaką na nich oddziałują. Jednocześnie mierzono aktywność ich mózgów przy pomocy funkcjonalnego rezonansu magnetycznego, pozwalającego obserwować jego pracę na bieżąco.

Wykorzystano dwa popularne testy: iluzję Ebbinghausa, w której dwa identyczne koła postrzegane są jako różnej wielkości, w zależności od rozmiaru „płatków" jakie do nich przyczepiono, oraz iluzję Ponzo, w której dwa identyczne elementy postrzegane są jako różnej wielkości, w zależności od umiejscowienia na rysunku przypominającym tory kolejowe.

Dało się wyraźnie zmierzyć, że stopień postrzegania iluzji był różny: dla jednych złudzenie było bardzo silne, dla innych pozorna różnica rozmiaru odczuwana była jako niewielka. Bardzo mocno różniła się powierzchnia pierwotnej kory wzrokowej, jaka była zaangażowana w analizę obrazu, różnica pomiędzy różnymi osobami mogła być nawet trzykrotna. Co ważne: istniała wyraźna korelacja: im intensywniej używana była kora wzrokowa, tym postrzegana pozorna różnica mniejsza. Podsumowując, można powiedzieć, że duży obszar mózgu zaangażowany w analizę zmniejsza skuteczność optycznego „oszustwa".

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Taką mam teorię:

 

Mamy tu do czynienia z iluzją 3d. Pierwotnie (a więc przed epoką zdjęć, obrazów, grafiki itd.) nasze postrzeganie obrazu było ukierunkowane bezpośrednio na świat a nie na jego uchwycony obraz. Dlatego też na pewno część naszego umysłu wyspecjalizowana się w identyfikowaniu i przetwarzaniu takich obrazów w trójwymiarowe wyobrażenie przestrzeni na zasadach uproszczonych a więc z uwagi na oszczędność energetyczną. Dlatego też na tych rysunkach wydaje się, że obiekty są dalej - pewne przesłanki sugerują to naszym ośrodkom odpowiedzialnym za budowanie wirtualnej mapy 3d. Inni ludzie mają, załóżmy, większą rozdzielczość postrzeganego obrazu i ich mózgi są w stanie dostrzec brak rozmycia świadczący o obserwowaniu płaszczyzny a nie przestrzeni.

 

Może się tu mylę, ale wydaje mi się dość intuicyjnym, że im bardziej pierwotna kora wzrokowa jest zaangażowana w przetwarzanie obrazu, tym wyższą rozdzielczość obrazu uzyskuje. Im wyższa rozdzielczość, tym większa dokładność jego oceny. Jeśli obraz "dalszego obiektu" nie rozmywa się, a powinien - oznacza to że nie jest to obiekt w oddaleniu ale płaszczyzna z wzorami, droga analizy takiego obrazu jest już na pewno zgoła inna.

 

W każdym razie ten artykuł daleki jest od stwierdzenia, że jeden widzi mrówke a drugi słonia.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Iluzja nr 1 nie jest iluzją związaną z 3D, lecz z rozmiarem względnym. Szkoda, że studium nic nie mówi o postrzeganiu _różnych_ iluzji. Na przykład ja w przykładzie z kołami mój mózg daje się mocno zmylić i widzę fałszywą różnicę jako dużą, w przykładzie z torami zaś prawie w ogóle nie ulegam złudzeniu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Myślę że ludzie ze względu m.in. na konieczność abstrahowania mają tendencję do doszukiwania się głębi i sensu nawet tam gdzie ich nie ma, nie tylko w obrazach, stąd podatność na wszelkie iluzje, przechodząca w upodobanie, dlatego choćby religie, z kolei ci, którzy mają niejako przekorną tendencję do koncentrowania się na szczególe, ulegają odwrotnemu złudzeniu, że to szczegół zawsze daje lepsze rozeznanie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mózg nie działa na podstawie obrazu a jego interpretacji i dlatego jest podatny na iluzje. Interpretacja zależna jest od tego co widzimy ale również od tego co wiemy.

Im więcej zasobów zaangarzujemy w interpretację tym dokładniej ją zinterpretujemy - więcej będziemy mieć bardziej szczegółową interpretację - ale jeśli nasze doświadczenie

dyktuje nam błędną interpretację będzie ona błędna.

Przytoczona tu iluzja szarych kwadratów ( http://en.wikipedia.org/wiki/File:Grey_square_optical_illusion.PNG ) pewnie dała by odwrotne rezultaty...

umysł nie skarzony wiedzą zobaczy te same kolory, a ktoś kto wie co to szachownica będzie interpretował plamy jako cień. Tu faktycznie doświadczenie z technikami obrazowania trójwymiaru na

powieszchniach płaskich zapewne mocno zaburzają interpretację.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mózg nie działa na podstawie obrazu a jego interpretacji i dlatego jest podatny na iluzje. Interpretacja zależna jest od tego co widzimy ale również od tego co wiemy.

( http://en.wikipedia.org/wiki/File:Grey_square_optical_illusion.PNG )

...umysł nie skarzony wiedzą zobaczy te same kolory, a ktoś kto wie co to szachownica będzie interpretował plamy jako cień.

Zgadzam się z tym w stu procentach! Uczę malarstwa i cały czas powtarzam to moim studentom, żeby nie malowali tego co wiedzą ale to co naprawdę postrzegają, mało kto wie jak trudno te sprawy oddzielić, do puki sam nie zacznie zajmować się malarstwem. Mocno oświetlona czarna draperia będzie jaśniejsza od słabo oświetlonej ściany pomalowanej na biało, na początku swojej nauki najczęściej uczniowie odwzorowują swoją wiedzę i malują to co wiedzą, że draperia jest czarna a ściana jest biała. Przykład szachownicy jest jaskrawy bo prosty, w muzeach można znaleźć wiele innych na obrazach mistrzów. Jeszcze ciekawsze rzeczy dzieją się z barwą i kolorem (bo to tak samo dwie różne sprawy).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Sciagacz dobrze mówi (mineralnej mu!).

Czytałem kiedyś o ciekawym doświadczeniu. Dzieciom z różnych kręgów kulturowych pokazywano i kazano potem przerysować dwie figury: kwadraty podzielone na cztery części i zamalowane. Pierwszy składał się z 4 mniejszych kwadratów (coś jak szachownica polskiego lotnictwa), drugi z 4 trójkątów (podzielony był przekątnymi).

Dzieci z niektórych obszarów (Indie, jeśli dobrze pamiętam) nie odróżniały tych figur od siebie, uważały je za identyczne.

 

Niestety, nie pamiętam nawet, gdzie to było, więc nie mogę służyć linkiem. Mogłem też coś zniekształcić, ale clue powinno być zachowane.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Postrzeganie nie jest bezwzględne (oko nie jest przyrządem pomiarowym), co więcej ma zdolności adaptacyjne.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Postrzeganie nie jest bezwzględne

Dlatego (na szczęście dla kobiet  :P ) podobają nam się różne dziewczyny, a nie ta jedna na świecie o uniwersalnie-idealnej dla wszystkich urodzie  ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Wiek, w którym uznaje się człowieka za dorosłego zawsze różnił się w zależności od kultury i epoki. Współcześnie w większości za dojrzałych uznaje się osiemnastolatków, choć dla niektórych czynności: prowadzenia samochodu, zawierania związków ten wiek może być inny. Również naukowcy generalnie uważali, że nasz mózg ewoluuje jedynie do okresu pokwitania i na tym jego rozwój się w zasadzie kończy. Jak się okazuje - nie mieli racji.
      Pierwszą jaskółką zmian były badania, które dowodziły, że dopiero w wieku dwudziestu kilku lat człowiek w pełni rozumie konsekwencje swoich czynów - co wiąże się na przykład z nadmierną brawurą młodych kierowców. Tymczasem Sarah-Jayne Blakemore, neurolog z Institute of Cognitive Neuroscience (Instytutu Neurologii Poznawczej) na University College London uważa, że ludzki mózg nie osiąga pełnej dojrzałości wcześniej niż po trzydziestce, a nawet czterdziestce.
      Najszybszy i najważniejszy rozwój odbywa się rzeczywiście w dzieciństwie i wczesnej młodości, ale niektóre obszary mózgu potrzebują o wiele więcej czasu na osiągnięcie „pełni dorosłości". Należy do nich kora przedczołowa, jedna z najważniejszych części mózgu, odpowiadająca za wyższe funkcje poznawcze: planowanie, przewidywanie rozwoju wypadków, podejmowanie decyzji. Do niej należą zachowania socjalne, społeczne: empatia, współdziałanie z ludźmi; tutaj także „mieszczą się" cechy naszego charakteru. Naukowcy uważają wręcz, że to właśnie silny rozwój tego obszaru czyni nas takimi istotami, jakimi jesteśmy, czyli ludźmi.
      Kora przedczołowa rzeczywiście rozwija się najintensywniej u małych dzieci, ulega później reorganizacji podczas dorastania, ale na tym nie koniec: zmienia się jeszcze i rozwija długo potem, bo jeszcze przez dziesięć do dwudziesty lat. Odkrycie to może wyjaśniać niektóre niedojrzałe zachowania osób z pozoru dorosłych, czy późną socjalizację u innych.
    • przez KopalniaWiedzy.pl
      Naukowcy z Imperial College London opracowali teoretyczną koncepcję manipulowania światłem przechodzącym w pobliżu obiektu. To oznacza, że teoretycznie możliwe jest ukrycie przed obserwatorem rozgrywających się wydarzeń tak, by nie zdawał on sobie z tego sprawy.
      Jak wcześniej donosiliśmy, profesor John Pendry z UCL opracował ideę czapki-niewidki stworzonej z metamateriałów. Teraz zespół pracujący pod kierunkiem profesora Martina McCalla matematcznie rozszerzył pomysł Pendry'ego na ukrywanie całych zdarzeń, a nie tylko obiektów.
      Światło zwalnia gdy wnika w materiał. Jednak teoretycznie możliwe jest manipulowanie promieniami światła tak, by niektóre przyspieszały, a inne zwalniały - mówi McCall. Twierdzi on, że w ten sposób można spowodować, iż część światła dotrze do obserwatora przed zdarzeniem, a część się znacznie spóźni. W efekcie przez krótki czas wydarzenie nie będzie oświetlone i nie będziemy mogli go obserwować. To z kolei prowadzi do teoretyczej możliwości niezauważalnej dla obserwatora manipulacji energię, informacją i materią. Jak mówi McCall, gdy będziemy obserwowali osobę poruszającą się korytarzem, sprawi to na nas takie wrażenie, jakby używała ona znanego ze StarTreka transportera, gdyż nagle pojawi się w innym miejscu, niż była jeszcze przed chwilą. Teoretycznie osoba ta mogłaby zrobić coś, czego obserwator nie dostrzeże.
      Ukrywanie poruszających się ludzi to wciąż jedynie wizja z dziedziny science-fiction, jednak model zespołu McCalla może znaleźć praktyczne zastosowanie w optyce czy elektronice.
      Doktor Paul Kinsler opracował już prototypową architekturę dla łączy optycznych i układów logicznych, która korzysta z koncepcji McCalla. Pomysł Kinslera zakłada, że przesył danych mógłby zostać zatrzymany w celu przeprowadzenia obliczeń, których wyniki powinny dotrzeć wcześniej. Z punktu widzenia innych części układu scalonego czy sieci przetwarzanie informacji wyglądałoby na ciągłe. Uzyskano by w ten sposób "przerwanie bez przerwania". Alberto Favaro, jeden z członków zespołu badawczego, wyjaśnia to w ten sposób: wyobraźmy sobie kanał przesyłu danych komputerowych jako autostradę pełną samochodów. Chcemy, by przez autostradę przeszedł pieszy, ale by nie prowadziło to do zatrzymania ruchu. Spowalniamy więc samochody znajdujące się przed przejściem, a te, które są na nim i za nim, przyspieszamy. Tworzymy w ten sposób przerwę, którą pieszy może przejść. W tym samym czasie obserwator stojący na dalszym odcinku autostrady nie zauważy niczego oprócz płynnie poruszających się samochodów. Uczeni, tworząc swoją koncepcję, musieli zmierzyć się z problemem przyspieszenia przesyłanych danych bez naruszania praw teorii względności. Favaro poradził sobie z tym, projektując teoretyczny materiał, którego właściwości zmieniają się w czasie i przestrzeni.
      Jesteśmy pewni, że koncepcja czasoprzestrzennej czapki-niewidki otwiera przed nami wiele różnych możliwości. Jednak na obecnym etapie to praca czysto teoretyczna i musimy dopracować szczegóły potencjalnych zastosowań - mówi McCall.
    • przez KopalniaWiedzy.pl
      Naukowców od dawna intryguje pochodzenie ziemskich oceanów. Wiadomo bowiem, że po uformowaniu się naszej planety panowały na niej bardzo wysokie temperatury, wskutek których istniejąca woda natychmiast by odparowała. Co prawda mówi się o możliwości przyniesienia wody przez komety i asteroidy, jednak tutaj rodzi się kolejny problem. Otóż w kometach znajdujemy znacznie więcej deutery niż w ziemskich oceanach, a asteroidy, bombardujące Ziemię tak często, by stworzyć oceany, powinny przynieść ze sobą też olbrzymie ilości rzadkich metali. A tych nie znajdujemy aż tak dużo.
      Rozwiązaniem zagadki postanowiła zająć się profesor Nora de Leeuw z University College London, która wraz ze swoim zespołem twierdzi, że woda była obecna na Ziemi od samego początku jej istnienia.
      Naukowcy stworzyli komputerowy model kosmicznego pyłu składającego się z oliwinów, powszechnie znajdowanych w Układzie Słonecznym i w mgławicach wokół innych gwiazd. Symulowali, co działoby się molekułami wody przyczepionymi do takiego pyłu. Badania wykazały, że oddzielenie molekuł wody od oliwinów wymaga olbrzymich ilości energii. Tak dużych, iż pył oliwinowy jest w stanie utrzymać wodę nawet w temperaturze 630 stopni Celsjusza. To wystarczyłoby, żeby woda mogła przetrwać proces formowania się Ziemi.
      Część wody na Ziemi prawdopodobnie pochodzi z tego źródła i całkiem możliwe, że jest to jej większość - mówi współautor badań, Michael Drake z University of Arizona.
      W miarę formowania się planety ciśnienie i temperatury mogły doprowadzić do oderwania molekuł wody od oliwinów i uformowania oceanów.
    • przez KopalniaWiedzy.pl
      O ile powstanie życia - pierwszej, prostej komórki jest wielka zagadką, o tyle kolejną zagadką jest powstanie organizmów wielokomórkowych. Pierwsze jednokomórkowce powstały cztery miliardy lat temu, ale dwa kolejne miliardy lat minęły, nim zaczęło pojawiać się bardziej złożone formy życia. Jak do tego doszło? Europejscy naukowcy mają nową koncepcję.
      Do tej pory sądzono, że organizmy wielokomórkowe powstały z połączenia się, rodzaju kolonii jednokomórkowców. Poszczególne komórki w takich koloniach współpracowały, potem specjalizowały się, stając się jednocześnie coraz bardziej zależne od innych, komplikując jednocześnie swoją budowę, wytwarzając jądro komórkowe, mitochondria itd.
      Nick Lane, brytyjski biolog z University College London oraz William Martin, niemiecki biolog z University of Duesseldorf uważają, że ten sposób nie zadziałałby, a organizmy wielokomórkowe powstały w inny sposób, dzięki bardzo wyjątkowemu zdarzeniu, co było przyczyną, że tak długo trzeba było czekać. Ich zdaniem najpierw musiały powstać eukarionty - czyli organizmy posiadające jądro komórkowe z mitochondriami, dopiero potem mogły one łączyć się w bardziej złożone życie.
      Dlaczego? Mitochondria są zwane komórkowymi elektrowniami, to one bowiem wytwarzają energię dla komórki. Jądro komórkowe z kolei sprawia, że komórka zawiera wielokrotnie więcej genów (nawet tysiąc razy więcej), może wytwarzać znacznie więcej różnorodnych białek, szybciej więc ewoluuje, komplikuje i dostosowuje do zmian środowiska.
      Prokarionty, czyli prymitywne komórki, pozbawione mitochondriów, zdaniem Lane'a i Martina nie dysponują wystarczającą ilością energii, aby mogły wystarczająco komplikować swoich funkcji. To nadwyżki energii pozwoliły na powiększanie złożoności i specjalizacji. Z kolei brak jądra i mała ilość genów nie dawały możliwości ewolucji, potrzeba było „nadmiaru" różnorodnych genów, żeby zapoczątkować szybką ewolucję wielokomórkową.
      Jak jednak doszło do powstania pierwszej komórki eukariotycznej? Zdaniem autorów studium musiał zaistnieć incydent, w którym jedna komórka znalazła się wewnątrz drugiej. Musiało to być zjawisko nie tylko rzadkie, ale również wymagające dodatkowych okoliczności, żeby coś z tego wyszło. W większości podobnych przypadków zapewne komórki zaczynały walczyć i niszczyły się nawzajem, albo też wewnętrzna komórka stawała się pasożytem i zabijała powoli swojego gospodarza. Jednak wyjątkowy przypadek, w którym tak połączone komórki współpracowały i wspierały się nawzajem, zapoczątkował nową jakość. Większa złożoność dawała przewagę ewolucyjną, a członkowie tandemu stopniowo zaczynali się specjalizować. Wewnętrzna komórka upraszczała się, tworząc jądro i większość zbędnych genów „przelewając" na gospodarza. Bogactwo kodu genetycznego dawało lepsze możliwości przystosowania się, a pojawienie się mitochondriów dało energię na taki proces.
      W ciągu dwóch kolejnych miliardów lat eukarionty rozwinęły się, zróżnicowały i w postaci tak różnorodnych organizmów jak rośliny, owady i zwierzęta zdominowały ekosystem.
    • przez KopalniaWiedzy.pl
      Właściwością ludzkiego umysłu jest łączenie informacji otrzymywanych od różnych zmysłów, a także różnych danych otrzymywanych od jednego zmysłu - na przykład pojedynczego oka i obydwu. Okazuje się, że dzieci poniżej dwunastego roku życia nie łączą takich informacji, taki wniosek płynie z badań przeprowadzonych przez uczonych z University College London (UCL) oraz University of London.
      Żeby zrozumieć otaczający świat polegamy na różnych rodzajach informacji - mówi doktor Marko Nardini, prowadzący badania. - Korzyścią z łączenia informacji z różnych zmysłów jest bardziej trafne ocenianie świata niż przy wykorzystaniu pojedynczego zmysłu.
      To samo dotyczy różnego rodzaju informacji w ramach jednego zmysłu, na przykład łączymy w jedno informację o odległości uzyskiwaną z perspektywy (do postrzegania której wystarcza jedno oko) z widzeniem stereoskopowym („3D") które zasadza się na różnicy informacji z obojga oczu.
      Wydaje nam się to tak naturalne, że wyniki badań nad postrzeganiem perspektywy przez dorosłych i dzieci, wykonane przez zespół dra Nardiniego były zaskoczeniem.
      W pierwszym teście dorośli oraz dzieci oglądali w okularach 3D różne ukośne powierzchnie i oceniali, która z nich jest bardziej płaska. Badanym informację z perspektywy oraz informację stereoskopową „podawano" raz jednocześnie, raz osobno. Dzieci aż do dwunastego roku życia nie potrafiły łączyć tych dwóch rodzajów informacji, żeby móc zwiększyć trafność osądu.
      W drugim badaniu sprawdzono, czy rzeczywiście dzieci potrafią postrzegać i zapamiętywać te dwa rodzaje informacji oddzielnie. Użyto do tego celu specjalnych, trójwymiarowych obrazów dysków, w których informacja pochodząca z perspektywy czasem się nie zgadzała z informacją stereoskopową. Dorośli w takich sytuacjach nie potrafili dokonać porównania dysków i ocenić, który z nich jest bardziej ukośny, zaś sześciolatkom nie sprawiało to problemu.
      Dzieje się tak dlatego, że łączenie, uśrednianie danych dwojakiego rodzaju powoduje niemożność ich rozdzielenia, efekt taki, znany jako „fuzja sensoryczna" był już udokumentowany.
      Dzieci muszą się dopiero nauczyć, w jakim stosunku do siebie pozostają poszczególne zmysły - tłumaczy profesor Denis Mareschal, współautor studium. - Podczas kiedy dziecka się rozwija, mózg musi zdeterminować sobie związki pomiędzy różnymi typami informacji zmysłowych.
      Uczeni planują w następnych badaniach użyć funkcjonalnego rezonansu magnetycznego (fMRI) do określenie, jakie ewentualne zmiany w strukturach mózgu wiążą się z nabywaniem tej umiejętności.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...