Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Naukowcy z Instytutu Cybernetyki Biologicznej Maxa Plancka w Tybindze odkryli, że ludzie lepiej rozpoznają/klasyfikują emocje z twarzy poruszających się, np. na filmie, niż uwiecznionych na zdjęciach, czyli statycznych. By zaistniała taka dynamiczna przewaga, sekwencja wideo musi trwać przynajmniej 100 milisekund (Journal of Vision).

Jeśli film jest krótszy niż jedna dziesiąta sekundy, mózgowi trudniej zinterpretować ruchy fizjonomii. Niektóre ekspresje bazują na zmianach w położeniu głowy, np. potakiwanie lub przeczenie, inne na deformacjach części twarzy, np. zmarszczenie nosa przy obrzydzeniu.

Chcąc sprawdzić, do jakiego stopnia umiemy rozpoznać na podstawie miny nastrój osoby, z którą się spotykamy, Niemcy pokazali ochotnikom zdjęcia ludzi z różnymi wyrazami twarzy: prostymi (szczęście czy smutek) i bardziej złożonymi, takimi jak zgoda, zaskoczenie lub zakłopotanie, stosowanymi zwykle do podkreślania albo modyfikowania stwierdzeń padających w trakcie rozmowy. Sprawdzając, czy emocje te są lepiej rozpoznawane w ruchu, czy w wersji statycznej, naukowcy wyświetlili badanym krótką sekwencję. Nagranie wideo rozpoczynało się od neutralnego wyrazu twarzy, potem pojawiała się jakaś emocja, a filmik kończył się na ostatniej klatce przed zmianą miny z powrotem na neutralną. Ujęcia wykorzystane w statycznej części eksperymentu były ostatnimi, tzw. szczytowymi klatkami sekwencji dynamicznej.

W kolejnych eksperymentach nagrania wideo przekształcano w serię fotografii. Emocje były trafniej rozpoznawane na nagraniu. W ten sposób Niemcy wykazali, że przewaga filmów nie polega na większej liczebności zdjęć. Wszystko wskazuje na to, że zapewniają one dodatkowe informacje dynamiczne. By się przekonać, do jakiego stopnia rozpoznanie wyrazu twarzy bazuje na naturalnych ruchach, klatki prezentowano jako film, lecz w losowej kolejności. Porównanie wyników uzyskanych dla wersji oryginalnej i zmiksowanej ujawniło, że ludzie lepiej radzą sobie z oryginałem. Niezwykle ważne okazało się też uporządkowanie chronologiczne. Gdy filmy odtwarzano wspak, także spadała trafność rozpoznania.

Nasze badania mają znaczenie [choćby] dla animacji komputerowej, ponieważ dla specjalistów z tej branży istotne jest stworzenie awatarów i animacji twarzy, które mogłyby się realistycznie i wiarygodnie komunikować – podkreśla dr Christian Wallraven, współautor studium, a zarazem fizyk i teoretyk postrzegania.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Psychologowie z University of Exeter uważają, że odpowiedzieli na pytanie, które nauka zadała sobie przed 60 laty – dlaczego ludzie mają większy problem z rozpoznaniem twarzy osób innych ras niż rasy własnej? Rasy rozumianej tutaj jako przynależność do grupy etnicznej o widocznych różnicach wyglądu twarzy.
      Podczas pierwszych badań naukowych nad tym fenomenem zwanym ORE (Other-Race-Effect), uczeni zajmujący się naukami społecznymi interpretowali to zjawiska jako wskazówkę, w jaki sposób obserwator, szczególnie ten z większą liczbą uprzedzeń rasowych, wchodzi w interakcje z ludźmi innych ras. Stwierdzali, że z mniejszą ochotą angażujemy się w takie relacje, zatem nie angażujemy tak bardzo pamięci, by odróżniać ich twarze. Z czasem na tej bazie zbudowano wiele różnych wersji hipotez próbujących wyjaśnić ORE. W ostatnim czasie pojawiła się najbardziej rozbudowana, mówiąca o tym, że inaczej postrzegamy ludzi należących do innych ras, zatem inaczej przetwarzamy informacje na ich temat. W interakcji z członkami własnej rasy poszukujemy w nich cech indywidualnych, by móc ich od siebie odróżnić, podczas gdy przedstawicieli innych ras kategoryzujemy na bardziej ogólnych zasadach, biorąc pod uwagę przede wszystkim ich rasę, płeć czy wiek, co utrudnia odróżnienie poszczególnych osób od siebie. Innymi słowy, kategoryzujemy ludzi pod kątem ich przynależności grupowej – w tym przypadku rasy – używając innych kategorii przy rozpoznawaniu członków grupy własnej i obcej.
      Inne interpretacje zaproponowali zaś naukowcy zajmujący się procesami poznawczymi. Ich zdaniem trudności w rozpoznawaniu ludzi innej rasy wynikają z braku wizualnego doświadczenia, przez co gorzej potrafimy ich od siebie odróżnić. Uczeni dostarczyli dowodów wskazujących, że większe doświadczenie z ludźmi innych ras skutkuje lepszym rozpoznawaniem ich twarzy. Ostatnio pojawiło się też badanie, które sugeruje, że istnieje okienko rozwojowe – do mniej więcej 12. roku życia – w którym nauczenie się rozpoznawania przedstawicieli innych ras jest ułatwione. Zdaniem specjalistów od procesów poznawczych, wyraźnie lepsze umiejętności w rozpoznawaniu osób własnej rasy wynikają z większego doświadczenia w kategoryzowaniu cech charakterystycznych twarzy takich osób w porównaniu z twarzami osób innych ras, a nie z innego kategoryzowania przedstawicieli ras innych od naszej.
      Na takie wyjaśnienie wskazują liczne eksperymenty FIE (face inversion effect), podczas których prezentowano ludziom twarze różnych osób, z których część była odwrócona do góry nogami. Eksperymenty te pokazały, że różnica w tempie rozpoznawania twarzy osób ułożonej normalnie i odwróconej była większa w przypadku osób z własnej grupy, co pokazuje, że odwrócenie zaburza nam wyuczony schemat rozpoznawania.
      Naukowcy z University of Exeter przeprowadzili eksperyment z wykorzystaniem nieinwazyjnej przezczaszkowej stymulacji prądem stałym (tDCS). W eksperymencie wzięło udział niemal 100 białych studentów. Podzielono ich na dwie grupy. Grupa eksperymentalna była stymulowana za pomocą tDCS tak, by zaburzyć ich zdolność do rozpoznawania prawidłowo ułożonych twarzy. Grupa kontrolna również była stymulowana tDCS, jednak stymulację dobrano tak, by nie zaburzała funkcjonowania mózgu. Obie grupy miały za zadanie rozpoznawać na zdjęciach prawidłowo ułożone oraz odwrócone twarze białych Europejczyków oraz mieszkańców Azji Wschodniej (Chińczyków, Japończyków i Koreańczyków).
      Eksperyment wykazał, że w grupie kontrolnej opóźnienie czasu rozpoznawania odwróconych twarzy przedstawicieli własnej rasy było niemal 3-krotnie większe od opóźnienia przy rozpoznawaniu odwróconych twarzy innej rasy. Było to głównie spowodowane faktem bardzo szybkiego rozpoznawania prawidłowo ułożonej twarzy przedstawicieli własnej rasy. Natomiast w grupie eksperymentalnej, w której za pomocą tDCS zaburzono rozpoznawanie prawidłowo ułożonych twarzy przedstawicieli własnej rasy, nie zauważono różnic zarówno w tempie rozpoznawania prawidłowo ułożonych jak i odwróconych twarzy ludzi różnych ras.
      Autorzy eksperymentu stwierdzają, że wykazał on, iż różnice w zdolnościach do rozpoznawania twarzy osób własnej rasy i innych ras ma związek z doświadczeniem, a nie uprzedzeniami. Podkreślają, że opracowana przez nich technika może zostać wykorzystana podczas innych eksperymentów związanych z badaniem percepcji.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Twarz to nasz znak rozpoznawczy. Nasza cecha osobista, a jednocześnie uniwersalna. To po twarzach się rozpoznajemy, służą nam one do komunikowania emocji. Nasza twarz to nie tylko skóra i mięśnie, ale i składająca się z 14 kości twarzoczaszka. Już na pierwszy rzut oka potrafimy naszą twarz odróżnić od twarzy naszych krewniaków, czy to szympansa czy neandertalczyka. Naukowcy z Uniwersytetu Nowojorskiego prześledzili ewolucję ludzkiej twarzy i opisali, jak doszło do tego, że wyglądamy tak, a nie inaczej.
      Najważniejszą cechą twarzy Homo sapiens jest fakt, że nie jest ona wysunięta przed czoło, jak to widzimy w wielu skamieniałościach. Ponadto mamy mniej uwydatnione łuki brwiowe i bardziej zróżnicowaną topografię twarzy. A w porównaniu z naszymi najbliższymi żyjącymi krewniakami – szympansami – nasze twarze są znacznie bardziej płaskie, lepiej zintegrowane z czaszką, a nie wypchnięte przed czoło.
      Ważnym czynnikiem, który ukształtował wygląd twarzy Homo sapiens była dieta. Gdy popatrzymy na czaszki niektórych wczesnych homininów zobaczymy strukturę kości sugerującą, że posiadali oni potężne mięśnie ułatwiające żucie, w połączeniu z bardzo dużymi zębami wskazuje to, że byli lepiej przystosowani do spożywania twardej żywności. Mieli przy tym niezwykle płaskie twarze. U ludzi bardziej współczesnych, którzy przechodzili z wędrownego trybu życia do życia bardziej osiadłego, twarze stają się mniejsze. Z kolei to zmniejszenie się twarzy, pojawienie się mniej wydatnych łuków brwiowych, mogło pomagać w komunikacji społecznej, pozwalając na znacznie bardziej subtelne miny, dzięki czemu rozwinęliśmy komunikację niewerbalną. Wystarczy tutaj przyjrzeć się szympansom, które mają znacznie mniejszy repertuar ekspresji twarzy, ale też i ich twarze wyglądają zupełnie inaczej niż nasze.
      Rolę w kształtowaniu się twarzy odegrał też klimat. Jeśli porównamy się z neandertalczykami, pierwsze, co zobaczymy, to ich wydatne nosy. To adaptacja do zimnego klimatu. Dzięki większym jamom nosowym byli oni w stanie bardziej efektywnie ogrzewać i nawilżać powietrze, którym oddychali. Jednak te większe jamy nosowe spowodowały, że twarz neandertalczyka jest bardziej wypchnięta do przodu, szczególnie w części środkowej.
      Także i obecnie widoczna jest różnica w budowie jamy nosowej pomiędzy ludźmi żyjącymi w chłodnym i suchym klimacie, a między mieszkańcami obszarów ciepłych i wilgotnych. Jako, że klimat się ociepla, możemy spodziewać się, że z czasem spowoduje to zmiany ewolucyjne w ludzkiej twarzy. Jednak trudno powiedzieć, jakie będą to zmiany, gdyż na to, jak wyglądamy wpływa połączenie czynników biomechanicznych, fizjologicznych i społecznych.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Na University of Oxford powstaje oprogramowanie, które na podstawie wyglądu twarrzy ma rozpoznawać rzadkie choroby genetyczne. Choroby takie dotykają około 6% populacji, ale w większości przypadków pozostają nierozpoznane. Istnieją testy genetyczne pozwalające zdiagnozować częściej występujące schorzenia, takie jak np. zespół Downa. Jednak dla wielu chorób testy nie zostały opracowane, gdyż nie zidentyfikowano genów, które je powodują.
      W przypadku 30-40 procent osób cierpiących na schorzenia genetyczne pewne charakterystyczne cechy są widoczne na twarzach. I właśnie na tej podstawie lekarz może postawić diagnozę. Problem w tym, że niewielu medyków ma odpowiednie przygotowanie pozwalające na rozpoznanie chorób genetycznych na podstawie wyglądu twarzy. Z tego też powodu wiele osób nie ma przez całe lata postawionej prawidłowej diagnozy.
      Dlatego też Christoffer Nellaker i Andrew Zisserman z Oxfordu postanowili stworzyć oprogramowanie, które na podstawie zdjęcia będzie pomagało we wstępnej diagnostyce.
      Obaj naukowcy wykorzystali w swojej pracy 1363 publicznie dostępne zdjęcia osób cierpiących na osiem schorzeń genetycznych. Znalazły się wśród nich fotografie chorych na zespół Downa, zespół łamliwego chromosomu X czy progerię. Komputer uczył się identyfikować każdą z chorób na podstawie zestawu 36 cech twarzy, takich jak kształt oczu, ust, nosa czy brwi. „Automatycznie analizuje zdjęcie i skupia się na głównych cechach, z których tworzy opis twarzy podkreślając cechy odróżniające” - mówi Nellaker. Później opis taki jest przez komputer porównywany ze zdjęciami osób ze zdiagnozowanymi schorzeniami. Na tej podstawie maszyna wydaje swoją opinię i określa prawdopodobieństwo, z jaki dana osoba może cierpieć na któreś ze schorzeń.
      Skuteczność algorytmu zwiększa się wraz z wielkością bazy danych fotografii referencyjnych. W przypadku ośmiu schorzeń genetycznych, którymi obecnie się zajęto, baza danych dla każdej z nich wynosiła od 100 do 283 zdjęć osób ze zdiagnozowanymi chorobami. Testy wykazały, że maszyna rozpoznaje choroby z 93-procentową trafnością.
      Tak obiecujące wyniki skłoniły naukowców do rozszerzenia zestawu diagnozowanych chorób do 91. W bazie danych znajdują się obecnie 2754 zdjęcia osób, u których rozpoznano jedną z tych chorób. Na razie system nie podaje dokładnej diagnozy, jednak naukowcy szacują, że już w tej chwili ich algorytm potrafi właściwie rozpoznać chorobę z 30-krotnie większym prawdopodobieństwem niż przy losowym zgadywaniu. Na przykład na podstawie zdjęcia Abrahama Lincolna system uznał, że cierpiał on na zespół Marfana. Niektórzy historycy twierdzą, że prezydent rzeczywiście na to chorował. Zespół Marfana jest siódmą najczęściej występujących schorzeniem spośród 91, którymi zajmuje się algorytm.
      Nellaker przyznaje, że algorytm nie podaje 100-procentowo pewnych odpowiedzi, ale pozwala na znaczne zawężenie możliwości wyboru. Teoretycznie może być on używany do diagnozowania noworodków, jednak jego twórcy uważają, że będzie używany głównie do diagnozowania rodziców, którzy martwią się, iż mogliby swoim dzieciom przekazać jakieś schorzenia. Główną zaletą systemu będzie jego łatwa dostępność. Szczególnie przyda się on tam, gdzie testy genetyczne są niedostępne.
      Ma on też olbrzymią przewagę nad stworzonymi wcześniej systemami korzystającymi z obrazów 3D. Tworzenie takich obrazów jest trudne i kosztowne, a pacjent musi odwiedzić szpital, w którym obraz zostanie wykonany. System Nellakera i Zissermana potrzebuje jedynie cyfrowego zdjęcia twarzy.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Na University of Hertfordshire wykonano fotografię o najdłuższym czasie naświetlania w dziejach. Znaleziono ją wewnątrz puszki po piwie przyczepionej do kopuły Bayfordbury Observatory. Puszkę umieściła tam Regina Valkenborgh, a dzięki temu, że kobieta zapomniała o swoim eksperymencie, klisza naświetlała się przez 8 lat i 1 miesiąc.
      Wszystko zaczęło się w 2012 roku, kiedy Regina na potrzeby swojej pracy magisterskiej z dziedziny sztuk pięknych postanowiła wykonać fotografie bez użycia nowoczesnych technologii. Wykorzystała więc puszki po piwie, w których umieściła błonę fotograficzną, tworząc w ten sposób aparat otworkowy. Valkenborgh umieściła kilka takich puszek na kopule uniwersyteckiego obserwatorium.
      Próbowałam kilkukrotnie tej techniki w obserwatorium, jednak efekty nie były zachęcające. Zdjęcia były uszkodzone przez wilgoć, film się zwijał, wspomina po latach. Jednak najwyraźniej zapomniała zdjąć jednej z puszek. To łut szczęścia, że przez te lata fotografia pozostała nietknięta i David [konserwator zatrudniony w obserwatorium – red.] ją znalazł, mówi Valkenborgh, która jest obecnie technikiem fotografii w Barnet and Southgate College.
      Na wykonanej fotografii widzimy 2953 linie wyrysowane przez wędrujące po nieboskłonie Słońce. Świetnie pokazują one, jak nasza gwiazda zmienia wraz z porami roku pozycję nad horyzontem.
      Fotografia o długim czasie ekspozycji jest często używana do zilustrowania przemijania czasu. Dotychczas zdjęciem o najdłuższej ekspozycji była fotografia wykonana przez niemieckiego artystę Michael Wesely'ego, który naświetlał ją przez 4 lata i 8 miesięcy.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Inżynierowie w University of Texas at Austin stworzyli najmniejsze w dziejach urządzenie do przechowywania danych. Profesor Deji Akiwande i jego zespół opierali się na opisywanych już przez nas badaniach, w czasie których powstał atomistor, najcieńsze urządzenie do składowania danych. Teraz naukowcy poczynili krok naprzód zmniejszając przekrój swojego urządzenie do zaledwie 1 nm2.
      Kluczem do dalszej redukcji rozmiarów urządzenia było dobre poznanie właściwości materiałów w tak małej skali i wykorzystanie roli defektów w materiale. Gdy pojedynczy dodatkowy atom metalu wypełnia dziurę, przekazuje materiałowi nieco ze swojego przewodnictwa, co prowadzi do zmiany czyli pojawienia się efektu pamięciowego, mówi Akinwande. Mniejsze układy pamięci pozwolą na stworzenie mniejszych komputerów i telefonów. Układy takie zużywają też mniej energii, pozwalają przechować więcej danych w mniejszej przestrzeni, działają też szybciej.
      Wyniki tych badań przecierają drogę do opracowania przyszłych generacji interesującego Departament Obrony sprzętu takiego jak ultragęste układy pamięci, neuromorficzne systemy komputerowe, systemy komunikacyjne działające w zakresie fal radiowych i inne, mówi Pani Veranasi, menedżer w US Army Research Office, które finansowało najnowsze badaniach.
      Atomristor, na którym oparto najnowsze badania, był już najcieńszym układem pamięci. Jego grubość wynosiła zaledwie 1 atom. Jednak dla zmniejszenia urządzeń ważny jest również ich przekrój poprzeczny. Tym, czego poszukiwaliśmy było spowodowanie by pojedynczy atom kontrolował funkcje pamięci. Udało się nam to osiągnąć, mówi Akinwande.
      Nowe urządzenie należy do kategorii memrystorów, urządzeń zdolnych do modyfikowania oporności pomiędzy dwoma punktami końcowymi bez potrzeby używania bramki w roli pośrednika. Opracowana właśnie odmiana memrystora, którą stworzono dzięki wykorzystaniu zaawansowanych narzędzi z Oak Ridge National Laboratory, daje szanse na osiągnięcie gęstości zapisu rzędu 25 Tb/cm2. To 100 krotnie więcej niż obecnie dostępne komercyjne układ flash.
      Nowy układ pamięci wykorzystuje dwusiarczek molibdenu (MoS2). Jednak jego twórcy zapewniają, że w tej roli można wykorzystać setki innych materiałów o podobnej budowie.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...