Zaloguj się, aby obserwować tę zawartość
Obserwujący
0
Czyjś uśmiech zwiększa samoakceptację
dodany przez
KopalniaWiedzy.pl, w Psychologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Internet pełen jest zdjęć jedzenia. Widzimy je i w mediach społecznościowych, i na witrynach WWW, i na reklamach. Wiele z nich prezentowanych jest po to, by wywołać w nas chęć zjedzenia konkretnej rzeczy czy dania. Widok żywności ma spowodować, że staniemy się głodni. Jednak badania przeprowadzone przez naukowców z Aarhus University pokazują, że prezentacja zdjęć z jedzeniem może mieć na nas przeciwny wpływ. Szczególnie, jeśli wielokrotnie widzimy tę samą potrawę.
Duńscy uczeni dowodzą, że gdy widzimy to samo zdjęcie pożywienia ponad 30 razy, czujemy się bardziej najedzeni, niż zanim zobaczyliśmy fotografię po raz pierwszy. Ponadto uczestnicy badań, którym wielokrotnie pokazywaliśmy to samo zdjęcie i pytaliśmy ich, jak dużo danego produktu by zjedli, już po trzeciej prezentacji wybierali mniejsze porcje, mówi doktor Tjark Andersen.
Może się wydawać dziwne, że uczestnicy badań czuli się najedzeni, podczas gdy niczego nie zjedli. Ale to naturalnej zjawisko. To, co myślimy o jedzeniu ma bowiem wpływ na apetyt. Apetyt jest ściślej powiązany z doświadczeniem poznawczym, niż się większości z nas wydaje. Bardzo ważny jest sposób, w jaki myślimy o jedzeniu. Eksperymenty pokazały na przykład, że jeśli ludziom powie się, że są różne kolory żelków i pozwoli im się jeść do woli żelki czerwone, to nadal będą chcieli zjeść żelka żółtego, mimo że żółte smakują tak samo jak czerwone, wyjaśnia Andersen. Z kolei z innych badań wynika, że jeśli wyobrażamy sobie, jak nasze zęby zagłębiają się w soczyste jabłko, dochodzi do aktywacji tych samych obszarów mózgu, co podczas jedzenia. Mamy tutaj do czynienia z reakcją fizjologiczną na samą myśl o czymś. To dlatego możemy poczuć się najedzeni bez jedzenia, dodaje uczony.
Naukowcy z Aarhus nie są pierwszymi, którzy zauważyli, że same obrazy jedzenia zwiększają uczucie sytości. To wiedzieli już wcześniej. Chcieli się jednak dowiedzieć, jak wiele ekspozycji na obraz potrzeba, byśmy czuli się najedzeni oraz czy różne zdjęcia tego samego pożywienia zniosą uczucie sytości.
Z wcześniejszych badań wiemy, że zdjęcia różnych rodzajów żywności nie mają tego samego wpływu na uczucie sytości. Dlatego gdy najemy się obiadem, mamy jeszcze miejsce na deser. Słodycze to zupełnie inny rodzaj żywności, mówią naukowcy.
Duńczycy przygotowali więc serię online'owych eksperymentów, w których wzięło udział ponad 1000 osób. Najpierw pokazywano im zdjęcie pomarańczowych M&M'sów. Niektórzy widzieli je 3 razy, inni 30 razy. Okazało się, że ta grupa, która widziała zdjęcie więcej razy, czuła się bardziej najedzona. Uczestników zapytano też, ile (od 1 do 10) draży by zjedli. Po obejrzeniu 30 zdjęć uczestnicy wybierali mniejszą liczbę.
Później eksperyment powtórzono, ale z drażami o różnych kolorach. Nie wpłynęło to na wyniki badań. Jednak później zdjęcia M&M'sów zastąpiono zdjęciami draży Skittles, w przypadku których różne kolory smakują różnie. Okazało się jednak, że znowu nie było różnicy. To sugeruje, że wpływ na zmianę naszego poczucia sytości ma więcej parametrów niż kolor i smak, dodaje Andersen.
Naukowcy nie wykluczają, że ich spostrzeżenia można będzie wykorzystać w walce z nadwagą i spożywaniem śmieciowego jedzenia. Wyobraźmy sobie aplikację, korzystającą z wyszukiwarki obrazów. Gdy masz ochotę na pizzę, wpisujesz to w aplikację, a ona prezentuje Ci zdjęcia pizzy. Ty sobie wyobrażasz, jak ją jesz i czujesz się nasycony. Ochota na pizzę ci przechodzi, wyjaśnia uczony.
Zdjęcia jedzenia zalewające internet mogą być jedną z przyczyn, dla której wiele osób ulega chwilowym pokusom i sięga po niezdrową wysoko przetworzoną żywność. Jednak, jak wynika z powyższych eksperymentów, te same zdjęcia i ten sam internet mogą pomóc w pozbyciu się niezdrowych nawyków i nieuleganiu pokusom.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Psychologowie z University of Exeter uważają, że odpowiedzieli na pytanie, które nauka zadała sobie przed 60 laty – dlaczego ludzie mają większy problem z rozpoznaniem twarzy osób innych ras niż rasy własnej? Rasy rozumianej tutaj jako przynależność do grupy etnicznej o widocznych różnicach wyglądu twarzy.
Podczas pierwszych badań naukowych nad tym fenomenem zwanym ORE (Other-Race-Effect), uczeni zajmujący się naukami społecznymi interpretowali to zjawiska jako wskazówkę, w jaki sposób obserwator, szczególnie ten z większą liczbą uprzedzeń rasowych, wchodzi w interakcje z ludźmi innych ras. Stwierdzali, że z mniejszą ochotą angażujemy się w takie relacje, zatem nie angażujemy tak bardzo pamięci, by odróżniać ich twarze. Z czasem na tej bazie zbudowano wiele różnych wersji hipotez próbujących wyjaśnić ORE. W ostatnim czasie pojawiła się najbardziej rozbudowana, mówiąca o tym, że inaczej postrzegamy ludzi należących do innych ras, zatem inaczej przetwarzamy informacje na ich temat. W interakcji z członkami własnej rasy poszukujemy w nich cech indywidualnych, by móc ich od siebie odróżnić, podczas gdy przedstawicieli innych ras kategoryzujemy na bardziej ogólnych zasadach, biorąc pod uwagę przede wszystkim ich rasę, płeć czy wiek, co utrudnia odróżnienie poszczególnych osób od siebie. Innymi słowy, kategoryzujemy ludzi pod kątem ich przynależności grupowej – w tym przypadku rasy – używając innych kategorii przy rozpoznawaniu członków grupy własnej i obcej.
Inne interpretacje zaproponowali zaś naukowcy zajmujący się procesami poznawczymi. Ich zdaniem trudności w rozpoznawaniu ludzi innej rasy wynikają z braku wizualnego doświadczenia, przez co gorzej potrafimy ich od siebie odróżnić. Uczeni dostarczyli dowodów wskazujących, że większe doświadczenie z ludźmi innych ras skutkuje lepszym rozpoznawaniem ich twarzy. Ostatnio pojawiło się też badanie, które sugeruje, że istnieje okienko rozwojowe – do mniej więcej 12. roku życia – w którym nauczenie się rozpoznawania przedstawicieli innych ras jest ułatwione. Zdaniem specjalistów od procesów poznawczych, wyraźnie lepsze umiejętności w rozpoznawaniu osób własnej rasy wynikają z większego doświadczenia w kategoryzowaniu cech charakterystycznych twarzy takich osób w porównaniu z twarzami osób innych ras, a nie z innego kategoryzowania przedstawicieli ras innych od naszej.
Na takie wyjaśnienie wskazują liczne eksperymenty FIE (face inversion effect), podczas których prezentowano ludziom twarze różnych osób, z których część była odwrócona do góry nogami. Eksperymenty te pokazały, że różnica w tempie rozpoznawania twarzy osób ułożonej normalnie i odwróconej była większa w przypadku osób z własnej grupy, co pokazuje, że odwrócenie zaburza nam wyuczony schemat rozpoznawania.
Naukowcy z University of Exeter przeprowadzili eksperyment z wykorzystaniem nieinwazyjnej przezczaszkowej stymulacji prądem stałym (tDCS). W eksperymencie wzięło udział niemal 100 białych studentów. Podzielono ich na dwie grupy. Grupa eksperymentalna była stymulowana za pomocą tDCS tak, by zaburzyć ich zdolność do rozpoznawania prawidłowo ułożonych twarzy. Grupa kontrolna również była stymulowana tDCS, jednak stymulację dobrano tak, by nie zaburzała funkcjonowania mózgu. Obie grupy miały za zadanie rozpoznawać na zdjęciach prawidłowo ułożone oraz odwrócone twarze białych Europejczyków oraz mieszkańców Azji Wschodniej (Chińczyków, Japończyków i Koreańczyków).
Eksperyment wykazał, że w grupie kontrolnej opóźnienie czasu rozpoznawania odwróconych twarzy przedstawicieli własnej rasy było niemal 3-krotnie większe od opóźnienia przy rozpoznawaniu odwróconych twarzy innej rasy. Było to głównie spowodowane faktem bardzo szybkiego rozpoznawania prawidłowo ułożonej twarzy przedstawicieli własnej rasy. Natomiast w grupie eksperymentalnej, w której za pomocą tDCS zaburzono rozpoznawanie prawidłowo ułożonych twarzy przedstawicieli własnej rasy, nie zauważono różnic zarówno w tempie rozpoznawania prawidłowo ułożonych jak i odwróconych twarzy ludzi różnych ras.
Autorzy eksperymentu stwierdzają, że wykazał on, iż różnice w zdolnościach do rozpoznawania twarzy osób własnej rasy i innych ras ma związek z doświadczeniem, a nie uprzedzeniami. Podkreślają, że opracowana przez nich technika może zostać wykorzystana podczas innych eksperymentów związanych z badaniem percepcji.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Twarz to nasz znak rozpoznawczy. Nasza cecha osobista, a jednocześnie uniwersalna. To po twarzach się rozpoznajemy, służą nam one do komunikowania emocji. Nasza twarz to nie tylko skóra i mięśnie, ale i składająca się z 14 kości twarzoczaszka. Już na pierwszy rzut oka potrafimy naszą twarz odróżnić od twarzy naszych krewniaków, czy to szympansa czy neandertalczyka. Naukowcy z Uniwersytetu Nowojorskiego prześledzili ewolucję ludzkiej twarzy i opisali, jak doszło do tego, że wyglądamy tak, a nie inaczej.
Najważniejszą cechą twarzy Homo sapiens jest fakt, że nie jest ona wysunięta przed czoło, jak to widzimy w wielu skamieniałościach. Ponadto mamy mniej uwydatnione łuki brwiowe i bardziej zróżnicowaną topografię twarzy. A w porównaniu z naszymi najbliższymi żyjącymi krewniakami – szympansami – nasze twarze są znacznie bardziej płaskie, lepiej zintegrowane z czaszką, a nie wypchnięte przed czoło.
Ważnym czynnikiem, który ukształtował wygląd twarzy Homo sapiens była dieta. Gdy popatrzymy na czaszki niektórych wczesnych homininów zobaczymy strukturę kości sugerującą, że posiadali oni potężne mięśnie ułatwiające żucie, w połączeniu z bardzo dużymi zębami wskazuje to, że byli lepiej przystosowani do spożywania twardej żywności. Mieli przy tym niezwykle płaskie twarze. U ludzi bardziej współczesnych, którzy przechodzili z wędrownego trybu życia do życia bardziej osiadłego, twarze stają się mniejsze. Z kolei to zmniejszenie się twarzy, pojawienie się mniej wydatnych łuków brwiowych, mogło pomagać w komunikacji społecznej, pozwalając na znacznie bardziej subtelne miny, dzięki czemu rozwinęliśmy komunikację niewerbalną. Wystarczy tutaj przyjrzeć się szympansom, które mają znacznie mniejszy repertuar ekspresji twarzy, ale też i ich twarze wyglądają zupełnie inaczej niż nasze.
Rolę w kształtowaniu się twarzy odegrał też klimat. Jeśli porównamy się z neandertalczykami, pierwsze, co zobaczymy, to ich wydatne nosy. To adaptacja do zimnego klimatu. Dzięki większym jamom nosowym byli oni w stanie bardziej efektywnie ogrzewać i nawilżać powietrze, którym oddychali. Jednak te większe jamy nosowe spowodowały, że twarz neandertalczyka jest bardziej wypchnięta do przodu, szczególnie w części środkowej.
Także i obecnie widoczna jest różnica w budowie jamy nosowej pomiędzy ludźmi żyjącymi w chłodnym i suchym klimacie, a między mieszkańcami obszarów ciepłych i wilgotnych. Jako, że klimat się ociepla, możemy spodziewać się, że z czasem spowoduje to zmiany ewolucyjne w ludzkiej twarzy. Jednak trudno powiedzieć, jakie będą to zmiany, gdyż na to, jak wyglądamy wpływa połączenie czynników biomechanicznych, fizjologicznych i społecznych.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Na University of Oxford powstaje oprogramowanie, które na podstawie wyglądu twarrzy ma rozpoznawać rzadkie choroby genetyczne. Choroby takie dotykają około 6% populacji, ale w większości przypadków pozostają nierozpoznane. Istnieją testy genetyczne pozwalające zdiagnozować częściej występujące schorzenia, takie jak np. zespół Downa. Jednak dla wielu chorób testy nie zostały opracowane, gdyż nie zidentyfikowano genów, które je powodują.
W przypadku 30-40 procent osób cierpiących na schorzenia genetyczne pewne charakterystyczne cechy są widoczne na twarzach. I właśnie na tej podstawie lekarz może postawić diagnozę. Problem w tym, że niewielu medyków ma odpowiednie przygotowanie pozwalające na rozpoznanie chorób genetycznych na podstawie wyglądu twarzy. Z tego też powodu wiele osób nie ma przez całe lata postawionej prawidłowej diagnozy.
Dlatego też Christoffer Nellaker i Andrew Zisserman z Oxfordu postanowili stworzyć oprogramowanie, które na podstawie zdjęcia będzie pomagało we wstępnej diagnostyce.
Obaj naukowcy wykorzystali w swojej pracy 1363 publicznie dostępne zdjęcia osób cierpiących na osiem schorzeń genetycznych. Znalazły się wśród nich fotografie chorych na zespół Downa, zespół łamliwego chromosomu X czy progerię. Komputer uczył się identyfikować każdą z chorób na podstawie zestawu 36 cech twarzy, takich jak kształt oczu, ust, nosa czy brwi. „Automatycznie analizuje zdjęcie i skupia się na głównych cechach, z których tworzy opis twarzy podkreślając cechy odróżniające” - mówi Nellaker. Później opis taki jest przez komputer porównywany ze zdjęciami osób ze zdiagnozowanymi schorzeniami. Na tej podstawie maszyna wydaje swoją opinię i określa prawdopodobieństwo, z jaki dana osoba może cierpieć na któreś ze schorzeń.
Skuteczność algorytmu zwiększa się wraz z wielkością bazy danych fotografii referencyjnych. W przypadku ośmiu schorzeń genetycznych, którymi obecnie się zajęto, baza danych dla każdej z nich wynosiła od 100 do 283 zdjęć osób ze zdiagnozowanymi chorobami. Testy wykazały, że maszyna rozpoznaje choroby z 93-procentową trafnością.
Tak obiecujące wyniki skłoniły naukowców do rozszerzenia zestawu diagnozowanych chorób do 91. W bazie danych znajdują się obecnie 2754 zdjęcia osób, u których rozpoznano jedną z tych chorób. Na razie system nie podaje dokładnej diagnozy, jednak naukowcy szacują, że już w tej chwili ich algorytm potrafi właściwie rozpoznać chorobę z 30-krotnie większym prawdopodobieństwem niż przy losowym zgadywaniu. Na przykład na podstawie zdjęcia Abrahama Lincolna system uznał, że cierpiał on na zespół Marfana. Niektórzy historycy twierdzą, że prezydent rzeczywiście na to chorował. Zespół Marfana jest siódmą najczęściej występujących schorzeniem spośród 91, którymi zajmuje się algorytm.
Nellaker przyznaje, że algorytm nie podaje 100-procentowo pewnych odpowiedzi, ale pozwala na znaczne zawężenie możliwości wyboru. Teoretycznie może być on używany do diagnozowania noworodków, jednak jego twórcy uważają, że będzie używany głównie do diagnozowania rodziców, którzy martwią się, iż mogliby swoim dzieciom przekazać jakieś schorzenia. Główną zaletą systemu będzie jego łatwa dostępność. Szczególnie przyda się on tam, gdzie testy genetyczne są niedostępne.
Ma on też olbrzymią przewagę nad stworzonymi wcześniej systemami korzystającymi z obrazów 3D. Tworzenie takich obrazów jest trudne i kosztowne, a pacjent musi odwiedzić szpital, w którym obraz zostanie wykonany. System Nellakera i Zissermana potrzebuje jedynie cyfrowego zdjęcia twarzy.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Na University of Hertfordshire wykonano fotografię o najdłuższym czasie naświetlania w dziejach. Znaleziono ją wewnątrz puszki po piwie przyczepionej do kopuły Bayfordbury Observatory. Puszkę umieściła tam Regina Valkenborgh, a dzięki temu, że kobieta zapomniała o swoim eksperymencie, klisza naświetlała się przez 8 lat i 1 miesiąc.
Wszystko zaczęło się w 2012 roku, kiedy Regina na potrzeby swojej pracy magisterskiej z dziedziny sztuk pięknych postanowiła wykonać fotografie bez użycia nowoczesnych technologii. Wykorzystała więc puszki po piwie, w których umieściła błonę fotograficzną, tworząc w ten sposób aparat otworkowy. Valkenborgh umieściła kilka takich puszek na kopule uniwersyteckiego obserwatorium.
Próbowałam kilkukrotnie tej techniki w obserwatorium, jednak efekty nie były zachęcające. Zdjęcia były uszkodzone przez wilgoć, film się zwijał, wspomina po latach. Jednak najwyraźniej zapomniała zdjąć jednej z puszek. To łut szczęścia, że przez te lata fotografia pozostała nietknięta i David [konserwator zatrudniony w obserwatorium – red.] ją znalazł, mówi Valkenborgh, która jest obecnie technikiem fotografii w Barnet and Southgate College.
Na wykonanej fotografii widzimy 2953 linie wyrysowane przez wędrujące po nieboskłonie Słońce. Świetnie pokazują one, jak nasza gwiazda zmienia wraz z porami roku pozycję nad horyzontem.
Fotografia o długim czasie ekspozycji jest często używana do zilustrowania przemijania czasu. Dotychczas zdjęciem o najdłuższej ekspozycji była fotografia wykonana przez niemieckiego artystę Michael Wesely'ego, który naświetlał ją przez 4 lata i 8 miesięcy.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.