Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Niewłaściwe wychowywanie dzieci odruchowo kojarzone jest z gorszymi wynikami w nauce. Badanie australijskich naukowców pokazuje, że zarówno zaniedbywanie, jak i maltretowanie dzieci powoduje i nich spadek IQ i gorsze wyniki w nauce w okresie dojrzewania.

Przekrojowe badanie, przeprowadzone przez zespół doktora Ryana Millsa z University of Queensland dostarczyło pierwszy wyników potwierdzających oddzielnie negatywny wpływ zaniedbywania i wykorzystywania dzieci na ich inteligencję. Długofalowe studium wykorzystało dane z bazy projektu MUSP (Mater-University Study of Pregnancy) - siedem tysięcy przypadków (dzieci i ich matek) urodzonych w latach 1981-1983 w szpitalu w Brisbane. W badaniu wykorzystano także poufnie dane z Department of Families, Youth and Community Care, zawierające informacje o rodzinach z kłopotami wychowawczymi. Prawie cztery tysiące dzieci z bazy MUSP wypełniało w wieku 14 lat test badający umiejętności liczenia, czytania i ogólnego rozumowania. Niemal 300 spośród nich (niecałe 8%) doświadczało w dzieciństwie zaniedbywania lub przemocy w różnej formie (fizycznej, emocjonalnej, seksualnej).

Spośród ofiar przemocy aż 74% wykazywało wyraźnie słabsze wyniki, zaś średni wynik ofiar przemocy ogółem był o trzy punkty IQ niższy od grupy mającej zdrowe dzieciństwo. Badanie pokazało, że zarówno zaniedbywanie, jak i przemoc w podobny sposób upośledzają rozwój dzieci, te z nich, które doświadczyły obu tych nieszczęść, są również podwójnie dotknięte.

Studium publikowano w grudniowym numerze miesięcznika Pediatrics.

Share this post


Link to post
Share on other sites

Ważne pytanie - czy wzięto pod uwagę inteligencję rodziców? Czy wyeliminowano czynnik genetyczny? Domyślam się że tak ale w notce tego nie ma.

Share this post


Link to post
Share on other sites

Po co komu wysokie IQ skoro, można się najeśc i wyprożnic, a potem poleżeć w oparach nikoty z piwkiem w ręce! Nie jeden angielski Lord by pozazdrościł!

 

Imię tatusia na literę W? ;)

Share this post


Link to post
Share on other sites

Z artykułu wynika, że zauważono korelację w wynikach testów. Jestem humanistą, więc dobrze wiem że metodologia nauk humanistycznych jest pokręcona jak paczka makaronu świderki...

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Naukowcy z Australii i Hiszpanii pracują nad uniwersalnym testem na inteligencję. Ponieważ jego rozwiązanie nie wymaga posługiwania się językiem, mogłyby go rozwiązywać najprzeróżniejsze istoty i byty, np. zwierzęta, programy komputerowe czy przedstawiciele obcych cywilizacji. Co więcej, dałoby się porównywać ich IQ.
      Dwoma czołowymi przedstawicielami zespołu są informatycy David L. Dowe z Monash University oraz José Hernández-Orallo z Universitat Politècnica de Valencia. Biorąc pod uwagę ich specjalność, nie powinno dziwić odwołanie do algorytmicznej teorii informacji, znanej również jako teoria Kołomogorowa-Chaitina. Bazuje ona na twierdzeniu sformułowanym przez XVIII-wiecznego matematyka Thomasa Bayesa. Jednym ze stosowanych w jej obrębie pojęć jest złożoność Kołomogorowa (in. złożoność algorytmiczna). Jest ona definiowana jako najkrótszy możliwy program, definiowany za pomocą długości kodu binarnego, który może doprowadzić do konkretnego rezultatu. Obowiązującą regułą jest więc zasada minimalnej długości kodu – spośród dostępnych hipotez uczeń wybiera tę, która zapewnia najlepszą kompresję danych. Zastosowanie algorytmicznej teorii informacji do inteligencji pozwala przedstawić IQ jako złożoność Kołomogorowa najbardziej skomplikowanego zadania, jakie ktoś rozwiązał. W praktyce uzyskanie dokładnego wyliczenia złożoności algorytmicznej jest mało prawdopodobne, ale można porównywać przybliżenia.
      Podczas testu stosowane ma być warunkowanie instrumentalne, zwane również warunkowaniem sprawczym. Badany uczy się metodą prób i błędów relacji między swoim działaniem a konsekwencjami. W ten sposób zmienia się prawdopodobieństwo/częstotliwość różnych zachowań. W zależności od tego, kogo poddawano by testowi, nagrodą za właściwe działanie byłyby np. pieniądze (człowiek), banany (małpa) czy liczba punktów (program komputerowy). Gdyby chodziło o rozpracowanie gry w kółko i krzyżyk przez kogoś, kto nigdy się w to nie bawił, najpierw należałoby ustalić, że wygraną oznaczają trzy takie same znaki w rzędzie. Jeśli badany opanowałby reguły, przeszedłby na wyższy poziom. Porażka oznaczałaby spadek na niższy poziom i łatwiejsze zadanie. Szympans, który nie przeszedłby zadania z kółkiem i krzyżykiem, mógłby sobie np. poradzić z podobnym zadaniem zawierającym pojedynczą linię znaków.
      Hernández-Orallo i Dowe nie zamierzają wykorzystywać już istniejących gier. Zgodnie z ich pomysłem, nowe gry i wzorce generowałby komputer. Naukowcy uważają, że pozwoli to wyeliminować ludzkie błędy i uprzedzenia oraz uzyskać zadania o dowolnym poziomie złożoności. W tym nierozwiązywalne dla człowieka...
    • By KopalniaWiedzy.pl
      W realność powstania sztucznej inteligencji niektórzy powątpiewają, inni są o jej powstaniu przekonani, spodziewając się nawet, że przewyższy ona poziom człowieka. Trudno jednak zweryfikować jej ewentualne powstanie, czy choćby ocenić, czy zbliżamy się do celu, skoro nie istnieją żadne testy potrafiące ocenić inteligencję maszyny, nie mówiąc już o porównaniu jej z inteligencją człowieka.
      Istnieje oczywiście zaproponowany dawno temu „test Turinga", ale jest on mocno umowny, nie daje żadnej odpowiedzi na temat stopnia rozwoju, nie pozwala nawet ocenić, czy dzisiejsze programy są inteligentniejsze od wczorajszych. Testy IQ przeznaczone dla ludzi nadają się zaś tylko dla ludzi. Co w tej sytuacji zrobić?
      Należy stworzyć lepsze, uniwersalne zestawy testów na inteligencję - orzekli hiszpańscy i australijscy naukowcy zrzeszeni w projekcie „Anytime Universal Intelligence" i tak też zrobili. Ich metoda badania ma odmienne założenia niż tradycyjny test psychometryczny, czy test na przekroczenie pewnego poziomu - jak test Turinga. Test, który opracowali José Hernández-Orallo z Polytechnic University of Valencia i David L. Dowe z Monash University w Clayton opiera się o koncepcje matematyczne i obliczeniowe. Korzysta on z interaktywnych zadań, których pozom trudności oceniany jest poprzez liczenie tzw. złożoności Kołmogorowa - czyli ilości zasobów obliczeniowych, koniecznych do pisania obiektu lub informacji.
      Jak opisują wyjątkowe cechy swojego testu jego autorzy: nie wymaga on wyczerpania określonej serii zadań, lecz może być przerwany w dowolnym momencie - jednak im dłuższy czas wykonywania, tym większa jego dokładność. Druga zaleta jest taka, że można go zaaplikować każdemu: zarówno człowiekowi (czy to dorosłemu, czy nie), zwierzęciu, jak też bytowi niebiologicznemu: robotowi czy programowi, a w przyszłości nawet istotom pozaziemskim. No i oczywiście da się dzięki niemu uchwycić ten moment, kiedy ewentualnie inteligencja maszynowa prześcignie ludzką. Ale wtedy pewnie to ona będzie badać nas.
    • By KopalniaWiedzy.pl
      Splątanie kwantowe to zdumiewające zjawisko, w którym dwie cząstki elementarne (elektrony lub fotony) są tak ze sobą wirtualnie połączone, że zawsze posiadają taki sam stan, przy czym nie ma dla nich znaczenia odległość. Choć wydaje się to przeczyć rozsądkowi, efekt ten nie tylko jest potwierdzony, ale i wykorzystywany w kwantowej kryptografii, może także znaleźć zastosowanie w budowie kwantowych superkomputerów. Ze splątaniem wiąże się zjawisko nazywane kwantową teleportacją, czyli przeniesienie kwantowej informacji w przestrzeni.
      Dwaj australijscy uczeni z University of Queensland: S. Jay Olson i Timothy Ralph dołożyli kolejną cegiełkę do niesamowitości tego efektu, publikując teorię, że kwantowe splątanie rozciąga się nie tylko w przestrzeni, ale i czasie. Oznacza to, że można kwantową informację „wysłać" w przyszłość z pominięciem czasu pomiędzy. Tym samym wszystkie obserwowane efekty tego stanu i zastosowania mogą zostać wykorzystane na nowe, zaskakujące sposoby.
      Wyjaśnienie ich teorii jest zaskakująco intuicyjne: jeśli nie można opisać jednej cząstki bez uwzględnienia drugiej, to musi to dotyczyć nie tylko przestrzeni, ale także czasu. Koncepcja ta jest oczywiście mocno podparta odpowiednim aparatem matematycznym, zresztą, według słów autorów - z punktu widzenia matematyki nie ma różnicy, czy opisujemy przestrzeń, czy czas. Koncepcja spotkała się z przychylnym przyjęciem innych naukowców, w tym uczonych z University of Nottingham, którzy mieli okazję oglądać prelekcję Olsona i Ralpha na konferencji.
      Nie należy oczywiście rozumieć tego zjawiska jako prawdziwego przeskoku w czasie, a raczej jako „pominięcie" pewnego wycinka czasu.
      Naukowcy już zastanawiają się, jak zweryfikować ponadczasowe splątanie kwantowe i jakie praktyczne zastosowania mogłoby ono mieć. Najodważniejsze pomysły mówią o zastosowaniach typu przechowywania danych w czarnych dziurach. Weryfikacja tej koncepcji będzie jednak przede wszystkim kamieniem milowym fizyki kwantowej w wielu dziedzinach, jak na przykład przetestowanie efektu Unruha-Daviesa (dotychczas istniejącego tylko teoretycznie), wreszcie powie wiele na temat trafności kwantowych teorii pola. Jeśli koncepcja się nie potwierdzi, uważają naukowcy, będzie to równie znaczące dla naszego rozumienia świata materii.
    • By KopalniaWiedzy.pl
      Jedna osoba jest w stanie zapamiętać, choć niedokładnie, 4 elementy z 10, podczas gdy inna tylko dwa, ale za to drobiazgowo. Nic więc dziwnego, że psycholodzy od dawna zastanawiali się, czy lepsza rozdzielczość wspomnień przekłada się na wyższy iloraz inteligencji. Najnowsze studium doktoranta Keisuke Fukudy z University of Oregon wskazuje na to, że nie. Klarowność obiektów przechowywanych w pamięci krótkotrwałej (ang. short-term memory, STM) nie ma związku z tzw. inteligencją płynną, uznawaną w teorii Charlesa Spearmana za inteligencję zdeterminowaną przez czynnik genetyczny.
      Zgodnie z rezultatami studium, większa liczba obiektów przechowywanych w pamięci krótkotrwałej wiąże się z wyższą inteligencją płynną, zaś rozdzielczość wspomnień, choć ważna w wielu sytuacjach (np. dla radiologa oglądającego zdjęcia pacjenta z podejrzeniem poważnej choroby), nie wydaje się z nią skorelowana. Stanowi ona odzwierciedlenie doświadczenia danej osoby w specyficznych dziedzinach percepcji. Przykład? Japońskie znaki są dla przedstawicieli kultury zachodniej bardzo do siebie podobne, podczas gdy dla Japończyka wyraźnie różne.
      W ramach wcześniejszych studiów akademicy z Oregonu ustalili, że ogólna pojemność pamięci krótkotrwałej to rzeczywiście 3 do 5 obiektów i że pojemność STM jest dobrym prognostykiem jednostkowego IQ. Jakie jednak aspekty pojemności pamięci wyjaśniają powiązania z inteligencją płynną? To właśnie miały wyjaśnić eksperymenty Fukudy, który współpracował z profesorem Edwardem Awhem. Wzięło w nich udział 79 studentów. Na ekranie komputera pokazywano im na moment 4 lub 8 elementów. Potem przez sekundę wyświetlał się wygaszacz, a następnie ochotnikom demonstrowano jeden z obiektów i pytano, czy poprzednio znajdował się w tym miejscu. Badając zdolność do wykrywania dużych i małych zmian w obrębie zapamiętanych elementów, Fukuda mógł oszacować zarówno liczbę obiektów utrzymywanych w pamięci, jak i rozdzielczość wspomnień. Następnie oba aspekty STM odniesiono do wyników uzyskanych w testach na inteligencję.
    • By KopalniaWiedzy.pl
      Wizjonerzy mamią nas wizjami komputerów kwantowych od dobrych dwudziestu lat. I pomimo nieustannego postępu w tej dziedzinie, w zasadzie wciąż jedyne osiągnięcia to laboratoryjne przykłady, a największy zbudowany „komputer" składał się z... aż trzech qubitów, czyli kwantowych bitów. Największym problemem, jak się uważa, będzie niezawodność takich konstrukcji i odporność na błędy, trudno bowiem zapanować nad stanem każdego pojedynczego atomu czy elektronu. Jak uważają angielscy i australijscy naukowcy, sprawa niekoniecznie musi być aż tak trudna.
      Doktor Sean Barrett z Imperial College London i Thomas Stace z University of Queensland w australijskim Brisbane sugerują dość proste rozwiązanie problemu błędów - korekcję. Korekcja błędów stosowana jest dzięki odpowiednim algorytmom w dzisiejszej elektronice, a wykorzystywana jest zwykle przy korzystaniu z pamięci masowych. Same programy korygujące muszą jednak działać niezawodnie...
      Korekcja błędnych danych w komputerze kwantowym musi jednak dotyczyć samego procesu przetwarzania, powinna zatem być jakoś powiązana z samym sposobem działania kwantowego mechanizmu. Taki sposób właśnie zaprojektował zespół pod kierunkiem dra Barreta. To system kontekstowego kodowania danych, który pozwala poprawnie działać algorytmom nawet w przypadku ubytku lub przekłamania 25% qubitów. Polega on na rozmieszczeniu elementów na trójwymiarowej matrycy, podczas odczytu z której brane są pod uwagę również sąsiadujące elementy.
      Taki kwantowy komputer byłby, zdaniem angielsko-australijskiego zespołu, znacznie łatwiejszy do skonstruowania. Tym niemniej, to wciąż są na razie prace teoretyczne i do pojawienia się komercyjnych konstrukcji może upłynąć kolejnych dwadzieścia lat.
×
×
  • Create New...