Jump to content
Forum Kopalni Wiedzy

Search the Community

Showing results for tags 'analiza'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Found 26 results

  1. FBI ogłosiło, że szuka firm zdolnych do wykonania narzędzi pozwalających skuteczniej zbierać informacje z ogólnodostępnych źródeł z internetu. Biuro jest zainteresowane przede wszystkim danymi z serwisów społecznościowych. Ma to pozwolić na lepsze identyfikowanie, namierzanie i zwalczanie zagrożeń w czasie rzeczywistym. Na razie FBI robi rozeznanie na rynku, by zorientować się, co mogą mu zaoferować ewentualni zleceniobiorcy takiego zlecenia. Nowa aplikacja ma działać na zabezpieczonym portalu, musi być w stanie wyszukiwać i selekcjonować informacje tak, by możliwe było szybkie zlokalizowanie interesujących FBI wydarzeń. Zadaniem programu będzie skanowanie ogólnodostępnych źródeł informacji pod kątem zdefiniowanych wcześniej słów kluczowych. Zdobyte dane będą nakładane na cyfrową mapę, na której zostanie zidentyfikowane miejsce wydarzenia wraz ze wszystkimi danymi kontekstowymi, takimi jak np. dane o aktach terroru w okolicy, lokalizacji placówek dyplomatycznych USA, lokalizacji baz wojskowych i innych instalacji militarnych, dane o aktualnej pogodzie i prognozach, informacje o natężeniu ruchu drogowego i inne. Narzędzie będzie tez udoskonalane tak, by pozwalało ono przewidywać przyszłe wydarzenia. Zaskakujący może być tutaj jedynie fakt, że FBI najwyraźniej jeszcze nie posiada tego typu narzędzi. CIA, o czym pisaliśmy już wcześniej, korzysta z usług „mściwych bibliotekarzy“.
  2. Lęk dość powszechnie kojarzony jest z nadwrażliwością, tymczasem okazuje się, że osoby lękowe mogą w rzeczywistości nie być dostatecznie wrażliwe (Biological Psychology). Podczas eksperymentów doktorantka Tahl Frenkel z Uniwersytetu w Tel Awiwie pokazywała ochotnikom zdjęcia wywołujące lęk i strach. W tym czasie wykonywano im EEG. Okazało się, że grupa lękowa była w rzeczywistości mniej pobudzona tymi obrazami niż przedstawiciele grupy nielękowej. Jak wyjaśniają naukowcy, osoby często doświadczające lęku nie były fizjologicznie tak wrażliwe na drobne zmiany w środowisku. Frenkel uważa, że występuje u nich deficyt w zakresie zdolności oceny zagrożenia. Nie dysponując sprawnym systemem wczesnego ostrzegania, tacy ludzie dają się zaskoczyć. Stąd reakcja mylnie interpretowana jako nadwrażliwość. Dla odmiany nielękowi najpierw nieświadomie odnotowują zmiany w środowisku, analizują i dopiero potem świadomie rozpoznają ewentualne zagrożenie. Naukowcy zebrali grupę 240 studentów. Bazując na wynikach kwestionariusza STAI (State-Trait Anxiety Inventory), wybrano 10% najbardziej i 10% najmniej lękowych osób. Na początku badanym pokazywano serię zdjęć człowieka, który wyglądał na coraz bardziej przestraszonego w skali od 1 do 100. Ludzie lękowi reagowali szybciej, identyfikując twarz jako przestraszoną już przy 32 punktach, podczas gdy członkowie drugiej podgrupy zaczynali uznawać fizjonomię za przestraszoną dopiero przy 39 punktach. Do tego momentu wyniki potwierdzały obowiązującą teorię o nadpobudliwości lękowych, kiedy jednak psycholodzy skupili się na zapisie EEG, zobaczyli coś zupełnie innego. Osoby rzadko odczuwające lęk przeprowadziły pogłębioną analizę bodźców wywołujących strach, co pozwoliło im dostosować reakcję behawioralną. Ich koledzy i koleżanki z drugiej grupy tego nie zrobili. EEG pokazuje, że to, co wydaje się nadwrażliwością na poziomie zachowania, jest w rzeczywistości próbą skompensowania deficytu we wrażliwości percepcji.
  3. Analiza komputerowa języka psychopatycznych morderców ujawnia, w jaki sposób postrzegają siebie, świat i swoje ofiary. Efekty współpracy psychologów z Uniwersytetu Cornella i Uniwersytetu Kolumbii Brytyjskiej będzie można wykorzystać jako narzędzie diagnostyczne, służące do oceny postępów w trakcie terapii czy tropienia podejrzanych w Internecie. Prof. Jeff Hancock potwierdza, że słowa wykorzystywane przez psychopatów pasują do podstawowych cech osobowościowych i świadczą o egoizmie, płaskości emocjonalnej oraz odłączeniu moralnym od popełnionych przestępstw. Zespół przeanalizował historie opowiedziane przez 14 psychopatycznych morderców przebywających w kanadyjskich więzieniach. Porównano je z wypowiedziami 38 morderców, u których nie rozpoznano psychopatii. Każdego mężczyznę proszono o opowiedzenie ze szczegółami popełnionej zbrodni. Po transkrypcji nagrania poddano analizie komputerowej. Okazało się, że psychopaci częściej używali słów "ponieważ", "więc/dlatego", co sugerowało, że popełnienie przestępstwa "było konieczne" do osiągnięcia konkretnego celu. Hancock i inni zauważyli, że w wypowiedziach psychopatów pojawiało się 2-krotnie więcej słów odnoszących się do potrzeb fizycznych, np. jedzenia czy seksu (w opisie niejednokrotnie występowały detale związane z posiłkami spożywanymi w dniu zbrodni). U niepsychopatycznych morderców wykryto więcej wyrazów oznaczających potrzeby społeczne, np. dotyczących rodziny, religii czy duchowości. Psychopaci charakteryzowali się również mniejszą fluencją słowną (zdolnością do wydobywania z zasobów umysłowych różnych wyrazów): w ich wypowiedziach częściej pojawiały się przerywniki/wypełniacze w rodzaju "yyy", "hmm". Psycholodzy przypuszczają, że może to być skutkiem większej chęci wywarcia na rozmówcy pozytywnego wrażenia. Dobór wyrazów pochłania większość zasobów poznawczych, zaburzając płynność mowy.
  4. Badacze z Uniwersytetu Południowej Kalifornii odkryli, że gdy patrzymy na jakiś obiekt, nasz mózg przetwarza jego wygląd, a jednocześnie odświeża informacje, jak to jest, gdy się tego dotyka. Związek między wzrokiem a dotykiem jest tak silny, że analizując dane pochodzące wyłącznie z części mózgu zawiadującej dotykiem, komputer mógł wskazać, na co człowiek patrzył. Wyniki dotyczących interakcji zmysłów i pamięci dociekań zespołu Hanny i Antonia Damasio ukazały się we wrześniowym numerze pisma Cerebral Cortex. Naukowcy poprosili grupę osób o obejrzenie 5 filmików wideo. Przedstawiały one dłonie dotykające różnych obiektów. Za pomocą funkcjonalnego rezonansu magnetycznego (fMRI) zbadano obszar mózgu związany z przetwarzaniem wrażeń dotykowych. Gdy uzyskane w ten sposób dane przeanalizowano z wykorzystaniem specjalnego oprogramowania, tylko na tej podstawie komputer był w stanie wskazać, który z klipów był oglądany. Jak wyjaśnia główny autor opisywanego studium Kaspar Meyer, wyobrażając sobie dotyk zimnego metalu i ciepłego zwierzęcego futra, większość z nas dosłownie odczuwa te wrażenia za pomocą dotyku umysłu. To samo działo się z naszymi badanymi, kiedy pokazywaliśmy im nagrania wideo rąk dotykających przedmiotów. Nasze badania pokazują, że czucie dzięki dotykowi umysłu aktywuje te same rejony mózgu, co rzeczywisty dotyk. Dzieje się tak, gdyż mózg przechowuje wspomnienia wrażeń czuciowych i odtwarza je pod wpływem odpowiadającego im obrazu.
  5. Microsoft przygotował interesujące narzędzie o nazwie Attack Surface Analyzer. Pokazuje ono użytkownikowi wszelkie zmiany wprowadzone w systemie Windows przez zainstalowany program. Narzędzie informuje o zainstalowanych plikach, dodanych wpisach w rejestrze, kontrolkach ActiveX i otwartych portach. Informuje też o prawach dostępu do zainstalowanych plików. Attack Surface Analyzer powstał przede wszystkim z myślą o twórcach oprogramowania, którzy chcą sprawdzić, jak ich program wpływa na bezpieczeństwo systemu. Jednak przyda się ono również administratorom systemu i użytkownikom końcowym, którzy dzięki niemu będą mogli przeanalizować, czy instalowany program nie ma negatywnego wpływu na bezpieczeństwo systemu. Narzędzie działa dzięki przeskanowaniu systemu przed i po instalacji programu. Trzeba przy tym pamiętać, że Attack Surface Analyzer nie szuka luk bezpieczeństwa w oprogramowaniu. Bada on zmiany, jakie program wprowadza w systemie. Wersję beta nowego narzędzia Microsoftu można bezpłatnie pobrać z witryny koncernu.
  6. Uczeni z Purdue University oraz Narodowego Instytutu Standardów i Technologii dokonali przełomu na drodze do stworzenia wiarygodnego analizatora oddechu, urządzenia wykrywającego w czasie rzeczywistym chemiczne biomarkery w ludzkim oddechu. Jak mówi Carlos Martinez z Purdue, nowa technologia pozwala na wykrywanie ilości biomarkerów liczonych w od częściach na milion do częściach na miliard. Oznacza to, że urządzenie jest co najmniej 100-krotnie bardziej czułe od dotychczas zbudowanych analizatorów. Prace takie trwają od około 30 lat, ale dotychczas urządzenia takie nie były w stanie w czasie rzeczywistym wykrywać niskich stężeń. Rozwiązaliśmy ten problem dzięki materiałom, które opracowaliśmy, a teraz skupiamy się na detalach, takich jak odróżnianie poszczególnych biomarkerów - mówi Martinez. Nowa technologia wykrywa biomarkery dzięki różnicom w przewodnictwie elektrycznym gazów przechodzących przez specjalnie kanały umieszczone w układach scalonych. Podczas testów analizatora naukowcy wykrywali aceton, biomarker dla cukrzycy, którego ilość w strumieniu gazu symulującego oddech była liczona w miliardowych częściach. Do stworzenia analizatora użyto mikronowej wielkości kawałków polimeru pokrytego znacznie mniejszymi nanocząsteczkami tlenków metali. Zwiększyły one porowatość, zapewniając większą czułość urządzenia. Tak przygotowany polimer umieszczono w otworach układów scalonych, wysuszono i poddano działaniu prądu, Doprowadziło to do spalenia polimeru i pozostawienia w otworach porowatej warstwy tlenku metalu, która stanowi właściwy czujnik. Gazy przechodząc przez perforację warstwy zmieniają jej właściwości elektryczne, co pozwala na określanie ich rodzaju. Analizatory oddechu, korzystające z opisanego wynalazku, nie trafią jednak do szpitali wcześniej niż za 10 lat. Jedną z przyczyn jest brak odpowiednich standardów pozwalających na budowę urządzeń opartą na wspomnianej technologii.
  7. W 130 roku przed naszą erą u wybrzeży Toskanii zatonął grecki okręt. Przewoził on leki i syryjskie szkło. Choć ładunek znaleziono we wraku w 1989 r., archeobotanicy dopiero teraz zajęli się analizą składu starożytnych pigułek. Okazało się, że zastosowano w nich wyciągi z ponad 10 roślin, m.in. ketmii (znanej lepiej jako hibiskus) i selera. Po raz pierwszy mamy fizyczny dowód tego, o czym czytaliśmy w pismach starożytnych lekarzy Pedaniosa Dioskurydesa i Galena – cieszy się Alain Touwaide z Muzeum Historii Naturalnej w Waszyngtonie. Robert Fleischer z należącego również do Smithsonian Institution Narodowego Parku Zoologicznego podkreśla, że wiele tabletek znalezionych w skrzyni nie zamokło. Fleischer analizował materiał genetyczny z dwóch tabletek. Porównał uzyskane sekwencje z prowadzoną przez Narodowe Instytuty Zdrowia bazą danych GebBank. Dzięki temu stwierdził, że w badanych lekarstwach znajdowały się ekstrakty z marchwi, rzodkwi, selera, dzikiej cebuli, dębu, kapusty, lucerny, krwawnika pospolitego i sprowadzanego najprawdopodobniej ze wschodniej Azji lub leżących na terenie dzisiejszych Indii bądź Etiopii hibiskusa. Naukowiec opowiada o starożytnych zastosowaniach wymienionych roślin. Krwawnik miał hamować krwawienie z ran, a Pedanios Dioskurydes, który pracował w Rzymie za panowania Nerona, stosował marchew jako panaceum na wszystkie możliwe schorzenia. Skład pigułek zaskoczył naukowców, ponieważ wstępne analizy wykazały, że użyto w nich słonecznika. Wg obecnego stanu wiedzy, rośliny tej nie znano w Starym Świcie przed odkryciem Ameryk w XV wieku n.e. Należy jednak zachować ostrożność i nie cieszyć się za wcześnie, gdyż słonecznik może być tylko współczesnym zanieczyszczeniem. Naukowcy często uważają, że medykamenty opisane przez Galena i Pedaniosa Dioskurydesa działały wyłącznie dzięki opium. Touwaide uważa, że zadawniony spór można rozstrzygnąć raz na zawsze, sprawdzając, jakie właściwości lecznicze mają wykorzystane w nich rośliny. Amerykanin ma nadzieję, że kiedyś uda się odnaleźć opisywany przez Galena w I w. n.e. therian. Lek ten zawierał wyciągi z ponad 80 roślin.
  8. Wcześniejsze badania wykazywały, że podobnie jak zwierzęta ludzie umieją ocenić czyjąś waleczność i możliwości fizyczne na podstawie danych wzrokowych. Ostatnio amerykańscy naukowcy potwierdzili, że w głosie mogą się znajdować wskazówki niedostępne za pośrednictwem wzroku, a ewolucja wyposażyła nas w zdolność ich rozszyfrowywania. Podczas eksperymentu zarówno kobiety, jak i mężczyźni trafnie oceniali tężyznę górnej połowy ciała właścicieli głosów z różnych populacji i grup językowych. Próbki głosowe pozyskiwano w 4 populacjach: wśród plemienia Tsimane (in. Chimane) z departamentu Beni w północnej Boliwii, od żyjących w Andach, a konkretnie w Argentynie pasterzy-rolników, a także od amerykańskich i rumuńskich studentów. Bez względu na to, czy badanych proszono o skupienie się na wzroście, wadze, sile bądź umiejętnościach związanych z walką, formułowali oni podobne oceny. Zespół Aarona Sella z Uniwersytetu Kalifornijskiego w Santa Barbara nagrał głosy ponad 200 mężczyzn. Wszyscy powtarzali krótkie zdanie w ojczystym języku. Panowie przeszli też wiele testów dotyczących siły górnej części ciała. Gdy ochotnicy słuchali nagrań głosów, bez względu na ewentualne różnice językowe, potrafili trafnie ocenić ich możliwości fizyczne na 7-punktowej skali, której końce wyznaczały wymiary "słaby" i "silny". Na razie nie wiadomo, jakie aspekty głosu łączymy z tężyzną, ponieważ nie odnotowano korelacji między siłą mężczyzny a wysokością jego głosu. W eksperymencie uwzględniono też głosy kobiece, one sprawiły jednak ochotnikom więcej kłopotów. Trafniejsza ocena głosów męskich pozostaje w zgodzie z danymi etnograficznymi z całego świata, wskazującymi na silniejszą tendencję mężczyzn do wyrażania agresji.
  9. Drugie spojrzenie na obraz czy zdjęcie może zmniejszyć liczbę błędów medycznych i poprawić jakość kontroli na lotniskach. Ważne jest tylko, by ludzie nie skupiali się na rejonach i szczegółach, które widzieli już wcześniej. Z pewnością uda się tego uniknąć dzięki systemowi opracowanemu przez zespół Pernilli Qvarfordt z FX Palo Alto Laboratory. System bazuje na technologii śledzenia ruchów oczu. Dzięki temu rejony obejrzane przy pierwszym podejściu są przy drugim zaczerniane. Podczas testów ochotnicy mieli wyszukiwać pewne obiekty na obrazach zawierających 300 przypominających konfetti kropek. Okazało się, że ci, którym w drugiej próbie zademonstrowano częściowo zaciemnione grafiki, znaleźli o wiele więcej kształtów niż osoby oglądające ponownie oryginał. W zeszłym tygodniu wynalazek Qvarfordt został zaprezentowany na branżowej konferencji w Austin.
  10. Jeleń olbrzymi, zwany też łosiem irlandzkim, był jednym z największych jeleniowatych, jakie kiedykolwiek zamieszkiwały Ziemię. Do tej pory pozostawało tajemnicą, czemu nagle wyginął ok. 10600 lat temu. Analiza zębów wykazała, że Megaloceros giganteus nie przetrwał zmiany klimatu. Północna Europa stawała się coraz chłodniejsza i bardziej sucha, przez co zmniejszał się dostęp do pokarmu (Palaeogeography, Palaeoclimatology, Palaeoecology). Szczątki jelenia odkryto na początku XIX wieku. Przywołano wiele teorii nt. przyczyn wyginięcia ssaka: od biblijnego potopu po wytrzebienie przez człowieka. Dane archeologiczne sugerują jednak, że tym razem przedstawiciele naszego gatunku nie przyłożyli do tego ręki, ponieważ pierwsi osadnicy przybyli do Irlandii po zakończeniu ostatniej epoki lodowcowej, czyli już po śmierci większości jeleni. Nie ma też danych, które świadczyłyby o tym, że Megaloceros giganteus miał na Zielonej Wyspie jakichkolwiek naturalnych wrogów w postaci drapieżników. Dużą popularnością cieszyła się hipoteza, że wskutek doboru płciowego rogi jelenia olbrzymiego stały się zbyt duże. Dość powiedzieć, że ich rozpiętość sięgała nawet 3,6 m, a waga 40 kg. Samicom podobały się byki ze sporym porożem i to z nimi chętniej kopulowały. Wg zwolenników opisywanej teorii, ciężar noszony na głowie doprowadził do grzęźnięcia samców w gliniastej ziemi. Jak się to kończyło, nietrudno zgadnąć. Kendra Chritz, autorka najnowszego studium, która obecnie pisze doktorat na University of Utah, podkreśla, że takie wyjaśnienie nagłego wyginięcia doskonale wcześniej prosperującej populacji jeleni było zbyt dużym uproszczeniem. Stąd pomysł na zbadanie szkliwa zębów 7 skamielin samców jelenia olbrzymiego. Analizując stężenie izotopów węgla i tlenu, a także kostniwo pokrywające korzenie zębów, członkowie zespołu mogli określić porę roku, kiedy urodził się dany osobnik, jego dietę oraz ewentualne zmiany zwyczajów/zachowania w miarę upływu lat. Stosunek izotopów ujawnił, że ekosystem stawał się coraz bardziej suchy. Las przekształcił się w tundrę. Nastąpiło ogólne ograniczenie wegetacji. Jelenie rodziły się wiosną lub wczesnym latem, lecz w okresie wymierania gatunku średnie temperatury roczne spadły. Młodym jeleniom bardzo trudno było sobie poradzić ze wszystkimi zmianami związanymi z epoką lodowcową, podobnie zresztą jak z zaspokajaniem potrzeb energetycznych rosnących organizmów – zaznacza Chritz. Badanie kostniwa, które przyrasta każdego roku jak słoje drzewa, wykazało, że jelenie olbrzymie żyły od 6,5 do 14 lat Najwięcej szczątków Megaloceros giganteus znaleziono w Irlandii, lecz gatunek ten występował także w Azji Północnej i północnej Afryce. Choć na większości tych obszarów jeleń wyginął pod koniec ostatniej epoki lodowcowej, na Syberii znajdowano szczątki datowane na 7 tys. lat. Oznacza to, że zwierzęta ze stałego lądu znalazły sobie jakieś ostoje. Mogły migrować w poszukiwaniu lepszego środowiska. Jelenie z Irlandii wpadły w pułapkę wyspy i nie miały gdzie pójść.
  11. Bobry olbrzymie (Castoroides ohioensis), największe gryzonie w dziejach Ziemi, które żyły w Ameryce Północnej podczas ostatniej epoki lodowcowej, jadły niewiele materiału drzewnego, jeśli w ogóle. Catherine Yansa, paleoekolog z Uniwersytetu Stanowego Michigan, oraz Peter Jacobs z University of Wisconsin–Whitewater badali ostatnio materiał pozyskany z żuchwy bobra olbrzymiego, wykopanego na farmie w południowo-wschodnim Wisconsin. Datowanie radiowęglowe wykazało, że zwierzę żyło ok. 14,5 tys. lat temu. Pyłki i skamieliny roślinne z osadów otaczających kości sugerują, że w owym czasie okolica była chłodna i bagnista, a drzewa bardzo nieliczne. Ponieważ zarówno żuchwa oraz szczęka górna, jak i zęby bobrów olbrzymich różniły się nieco od ich odpowiedników u współczesnych gatunków, para Amerykanów uważa, że z dietą sprawy miały się podobnie. Dzisiejsze bobry żywią się głównie korą i miazgą. Analiza stosunku izotopów węgla 13C i 12C w zębie Castoroides ohioensis nie pasowała jednak do wartości odnotowywanych u zwierząt jedzących materiał pochodzący z roślin lądowych, np. drzew. Zamiast tego mieściły się one w zakresie typowym dla zwierząt pochłaniających duże ilości roślin wodnych. Z tego powodu Yansa porównała prehistoryczne bobry do hipopotamów.
  12. Specjaliści z IBM-a rozwiązali problem matematyczny, z którym naukowcy borykali się od czasu wynalezienia przed kilkudziesięciu laty publicznych kluczy szyfrujących. Technika nazwana "homomorfizmem prywatności" lub też "pełnym szyfrowaniem homomorficznym" umożliwia przeprowadzenie szczegółowej analizy zaszyfrowanych danych bez konieczności ich odszyfrowywania. Opracowana przez Craiga Gentry'ego formuła korzysta z matematycznego modelu ideału i pozwala na tak głęboką analizę, jaką dotychczas uważano za niemożliwą. Analizowanie zaszyfrowanych danych przyda się wielu przedsiębiorstwom. Dzięki temu pracownicy np. banków będą mogli prowadzić szczegółowe analizy dotyczące zachowań finansowych klientów, a jednocześnie nie będą mieli dostępu np. do informacji osobistych. Z kolei pracownik dużej sieci sklepów odzieżowych będzie mógł przygotować dla szefa zestawienie dotyczące np. jak często, w jakich godzinach i których sklepach mężczyźni płacą kartą kredytową, a jednocześnie nie będzie obawy, że pracownik ten pozna dane z takich kart. Dzięki nowej technice przeprowadzane analizy mogą być tak szczegółowe, jak analizy prowadzone na niezaszyfrowanych danych. Technologia ta może przyczynić się też do udoskonalenia filtrów antyspamowych, lepszej ochrony informacji medycznych przechowywanych w formie elektronicznej czy też skonstruowania doskonalszych wyszukiwarek.
  13. Mózg przetwarza fryzury w inny sposób niż cechy twarzy. Dlatego więc naukowcy zaczęli przypuszczać, że skoro część osób cierpi na ślepotę twarzy (prozopagnozję), pewna niewielka grupa może doświadczać analogicznego zjawiska ślepoty włosów. Brad Duchaine z Uniwersyteckiego College'u Londyńskiego mówi, że bardzo chętnie spotkałby kogoś takiego, ale na razie o nikim nie słyszał. Neurolog, który specjalizuje się w prozopagnozji, zaznacza, że jego pacjenci potrafią się doskonale maskować i kompensować swoje niedobory. Moi prozopagnostycy mówią mi, że rozpoznając ludzi, stale posługują się włosami. Ja sam w dużej mierze na nich polegam. Czterdzieści lat temu stwierdzono, że odwrócenie do góry nogami bardzo zaburza rozpoznawanie twarzy, podczas gdy w przypadku innych obiektów, np. samochodów, nic takiego się nie dzieje. Była to wskazówka, że mózg traktuje twarz wyjątkowo. Wiedząc to, Duchaine postanowił sprawdzić, czy efekt inwersji pojawi się również w odniesieniu włosów. Kilkudziesięciu ochotników poproszono o zapamiętanie fryzur, które wycięto z zestawu twarzy. Następnie zaprezentowano im zbiór pomieszanych znanych i nieznanych układów włosów. Należało z niego wybrać wyłącznie widziane wcześniej fryzury. Okazało się, że gdy fryzury obrócono, rozpoznawalność spadała średnio o 15-18%, a po uwzględnieniu twarzy aż o 25%. Jak widać, mózg przywiązuje dużą wagę do włosów i niekoniecznie traktuje je jak cechę twarzy. Gdyby uznawał je za składowe fizjonomii, osoby z prozopagnozją miałyby problemy z odróżnianiem fryzur, a nie zaobserwowano takiego deficytu. Na razie chorych nie poddawano badaniu z odwróconymi fryzurami, ale Brytyjczyk wierzy, że wypadliby tak samo, jak ludzie wolni od prozopagnozji. Pawan Sinha z MIT-u podkreśla, że dotąd zewnętrzne cechy twarzy (tj. włosy i linię żuchwy) uznawano za wskazówki przydatne podczas oceny kogoś obcego z dużej odległości, tymczasem eksperyment naukowców z Uniwersyteckiego College'u Londyńskiego wskazuje, że przydają się one również podczas bliższych kontaktów. Ekspert przestrzega jednak przed rozbieraniem twarzy na czynniki pierwsze. Powinniśmy myśleć o twarzy jako o całości. [...] Dodatkowo w większości naturalnych sytuacji spoglądamy na nią z dystansu utrudniającego wydzielenie poszczególnych elementów.
  14. Wiele średniowiecznych manuskryptów przetrwało do dziś, naukowcy mieli jednak problem z określeniem ich wieku i pochodzenia. Profesor Timothy Stinson z Uniwersytetu Stanowego Północnej Karoliny wykorzystał fakt, że przepisywano je na sprawionych zwierzęcych skórach. Uznał, że w takiej sytuacji można, a nawet należy posłużyć się technikami ekstrakcji oraz analizy DNA. Celem Amerykanina jest stworzenie genetycznej bazy danych dokumentów. Umiejscowienie manuskryptu w czasie i przestrzeni zawsze było bardzo trudne, ponieważ w dużej mierze opierano się na odręcznym piśmie i dialekcie skryby. Z różnych powodów techniki te wielokrotnie okazywały się niewiarygodne – dowodzi naukowiec. Wg Stinsona, bazę danych należy sporządzić na podstawie stosunkowo niewielkiej liczby manuskryptów o znanym wieku i pochodzeniu. Każdy z nich to prawdziwa kopalnia danych, ponieważ w przeciętnej średniowiecznej księdze wykorzystywano pergaminy produkowane ze skór ponad 100 zwierząt. Porównując nowe próbki z próbkami bazowymi, profesor będzie mógł wyznaczyć stopień pokrewieństwa między zwierzętami, z których skór garbarze przygotowali materiał piśmienniczy. Ewentualne podobieństwa genetyczne będą zaś stanowić wskazówkę co do ogólnego czasu i miejsca powstania dzieła. Stinson sądzi także, że tego typu analizy ujawnią średniowieczne trasy "wędrówek" pergaminów, a więc tajemnice ówczesnego przemysłu księgarskiego.
  15. Współczesny koala nie jest skarłowaciałą formą gatunku, który przed tysiącami lat współtworzył megafaunę Australii. Zamiast tego doktor Gilbert Price twierdzi, że olbrzymie i sporo mniejsze torbacze żyły przez jakiś czas obok siebie. Paleontolog z University of Queensland wyjaśnia, że giganty Phascolarctos stirtoni ważyły 20-30 kg i zasiedlały antypody w późnym plejstocenie. Wykorzystując ulepszoną metodę datowania skamielin, Price stwierdził, że 500-300 tys. lat temu można już było spotkać 2 odrębne gatunki koali. Jak zaznacza badacz, to całkiem niedawno w kategoriach geologicznych. Skoro [...] żyły w tym samym miejscu w tym samym czasie, być może coś w ich rozmiarach pozwoliło im zająć nieco inne nisze ekologiczne. Pojawia się jednak zasadnicze pytanie: czemu jeden gatunek koali przeżył ostatnie 50 tys. lat, a drugi nie. Price sądzi, że udzielenie na nie poprawnej odpowiedzi jest niezwykle ważne, ponieważ może uchronić współczesnego torbacza przed wyginięciem. Narzeka jednocześnie na to, że brak prawidłowo datowanych skamielin utrudnia odnalezienie przodków poczciwego "misia". Wygląda na to, że trzeba będzie zrewidować hipotezę skarłowacenia dawnej megafauny Australii. Za jej pomocą wyjaśniano pojawienie się uderzająco podobnych, lecz pomniejszonych form różnych zwierząt, w tym koali, kangurów szarych oraz diabła tasmańskiego. Problem polega na tym, że karłowaceniem posługiwano się, by wyjaśnić różne, czasem sprzeczne, teorie ewolucyjne. Z jednej strony uznawano je za skutek zmian klimatycznych i skurczenia zasobów pokarmowych, z drugiej zaś za efekt polowania przez człowieka na duże egzemplarze. Zjawiska nigdy jednak dogłębnie nie zbadano. Trzeba więc odszukać jak najwięcej skamielin, jak najdokładniej ocenić ich wiek i wprowadzić ulepszoną kontrolę stratygraficzną.
  16. W 1953 roku Stanley Miller z Uniwersytetu w Chicago przeprowadził sławetne doświadczenie: odtworzył scenariusz, według którego na Ziemi mogło powstać życie. W jednym naczyniu miał wodę (ocean), w drugim mieszaninę gazów (atmosfera), a po połączeniu zaczął przez nie przepuszczać prąd – odpowiednik błyskawic. Po kilku dniach udało mu się uzyskać aminokwasy. Teraz jeden z jego studentów, Jeff Bada, twierdzi, że ważną rolę w tym procesie odegrały erupcje wulkanów. Podgrzewały bulion pierwotny i stanowiły ważne źródło gazów. Bada pracuje obecnie jako biolog morski na Uniwersytecie Kalifornijskim w San Diego. Ostatnio przeanalizował skład 11 oryginalnych próbek z eksperymentu swojego mistrza. Chciał sprawdzić, czy za pomocą współczesnego wyposażenia da się wykryć związki wytworzone ponad 50 lat temu. Powszechnie uznaje się, że powierzchnia młodej Ziemi składała się z niewielkich wysepek wulkanicznych. Najnowsze studium Bady wskazuje, że wyładowania atmosferyczne i wulkany łącznie stanowiły zapłon dla procesu tworzenia się życia. Wierzymy, że z oryginalnego eksperymentu Millera można było wyciągnąć więcej wniosków. Odkryliśmy, że za pomocą współczesnej wersji aparatu wulkanicznego można uzyskać dużo większy wachlarz związków. Aparaturę Millera i jego próbki odkryto po śmierci naukowca w 2007 roku. Bada i jego współpracownicy, m.in. Adam Johnson z Indiana University, posłużyli się nimi. Wyodrębnili 22 aminokwasy; 10 z nich Miller uprzednio nie zidentyfikował.
  17. Przy odprawie przemytników kontrolują ludzie, psy i skanery bagażu. Teraz będzie im jeszcze trudniej, ponieważ do gry wkracza elektroniczny wykrywacz winy w wyrazie twarzy. System komputerowy będzie analizował ruchy oczu, zmiany w wielkości źrenicy, a także w przepływie krwi oraz temperaturze. Wynalazek powstanie na Bradford University. Naukowcy poświęcą mu dwa lata, mając do dyspozycji 500 tys. funtów. W urządzeniu znajdzie zastosowanie dynamiczne pasywne profilowanie w czasie rzeczywistym. Danej osobie będzie się wykonywać szereg zdjęć, a następnie poszukiwać oznak dyskomfortu czy prób ukrycia czegoś. To, co zamierzamy opracować, jest zasadniczo pasywnym wykrywaczem kłamstw [pasywnym, ponieważ by uzyskać wynik, nie jest konieczny udział badanej osoby; musi się ona po prostu pojawić w zasięgu urządzenia]. Chcemy automatycznie analizować wyrazy twarzy i ruchy oczu w odpowiedzi na zadawane pytania. Podstawą mają być obrazy wideo i inteligentne algorytmy. Wytrenowani funkcjonariusze w punktach kontroli granicznej naprawdę świetnie wyłapują osoby przemycające kontrabandę, analizując ich miny podczas rutynowego przesłuchania. Jak sprawdzić, by maszyna była w tym równie dobra? To niełatwe zadanie – tłumaczy dr Hassan Ugail. Niektórzy przemytnicy mogą doskonale panować nad wyrazem twarzy, dlatego w urządzenie zostanie wbudowany termowizor, który pozwoli na ocenę przepływu krwi przez twarz. Po zakończeniu testów aparatura znajdzie zastosowanie w wielu miejscach. Skorzystają z niej nie tylko celnicy, ale i policjanci. Projekt wystartuje w grudniu. Poza akademikami z Bradford, wezmą w nim udział przedstawiciele firmy QinetiQ, która specjalizuje się w zabezpieczeniach. Finansowanie zapewnia Engineering and Physics Sciences Research Council.
  18. Niezwykle prosty w budowie system liczący komórki został opracowany na Uniwersytecie Kalifornijskim. Zestaw, którego sercem jest układ stosowany powszechnie w aparatach cyfrowych, pozwala na rozróżnienie i policzenie różnych typów komórek obecnych w próbce. Opracowane urządzenie jest konstrukcją nie tylko prostą, lecz także wyjątkowo kompaktową - składa się ono z zaledwie kilku prostych elementów. Co więcej, przeznaczona do analizy próbka nie musi być w żaden sposób przygotowana do testu, co skraca i upraszcza procedurę. Istnieje w związku z tym duża szansa na wykorzystanie systemu np. do oceny czystości mikrobiologicznej wody lub do wykonywania niektórych badań medycznych w warunkach polowych lub w krajach Trzeciego Świata. Wykonanie analizy jest bardzo proste. Badany materiał, czyli np. kroplę wody lub krwi, umieszcza się na szklanej płytce umieszczonej nad detektorem światła stosowanym powszechnie w cyfrowych aparatach fotograficznych, a następnie oświetla za pomocą prostej lampy. To, co rejestrujemy, to nie obraz, lecz sygnatura dyfrakcyjna, opisuje dr Aydogan Ozcan, twórca urządzenia. Naukowiec ma tu na myśli charakterystyczny sposób uginania się światła po przejściu przez komórki określonego typu. Gdy aparat wykona fotografię pojedynczej próbki, jest ona porównywana z biblioteką znanych sygnatur dyfrakcyjnych, co pozwala na zaklasyfikowanie komórek do określonych grup oraz ich zliczenie. Wykonywane kalkulacje są na tyle proste, że może je wykonywać nawet telefon komórkowy. W przeciwieństwie do tradycyjnych mikroskopów, opracowany sensor nie pozwala na uzyskanie precyzyjnych obrazów, lecz wyeliminowanie skomplikowanego układu optycznego pozwala na radykalne obniżenie kosztu produkcji maszyny. Jakość obrazu jest jednak, oczywiście, wystarczająca do wykonania precyzyjnego pomiaru. Dotychczas większość podobnych testów wykonywano z użyciem cytometrów przepływowych - niezwykle złożonych maszyn kosztujących kilkaset tysięcy złotych. Mają one ogromne możliwości wykonywania różnorodnych pomiarów, lecz w przypadku prostych analiz często jest to zwyczajnie niepotrzebne. Co więcej, cytometry to duże i ciężkie urządzenia, których z pewnością nie można nazwać przenośnymi, w przeciwieństwie do maszyny zaprojektowanej na Uniwersytecie Kalifornijskim. Pomimo kompaktowych rozmiarów wydajność prototypu jest stosunkowo wysoka. Pozwala on na wykrycie do stu tysięcy komórek w próbce o powierzchni 20 centymetrów kwadratowych w czasie jednej sekundy. Wystarcza to w zupełności np. do wykonania standardowej oceny morfologii krwi. Komórki są liczone z dokładnością ok. 10%, wystarczającą dla większości tego typu pomiarów. Wynalazek wzbudził już zainteresowanie innych naukowców. Pracujący na tej samej uczelni dr Alexander Revzin rozpoczął współpracę z dr. Ozcanem nad opracowaniem kieszonkowego urządzenia zdolnego do analizy krwi pod kątem liczebności limfocytów T. Pomiar ten jest niezwykle istotny dla oceny stopnia zaawansowania nabytego zespołu utraty odporności (AIDS). Podstawowym celem naukowców jest opracowanie systemu pozwalającego na niesienie pomocy pacjentom w krajach ubogich, lecz dr Rezvin nie wyklucza rozwinięcia tego pomysłu: [przyrząd] nie musi być używany wyłącznie w Afryce, jeżeli będzie to solidna technologia. Prototyp urządzenia zaprojektowanego w Kalifornii został już przetestowany w warunkach laboratoryjnych. Kolejnym etapem badań będzie zintegrowanie go z telefonem komórkowym - wbudowany weń aparat fotograficzny wykonywałby zdjęcia badanych próbek, a dalszy rozwój projektu wymaga jedynie dobudowanie podzespołów odpowiedzialnych za analizę obrazu oraz ładowanie szkiełek mikroskopowych do urządzenia.
  19. "Pogoń za cieniem" wkrótce, dzięki pracom amerykańskich specjalistów, zyska nowe znaczenie. Dla Amerykanów tym cieniem jest np. Osama bin Laden, którego nie potrafią znaleźć od lat. Teraz chcą złapać terrorystę dzięki jego... cieniowi. Adrian Stoica z należącego do NASA Jet Propulsion Laboratory, zauważa, że gdy mamy do czynienia z wideo nakręconym z góry (np. przez samoloty szpiegowskie), widzimy głowę i ramiona danej osoby i nie jesteśmy w stanie jej rozpoznać. Człowieka można jednak identyfikować również po charakterystycznym dla niego chodzie. I tutaj ponownie pojawia się problem. Chodu nie można analizować przy obrazach z góry. Stoica ma jednak rozwiązanie. Jest nim analiza cienia rzucanego przez idącą osobę. Na jego podstawie można zidentyfikować charakterystyczne długość i rytm kroku. Uczony, by udowodnić swoją teorię, napisał program analizujący cienie na filmach z samolotów i satelitów. Oprogramowanie potrafi wyodrębnić cienie ludzi spośród innych cieni i, używając danych dotyczących pory dnia kiedy to film został zarejestrowany oraz kąta pod jakim była ustawiona kamera, odpowiednio przekształcić cień tak, by dokonać odpowiedniej korekty gdy był on skrócony lub wydłużony. Na tej podstawie oprogramowanie tworzy sylwetkę idącego człowieka i jest w stanie identyfikować nagrane osoby. Podczas testów idące osoby nagrywano z szóstego piętra budynku. Stoica mówi, że jego program dostarczył później dużej ilości użytecznych danych. Bhupendra Jasani z King's College London, który specjalizuje się w analizie zdjęć satelitarnych, mówi jednak, że obecnie obrazy przekazywane przez satelity geostacjonarne są zbyt mało szczegółowe. Trudno mi uwierzyć, że technika ta zadziała w przypadku zdjęć z kosmosu - stwierdził Jasani.
  20. Lars-Erik Björklund, doktorant z Uniwersytetu w Linkoping, badał neurobiologiczne podłoże intuicji. Wg niego, możemy przeczuwać, co wydarzy się w przyszłości, ponieważ otrzymujemy i analizujemy wrażenia zmysłowe zarówno na poziomie świadomym, jak i nieświadomym. Po przejrzeniu literatury przedmiotu Szwed doszedł do wniosku, że przechowywane w podświadomości obrazy i wspomnienia wcześniejszych doświadczeń pozwalają przypuszczać, co się stanie w przyszłości w podobnych okolicznościach. Efekty działania tego mechanizmu zwykliśmy właśnie uznawać za intuicję. Intuicję, nazywaną często milczącą wiedzą, trudno poddać pomiarom, dlatego często naukowcy zaprzeczają jej istnieniu. Doktorant postanowił znaleźć odpowiedź na pytanie, czemu ludzie, którzy pracują w zawodzie od dawna, osiągają mistrzostwo. Dlaczego, co wykazały eksperymenty z lat 80., pielęgniarki z długoletnim stażem widzą więcej i szybciej oceniają sytuację. Wydawałoby się, że sprawa jest oczywista, ale jak dotąd nie zaproponowano zadowalającego wyjaśnienia. Praktyka czyni mistrza, ale na jakich zasadach? Czy chodzi o automatyzację czynności, odpowiednie segregowanie przychodzących danych, a może o coś zupełnie innego? Parę lat temu neurolodzy odkryli, że w ludzkim mózgu działają dwa systemy odbierania i analizy informacji dostarczanych przez zmysły: nieświadomy i świadomy. W ramach podświadomego dane są porównywane z wcześniejszymi doświadczeniami. Im więcej ich zgromadzimy, tym większa szansa, że aktualne wydarzenia (obraz, smak, zapach, coś nieuchwytnego, kombinacja sygnałów itp.) uruchomią intuicję, bo z czymś się skojarzą. Dysponujemy wspomnieniami, które muszą zostać wypełnione wrażeniami zmysłowymi. Wspomnienia te tworzą się jednak tylko wtedy, gdy coś nas dotyczy. Zaangażowanie jest więc warunkiem koniecznym. Intuicji nie da się nauczyć z książek, konieczna jest praktyka. To dlatego nauczyciel bez dyplomu, ale z 10-letnim doświadczeniem może osiągać lepsze rezultaty od świeżo upieczonego absolwenta pedagogiki. Björklund nie zamierza zachęcać do obcięcia liczby godzin zajęć teoretycznych dla inżynierów, nauczycieli czy lekarzy. Zamiast tego uważa, że powinno się rozszerzyć część praktyczną. Musimy widzieć, czuć, także węchem, słyszeć i smakować, jednym słowem: wykorzystywać wszystkie nasze zmysły. Takiej kolekcji danych nie da się zastąpić studiowaniem książek. W dzisiejszych czasach doświadczenie jest niedoceniane. Prawdopodobnie dlatego, że nie zrozumieliśmy tego typu milczącej wiedzy. Teraz, dzięki badaczom mózgu, wszystko się wyjaśniło.
  21. Biolodzy z Austrii i Singapuru opracowali wspólnie technikę, dzięki której możliwe jest znakowanie wirusów w sposób ułatwiający ich analizę, przy jednoczesnym zachowaniu ich zdolności do infekowania komórek. Studium może mieć ogromny wpływ na badania w takich dziedzinach, jak opracowywanie szczepionek, badanie biologii wirusów czy mechanizmów ich ewolucji. Możliwość znakowania cząstek wirusowych może mieć także niebagatelne znaczenie dla biologów zajmujących się badaniem rozprzestrzeniania się wirusów wewnątrz organizmów lub pojedynczych komórek. Nową techniką mogą być zainteresowani także naukowcy zajmujący się tematyką terapii genowej, gdyż wirusy należą do najczęściej stosowanych i najskuteczniejszych wektorów, czyli nośników, z użyciem których dochodzi do przenoszenia genów do miejsca przeznaczenia. Użyte w eksperymencie białko należy do grupy tzw. białek kotwiczących. Jest to specyficzna grupa protein, które przylegają do otaczającej komórki błony lipidowej wyłącznie od zewnątrz, tzn. żaden fragment ich cząsteczek nie przebija błony komórkowej. Badacze wykazali, że odpowiednio oczyszczone białko kotwiczące jest w stanie związać nie tylko lipidy na powierzchni ludzkich komórek, ale także analogiczną strukturę na powierzchni cząstki wirusowej. Przyłączenie takiego elementu sprawia, że możliwe jest tropienie dowolnego - teoretycznie nawet nieznanego - wirusa na podstawie analizy położenia cząsteczki znakującej. Jednocześnie, co jest dla badaczy niezmiernie ważne, technika ta nie ogranicza zdolności wirusa do infekcji. Opracowana metoda ma jeszcze przynajmniej dwie ważne zalety. Po pierwsze, możliwe jest tworzenie "hybrydowych" cząsteczek, np. połączonych molekuł białka i barwnika fluorescencyjnego. Dzięki temu potencjalnie możliwe jest wykrywanie poszukiwanego obiektu nawet we wnętrzu organizmu za pomocą kamery umieszczonej poza ciałem zwierzęcia, czyli w sposób niemal całkowicie bezinwazyjny (technikę taką określamy jako bio-imaging). Drugi atut techniki znakowania jest związany z jej uniwersalnością - możliwe jest związanie z białkiem kotwiczącym dowolnego wirusa zaopatrzonego w otoczkę lipidową, nawet jeśli jest to wirus dotychczas nieznany. O swoim odkryciu zespół doniósł w najnowszym numerze czasopisma The FASEB Journal.
  22. Peter Neubäcker, były producent gitar, który zajął się programowaniem, dokonał czegoś, co wcześniej wydawało się niemożliwe. Stworzył oprogramowanie o nazwie Direct Note Access, które umożliwia przeprowadzenie tak dokładnej analizy nagrania, że zostają wyodrębnione poszczególne nuty, które można następnie modyfikować. On odkrył Świętego Grala przetwarzania dźwięku - mówi Michael Bierylo, gitarzysta i wykładowca muzyki elektronicznej w Berklee College of Music. Przyznaje, że większość ekspertów uważała, że wyodrębnienie poszczególnych nut z nagrania nigdy nie będzie możliwe. Osiągnięcie Neubäckera i jego firmy Celemony Software może przyczynić się np. do wypuszczenia na rynek nigdy nie publikowanych nagrań takich klasyków jak Duke Ellington lub Jimi Hendrix. Sporo nagrań nigdy nie trafiło do sprzedaży z powodu źle nastrojonych instrumentów czy pomyłek muzyków podczas pracy w studio. Nowy program przyda się też współczesnym studiom nagraniowym, które będą miały większą swobodę w poprawianiu utworów. Obecnie używane programy komputerowe pozwalają na spore manipulacje dźwiękiem, więc studia nagraniowe mogą dokonywać znaczących poprawek. Problem jednak w tym, że traktują one akordy gitarowe czy fortepianowe jako całość. Możliwa jest więc zmiana całego akordu, ale nie poszczególnych nut. Neubäckerowi udało się przezwyciężyć tę niedogodność. Direct Note Access przedstawia cały akord w formie graficznej. Na ekranie poszczególne nuty wyglądają jak przypadkowo porozrzucane kleksy. Każdy z nich można złapać myszką i przesunąć w inne miejsce, modyfikując w ten sposób zapis. Neubäcker podkreśla, że jego oprogramowanie nie jest doskonałe. Działa świetnie w przypadku przetwarzania wyraźnego dźwięku, takiego jaki daje gitara akustyczna czy fortepian. Gorzej może współpracować w przypadku np. ostrych dźwięków gitary elektrycznej. Pomimo niedoskonałości Direct Access Note spotkało się z olbrzymim zainteresowaniem specjalistów. Widziałem prezentację i powaliła mnie na kolana. Nie mogę się doczekać, by wypróbować program. Na pewno go kupię - mówi Chris Griffin, producent w nowojorskim studio Cutting Room.
  23. O niezwykłych możliwościach, jakie daje nam światło laserowe, przekonaliśmy się już wiele razy i nie raz się jeszcze przekonamy. Jeden z najnowszych sposobów jego wykorzystania opracował zespół naukowców z amerykańskich ośrodków National Institute of Standards and Technology oraz University of Colorado. Mowa o technice spektroskopowej analizy wydychanych gazów, dzięki której możliwe będzie tanie, szybkie i całkowicie nieinwazyjne wykrywanie różnorodnych chorób, m.in. astmy i nowotworów. Według autorów metody, jej podstawową zaletą jest możliwość jednoczesnej analizy wielu różnych cząsteczek w badanym gazie. Dzieje się tak, ponieważ próbka oddechu jest wpuszczana do obszaru między dwoma lustrami, tzw. komory rezonansowej. Te same lustra wielokrotnie odbijają impuls światła laserowego analizującego gaz. Liczba wspomnianych odbić jest tak duża, że oświetlana jest praktycznie cała objętość próbki. Porównując właściwości światła wchodzącego do komory z promieniem ją opuszczającym, można uzyskać niezwykle precyzyjne informacje na temat składu badanego gazu. Podczas prób przeanalizowano oddech grupy studentów. Natychmiast udało się zidentyfikować wśród nich palacza – wydychał on pięciokrotnie więcej tlenku węgla niż koledzy. Równie proste jest diagnozowanie niektórych chorób – na przykład nadmiar metylaminy wskazuje na problemy z wątrobą i nerkami, aceton może świadczyć o cukrzycy, a tlenki azotu – o astmie. Rzeczywista analiza jest znaczne dokładniejsza, ponieważ bierze pod uwagę całe grupy związków świadczących o danym schorzeniu. Choć wyniki te są bardzo obiecujące, dokładność opisywanej metody będzie musiała zostać potwierdzona podczas testów klinicznych. Po weryfikacji metoda ta będzie mogła dołączyć środków stosowanych podczas badań lekarskich.
  24. W jaki sposób udaje nam się w hałaśliwym otoczeniu wyłapać te dźwięki, które nas interesują? Okazuje się, że jest to możliwe dzięki lewej półkuli. W życiu codziennym cały czas jesteśmy wystawiani na jednoczesne oddziaływanie kilku konkurencyjnych dźwięków i musimy umieć wychwytywać z tła istotne sygnały, np. mowę – wyjaśnił Reuterowi Ryusuke Kakigi z japońskiego Narodowego Instytutu Nauk Fizjologicznych. Lewa półkula zdominowała proces przetwarzania bodźców słuchowych w głośnym środowisku. Nie od dziś wiadomo, że odpowiada ona za analizę mowy, ale dzięki badaniu przeprowadzonemu przez kanadyjsko-japońsko-niemiecki zespół na Uniwersytecie w Münsterze udało się sprecyzować, jak konkretnie mózg koncentruje się na danych dźwiękach i je przetwarza. Wolontariuszom odtwarzano różne zestawienia dźwięków testowych i szumu. Dźwięk testowy nadawano do lewego lub prawego ucha, a konkurencyjny hałas do tego samego albo przeciwnego ucha – napisano w artykule opublikowanym w Internecie w serwisie BMC Biology. W tym samym czasie wykonywano obrazowanie mózgu. Większość aktywności nerwowej obserwowano właśnie w lewej półkuli.
  25. Badacze z Harvard Medical School uważają, że wypieranie wspomnień ma charakter kulturowy, a nie medyczny. Psychiatrzy i specjaliści ds. literatury wspólnie analizowali dokumenty i nie udało im się natrafić na ślad ani jednego przypadku tego zjawiska, który miałby więcej niż 200 lat. Gwoli uzupełnienia należy dodać, że zajmowali się pismami z kręgu kultury zachodniej. Pierwsze przykłady amnezji dysocjacyjnej odnotowano w XIX wieku, m.in. u amerykańskiej poetki Emily Dickinson — opowiada szef projektu Harrison Pope. Naukowcy uważają, że gdyby wyparcie nie było wytworem kulturowym, w literaturze odnaleziono by wcześniejsze wzmianki na ten temat, ponieważ sztuka odzwierciedla życie. Szekspir i Homer nadali wielu swoim postaciom cechy różnych chorób psychicznych, np. schizofrenii czy depresji, żadna jednak nie cierpiała na amnezję dysocjacyjną. Na łamach specjalistycznego pisma Psychological Medicine badacze ogłosili, że oferują nagrodę w wysokości 1000 dolarów każdemu, kto podając przykład sprzed 200 lat, obali ich teorię o kulturowych korzeniach wyparcia wspomnień.
×
×
  • Create New...