Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'Uniwersytet Stanforda' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 13 wyników

  1. Mieszkańcy Stanów Zjednoczonych powinni przygotować się w przyszłości na długotrwałe okresy wyjątkowo wysokich temperatur. W ciągu najbliższych 3 dekad takie zjawiska pogodowe staną się powszechne na terenie USA. Używając różnych modeli klimatycznych stwierdziliśmy, że w ciągu trzydziestu lat w USA zintensyfikują się fale upałów - stwierdził profesor Noah Diffenbaugh z Uniwersytetu Stanforda. Z przeprowadzonych przez niego badań wynika, że do roku 2039 okresy bardzo wysokich temperatur będą tak powszechne, że zagrożą rolnictwu i zdrowiu mieszkańców. Zbiorą one dziesiątki tysięcy ofiar śmiertelnych i spowodują obniżenie się plonów kukurydzy, soi, bawełny i winogron. Podczas dwuletnich badań Diffenbaugh i współpracujący z nim Moetasim Ashfag z Oak Ridge National Laboratory, wykorzystali ponad 20 modeli klimatycznych by sprawdzić, co się stanie, jeśli emisja dwutlenku węgla spowoduje, że w latach 2010-2039 średnia temperatura na Ziemi wzrośnie o 1 stopień Celsjusza. Scenariusz taki zakłada, że średnia globalna będzie o ok. 2 stopnie wyższa niż średnia z lat 50. XIX wieku. Wielu naukowców i polityków przyjęło te 2 stopnie jako górną granicę, powyżej której nie możemy dopuścić dalszego wzrostu. Uzyskane przez nas wyniki sugerują, że nawet ograniczenie wzrostu temperatur do 2 stopni powyżej średniej z epoki preindustrialnej może nie wystarczyć do uniknięcia poważnego wzrostu liczby długotrwałych fal upałów - mówi Diffenbaugh. Obaj uczeni posłużyli się też dokładnymi danymi dotyczącymi temperatur na terenie USA w latach 1951-1999. Chcieli dzięki nim określić częstotliwość i długotrwałość fal upałów. Dane nałożyli na modele klimatyczne, w tym na RegCM3, który pokazuje informacje dla obszarów wielkości zaledwie 625 kilometrów kwadratowych. Uzyskane wyniki zaskoczyły naukowców. Wynika z nich bowiem, że intensywne upały, równe najgorszym zanotowanym w latach 1951-1999 mogą mieć miejsce pięciokrotnie w latach 2020-2029 i dotkną zachodnie oraz środkowe obszary USA. Później sytuacja jeszcze się pogorszy. Fale upałów dotkną też wschodnich terenów Stanów Zjednoczonych. Co prawda z nieco mniejszą intensywnością, bo o ile na zachodzie i w środkowych częściach kraju może ich być pięć w ciągu dekady, to na wschodzie spodziewane są trzy takie fale. Najgorsze będą lata 20. i 30. bieżącego wieku. Na olbrzymich obszarach Utah, Colorady, Arizony i Nowego Meksyku może przydarzyć się co najmniej 7 fal gorąca równych najwyższym temperaturom zanotowanym od roku 1951. Uczeni stwierdzili również, że w latach 2030-2039 dni z najwyższymi temperaturami z lat 1980-1999 będą zdarzały się dwukrotnie częściej niż wcześniej. Będzie bardziej sucho i gorąco. Można spodziewać się spustoszenia upraw i większej liczby pożarów lasów. Wszystkie te niekorzystne zjawiska mogą zajść jeszcze zanim temperatura wzrośnie o wspomniane 2 stopnie powyżej tej z lat 50. XIX wieku.
  2. Próżnia jest powszechnie uznawana za najdoskonalszy izolator. brak atomów powoduje, że ciepło jest bardzo słabo przewodzone. Jednak najnowsze badania pozwoliły naukowcom wpaść na trop materiału, który jeszcze słabiej przewodzi ciepło. Chodzi tutaj o warstwy fotonicznych kryształów przedzielonych próżnią. Ciepło może być transferowane pomiędzy materiałai poprzez konwekcję, przewodnictwo i radiację. Dwie pierwsze metody wymagają istnienia materialnego medium, zatem nie działają w próżni. jednak radiacja w postaci światła podczerwonego przemieszcza się w próżni, powodując np. powolne stygnięcie płynu w termosie. Naukowcy z Uniwersytetu Stanforda pracujący pod kierunkiem Shanhuia Fana już w ubiegłym roku zaczęli zastanawiać się, czy istnieje lepszy izolator od próżni. Z ich teoretycznych wyliczeń wynikało, że mogą to być kryształy fotoniczne. Powstają one w naturze (np. opal), można je również wytworzyć w laboratorium. Ich szczególną cechą jest struktura o okresowo rozłożonym współczynniku załamania. Mamy w niej do czynienia z fotoniczną przerwą energetyczną, a więc nie przechodzi przezeń konkretna długość fali świetlnej. Uczeni odkryli, że struktura o grubości 100 mikrometrów, zbudowana z 10 warstw kryształów o grubości 1 mikrometra każda, pomiędzy którymi znajdują się 10-mikrometrowe obszary próżni, powoduje, że przewodnictwo cieplne jest o 50% mniejsze niż w przypadku zastosowania samej próżni. Dalsze badania dowiodły, że nie zależy ono od grubości warstw kryształów, ale od współczynnika załamania światła. Odkrycie to może mieć liczne zastosowania. Na przykład tam, gdzie energia słońca jest wykorzystywana do podgrzewania, przyda się materiał, który będzie przepuszczał światło widzialne, ale zatrzyma ciepło.
  3. Wystarczy zanurzyć kartkę papieru w tuszu wykonanym z węglowych nanorurek i srebrnych nanokabli, by błyskawicznie uzyskać baterię lub superkondensator - stwierdza profesor Yi Cui z Uniwersytetu Stanforda. Społeczeństwo potrzebuje tanich, wysoko wydajnych urządzeń przechowujących energię, takich jak baterie i proste superkondensatory - mówi uczony. Naukowiec mówi, że jego baterie są szczególne. Dzięki wykorzystaniu materiałow w skali nano, podstawowe elementy baterii są bardzo małe, przez co tusz z nanorurkami i nanokablami bardzo mocno przyczepia się do włókien papieru. To zaś powoduje, że baterie są niezwykle wytrzymałe. Superkondensator wykonany metodą proponowaną przez Cui jest w stanie wytrzymać 40 000 cykli ładowania/rozładowania, a więc znacznie więcej niż nowoczesne baterie litowe. Papierowe baterie mają też kolosalną zaletę - trudno je zniszczyć. Można je zmiąć, wygiąć, zanurzyć w roztworze kwasu lub zasady, a zachowają swoją wydajność. Nie sprawdzaliśmy jeszcze, co się stanie, gdy je spalimy - mówi Cui. Superkondensatory wykonane z papieru mogą być przydatne w przemyśle motoryzacyjnym. Mają bowiem dużą powierzchnię w stosunku do objętości, mogą więc przechowywać sporo energii. Ta technologia może zostać bardzo szybko skomercjalizowana. Nie sądzę, by jej zastosowanie ograniczyło się tylko do przechowywania energii. To potencjalnie tania, elastyczna elektroda dla każdego urządzenia elektronicznego - stwierdził profesor Peidong Yang z Uniwersytetu Kalifornijskiego w Berkeley. Zdaniem wynalazcy papierowych baterii, najbardziej przydadzą się one w przemyśle produkującym i dystrybuującym energię. Pozwolą bowiem w bardzo tani i prosty sposób przechowywać energię wyprodukowaną poza szczytem i uwolnić ją w szczycie.
  4. Psychologowie odkryli, że uczniowie, którym powiedziano, że trenując swój mózg jak mięsień, staną się mądrzejsi, rzeczywiście zaczynają się lepiej uczyć. Istnieje wiele koncepcji inteligencji. Jedne uznają ją za niezmienną cechę, inne utrzymują, że swój iloraz inteligencji można zwiększyć. Carol Dweck z Uniwersytetu Stanforda uważa, że te ostatnie korzystnie wpływają na motywację do pogłębiania wiedzy. Ci, którzy wierzą w teorię stałych cech, obawiają się, jak wypadną. Czy okażą się mądrzy, czy nierozgarnięci. Nie cieszą ich trudne zadania, ponieważ obawiają się porażki oraz jej skutków dla postrzegania siebie. Zwolennicy teorii drugiego typu lubią mierzyć się z wyzwaniami. Interesuje ich to bardziej niż wyglądanie na osoby inteligentne. Są bardziej wytrwali, elastyczni, mniej się obawiają pomyłek. Pani Dweck zainteresowała się ludzkimi koncepcjami inteligencji ze względu na własne doświadczenia szkolne. Mój nauczyciel usadzał nas w klasie według ilorazu inteligencji. Cała odpowiedzialność spoczywała na uczniach z najwyższym IQ. Sięgając pamięcią wstecz, mogę stwierdzić, że przed tym wydarzeniem uczenie się zawsze sprawiało mi przyjemność. Doświadczenia ze szkoły nie dotyczyły jednak nauki. Chodziło o to, że trzeba było zawsze wyglądać na osobę mądrą, inaczej degradowano cię i przenoszono do tylnych rzędów. Praca w tak ustalonych sztywnych ramach miała na mnie głęboki wpływ. Inteligencja znaczyła tyle samo co wartość. Aby zbadać wpływ różnych teorii inteligencji na osiągnięcia szkolne, Dweck i zespół przez 2 lata śledzili losy 373 dzieci z Nowego Jorku. W tym czasie uczęszczały one do gimnazjum. Na początku nauki wszystkie uzyskały podobny wynik w teście matematycznym. Potem jednak uczniowie pojmujący inteligencję jako stałą cechę zaczęli wypadać gorzej w sprawdzianach z matematyki. W dodatku różnica między nimi a rówieśnikami lubiącymi wyzwania pogłębiała się z upływem czasu. Kiedy myśli się o swoich umiejętnościach jak o czymś niezmiennym, odsuwa się na bok wszelkie informacje o niepowodzeniach. Nie można się uczyć na swoich błędach, bo to fatalnie wpływa na samoocenę. Naukowcy podzielili dzieci, które miały największe problemy z matematyką, na dwie grupy. Obie przeszły kurs "nauki uczenia się", natomiast tylko jednej zaproponowano dodatkowy 8-tygodniowy program. Mózg przedstawiono uczniom jako mięsień. Mieli oni zacząć wierzyć, że im więcej go wykorzystują, tym silniejszy, bardziej wysportowany się staje. Nauczyliśmy ich, że gdy zaczynają intelektualną gimnastykę, mózg tworzy nowe połączenia. To dało im nieznany dotąd model własnego umysłu, poczucie, że mają kontrolę nad mózgiem i możliwość usprawniania jego funkcjonowania. Koncepcja ta uwolniła ich od tyranii strachu, że okażą się mało inteligentni. Osiągnięcia matematyczne tej grupy znacznie się poprawiły (Child Development). Obecnie zespół Dweck pracuje nad komputerową wersją swojego autorskiego programu. Jeśli zda egzamin w 20 szkołach, gdzie został zaimplementowany, w przyszłości na pewno pomoże wielu dzieciom.
  5. Naukowcy z Uniwersytetu Stanforda wraz z inżynierami Toshiby jako pierwsi na świecie zaprezentowali krzemowy układ scalony, który zamiast miedzianych połączeń wykorzystuje nanorurki węglowe. Po raz pierwszy w historii przez nanorurki przesłano cyfrowe sygnały z częstotliwością 1 gigaherca. Dotychczas mieliśmy tylko nadzieję, że będzie to możliwe, ale żadnego dowodu - powiedział Philip Wong, profesor na Wydziale Inżynierii Elektrycznej Uniwersytetu Stanforda. Prace akademików pozwolą na przedłużenie ważności Prawa Moore'a. Zakłada ono, że co dwa lata liczba tranzystorów w układzie scalonym będzie się podwajała. Ciągle udaje się spełniać ten warunek, jednak upakowanie coraz mniejszych elementów wymaga stosowania coraz cieńszych połączeń między nimi. Istniają obawy, że wkrótce powszechnie stosowana miedź przestanie wystarczać. Gael Close i Philip Wong oraz Shinichi Yasuda, Shinobu Fujita i Bipul Paul z Toshiby stworzyli matrycę składającą się z 256 oscylatorów pierścieniowych. Dodali do nich kolejne obwody, które umożliwiły wybiórcze przeprowadzanie operacji na każdym z oscylatorów. W sumie układ scalony składał się z 11 000 tranzystorów umieszczonych na powierzchni 6,5 milimetra kwadratowego. Podczas projektowania układu, przy każdym z oscylatorów pozostawiono jedno wolne połączenie. Kość została wykonana tradycyjnymi technikami w TSMC, a następnie Close i koledzy uzupełnili brakujące połączenia metalizowanymi nanorurkami. Co ważne, nie były one specjalnie przygotowywane, ale skorzystano z usług jednego z komercyjnych producentów. Każda z nanorurek miała 50-100 nanometrów średnicy i około 5 mikrometrów długości. Nanorurki różniły się jakością, ale ostatecznie udało się połączyć 19 oscylatorów. Każda z nanorurek była umieszczona bezpośrednio na tranzystorze, dzięki czemu maksymalnie zmniejszono opór, co pozwoliło na przesłanie sygnału z częstotliwością 1,02 GHz. Akademicy mówią, że nie należy się spodziewać, by układy scalone z nanorurkami trafiły w najbliższym czasie na rynek. Trzeba włożyć jeszcze sporo pracy zarówno w produkcję nanorurek o odpowiednich parametrach i projekt samego układu. Nanorurki wykorzystane w prototypie były dość duże (były wielkości obecnie używanych połączeń miedzianych) i nie charakteryzowały się odpowiednią czystością. Zrobiliśmy znaczący krok, ale to prototyp - mówi Close. Przemysł od dawna czekał na jego stworzenie, by móc naprawdę posuwać się naprzód - dodaje.
  6. Zanim zacznie wypełniać swoją funkcję, każde białko w organizmie żywym musi przejść proces składania. Proces ten jest zależny od ogromnej liczby sił działających na każdy atom białka oraz jego otoczenia, a także od warunków, w których zachodzi synteza. Na podobnej zasadzie zachodzi składanie niektórych cząsteczek RNA, które w pewnych sytuacjach może pełnić funkcje podobne do protein. Jednym z rodzajów takiego RNA są odkryte w 2002 roku tzw. "riboswitches". Są to cząsteczki tworzące złożone struktury 3D, zdolne do wiązania się z DNA i w ten sposób do włączania lub wyłączania aktywności genów (stąd ich nazwa). Niedawno, po raz pierwszy w historii, udało się zaobserwować na żywo proces składania takiej struktury. Odkrycia dokonali badacze z Uniwersytetu Stanforda. Naukowcy użyli maszyny zwanej "pułapką optyczną". Jest to złożony system pozwalający na rozciągnięcie pofałdowanego i "poskładanego" RNA do postaci wyprostowanej. Sama cząsteczka RNA została zmodyfikowana: do jej końców przyczepiono wielkie (oczywiście w porównaniu do cząsteczki RNA - ich rzeczywista wielkość to zaledwie 1 mikrometr) "żagle" wyłapujące światło, wykonano je z polistyrenu, oraz dodatkowo do jednego końca dodano kawałek DNA. Służył on wyłącznie do przedłużenia badanej nici. Po oświetleniu laserem polistyrenowych końcówek RNA rozciąga się, a po wyłączeniu strumienia światła zachowuje się jak sprężyna: powraca do pierwotnego, z góry ustalonego i optymalnego energetycznie, kształtu. Dzięki obserwacjom zmiany odległości pomiędzy "żaglami", dokonywanym w mikroskopie optycznym, można było ocenić, w jakiej kolejności powstawały pętle w strukturze RNA. Dodatkowo, znając ilość energii potrzebnej do "wyprostowania" RNA, można ustalić, jaka jest energia odwrotnego procesu, czyli składania, oraz czas niezbędny do jego zajścia. To pierwsza tak dokładna analiza tworzenia się struktur trójwymiarowych w makrocząsteczkach. To bezprecedensowe odkrycie otwiera nowy rozdział w badaniu składania makrocząsteczek, takich jak białka czy kwasy nukleinowe. Do tej pory za najskuteczniejszą (co wcale nie znaczy, że wystarczająco dobrą) metodę ich badania uznawano symulacje komputerowe. Te ostatnie były jednak tworzone w oparciu o obliczanie wartości przybliżonych, które pogarszały jakość wyników. Przy okazji tego odkrycia warto zaznaczyć, że również na polu bioinformatyki Uniwersytet Stanforda może się pochwalić bardzo zaawansowanymi badaniami. Naukowcy z tej uczelni od kilku lat udoskonalają algorytmy pozwalające obliczyć proces składania białek, wykorzystując moc obliczeniową komputerów rozsianych po całym świecie. Rozsyłają do internautów biorących udział w projekcie porcje danych do obliczenia, a następnie zbierają ich wyniki i tworzą w ten sposób "molekularne mapy" składania białek. Chętni do wzięcia udziału w projekcie znajdą dalsze informacje na ten temat na stronach Folding@home.
  7. Geny determinujące kolor okrywy włosowej pudla pomagają także zwalczać infekcje. Przekonali się o tym naukowcy z Uniwersytetu Stanforda, którzy badali DNA setek psów, poszukując mutacji odpowiadających za umaszczenie. Kiedy uzyskaliśmy już mapę genów pudla i zidentyfikowaliśmy odpowiednie geny, czekała nas niespodzianka – opowiada dr Gregory Barsh. Okazało się bowiem, że geny odpowiadające za kolor sierści, czyli wytwarzanie melanokortyny, kontrolują również produkcję białek zwanych defensynami. Jest to rodzina małych peptydów przeciwbakteryjnych. Związki te występują w neutrofilach, a także w komórkach jelita cienkiego oraz komórkach epitelialnych kratni i języka. Wszystkie rodzaje defensyn przenikają przez zewnętrzną i wewnętrzną błonę patogenu, jednocześnie hamując syntezę białek, kwasu nukleinowego i proces oddychania. Naruszenie wewnętrznej błony powoduje "wypływ" zawartości komórki. Do środka dostają się z kolei cząsteczki, których w normalnych okolicznościach tam nie ma. Laboratorium Barsha przez 15 lat zajmowało się badaniem szlaku metabolicznego melanokortyny, m.in. białek i hormonów, które kontrolują ilość wytwarzanych przez organizm melaniny i kortyzolu. Opisywany szlak odgrywa ważną rolę w kontroli wagi ciała i pigmentacji skóry (stąd pomysł Amerykanina na badanie barwy okrywy włosowej u psów). Skoro szlaki metaboliczne defensyn i melanokortyny się pokrywają, pojawia się pytanie o rolę spełnianą przez te ostatnie. Są nazywane defensynami, gdyż ludzie sądzą, że ich funkcja polega na obronie przed patogenami. Nikt jednak nie był w stanie rzeczywiście udowodnić, że defensyny są defensywne. Wg Barsha, rola tych białek nie ogranicza się jedynie do wspomagania układu odpornościowego. Liczba genów defensyny bardzo się zmienia, jeśli przyjrzymy się różnym gatunkom. Podobnego zjawiska nie zaobserwowano w przypadku większości innych genów. Pan doktor przypuszcza, że ich plastyczność może umożliwiać psom (a zapewne także i ludziom) przystosowywanie się do zmian środowiska. Szczególnie ważne byłaby zdolność dostosowywania się do zmian zachodzących szybko w kategoriach ewolucyjnych. Czymś, co posiadło taką umiejętność, są właśnie patogeny. Dlatego zwierzęta i ludzie muszą "postępować" podobnie, by umieć sobie z nimi radzić. Z drugiej strony kolor futra powinien pozwalać na zakamuflowanie się. A to także rodzaj adaptacji do otoczenia, w którym się żyje. Kiedy widzimy u ludzi różnice w zakresie defensyn, powinniśmy też poszukać różnic w wadze ciała, produkcji kortyzolu, a także kolorze włosów, oczu czy skóry.
  8. U pacjenta z zastoinową niewydolnością serca narząd ten ulega powiększeniu i przepompowuje krew nieefektywnie, czyli dostarcza jej za mało w stosunku do potrzeb metabolicznych organizmu. Dlatego pacjent szybko się męczy i odczuwa duszność. Jednostka chorobowa nie jest jeszcze dokładnie zbadana, ale przypuszcza się, że odpowiada za nią uszkodzenie ścian serca lub zaburzenia w pracy zastawek. Powiększenie jest skutkującym niestety przez krótki czas sposobem, w jaki serce stara się zrekompensować swoje obniżone możliwości przetaczania krwi. To jednak błędne koło, bo nadmierne rozciągnięcie jeszcze bardziej uszkadza organ. Zespół Bilala Shafiego ze Szkoły Medycznej Uniwersytetu Stanforda w Palo Alto wpadł jednak na pomysł, jak temu zaradzić. Trzeba skonstruować pewnego rodzaju kopolimerowy gorset. Składają się na niego 2 warstwy polimeru. Pierwsza ma zapewnić siłę i wytrzymałość, dlatego wybrano glikol polietylenowy (PEG). Druga warstwa to kolagen, który, jak łatwo się domyślić, odpowiada z kolei za elastyczność. Pozostał tylko jeden problem, jak dostarczyć polimery do serca. Amerykanie zdecydowali, by początkowo mieszanka miała postać proszku lub żelu, który już na miejscu byłby przekształcany w cienki, ale mocny film za pomocą ciepła czy promieniowania UV.
  9. Uczonym z amerykańskiego Narodowego Instytutu Standardów i Technologii (NIST), japońskiego NNT oraz Uniwersytetu Stanforda udało się przesłać kwantowy klucz na rekordową odległość 200 kilometrów. Podczas eksperymentu wykorzystano przede wszystkim obecnie używane technologie i urządzenia. Przeprowadzono go w laboratorium Uniwersytetu Stanforda, a sam klucz przesłano 200-kilometrowym światłowodem nawiniętym na szpulę. Przy okazji ustanowiono rekord prędkości przesyłania kwantowych kluczy szyfrujących. Dane generowano z prędkością 1 gigabita na sekundę, co oznacza, że w ciągu sekundy przesłano 10 miliardów impulsów świetlnych. Należy jednak zwrócić uwagę na fakt, że sama transmisja odbywała się znacznie wolniej. Przesyłany sygnał był bowiem po drodze korygowany i zabezpieczany. Ponadto nie szyfrowano nim żadnej wiadomości, więc nie można mówić tutaj o testowaniu kompletnego systemu QKD (quantum key dystribution – dystrybucja kwantowego klucza). Uczeni chcieli przede wszystkim sprawdzić teoretyczną wydajność systemu oraz przetestować nowe rozwiązania technologiczne. Głównym celem eksperymentu było sprawdzenie w praktyce działania superszybkich rosyjskich detektorów pojedynczych fotonów. Rosyjskie detektory charakteryzują się niskim współczynnikiem błędów oraz wyjątkowo szybkim czasem przejścia elektronu ze stanu wzbudzenia do stanu spoczynku. Zmiana stanów odbywa się w ciągu bilionowych części sekundy. Eksperyment dowiódł, że możliwe jest szybkie generowanie kluczy kwantowych i przesyłanie ich na duże odległości. Testowany system sprawdziłby się w dużych miastach, więc firmy mogłyby korzystać z kryptografii kwantowej, która jest znacznie bezpieczniejsza od obecnie wykorzystywanych technik kryptograficznych, podczas przesyłania poufnych dokumentów pomiędzy sobą.
  10. Jeśli chcemy, by robot poruszał się jak najbardziej naturalnie, powinien przy tym zużywać jak najmniej energii. "Leniwa" maszyna przypomina wtedy nas, ludzi. Do takiego wniosku doszedł Oussama Khatib z Uniwersytetu Stanforda, który bada przyszłe kontakty człowieka i robotów. Na pewno ulegną one wtedy zacieśnieniu, a użytkownicy będą oczekiwać, że R2D2, powiedzmy, 2120 roku będzie wyglądał i zachowywał się jak my. Modelując sposób poruszania się ludzi, Khatib odkrył, że naturalnie minimalizujemy energię zużywaną przez mięśnie. Ludzie są w pewnym sensie leniwi. To dlatego pijemy kawę, trzymając rękę ustawioną pod kątem 30-45 stopni w stosunku do ciała i nie podnosimy wyżej łokcia ani nie zwiększamy kąta, pod jakim kończyna jest odsunięta od tułowia. Następnie naukowiec zastosował dokładnie te same kryteria w odniesieniu do kontrolowanego komputerowo chodu robota. W ten sposób możemy uzyskać ruchy, które w wykonaniu maszyny wyglądają bardzo naturalnie.
  11. Badacze z Uniwersytetu Stanforda zauważyli, że tzw. nocne marki (sowy) częściej wspominają o patologicznych objawach powiązanych z bezsennością. Oznacza to, że nie odsypiają rano straconych godzin wieczornych i nocnych, mimo że mają do tego okazję. Nie zwiększają tym samym ogólnego czasu snu (Journal of Clinical Sleep Medicine). Zespół Jasona C. Onga zebrał 312 pacjentów, których podzielono na 3 grupy według chronotypu: 1) chronotyp wieczorny, 2) poranny i 3) pośredni. Kategoryzacji dokonano w oparciu o wyniki uzyskane w specjalnej samoopisowej skali (Morningness-Eveningness Composite Scale). Porównywano sen nocny, zmienność ogólnej długości snu, przebudzenia, a także konsekwencje bezsenności. W porównaniu do rannych ptaszków i typu pośredniego, osoby z bezsennością, które preferowały nocną aktywność, w tym tzw. sowy, wspominały o większej liczbie nieprawidłowości snu/wybudzania oraz o niepokoju towarzyszącym przechodzeniu ze snu do czuwania. Różnica pozostawała wyraźna nawet po uwzględnieniu nasilenia zaburzeń. Nasze wyniki sugerują, że powinno się przeprowadzić dalsze eksperymenty w celu zbadania związku między rytmami dobowymi a bezsennością, zwłaszcza wśród poważnych przypadków w grupie nocnych marków. Te czynniki działają jak "utrwalacze" insomnii i mogą być szczególnie ważne przy wyborze sposobów leczenia podgrup chorych. Ilość snu wpływa nie tylko na samopoczucie fizyczne i psychiczne czy zdolności intelektualne/produktywność. Najnowsze badania wskazują, że niedobór snu zwiększa ryzyko depresji, otyłości, chorób sercowo-naczyniowych, a także cukrzycy. A to już nie przelewki... Eksperci twierdzą, że dorosły człowiek powinien spać 7-8 godzin na dobę i wtedy będzie w stanie pokazać, na co go stać.
  12. Zwycięzcy ostatnich Grand Challenge, sponsorowanych przez DARPA (Defense Advanced Research Project Agency – Agencja Zaawansowanych Projektów Obronnych) zawodów, w których biorą udział samochody bez kierowców, staną w bieżącym roku przed nowym wyzwaniem. Urban Grand Challenge będzie ni mniej, ni więcej tylko zawodami rozgrywającymi się na ulicach miasta. Wcześniej samochody ścigały się jedynie na pustyni. Ponad 86 pojazdów będzie miało do przejechania 160 kilometrów. Właściciel zwycięskiego pojazdu otrzyma 2 miliony dolarów. Za zajęcie drugiego miejsca przewidziano nagrodę w wysokości miliona USD, a trzecie miejsce będzie premiowane 500 tysiącami dolarów. Wyścig będzie miał miejsce 3 listopada 2007 roku. Sądzę, że największym wyzwaniem dla wszystkich załóg będzie interakcja z innymi samochodami. Ze stałymi przeszkodami można sobie bez problemu poradzić i trzymać się swojego pasa. Jednak zatrzymanie się na światłach, branie pod uwagę sąsiednich samochodów czy zmiana pasa, by uniknąć kolizji, będzie sporym problemem – stwierdził Mike Montemerlo, badacz z Laboratorium Sztucznej Inteligencji Uniwersytetu Stanforda, którego pojazd "Junior”, zwycięzca Grand Challenge, też będzie brał udział w zawodach. "Juniorowi” (Volkswagen Passat) w wykonaniu zadania pomogą dwu- i czterordzeniowe procesory Intela oraz specjalne oprogramowanie, pisane wspólnie przez pracowników Uniwersytetu i koncernu Intel. Samochód za pomocą laserów i kamer bez przerwy monitoruje swoje otoczenie. Na podstawie zebranych danych tworzony jest model otaczającej go przestrzeni, który zostaje następnie wysłany do elementów sterujących pojazdu.
  13. Zespół naukowców z Uniwersytetu Stanforda badał za pomocą rezonansu magnetycznego (MRI) aktywność mózgu osób decydujących się na zakup pożądanego przedmiotu. Podczas oglądania, dajmy na to, pięknej torebki i jej ceny aktywowały się inne obszary mózgu (Neuron). Najpierw wyświetlano zdjęcie przedmiotu, potem jego cenę. Aktywność mózgu nagrywano. Na widok pożądanej rzeczy, np. bombonierki, którą dana osoba chciała kupić, rozświetlało się jądro półleżące przegrody. Gdy oczom ukazywała jej wysoka cena, aktywacji ulegała wyspa (insula; płat kory mózgu leżący w głębi bruzdy bocznej), a inne regiony wyłączały się. Obserwując aktywność mózgu, badacze potrafili przewidzieć wynik, a więc czy ktoś kupi dany przedmiot, czy zrezygnuje z niego. Obrazy MRI odzwierciedlały wewnętrzną walkę między chęcią posiadania, przyjemnością a "bólem" wywołanym perspektywą wydania ciężko zarobionych pieniędzy. Odkrycia naukowców z Uniwersytetu Stanforda pozwalają wyjaśnić zachowanie osób korzystających z kart kredytowych, a nie z "żywej" gotówki. Ludzie wydają wtedy więcej pieniędzy i nie doceniają swoich wydatków. Dr Alain Dagher z Montreal Neurological Institute uważa, że ludzkie zachowanie związane z finansami jest często irracjonalne, co daje pracę zatrudnionym w branży reklamowej, kasynach, sprzedawcom polis ubezpieczeniowych czy wreszcie ekonomistom. Badając aktywność mózgu zakupoholików czy hazardzistów, będzie można wytropić winnego, czyli nieprawidłowości funkcjonalne i/czy anatomiczne.
×
×
  • Dodaj nową pozycję...