Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'Stanford University' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 14 wyników

  1. Podczas International Solid-State Circuits Conference uczeni z Uniwersytetu Stanforda zaprezentowali niewielki implant, zdolny do kontrolowania swej trasy w układzie krwionośnym człowieka. Ada Poon i jej koledzy stworzyli urządzenie zasilane za pomocą fal radiowych. Implant można więc wprowadzić do organizmu człowieka, kontrolować jego trasę i nie obawiać się, że np. wyczerpią się baterie. Takie urządzenia mogą zrewolucjonizować technologię medyczną. Ich zastosowanie będzie bardzo szerokie - od diagnostyki do minimalnie inwazyjnej chirurgii - mówi Poon. Jej implant będzie mógł wędrować przez układ krwionośny, dostarczać leki do wyznaczonych miejsc, przeprowadzać analizy, a być może nawet rozbijać zakrzepy czy usuwać płytki miażdżycowe. Naukowcy od kilkudziesięciu lat starają się skonstruować podobne urządzenie. Wraz z postępem technologicznym coraz większym problemem było zasilanie takich urządzeń. Sam implant można było zmniejszać, jednak zasilające go baterie pozostawały dość duże - stanowiąc często połowę implantu - i nie pozwalały mu na zbyt długą pracę. Potrafiliśmy znacząco zminiaturyzować części elektroniczne i mechaniczne, jednak miniaturyzacja źródła energii za tym nie nadążała. To z kolei ograniczało zastosowanie implantów i narażało chorego na ryzyko korozji baterii, ich awarii, nie mówiąc już o ryzyku związanym z ich wymianą - mówi profesor Teresa Meng, która również brała udział w tworzeniu implantu. Urządzenie Poon wykorzystuje zewnętrzny nadajnik oraz odbiornik znajdujący się w implancie. Wysyłane przez nadajnik fale radiowe indukują w cewce odbiornika prąd. W ten sposób urządzenie jest bezprzewodowo zasilane. Opis brzmi bardzo prosto, jednak naukowcy musieli pokonać poważne przeszkody. Uczeni od 50 lat myśleli o zasilaniu w ten sposób implantów, jednak przegrywali z... matematyką. Wszelkie wyliczenia pokazywały, że fale radiowe o wysokiej częstotliwości natychmiast rozpraszają się w tkankach, zanikając wykładniczo w miarę wnikania do organizmu. Fale o niskiej częstotliwości dobrze przenikają do tkanek, jednak wymagałyby zastosowania anteny o średnicy kilku centymetrów, a tak dużego urządzenia nie można by wprowadzić do układu krwionośnego. Skoro matematyka stwierdzała, że jest to niemożliwe, nikt nie próbował sprzeciwić się jej regułom. Poon postanowiła jednak przyjrzeć się wykorzystywanym modelom matematycznym i odkryła, że większość uczonych podchodziła do problemu niewłaściwie. Zakładali bowiem, że ludzkie mięśnie, tłuszcz i kości są dobrymi przewodnikami, a zatem należy w modelach wykorzystać równania Maxwella. Uczona ze Stanforda inaczej potraktowała ludzką tkankę. Uznała ją za dielektryk, czyli niejako rodzaj izolatora. To oznacza, że nasze ciała słabo przewodzą prąd. Jednak nie przeszkadza to zbytnio falom radiowym. Poon odkryła też, że tkanka jest dielektrykiem, który charakteryzują niewielkie straty, co oznacza, że dochodzi do małych strat sygnału w miarę zagłębiania się w tkankę. Uczona wykorzystała różne modele matematyczne do zweryfikowania swoich spostrzeżeń i odkryła, że fale radiowe wnikają w organizm znacznie głębiej niż sądzono. Gdy użyliśmy prostego modelu tkanki do przeliczenia tych wartości dla wysokich częstotliwości odkryliśmy, że optymalna częstotliwość potrzebna do bezprzewodowego zasilania wynosi około 1 GHz. Jest więc około 100-krotnie wyższa niż wcześniej sądzono - mówi Poon. To oznacza też, że antena odbiorcza w implancie może być 100-krotnie mniejsza. Okazało się, że jej powierzchnia może wynosić zaledwie 2 milimetry kwadratowe. Uczona stworzyła implanty o dwóch różnych rodzajach napędu. Jeden przepuszcza prąd elektryczny przez płyn, w którym implant się porusza, tworząc siły popychające implant naprzód. Ten typ implantu może przemieszczać się z prędkością ponad pół centymetra na sekundę. Drugi typ napędu polega na ciągłym przełączaniu kierunku ruchu prądu, przez co implant przesuwa się podobnie do napędzanej wiosłami łódki. Jest jeszcze sporo do udoskonalenia i czeka nas wiele pracy zanim takie urządzenia będzie można stosować w medycynie - mówi Poon.
  2. Podczas International Solid-State Circuits Conference uczeni z Uniwersytetu Stanforda zaprezentowali niewielki implant, zdolny do kontrolowania swej trasy w układzie krwionośnym człowieka. Ada Poon i jej koledzy stworzyli urządzenie zasilane za pomocą fal radiowych. Implant można więc wprowadzić do organizmu człowieka, kontrolować jego trasę i nie obawiać się, że np. wyczerpią się baterie. Takie urządzenia mogą zrewolucjonizować technologię medyczną. Ich zastosowanie będzie bardzo szerokie - od diagnostyki do minimalnie inwazyjnej chirurgii - mówi Poon. Jej implant będzie mógł wędrować przez układ krwionośny, dostarczać leki do wyznaczonych miejsc, przeprowadzać analizy, a być może nawet rozbijać zakrzepy czy usuwać płytki miażdżycowe. Naukowcy od kilkudziesięciu lat starają się skonstruować podobne urządzenie. Wraz z postępem technologicznym coraz większym problemem było zasilanie takich urządzeń. Sam implant można było zmniejszać, jednak zasilające go baterie pozostawały dość duże - stanowiąc często połowę implantu - i nie pozwalały mu na zbyt długą pracę. Potrafiliśmy znacząco zminiaturyzować części elektroniczne i mechaniczne, jednak miniaturyzacja źródła energii za tym nie nadążała. To z kolei ograniczało zastosowanie implantów i narażało chorego na ryzyko korozji baterii, ich awarii, nie mówiąc już o ryzyku związanym z ich wymianą - mówi profesor Teresa Meng, która również brała udział w tworzeniu implantu. Urządzenie Poon wykorzystuje zewnętrzny nadajnik oraz odbiornik znajdujący się w implancie. Wysyłane przez nadajnik fale radiowe indukują w cewce odbiornika prąd. W ten sposób urządzenie jest bezprzewodowo zasilane. Opis brzmi bardzo prosto, jednak naukowcy musieli pokonać poważne przeszkody. Uczeni od 50 lat myśleli o zasilaniu w ten sposób implantów, jednak przegrywali z... matematyką. Wszelkie wyliczenia pokazywały, że fale radiowe o wysokiej częstotliwości natychmiast rozpraszają się w tkankach, zanikając wykładniczo w miarę wnikania do organizmu. Fale o niskiej częstotliwości dobrze przenikają do tkanek, jednak wymagałyby zastosowania anteny o średnicy kilku centymetrów, a tak dużego urządzenia nie można by wprowadzić do układu krwionośnego. Skoro matematyka stwierdzała, że jest to niemożliwe, nikt nie próbował sprzeciwić się jej regułom. !RCOL Poon postanowiła jednak przyjrzeć się wykorzystywanym modelom matematycznym i odkryła, że większość uczonych podchodziła do problemu niewłaściwie. Zakładali bowiem, że ludzkie mięśnie, tłuszcz i kości są dobrymi przewodnikami, a zatem należy w modelach wykorzystać równania Maxwella. Uczona ze Stanforda inaczej potraktowała ludzką tkankę. Uznała ją za dielektryk, czyli niejako rodzaj izolatora. To oznacza, że nasze ciała słabo przewodzą prąd. Jednak nie przeszkadza to zbytnio falom radiowym. Poon odkryła też, że tkanka jest dielektrykiem, który charakteryzują niewielkie straty, co oznacza, że dochodzi do małych strat sygnału w miarę zagłębiania się w tkankę. Uczona wykorzystała różne modele matematyczne do zweryfikowania swoich spostrzeżeń i odkryła, że fale radiowe wnikają w organizm znacznie głębiej niż sądzono. Gdy użyliśmy prostego modelu tkanki do przeliczenia tych wartości dla wysokich częstotliwości odkryliśmy, że optymalna częstotliwość potrzebna do bezprzewodowego zasilania wynosi około 1 GHz. Jest więc około 100-krotnie wyższa niż wcześniej sądzono - mówi Poon. To oznacza też, że antena odbiorcza w implancie może być 100-krotnie mniejsza. Okazało się, że jej powierzchnia może wynosić zaledwie 2 milimetry kwadratowe. Uczona stworzyła implanty o dwóch różnych rodzajach napędu. Jeden przepuszcza prąd elektryczny przez płyn, w którym implant się porusza, tworząc siły popychające implant naprzód. Ten typ implantu może przemieszczać się z prędkością ponad pół centymetra na sekundę. Drugi typ napędu polega na ciągłym przełączaniu kierunku ruchu prądu, przez co implant przesuwa się podobnie do napędzanej wiosłami łódki. Jest jeszcze sporo do udoskonalenia i czeka nas wiele pracy zanim takie urządzenia będzie można stosować w medycynie - mówi Poon.
  3. Naukowcy z Uniwersytetu Stanforda ogłosili koniec jednokierunkowej komunikacji radiowej. Opracowali oni urządzenie, które potrafi jednocześnie odbierać i wysyłać sygnały na tej samej częstotliwości. W podręcznikach jest napisane, że tego się nie da zrobić. Nowy system zupełnie zmienia nasze strategie dotyczące projektowania sieci bezprzewodowych - mówi Philip Levis ze Stanforda. Prace amerykańskich uczonych pozwolą na praktycznie natychmiastowe dwukrotne zwiększenie przepustowości sieci bezprzewodowych. Oczywiście każdy z nas wie, że rozmawiając przez telefon komórkowy możemy jednocześnie mówić i słuchać, jednak musimy pamiętać, że jest to możliwe dzięki zabiegom technicznym, które ze względu na wysokie koszty nie są stosowane w większości przypadków komunikacji radiowej. Nowe radio jest dziełem trójki studentów - Jung Il Choia, Mayanka Jaina i Kannana Srinivasana, którym w pracach pomagali profesorowie Philip A. Levis i Sachin Katti. Główny problem, który trzeba było rozwiązać polegał na tym, że przychodzące sygnały radiowe są zagłuszane przez własną transmisję odbiornika. Stąd też dotychczasowa konieczność przełączania odbiorników radiowych w tryb nadawania i nasłuchiwania. Gdy radio przesyła sygnał, jest on miliardy razy silniejszy od sygnału, który może odebrać. To tak, jakby krzyczeć i jednocześnie próbować usłyszeć szept - stwierdza Levis. Młodzi naukowcy zdali sobie jednak sprawę z tego, że gdyby urządzenie potrafiło odfiltrować sygnał ze swojego własnego nadajnika, to mogłoby odebrać sygnał z innego urządzenia. Możesz to zrobić, gdyż nie słyszysz własnego wrzasku, a zatem możesz usłyszeć czyjś szept - wyjaśnia Levis. Naukowcy skorzystali z faktu, że każdy nadajnik ma precyzyjne informacje o swoim własnym sygnale, zatem może go skutecznie filtrować. Pierwsza demonstracja nowego systemu odbyła się przed kilkoma miesiącami przed grupą kilkuset inżynierów. Przekonała ona nawet największych niedowiarków, którzy do samego końca twierdzili, że jednoczesne nadawanie i odbieranie sygnału radiowego jest niemożliwe.
  4. Podczas, kiedy grafika komputerowa coraz bardziej przypomina życie, naukowiec ze Stanford University poszedł w drugą stronę i zastąpił generowaną grafiką prawdziwym życiem i żywą postacią. Ten co prawda pewnie ustępuje inteligencją botom z Unreala, bohaterem gry jest bowiem znany ze szkolnej biologii - pantofelek (Paramecium caudatum). Ten pospolity pierwotniak jest co prawda za mały, aby go obserwować gołym okiem, ale od czego współczesna technologia? W roli karty graficznej, a zarazem pola gry występuje pojemnik z pantofelkami, sterowanie odbywa się poprzez zmianę pola elektrycznego, albo wpuszczanie do pojemnika odpowiednich substancji chemicznych, co pozwala na kontrolowanie kierunku, w jakim pantofelek się przemieszcza. Pojemnik ustawiony jest pod kamerą sprzężoną z mikroskopem, obraz z kamery jest obrabiany przez komputer, który dodaje wirtualne elementy planszy i zlicza punkty. „Dostępne" w tej chwili gry to pantofelkowy Pac-Man (PAC-mecium), pong (Pond Pong), pinball (Biotic pinball) czy nawet piłka nożna (Ciliaball). Zaskakujący z pozoru pomysł, na jaki wpadł Ingmar Riedel-Kruse nie jest dziełem wariata, ale projektem edukacyjnym - wciągająca gra (autor zapewnia, że takie właśnie są pantofelkowe gry) łatwiej dotrze do uczniów, niż sucha wiedza. A w najbliższej przyszłości ważne będzie, aby każdy dysponował podstawową wiedzą z biologii i biotechnologii - uważa Riedel-Kruse. Innym zastosowaniem może być przeprowadzanie eksperymentów przy okazji grania, zaś w szczególności tzw. crowdsourcingu, czyli wykorzystywania do badań dużych rzesz amatorów. Terminu ewentualnej dostępności gry na rynku nie podano.
  5. Inżynierowie ze Stanford University ogłosili przełom w pozyskiwaniu energii ze Słońca. Opracowana przez nich technologia pozwala na dwukrotne zwiększenie wydajności ogniw słonecznych i obniżenie kosztów pozyskiwania energii słonecznej do takiego poziomu, że staje się ona konkurencyjna wobec energii z ropy naftowej. Amerykańscy uczeni opracowali metodę na jednoczesne wykorzystanie światła i ciepła słonecznego i nazwali swoją technologię "termoelektryczną emisją wspomaganą fotonami" (PETE - photon enhaced thermionic emission). Wydajność obecnie stosowanych ogniw fotowoltaicznych spada, gdy rośnie temperatura. W PETE wraz ze wzrostem temperatury rośnie i wydajność. To naprawdę przełom. To nowy proces konwersji energii, a nie po prostu nowy materiał czy nieco zmieniona budowa - mówi szef grupy badawczej, profesor Nick Melosh. Wyzwaniem było udowodnienie, że nasz pomysł działa. Pokazaliśmy jednak, że fizyczny mechanizm stojący u jego podstaw, naprawdę istnieje. I że wszystko odbywa się tak, jak obiecywaliśmy - dodaje. Obecnie mniej niż 50% energii docierającej do ogniw fotowoltaicznych jest przechwytywana. Reszta zostaje zmarnowana w postaci ciepła. Dotychczas nie potrafiono go wykorzystać. Co gorsza, im na zewnątrz było cieplej, tym mniej energii przechwytywały ogniwa. Melosh i jego współpracownicy doszli do wniosku, że wystarczy pokryć krzem - wykorzystywany do budowy ogniw - cienką warstwą cezu, by móc wykorzystać zarówno światło jak i ciepło. Pokazaliśmy nowy fizyczny proces, który nie opiera się na standardowym mechanizmie fotowoltaicznym, ale prowadzi do pojawienia się podobnej do fotowoltaicznej odpowiedzi w bardzo wysokich temperaturach. Prawdę mówiąc, im jest cieplej, tym lepiej to działa - mówi Melosh. Obecnie większość ogniw po rozgrzaniu się do temperatury 100 stopni Celsjusza przestaje pracować. Ogniwa Melosha osiągają szczyt swoich możliwości w ponad 200 stopniach. PETE działa więc najlepiej tam, gdzie temperatury znacznie przekraczają te, na które wystawione są panele na dachu domu. Dlatego też najlepiej sprawdzą się w dużych instalacjach, w których używane są paraboliczne koncentratory. Tam temperatury dochodzą do 800 stopni Celsjusza. Twórcy PETE uważają, że najbardziej efektywnym rozwiązaniem będzie w tym przypadku budowa systemów hybrydowych. Z samego PETE uzyskamy bowiem w przypadku zastosowania koncentratorów do 50% wydajności. Jeśli jednak wspomożemy go dodatkowym systemem konwersji ciepła w energię elektryczną, wydajność wzrośnie do 55-60%. To niemal trzykrotnie więcej niż uzyskujemy obecnie. Z obliczeń wynika, że po zastosowaniu odpowiedniego materiału półprzewodnikowego - najprawdopodobniej arsenku galu (podczas prób laboratoryjnych wykorzystano mniej wydajny azotek galu), z PETE uda się wycisnąć maksimum możliwości. Dodatkową zaletą tej technologii jest fakt, że dzięki zastosowaniu koncetratorów i dużej wydajności pojedynczego ogniwa, można znacząco zmniejszyć powierzchnię ogniw, czyli zaoszczędzić na kosztach ich budowy czy zakupu ziemi. Nawet jeśli nie osiągniemy najwyższej teoretycznej wydajności, powiedzmy, że uda nam się zwiększyć wydajność z obecnych 20 do 30 procent, to i tak jest to o 50% więcej, niż to, co jesteśmy w stanie obecnie osiągnąć - zauważa Melosh. A taki wzrost oznacza, że energia słoneczna może stać się konkurencyjna cenowo wobec energii z ropy naftowej.
  6. W New England Journal of Medicine ukazał się artykuł, którego autorzy informują, że nawet w 25% przypadków glejaka - najbardziej rozpowszechnionego nowotworu mózgu u dorosłych - zaobserwowali delecję genu NFKBIA. Jego usunięcie przyczynia się do wzrostu nowotworu, zwiększa odporność na terapię i, co za tym idzie, znacząco zmniejsza szanse pacjenta na przeżycie. Glejak to najbardziej złośliwy typ nowotworu mózgu - mówi jeden z autorów badań, profesor Griffith Harsh ze Stanford University School of Medicine. Nieleczeni pacjenci przeżywają zwykle mniej niż 6 miesięcy od czasu postawienia diagnozy. Po interwencji chirurgicznej guzy szybko pojawiają się ponownie. Z kolei radio- i chemioterapia mogą przedłużyć życie, ale nie na długo. Po takim leczeniu pacjenci żyją średnio około 18 miesięcy. Defekty NFKBIA obserwowanno w wielu typach nowotworów. Zespół ze Stanford University jako pierwszy udowodnił, że jego delacja ma udział w powstawaniu glejaka. Główny autor badań, profesor Markus Bredel mówi, że od 25 lat wiadomo, że do tego nowotworu przyczynia się nieprawidłowa budowa EGFR (epidermal growth factor receptor). Tajemnicą jednak były te przypadki glejaka, w których EGFR było prawidłowe. Naukowcy spostrzegli najpierw, że pacjenci ze słabą ekspresją NFKBIA są mniej podatni na chemioterapię. Skupili się zatem na badaniach tego genu. Przeanalizowali setki przypadków glejaka z lat 1989-2009 i w aż 25% przypadków zauważyli delecję wspomnianego genu. Jednocześnie uczeni potwierdzili wcześniejsze wnioski dotyczące roli EGFR w rozwoju glejaka i dowiedli, że jedynie w około 5% przypadków doszło do jednoczesnych nieprawidłowości w EGFR i NFKBIA, a osoby, u których wystąpiły one równocześnie, żyły średnio o 40% krócej niż inni cierpiący na glejaka. Dowiedzieli się również, że te dwa czynniki biorą udział w rozwoju większości przypadków wspomnianego nowotworu. Defekty w NFKBIA i EGFR mają ważny - chociaż różny - wpływ na czynnik transkrypcyjny NF-kappa-B. W normalnych warunkach znajduje się on w cytoplazmie komórki. Jednak gdy zostanie aktywowany, przenika do jądra komórki, gdzie włącza i wyłącza wiele genów, zmieniając zachowanie komórki. EGFR aktywuje NF-kappa-B w taki sposób, że czynnik ten zwiększa zarówno namnażanie się komórek nowotworowych jak i ich odporność na chemioterapię. Z kolei NFKBIA koduje białko I-kappa-B, które jest inhibitorem NF-kappa-B. W normalnych warunkach białko to wiąże się z NF-kappa-B i uniemożliwia mu przeniknięcie do jądra komórki. Gdy jednak dochodzi do delecji NFKBIA ilość białka I-kappa-B ulega redukcji, dzięki czemu zbyt duża ilość NF-kappa-B może wniknąć do jądra komórki, gdzie wskutek nadmiernej aktywności tego czynnika dochodzi do podobnych działań jak wówczas, gdy jest on aktywowany przez EGFR. Najnowsze odkrycie może w przyszłości doprowadzić do zastosowania nowych leków w leczeniu glejaka. Jeśli bowiem badania wykażą, że u pacjenta cierpiącego na ten nowotwór mamy do czynienia z delecją NFKBIA, będzie można podać mu leki stabilizujące poziom I-kappa-B. Takim lekarstwem jest np. bortezomib, używany do leczenia szpiczaka mnogiego. Na Northwestern University trwa już wstępny etap badań klinicznych nad użyciem bortezomibu do leczenia glejaka.
  7. Profesor filologii klasycznej i historii Ian Morris z Uniwersytetu Stanforda dowodzi w swojej książce Why the West Rules - For Now, że historia to powolna skomplikowana gra pomiędzy rozwojem społeczeństwa a warunkami geograficznymi. Morris każe nam się zastanowić, dlaczego to kraje zachodniej Europy podbiły świat i dlaczego nasza cywilizacja obecnie dominuje. Przecież, jak zauważa, gdy Krzysztof Kolumb odkrywał Amerykę, europejska technika morska była daleko w tyle za możliwościami, którymi dysponowali Chińczycy. W 1492 roku Kolumb miał do dyspozycji zaledwie trzy prymitywne statki z 90 ludźmi na pokładzie. Tymczasem już 87 lat wcześniej chiński żeglarz Zheng He zawitał na Sri Lankę na czele floty 300 łodzi, mają do dyspozycji 27 000 marynarzy, w tym 180 lekarzy i farmaceutów. Zheng miał magnetyczny kompas i na tyle dobrze znał Ocean Indyjski, że mógł wypełnić zapiskami 10-metrowy zwój dziennika pokładowego. Kolumb niezbyt wiedział, gdzie jest i nie wiedział, dokąd płynie - pisze Morris. Chińczycy w tym czasie znali dobrze wybrzeża Indii, Arabii, Afryki Wschodniej i, prawdopodobnie, Australii. Wszystko przemawiało za tym, że to właśnie Państwo Środka powinno dokonać podboju świata. Tak się jednak nie stało i 400 lat po wyprawie Zhenga wojska brytyjskie zmusiły Chiny do podpisania upokarzających traktatów. Zdaniem profesora Morrisa, zasadniczą rolę odgrywała geografia i związana z nią obfitość udomowionych roślin i zwierząt. Uczony zauważa, że najważniejsze cywilizacje rozwijały się w dwóch "matecznikach". Jeden z nich to zachodnia część Eurazji, a druga - region pomiędzy rzekami Jangcy i Żółtą. Oczywiście w innych regionach również powstawały ważne cywilizacje, jednak ze względu na mniejszą koncentrację użytecznych rośli i zwierząt, rozwijały się one powoli i bardzo wolno rozprzestrzeniały. Dlatego też Morris skupił się na porównaniu dominującej obecnie cywilizacji zachodnioeuropejskiej z chińską. Jednak geografia to tylko część prawdy. Równie ważny jest rozwój społeczny, który dla Morrisa oznacza zdolność społeczeństwa do przystosowania środowiska fizycznego, społecznego, ekonomicznego i intelektualnego tak, by możliwe było osiąganie założonych celów. To przystosowanie może mieć różne oblicza - od wynalezienia rolnictwa, poprzez nowe techniki malarskie po jedzenie nożem i widelcem. Historia uczy nas, że gdy ciśnienie rośnie, rozpoczynają się zmiany - pisze Morris. I formułuje Twierdzenie Morrisa: Zmiany są wywoływane przez leniwych, chciwych, przestraszonych ludzi, którzy szukają sposobów na łatwiejsze i bezpieczniejsze osiągnięcie celu. I rzadko wiedzą oni, co robią. Uczony zauważa, że geografia napędza rozwój społeczny, ale jednocześnie rozwój społeczny determinuje geografię. Podaje przy tym przykład Wysp Brytyjskich, które 5000 lat temu znajdowały się bardzo daleko od cywilizacji Mezopotamii i nie skorzystały na jej rozwoju. Jednak 500 lat temu rozwój społeczny i położenie geograficzne spowodowało, że Anglia miała łatwy dostęp do bogactw Nowego Świata. A przywożone stamtąd srebro sprzedawano w Chinach, które cierpiały na niedobór tego metalu. Kilka wieków później Anglia mogła, dzięki swojemu węglowi, rozpocząć Rewolucję Przemysłową i stać się globalnym imperium. Profesor Morris zauważa jednocześnie, że próby naginania takich procesów, chęć sztucznego wywoływania zmian w społeczeństwach, wymuszania "postępu", doprowadziły do pojawienia się w XX wieku krwawych dyktatur. Wszyscy wielcy komuniści twierdzili, że w Azji trzeba zrobić coś, co ponownie uruchomi silnik historii, który zatrzymał się dawno temu - pisze Morris. W wyniku takiego myślenia pojawili się Lenin i Mao. Uczony uważa jednocześnie, że obecnie jesteśmy świadkami dużych zmian. Musimy patrzeć globalnie, poza ramy swojej cywilizacji. Po latach badań doszedł do wniosku, że kultury Grecji i Rzymu nie były historycznymi wyjątkami, a zachodnie studia klasyczne muszą badać też inne kultury. Jeśli nie popatrzymy szerzej, nie uzyskamy ważnych odpowiedzi - mówi Morris. Podkreśla, że geografia, która jeszcze do niedawna miała olbrzymi wpływ na rozwój ludzkości, teraz traci na znaczeniu. Podobnie zresztą jak, w obliczu rozwoju technologicznego, tracą na znaczeniu historyczne różnice. Dawne rozróżnienia na Wschód i Zachód nie będą miały znaczenia dla robotów - pisze uczony. Zmiany klimatyczne mogą doprowadzić do migracji milionów ludzi, wzrostu napięcia, wybuchu wojen. Jeśli, zgodnie z niedawną jeszcze logiką podziału Wschód-Zachód, zaangażują się w nie USA i Rosja, ludzkość może mieć poważne problemy. Jednak, zgodnie z Teorią Morrisa, czekające nas zmiany mogą przynieść też sporo korzyści. Są one przecież wyzwalane przez ciśnienie. Trudno oczywiście, przewidzieć, jak potoczą się losy ludzkości, jednak, jak pisze Morris to, co historycznie ważne ma charakter globalny i ewolucyjny.
  8. Jednym z największych problemów transplantologii są odrzucenia organów przez organizm biorcy. Osoby z przeszczepami profilaktycznie biorą leki osłabiające system odpornościowy, ale to nie likwiduje problemu, a ponadto leki te mają wiele skutków ubocznych. U około 25 procent pacjentów z przeszczepioną nerką i aż 40 procent z przeszczepionym sercem w ciągu roku od operacji pojawia się ostry odrzut. Wykryty zbyt późno powoduje uszkodzenie odrzuconego organu i konieczność nowego przeszczepu. Aby tego uniknąć, potrzebne są regularne, często inwazyjne badania. Przykładowo u osób z przeszczepionym sercem trzeba często wykonywać echokardiogram, zaburzenia pracy serca mogą być oznaką odrzutu. Potwierdzenie tego wymaga pobrania i zbadania fragmentu przeszczepionej tkanki, po czym stosuje się odpowiednio dobrane środki immunosupresyjne. Jest to uciążliwa, mało efektywna procedura, z negatywnymi skutkami ubocznymi. Być może niedługo, bo w ciągu trzech do pięciu lat odejdzie ona do lamusa, jak obiecują naukowcy z Centrum Medycznego Stanford University. Doktor Atul Butte wraz z zespołem opracowuje rewolucję w tej materii: prosty test krwi, który natychmiastowo wykaże odpornościową reakcję organizmu na wszczepiony organ, pozwalając uniknąć wielu komplikacji. Osoby z ostrą reakcją dostaną leki szybciej i lepiej dobrane, mniejsze dawki środków immunosupresyjnych będą mogli otrzymywać również ci, u których przeszczep przyjmuje się dobrze. Test opiera się na wyszukiwaniu białek, które pojawiają się masowo podczas reakcji immunologicznej. Aby zidentyfikować te białka, zespół wykorzystał dostępne dane na temat zachowania się tkanek na poziomie komórkowego mRNA, pozwoliło to z grubsza określić kilkadziesiąt protein, które mogą posłużyć za znaczniki. Ograniczając tę liczbę do dziesięciu, dla których istniały już laboratoryjne testy, przebadano próbki krwi szeregu osób po przeszczepie, ostatecznie typując trzy białka wiarygodnie indykujące nadchodzący problem. Sam proces wykrywania protein oparty jest na istniejącej już technologii ELISA (enzyme-linked immunosorbent assay), który jest powszechnie stosowany np. do identyfikowania anginy, dzięki czemu opracowanie komercyjnej technologii jest względnie łatwe i szybkie. Zespół badawczy złożył już odpowiedni wniosek patentowy, zapowiada też badania nad analogiczną metodą wykrywania wielu chorób, które dziś trudno zdiagnozować, na przykład raka trzustki, który z powodu późnego wykrywania ma bardzo wysoką śmiertelność.
  9. Naukowcy wyprodukowali sztuczną skórę, która jest bardzo wrażliwa na dotyk. Taka powłoka znajdzie zastosowania zarówno w medycynie, gdzie posłuży do tworzenia protez ze zmysłem dotyku czy narzędzi chirurgicznych dających lekarzowi znacznie większą kontrolę nad przebiegiem operacji, jak i w robotyce, gdyż dzięki niej powstaną roboty zdolne do manipulowania niezwykle delikatnymi rzeczami. Jedna z propozycji sztucznej skóry powstała na Stanford University, gdzie na bazie elektroniki organicznej skonstruowano powłokę 1000-krotnie bardziej czułą niż ludzka skóra. Druga to dzieło naukowców z University of California w Berkeley, w której zastosowano nanokable. Głównym twórcą skóry z Uniwersytetu Stanforda jest profesor inżynierii chemicznej Zhenan Bao. Jego powłoka bardzo szybko reaguje na zmiany ciśnienia, jest w stanie wykryć bardzo małe i bardzo lekkie obiekty, takie jak ziarnko piasku czy owad. "Skóra" Bao została wyprodukowana z poli(dimetylosiloksanu). Materiał ten jest w stanie przechowywać ładunek i zdolność ta jest związana z jego grubością. Prace nad wykorzystaniem PDMS są prowadzone od dawna, jednak główną wadą poli(dimetylosiloksanu) jest długi czas powrotu molekuł polimeru do pierwotnego ułożeniu po zwolnieniu wywieranego nań nacisku. Bao poradził sobie z tym pokrywając go mikrowłóknami, które szybko się zginają i prostują, dzięki czemu możliwe są błyskawiczne pomiary wywieranego nacisku. Włókna zwiększyły też czułość materiału. O ile ludzka skóra jest w stanie wyczuć nacisk rzędu kilopascala, to powłoka Bao wyczuwa różnice 1 pascala. Obecnie główną słabością rozwiązania Bao jest fakt, że do pracy "skóra" potrzebuje wysokiego napięcia. Taki problem nie występuje w powłoce zaproponowanej przez Alego Javeya, profesora inżynierii elektrycznej i nauk komputerowych na Uniwersytecie Kalifornijskim w Berkeley. Javey stworzył skórę złożoną z szeregu tranzystorów połączonych nanokablami. Tranzystory umieszczono pod powłoką z przewodzącej gumy zawierającej nanocząsteczki węgla. Nacisk wywierany na gumę wywołuje zmiany w oporności, które są wykrywane przez tranzystory. Taka architektura wymaga napięcia mniejszego niż 5 woltów, podczas gdy rozwiązanie Bao działa przy 20 woltach. Obie propozycje są dość łatwe w produkcji i skalowalne. Co prawda naukowcy przedstawili powłoki o powierzchni od kilkunastu do 50 centymetrów kwadratowych, ale ich wielkość była ograniczona tylko narzędziami dostępnymi w ich laboratoriach.
  10. Uczniowie i studenci na całym świecie uczą się, że rozpad promieniotwórczy odbywa się ze stałą prędkością, dzięki czemu można wykorzystać węgiel C-14 do precyzyjnego datowania. Jednak naukowcy z dwóch renomowanych uczelni Stanford University i Purdue University sądzą, że rozpad nie jest równomierny, a wpływ na jego prędkość ma... Słońce. Profesor fizyki Ephraim Fischenbach z Purdue potrzebował długiej listy przypadkowo generowanych liczb. Uczeni używają ich do najróżniejszych obliczeń, jednak uzyskanie list jest bardzo trudne. Powinny to być bowiem liczby losowe, a więc na ich wybór nie powinno nic wpływać. Fischenbach postanowił zatem wykorzystać radioaktywne izotopy jako źródło liczb. Co prawda np. kawałek cezu-137 rozpada się - jak dotąd sądzono - ze stałą prędkością, jednak wiadomo, że do rozpadu poszczególnych atomów dochodzi w całkowicie nieprzewidywalny, przypadkowy sposób. Naukowiec chciał zatem wykorzystać materiał radioaktywny i licznik Geigera i notując czas upływający pomiędzy momentami rozpadu poszczególnych atomów uzyskać szereg przypadkowych liczb. Fischenbach chciał najpierw wybrać najlepszy materiał radioaktywny, więc wraz ze swoimi kolegami zaczął przeglądać publikacje na temat ich rozpadu. I odkryli znajdujące się w nich różnice w pomiarach. Naukowcy, zdumieni tym faktem, porównali dane zebrane przez amerykańskie Brookhaven National Laboratory oraz niemiecki Federalny Instytut Fizyki i Techniki. Tutaj czekała ich jeszcze większa niespodzianka. Okazało się bowiem, że tempo rozpadu zarówno krzemu-32 jak i radu-226 wykazywało sezonowe odchylenia. Latem rozpad pierwiastków był nieco szybszy niż zimą. Wszyscy myśleliśmy, że mamy tu do czynienia z błędami pomiarowymi [różne pory roku charakteryzują się przecież różną temperaturą czy wilgotnością, co może wpływać na instrumenty pomiarowe - red.], ponieważ byliśmy przekonani, że tempo rozpadu jest stałe - mówi emerytowany profesor fizyki, ekspert fizyki słońca Peter Sturrock ze Stanford University. Rozwiązanie zagadki nadeszło, przynajmniej częściowo, 13 grudnia 2006 roku, gdy w nocy w laboratorium Purdue University inżynier Jere Jenkins zanotowanł niewielkie spowolnienie tempa rozpadu manganu-54. Nastąpiło ono na 1,5 doby przed pojawieniem się flary słonecznej. Uczeni opisali swoje spostrzeżenia i w kolejnych artykułach stwierdzili, że zmiany w tempie rozpadu izotopów związane są z ruchem obrotowym Słońca, a najbardziej prawdopodobną ich przyczyną jest wpływ neturin na izotopy. Zresztą sam Sturrock poradził kolegom z Purdue, by przyjrzeli się rozpadowi, a z pewnością stwierdzą, że zmiany następują co 28 dni. Tymczasem okazało się, że zmiany zachodzą co... 33 dni. To, jak uważa Sturrock wskazuje, wbrew intuicji, że wnętrze naszej gwiazdy - w którym zachodzą reakcje - wiruje wolniej niż jej obszar zewnętrzny. Jednak te spostrzeżenia nie wyjaśniają kolejnej, wielkiej tajemnicy. W jaki sposób neutrino miałyby wpływać na materiał radioaktywny na tyle, by zmienić tempo jego rozpadu. Z punktu widzenia standardowych teorii to nie ma sensu - mówi Fischbach. A Jenkins dodaje: Sugerujemy, że coś, co nie wchodzi w interakcje z niczym zmienia coś, co nie może być zmienione. Uczonym pozostaje więc do rozwiązania poważna zagadka. Albo nasza wiedza o neutrino wymaga weryfikacji, albo też na rozpad ma wpływ nieznana jeszcze cząstka.
  11. Jak informują naukowcy z Uniwersytetu Stanforda, kobiety podczas wykonywania prac domowych narażone są na zwiększone ryzyko zachorowań na choroby płuc i serca. Wszystko przez to, że powietrze w pomieszczeniach może być nawet 10-krotnie bardziej zanieczyszczone niż na zewnątrz. A ponieważ to przeważnie kobiety zajmują się odkurzaniem, ścieleniem łóżek i innymi czynnościami domowymi, są one bardziej od mężczyzn narażone na niekorzystne oddziaływanie zanieczyszczeń. Od dawna wiadomo, że zanieczyszczenia powietrza przyczyniają się do chorób serca i płuc. Powietrze na zewnątrz podlega różnym regulacjom prawnym, a to wewnątrz nie - mimo iż w krajach rozwiniętych większość czasu spędzamy w zamkniętych pomieszczeniach - mówi profesor Lynn Hildemann. Brała ona udział w badaniach wpływu powietrza w pomieszczeniach na zdrowie kobiet w południowym Bangladeszu. Kobiety te gotują posiłki w domach, całymi godzinami przebywając w zadymionym pomieszczeniu. Badania wykazały, że przeciętna kobieta jest narażona na oddziaływanie 15-krotnie większej dawki szkodliwych substancji niż przeciętny mężczyzna. Związana jest z tym większa zachorowalność wśród kobiet i dzieci, które z nimi przebywają. Profesor Hildemann zaczęła się zastanawiać, czy podobną zależność pomiędzy czystością powietrza a płcią można obserwować też w krajach rozwiniętych. Przejrzała ona wyniki szeroko zakrojonych badań dotyczących płci i miejsca zatrudnienia w USA. Odkryła, że przeciętny Amerykanin spędza w pomieszczeniach około 90% czasu. Kobiety są obecne w domu o około 12% dłużej niż mężczyźni, a w kuchni - pomieszczeniu z największą koncentracją zanieczyszczeń powstających podczas gotowania - spędzają 2-4 procent czasu więcej. Następnie uczona wraz ze swoim zespołem postanowiła zbadać zależność pomiędzy aktywnością w domu, a wystawieniem na zanieczyszczenia. Sprawdzili co dzieje się podczas odkurzania. Okazało się, że osoba odkurzająca wchłania około 250 razy więcej kurzu, niż osoba, która siedzi obok na krześle. Kurz unosi się nawet wówczas, gdy odkurzacz nie jest włączony. Profesor Hildemann radzi zatem, by usunąć z domu dywany i wykładziny oraz zrezygnować z produktów o zapachu cytrynowym i sosnowym - tworzą one bowiem z kurzem cząstki, które są bardzo łatwo wdychane. Istnieje korelacja pomiędzy tradycyjnymi rolami płciowymi, a wystawieniem na zanieczyszczenia powietrza. Powinniśmy wiedzieć więcej na temat związku pomiędzy miejscem, czynnością i stężeniem zanieczyszczeń. Dzięki temu dowiemy się, jak zmniejszyć ekspozycję na zanieczyszczenia wewnątrz pomieszczeń - mówi uczona.
  12. Rozwój elektroniki postępuje bardzo szybko, oferując nam coraz potężniejsze układy. Nowe technologie obiecują jeszcze większą moc: grafen, nanorurki, DNA, komputery kwantowe. Tymczasem jednocześnie istnieje potrzeba tanich, prostych w produkcji i prostych układów do codziennych zastosowań. Z powodzeniem już się takie tworzy z plastiku czy z papieru. Dzięki odkryciom inżynierów z Uniwersytetu Stanforda papierową elektronikę będziemy mogli zasilać papierowymi bateriami. Naukowcy z Uniwersytetu Stanforda od dawna pracowali nad stworzeniem papierowego superkondensatora przy pomocy nadrukowywania węglowych nanorurek. Pierwsze efekty prezentowali już w zeszłym roku, teraz osiągnęli jednak znaczący postęp. Udało się zrezygnować z domieszek srebra i uniknąć przenikania drobnych nanorurek przez pory papieru, co powodowało spięcia. Papier - a można tu zastosować naprawdę dowolny papier - pokryty z dwóch stron cienką warstwą polifluorku winylidenu (PVDF) można z dużą prędkością zadrukowywać węglowymi nanorurkami o pojedynczych ściankach (SWNT). Nanorurki ściśle związują się z papierem podobnie jak tusz lub atrament podczas pisania i nie ulegają zniszczeniu nawet potraktowane gumką czy taśmą klejącą. Zarazem odpowiednio zaimpregnowany papier zatrzymując nanorurki jednocześnie pozwala na przenikanie elektrolitów, działając membrana. Po nadrukowaniu węglowe nanorurki służą jednocześnie jako styki, jak i elektrody, wystarczy je napełnić elektrolitem. Pojemność takiego urządzenia to około trzech Faradów na gram. Urządzenie jest też bardzo trwałe, po upływie 2500 cykli ładowania i rozładowania spadek wydajności jest niewielki. Można oczywiście je dowolnie wyginać, czy rulować - jak zwykły papier. Trzeba jeszcze opracować sposób stworzenia z papierowego kondensatora funkcjonalnych baterii. Pozwoli to na produkowanie bardzo tanich akumulatorów, które będzie wyjątkowo łatwo utylizować - po prostu jak zwykły papier. Na filmie: naukowcy ze Stanforda demonstrują diodę zasilaną papierowym kondensatorem.
  13. Z badań przeprowadzonych na Uniwersytecie Stanforda wynika, że największymi oszustami są studenci informatyki. To właśnie oni nieproporcjonalnie często łamią kodeks honorowy uczelni. Stanford to jeden ze 100 amerykańskich uniwersytetów, który posiada własny kodeks honorowy. Został on przyjęty w 1921 roku i zakazano w nim plagiatów, kopiowania i korzystania z cudzej pomocy podczas pisania prac zaliczeniowych, zdawania egzaminów itp. Przyłapanie na oszukiwaniu może skończyć się odebraniem stypendium, odrzuceniem pracy zaliczeniowej, zakazem uczestniczenia w konkretnych zajęciach czy też czasowym relegowaniem z uczelni. Mimo to ciągu ostatnich 10 lat liczba przypadków oszustw rozpatrywanych przez uniwersytecki Judicial Panel zwiększyła się z 52 do 123. Jako, że na Stanford University studiuje 19 000 osób liczba oszukujących może wydawać się nieznaczna, jednak martwi ona władze uczelni. Chris Griffith, szef Judicial Panel informuje, że częściej oszukują studenci niż studentki, a najbardziej nieuczciwi są informatycy. Stanowią oni zaledwie 6,5% kształcących się na uczelni, ale są sprawcami 23% naruszeń kodeksu honorowego. Profesor informatyki Eric Roberts, który zajmował się problemem akademickiego oszukiwania uważa, że studenci informatyki dlatego są częściej nieuczciwi, gdyż bywają bardzo sfrustrowani faktem, że nie potrafią uruchomić napisanych przez siebie programów. Długie zmaganie się z oprogramowaniem, które nie działa tak, jak powinno, skłania do oszustw. Najczęściej, jak zauważa Roberts, dotyczą one prac domowych, a nie egzaminów. Komputer to niewzruszony sędzia oceniający kod. Wyobraźmy sobie, że uczestniczymy w zajęciach z języka angielskiego, oddajemy pracę pisemną i otrzymujemy ją z powrotem z zakreślonym na czerwono pierwszym napotkanym błędem składniowym i uwagą, że pracę należy poprawić. Po dziesiątkach prób i otrzymywaniu tego samego komunikatu o błędzie pokusa, by skopiować pracę, która pozytywnie przejdzie weryfikację jest naprawdę wysoka - mówi Roberts. Oszukiwanie nie jest problemem tylko na Stanford University. Profesor Roberts przypomina olbrzymi skandal z 1991 roku, gdy aż 73 z 239 studentów informatyki z MIT-u zostało ukaranych za zbyt szeroko zakrojoną współpracę. Ze statystyk Stanforda wynika, że w 43% przypadków oszustwa polegają na niedozwolonej współpracy, gdy studenci wspólnie wykonują zadania, które miały być wykonane indywidualnie. W 31% mamy do czynienia z kopiowaniem z Sieci, kolejne 11% to przypadki kopiowania publikacji papierowych, 5% - uzyskanie pomocy z zewnątrz, 5% - przedstawienie cudzej pracy jako własnej.
  14. Inżynierowie z Uniwersytetu Stanforda stworzyli najdoskonalsze i najbardziej wydajne układy scalone wykorzystujące węglowe nanorurki. Uczonym udało się wyeliminować niedoskonałości, które przyczyniały się do powstawania spięć w obwodach. Dowodzi to, że prace nad węglowymi nanorurkami wykorzystywanymi w tranzystorach wyszły poza dziedzinę odkryć naukowych i mogą być prowadzone na poziomie inżynierskim - powiedział profesor H.-S. Philip Wong, który prezentował najnowsze dokonania swojego zespołu podczas International Electron Devices Meeting w Baltimore. W tej chwili jesteśmy w stanie budować obwody w skali całego plastra krzemowego. Dotychczas mogliśmy tworzyć pojedyncze urządzenia - dodał. Nie oznacza to, że w najbliższym czasie na rynek trafią układy scalone z nanorurkowymi tranzystorami. Na razie bowiem udało się umieścić w nowym chipie stosunkowo niewiele tranzystorów. Najważniejszy jest jednak fakt, że technika, dzięki której tego dokonano, jest podobna do obecnie wykorzystywanych technologii przemysłowych i jest kompatybilna ze standardem VLSI. Układy, które powstały na Uniwersytecie Stanforda, wykorzystują trzy podstawowe techniki opracowane w ostatnich latach na tej uczelni. Pierwsza z nich, stworzona w 2007 roku, pozwala nanorurkowym tranzystorom pracować nawet wówczas, gdy tworzące je nanorurki nie są idealnie dopasowane. Druga, z 2008, umożliwia zgodną z VLSI produkcję nanorurkowych tranzystorów. Trzecia, właśnie zaprezentowana, pozwala na eliminowanie wadliwych nanorurek, które przewodziły prąd wówczas, gdy nie powinny. Uczeni nazwali ją VLSI-compatible Metallic Nanotube Removal (VMR). Przy jej opracowywaniu wykorzystano pomysł, na który w roku 2001 wpadł Paul Collins i jego zespół z IBM-a. Używali oni prądu do niszczenia nanorurek. Uczeni ze Stanforda używają elektrod do oddzielania wadliwych nanorurek od prawidłowych. Te same elektrody mogą być później połączone z nanorurkami, tworząc obwód elektryczny. Najpoważniejszą przeszkodą na drodze do budowy układów scalonych wykorzystujących nanorurki jest opracowanie techniki pozwalającej na zwiększenie liczby nanorurkowych tranzystorów na chipie do wielu milionów. Naukowcy sądzą, że poradzą sobie z tym problemem.
×
×
  • Dodaj nową pozycję...