Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'University of California' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 18 wyników

  1. Na University of California San Diego powstał najmniejszy na świecie laser pracujący w temperaturze pokojowej. Zbudowano też laser, który nie posiada żadnej wartości progowej. Głównymi zaletami obu urządzeń są ich minimalne zapotrzebowanie na energię oraz miniaturowe rozmiary. Każdy laser wymaga współdziałania układu pompującego o takiej mocy, która pozwala na przekroczenie progu akcji laserowej, czyli takiego poziomu wzbudzenia, w której większość emisji lasera stanowi uporządkowany stymulowany promień światła, przeważający nad emisją spontaniczną i nieuporządkowaną. Im mniejszy jest laser, tym większa energia konieczna do osiągnięcia progu. Aby poradzić sobie z tym problemem naukowcy zaprojektowali laser, który wykorzystuje kwantowy efekt elektrodynamiczny zachodzący we współosiowych nanownękach. Laserowa wnęka zawiera metalowy pręcik otoczony pierścieniem półprzewodnikowych kwantowych studni pokrytych metalem. Taka architektura pozwoliła też na stworzenie najmniejszego lasera pracującego w temperaturze pokojowej. Jest on o cały rząd wielkości mniejszy od dotychczasowego rekordzisty. Średnica lasera wynosi mniej niż pół mikrona, czyli jest mniej więcej 1200 razy mniejsza niż kropka na końcu tego zdania. Nanolasery mogą posłużyć do zbudowania komputerów optycznych, w których komunikacja, a być może i obliczenia, będą odbywały się za pomocą sygnałów świetlnych a nie elektrycznych. Jakby tego było mało, uczeni nie wykluczają, że ich lasery można skalować, co oznacza, iż możliwe będzie wyprodukowanie jeszcze mniejszych urządzeń. To pozwoliłoby np. na badanie materiałów, których struktury są znacznie mniejsze od długości fali, przez co nie można ich badać za pomocą współczesnych laserów.
  2. Układ immunologiczny to zaawansowany i potężny mechanizm, który niestety czasem zwraca się przeciwko właścicielowi. Nowe badania pokazują, że jest on jeszcze bardziej wyrafinowany, niż sądzono i posiada plan awaryjny. Zespół naukowców z dwóch placówek: San Diego School of Medicine na University of California, oraz Skaggs School of Pharmacy and Pharmaceutical Sciences, dokonał niezwykłego odkrycia, eksperymentując z układem odpornościowym myszy. Główną osią układu immunologicznego jest cząsteczka nazwana czynnikiem jądrowym kappa B (NF-κB) - to ona bowiem uaktywnia działania skierowane przeciwko wrażym bakteriom czy wirusom. Ponieważ jednak zbyt silna i nieuzasadniona aktywizacja tego czynnika jest przyczyną wielu chorób (począwszy od alergii, przez cukrzycę po choroby serca i nowotwory), zespół pod kierunkiem Michaela Karina zajmował się badaniem jego funkcjonowania. W eksperymencie całkowicie wyłączono ścieżkę aktywizacji czynnika kappa B. Spodziewano się, że myszy pozbawione głównej osi systemu odpornościowego będą bardzo podatne na infekcje. Okazało się, że gryzonie, które powinny być bezbronne wobec infekcji, nie tylko takie nie były, ale poradziły sobie z zakażeniem skóry szybciej od grupy kontrolnej z poprawnie działającym czynnikiem NF-κB. Przyczyną był swoisty „plan B" układu odpornościowego: przy braku aktywnej cząsteczki NF-κB organizm gryzoni wytwarzał inną cząsteczkę: cytokinę interleukino-1 beta (IL-1β). Ta zaś zmuszała szpik kostny do masowej produkcji neutrofilów (granulocytów obojętnochłonnych) - białych ciałek krwi zdolnych do pożerania i likwidacji bakterii przy pomocy zaawansowanych mechanizmów. To oznacza, że układ odpornościowy posiada dwie alternatywne strategie walki z zagrożeniem. Niestety, skuteczny „plan awaryjny" ma swoje ujemne strony: długo utrzymująca się nadpodaż neutrofilów spowodowała stan zapalny w wielu miejscach organizmu i w rezultacie przedwczesną śmierć myszy. Ponieważ blokowanie ścieżki aktywizacji NF-κB stosuje się u ludzi w leczeniu niektórych chorób immunologicznych, uzyskane wyniki muszą zostać wzięte pod uwagę, bowiem dotychczas nie zdawano sobie sprawy z tego potencjalnego zagrożenia.
  3. KopalniaWiedzy.pl

    Komputer z bakterii

    W wielu instytutach badawczych trwają prace nad wykorzystaniem bakterii do budowy komputera, a zatem stworzenia czegoś w rodzaju znanej ze Star Treka rasy Borgów - kolektywnych umysłów składających się z wielu organizmów. Christopher A. Voigt wraz z kolegami z University of California w San Francisco, zaprezentował w jaki sposób można wykorzystać odpowiednio zmodyfikowane bakterie E.coli do stworzenia prostej maszyny liczącej. Zespół Voigta najpierw zmodyfikował E.coli tak, by wydzielały dwa rodzaje składników, pierwszy działający jak "1" lub "on", a drugi jak "0" lub "off". Zmodyfikowano też procesy sygnałowe zachodzące w E.coli, zmieniając w ten sposób bakterię w bramkę logiczną. I tak, na przykład, gdy genetyczny profil bakterii został skonfigurowany tak, by była ona bramką "AND", to po otrzymaniu sygnału "on" od obu sąsiadów, bakteria wyemituje składnik "on". Jeśli zaś była skonfigurowana jako "XOR", wyemituje sygnał "off". W ten sposób bakterie mogą stać się podzespołami maszyny liczącej. Myślimy o prądzie elektrycznym jak o czymś, za pomocą czego możemy wykonywać obliczenia. Ale tak naprawdę wszystko może działać jak komputer, koła zębate, rury z wodą czy biologiczne komórki. Tutaj mamy kolonię bakterii, które mogą otrzymywać sygnały chemiczne od sąsiadów i tworzyć bramki logiczne na tej samej zasadzie, jak tworzone są one w krzemie - stwierdził Voigt. Bakteryjne bramki logiczne są wielokrotnie większe od tych, które powstają obecnie w fabrykach korzystających z 32-nanometrowego procesu produkcyjnego. Jednak zaletą bakterii jest ich możliwość samonaprawy, przeprogramowywania oraz potencjalnie łatwiejsze tworzenie struktur 3D. Obecnie profesor Voigt pracuje nad stworzeniem bakteryjnego komputera zdolnego do przyjmowania komend w podobny sposób, jak przyjmują je tradycyjne komputery.
  4. Wiadomo, że palenie tytoniu sprzyja nowotworom, nie tylko rakowi płuc. Okazuje się jednak, że nawet u osób, które już rzuciły palenie, wyleczenie guzów w obrębie głowy i szyi jest znacznie trudniejsze. Allen M. Chen z University of California w Davis przeprowadził porównawcze badanie skuteczności radioterapii u osób, które paliły w przeszłości i osób, które nie paliły nigdy; osoby palące podczas terapii i po niej wykluczano z badania w ogóle. Do obu grup zaklasyfikowano po około siedemdziesiąt osób z płaskonabłonkowymi nowotworami jamy ustnej i krtani, które nie dawały przerzutów. Dobrano osoby w grupach tak, żeby miały one zbliżone proporcje płci, wieku, rasy, itp. Po trzech latach od naświetlania 82 procent osób nigdy nie palących było całkowicie wyleczonych, wobec jedynie 65 procent osób, które były w swoim życiu palaczami. Podobnie niekorzystnie dla palących wypada porównanie ilości nawrotów choroby: 14 do 26. Wynika z tego, że papierosowy epizod w życiu znacząco zmniejsza szanse wyleczenia niektórych postaci raka. Nie jest znany mechanizm tej zależności. Uwzględniane przypadki guzów naukowcy wiążą z infekcją wirusem brodawczaka ludzkiego (HPV, Human Papilloma Virus), który sprzyja powstawaniu niektórych nowotworów. Stąd autorzy badania tutaj doszukują się mechanizmu. Podejrzewa się, że efekt terapii wzmacniany jest charakterystycznym antygenem na powierzchni nowotworowych komórek, który rozpoznawany jest i atakowany przez układ odpornościowy. Drugą teorią jest mniejsza liczba mutacji w nowotworach powodowanych przez HPV u osób niepalących. Znaczenie badania jest większe, niż rada „nie pallić", bowiem zrozumienie, co powoduje lepszy lub gorszy efekt terapii może zaowocować opracowanie lepszych, skuteczniejszych metod leczenia. Dlatego badania będą kontynuowane.
  5. Jednym z podstawowych ograniczeń aparatury badawczej - czy to mikroskopu, czy ultrasonografu - jest zawsze rozdzielczość. Wynika ona wręcz z praw fizyki, które decydują, że najmniejszy element jaki może być postrzegany ma rozmiar równy długości fali, której używamy do badań. Stąd bierze się znana każdemu niewyraźność obrazu USG: stosowane w nim fale ultradźwiękowe mają długość około jednego milimetra i taka też jest rozdzielczość badania. Inżynierowie z University of California w Berkeley: Jie Zhu i Xiaobo Yin znaleźli sposób na „oszukanie" praw fizyki i zwiększenie rozdzielczości ponad możliwą. W jaki sposób? Dzięki metamateriałom, których niezwykłe właściwości nie raz opisywaliśmy. Pokazowa aparatura przygotowana przez nich pozwoliła osiągnąć rozdzielczość pięćdziesiąt razy większą niż wynikająca z długości użytej fali, a to wcale nie jest kres możliwości, bo można i więcej - byle oczywiście przygotować odpowiedni metamateriał. Urządzenie sporządzone w uniwersyteckich laboratoriach Nano-scale Science & Engineering Center ma postać tysiąca sześciuset pustych w środku, miedzianych rurek upakowanych w sztabkę o długości 16 centymetrów na 6,3 cm na 6,3 cm. Wykorzystane jako dodatkowy odbiornik przy badaniu falą dźwiękową pozwala wyłapywać tłumione fale, które niosą dodatkową informację o badanym obiekcie. Połączenie ich z odbiorem normalnie rozchodzących się, odbijanych i odbieranych fal pozwala na zwiększenie precyzji, zależne tylko od rozmiaru wykorzystanych miedzianych rurek. W przykładowym zastosowaniu wykorzystano falę akustyczną o częstotliwości 2 kHz, co pozwalałoby normalnie na uzyskanie rozdzielczości około 20 centymetrów. Z zastosowaniem metamateriału uzyskana rozdzielczość wynosiła 4 milimetry, czyli 50 razy mniej. W zastosowaniach praktycznych takie urządzenie umieszczałoby się na zakończeniu sondy ultradźwiękowej, uzyskując mniej ziarnisty, a bardziej szczegółowy obraz.
  6. KopalniaWiedzy.pl

    Skąd się bierze atrakcyjny głos?

    Niektóre ludzkie głosy brzmią dla nas nieprzyjemnie, inne wydają się wręcz stworzone do tego, aby ich słuchać. Od czego zależy nasza ocena? Jednego wyjaśnienia nie da się podać, ale badania rzucają światło na tę zagadkę i dają kilka wskazówek. Zbadaniem tego zagadnienia z okazji spotkania Acoustical Society of America w meksykańskim mieście Cuncun zajął się Grant McGuire z University of California w Santa Cruz. Nagrał on sześćdziesiąt różnie brzmiących głosów i poprosił wolontariuszy o ocenę ich atrakcyjności. Statystyczne opracowanie wyników dało kilka wskazówek. Po pierwsze: przyjemniej brzmią dla nas głosy posługujące się taką samą wymową i akcentem, jak nasze. Ponieważ badania prowadzono w Kalifornii, ankietowani za bardziej „seksi" uznawali głosy innych Kalifornijczyków. Po drugie: nie lubimy głosów „skrzypiących", co wydaje się oczywiste, z nagłymi zmianami wysokości dźwięku, itp. Głosy osób nałogowo pijących lub palących stają się mniej powabne. Po trzecie: preferujemy głosy osób, u których cały aparat mowy (począwszy od krtani, przez gardło, po jamę nosową) jest dłuższy. Wpływa to na rezonans i brzmienie głosu, czyniąc go bardziej pociągającym. Ostatnie ustalenie będzie zagadką do rozwikłania przez psychologów ewolucyjnych - jakie znaczenie dla doboru naturalnego ma rozmiar aparatu głosowego?
  7. KopalniaWiedzy.pl

    Znów dyskusja nad szkodliwością komórek

    Na niedawnym seminarium na University of California w San Francisco znów rozgorzała dyskusja nad szkodliwością telefonii komórkowej. Dr Devra Davis, od dawna domagająca się ograniczeń dla używania komórek, wydała niedawno książkę na ten temat. Regularne, dzień po dniu i rok po roku, użytkowanie telefonów komórkowych jest poważnym zagrożeniem dla zdrowia, dowodzi doktor Davis w swojej publikacji oraz podczas seminarium. Wystawienie na źródło promieniowania mikrofalowego znajdujące się przy samej głowie może powodować - jej zdaniem - złośliwe nowotwory mózgu i tkanek nerwowych (nerwiaki), czy przyusznych gruczołów ślinowych. Komórki zmieniają przebieg fal mózgowych rejestrowanych elektroencefalogramem (EEG) i mogą powodować kłopoty z pamięcią, bezsenność oraz stany zapalne. Na zarzuty krytyków, że badania nie wykazały szkodliwego wpływu efektu cieplnego, oraz że przeprowadzono dokładne symulacje oparte na modelu ludzkiej głowy, Devra Davis odpowiada, że przyczyną szkodliwego wpływu nie jest efekt cieplny, a nawet niekoniecznie sam fakt występowania promieniowania radiowego, ale efekt pulsacyjny, zaś modele oparte były na głowie dorosłego mężczyzny, a telefonów używają również osoby mniejsze, w tym kobiety i dzieci. Innym punktem sporu jest postulowane przez nią uszkadzanie kodu DNA przez promieniowanie telefonów. Krytycy prostują, że promieniowanie mikrofalowe, w przeciwieństwie do promieniowania rentgenowskiego czy gamma nie są jonizujące, więc nie wpływają na wiązania chemiczne. Davies jednak upatruje zagrożenia nie w samej obecności promieniowania, lecz w tym, że w przypadku telefonów ma ono postać regularnych, powtarzalnych impulsów. Telefony komórkowe rzeczywiście regularnie łączą się ze stacjami bazowymi nawet, kiedy nie są używane. Na poparcie swoich słów doktor Davies prezentowała wyniki badań, że promieniowanie radiowe w rzeczywistości negatywnie wpływa na kod DNA. Podając jako przykład problematykę szkodliwości nikotyny i azbestu uważa, że żądanie wykazania konkretnego mechanizmu biologicznego jest bezzasadne i wystarczające do uznania szkodliwości powinny być badania epidemiologiczne połączone z zaproponowaniem wiarygodnego wyjaśnienia biologicznego. Przy obecnej powszechności telefonów komórkowych problemem jest wyznaczenie grupy kontrolnej osób, które telefonów nie używają. Walka z korporacyjnym spiskiem? Poglądy badaczki powszechnie uznawane są za kontrowersyjne. Ona sama przyznaje, że badania naukowe nie potwierdzają szkodliwości telefonów komórkowych; ale uważa, że to skutek finansowania ich przez korporacje telekomunikacyjne, a może nawet manipulowania i ukrywania niewygodnych faktów. Wspiera ją doktor Stanton Glantz, znany z kolei z walki o uznanie szkodliwych efektów biernego palenia tytoniu. Devra Davis, wcześniej kierująca Centrum Onkologii Środowiskowej (Center for Environmental Oncology) na University of Pittsburgh, opuściła uczelnię w 2007 i założyła fundację Environmental Health Trust. Uczona od lat zmaga się z - jak to określa - ukrywaniem niewygodnych faktów przez wielkie korporacje. Jej pierwsza książka, „When Smoke Ran Like Water: Tales of Environmental Deception and the Battle Against Pollution" zajmowała się szkodliwym, a pomijanym jej zdaniem, wpływem zanieczyszczenia środowiska. Najnowsza, „Disconnect: The Truth About Cell Phone Radiation, What the Industry has Done to Hide It, and How to Protect Your Family" zajmuje się właśnie niebezpieczeństwami, jakie ma powodować system telefonii komórkowej. Mimo braku dowodów, wiele państw (jak na przykład Francja) wprowadziło regulacje mające zminimalizować szkodliwe efekty promieniowania telefonów, jak zakaz reklamy telefonów skierowanej do dzieci, ostrzejsze normy środowiskowe, czy nakaz sprzedaży telefonów ze słuchawkami.
  8. KopalniaWiedzy.pl

    Suszone śliwki na osteoporozę

    Osteoporoza, czyli osłabienie kości wraz z wiekiem, to dolegliwość, na którą nie ma lekarstwa. Dostępne medykamenty najwyżej spowalniają ten proces, ponadto pojawiają się kontrowersje, co do ich rzeczywistej, długofalowej skuteczności. Tymczasem złamania kości w podeszłym wieku - powodowane właśnie osteoporozą, czyli zrzeszotnieniem, są bardzo trudne w leczeniu. Bernard P. Halloran, naukowiec z University of California w San Francisco uważa, że poszukiwanym remedium mogą być... suszone śliwki. W eksperymencie laboratoryjnym dr Halloran sprawdził działanie sproszkowanych, suszonych śliwek na myszach. Zwykłe, niemodyfikowane myszy podzielono na dwie grupy, w wieku analogicznym do wieku średniego u ludzi oraz wieku podeszłego. Każdą z nich podzielił na trzy podgrupy, pierwsza otrzymywała śliwkowy suplement w ilości 25% wagi, druga 15% wagi, trzecia grupa, kontrolna, nie dostawała go wcale. Kuracja trwała pół roku, po którym sprawdzono zmiany w układzie kostnym u wszystkich myszy. U myszy pozbawionych suplementu w diecie stwierdzono osłabienie kości, niezależnie od wieku. Reakcja myszy otrzymujących mniejszą dawkę suszonych śliwek zależała od wieku: u młodszych zaobserwowano przyrost masy kostnej, u starszych nie było żadnego efektu. Ale już w przypadku myszy spożywających większą dawkę specyfiku zaobserwowano przyrost masy kostnej (zwiększenie gęstości) niezależnie od wieku. Poza suplementem dieta i warunki wszystkich myszy pozostawały identyczne, więc różnica musi być spowodowana spożywaniem sproszkowanych, suszonych śliwek. Rewelacją jest fakt, że zaobserwowano nie tylko spowolnienie procesu osteoporozy - co dotychczas było największym osiągnięciem - ale jego cofnięcie. Byłoby to więc prawdziwe lekarstwo, a nie jedynie suplement. Przez badaczami pozostają jednak do rozwiązania istotne problemy. Nie wiadomo, czy metoda okaże się skuteczna w przypadku ludzi. Niewykonalne jest jednak, żeby przez dłuższy czas suszone śliwki stanowiły wagowo kilkadziesiąt procent ludzkiej diety; zanim więc przystąpi się do testów na ludziach, trzeba zidentyfikować aktywny składnik i wyizolować go. Dopiero wtedy będzie można ocenić rzeczywistą wartość odkrycia.
  9. KopalniaWiedzy.pl

    Mózg pracuje do taktu

    Złapanie piłki to wbrew pozorom dość złożona czynność dla naszego mózgu. Wymaga przetworzenia danych wzrokowych, przeliczenia jej prędkości i kierunku lotu, wyliczenia odpowiedniego momentu dla jej przechwycenia i uruchomienia w odpowiedni sposób wielu grup mięśni. To zaś wymaga wspólnej pracy wielu różnych obszarów mózgu. W jaki sposób odległe części mózgu łączą się i komunikują celem wykonania określonego zadania - nie było wiadomo. Do tej pory, ponieważ mechanizm ten zidentyfikowali naukowcy z University of California - Berkeley pod kierunkiem Josego Carmeny. Jak się okazuje, rozproszone po całym mózgu neurony pracują w określonym, wspólnym rytmie. Teza, że neurony współpracujące nad wykonywaniem określonych funkcji są rozproszone po wielu częściach mózgu pojawiła się już w 1949 roku w książce Donalda Hebba. Jednak przez niemal cały wiek trwały próby zrozumienia, w jaki sposób przestrzennie odległe komórki mózgowe łączą się, nie zakłócając pracy innym, podobnym grupom. Uczeni z kalifornijskiego uniwersytetu odkryli tę tajemnicę eksperymentując na małpkach - makakach. Część zwierząt zaangażowano w zadania z użyciem interfejsu mózg-maszyna, część wykonywała zadania wymagające zaangażowania pamięci roboczej. Zgromadzenie danych do porównania trwało cztery lata - porównywano impulsy elektryczne pojawiająca się na zakończeniach włókien nerwowych z z rytmem pracy różnych obszarów mózgu. Wśród chaosu oscyloskopowych linii dało się zauważyć i wyodrębnić wzory (częstotliwości), charakterystyczne dla różnych funkcji poznawczych, pamięciowych czy motorycznych. Okazuje się, że neurony współpracują tylko z tymi komórkami, które pracują w zbliżonym rytmie. Odmienny rytm wyklucza współpracę, nawet, jeśli neurony znajdują się obok siebie. Uczeni porównują to do „dostrajania" się krótkofalówek do właściwej częstotliwości. Odkrycie tłumaczy częściowo, w jaki sposób miliony poszczególnych komórek tworzą jedną, działającą całość. Autorzy studium mają nadzieję, że pozwoli to opracować na przykład nowe sposoby korygowania zaburzeń funkcjonalnych mózgu poprzez jednoczesną stymulację różnych obszarów, we właściwym rytmie. Spodziewają się też, że odkrycie zaowocuje lepszymi interfejsami mózg-maszyna.
  10. KopalniaWiedzy.pl

    Sztuczna skóra czuje dotyk

    Naukowcy wyprodukowali sztuczną skórę, która jest bardzo wrażliwa na dotyk. Taka powłoka znajdzie zastosowania zarówno w medycynie, gdzie posłuży do tworzenia protez ze zmysłem dotyku czy narzędzi chirurgicznych dających lekarzowi znacznie większą kontrolę nad przebiegiem operacji, jak i w robotyce, gdyż dzięki niej powstaną roboty zdolne do manipulowania niezwykle delikatnymi rzeczami. Jedna z propozycji sztucznej skóry powstała na Stanford University, gdzie na bazie elektroniki organicznej skonstruowano powłokę 1000-krotnie bardziej czułą niż ludzka skóra. Druga to dzieło naukowców z University of California w Berkeley, w której zastosowano nanokable. Głównym twórcą skóry z Uniwersytetu Stanforda jest profesor inżynierii chemicznej Zhenan Bao. Jego powłoka bardzo szybko reaguje na zmiany ciśnienia, jest w stanie wykryć bardzo małe i bardzo lekkie obiekty, takie jak ziarnko piasku czy owad. "Skóra" Bao została wyprodukowana z poli(dimetylosiloksanu). Materiał ten jest w stanie przechowywać ładunek i zdolność ta jest związana z jego grubością. Prace nad wykorzystaniem PDMS są prowadzone od dawna, jednak główną wadą poli(dimetylosiloksanu) jest długi czas powrotu molekuł polimeru do pierwotnego ułożeniu po zwolnieniu wywieranego nań nacisku. Bao poradził sobie z tym pokrywając go mikrowłóknami, które szybko się zginają i prostują, dzięki czemu możliwe są błyskawiczne pomiary wywieranego nacisku. Włókna zwiększyły też czułość materiału. O ile ludzka skóra jest w stanie wyczuć nacisk rzędu kilopascala, to powłoka Bao wyczuwa różnice 1 pascala. Obecnie główną słabością rozwiązania Bao jest fakt, że do pracy "skóra" potrzebuje wysokiego napięcia. Taki problem nie występuje w powłoce zaproponowanej przez Alego Javeya, profesora inżynierii elektrycznej i nauk komputerowych na Uniwersytecie Kalifornijskim w Berkeley. Javey stworzył skórę złożoną z szeregu tranzystorów połączonych nanokablami. Tranzystory umieszczono pod powłoką z przewodzącej gumy zawierającej nanocząsteczki węgla. Nacisk wywierany na gumę wywołuje zmiany w oporności, które są wykrywane przez tranzystory. Taka architektura wymaga napięcia mniejszego niż 5 woltów, podczas gdy rozwiązanie Bao działa przy 20 woltach. Obie propozycje są dość łatwe w produkcji i skalowalne. Co prawda naukowcy przedstawili powłoki o powierzchni od kilkunastu do 50 centymetrów kwadratowych, ale ich wielkość była ograniczona tylko narzędziami dostępnymi w ich laboratoriach.
  11. KopalniaWiedzy.pl

    Komputerowy wywabiacz przechodniów

    Usługa Google Street View zrobiła wielką furorę - zarówno w pozytywnym, jak i negatywnym znaczeniu tego słowa. Oferując poza planem możliwość obejrzenia świata okiem przechodnia stała się rewolucją w dziedzinie interaktywnych map. Oskarżana jest jednocześnie w wielu krajach o naruszanie prywatności. Przypomnijmy, że na przykład w Japonii kamery Google rejestrowały wnętrza mieszkań na niskim parterze - konieczne było rejestrowanie widoku ulic na nowo. Pretensjom obrońców prywatności i problemom prawnym mają zaradzić wdrażane coraz to nowe narzędzia. Obecnie Street View automatycznie zamazuje twarze ludzi i tablice rejestracyjne pojazdów. Nie wszystkich to zadowala, sylwetka człowieka i ubranie często pozwalają zidentyfikować przechodnia, który przypadkowo znalazł się na zdjęciu a może sobie nie życzyć światowej „popularności". Arturo Flores, absolwent informatyki na Uniwersytecie Kalifornijskim w San Diego jest twórcą narzędzia przetwarzającego obraz, które może rozwiązać część kłopotów. To program samoczynnie wymazujący ludzi ze zdjęć w Google Street View. Samochody fotografujące ulice rejestrują je jako ciąg zdjęć, które nakładają się na siebie - umożliwia to niewidoczne „zszycie" wielu fotografii w jeden widok. Aplikacja Arturo Floresa identyfikuje ludzi i wymazuje ich, używając zawartości tła pobieranego za i przed postacią ludzką. Robi to na tyle dobrze, że zwykle nie widać manipulacji, przynajmniej bez bliższego przyjrzenia się. Cuda i duchy Nie ma jednak techniki niezawodnej. Problem pojawia się, kiedy sfotografowany przypadkiem człowiek poruszał się w tym samym kierunku i z tą samą prędkością, co samochód Street View - znajduje się on wtedy na całej serii zdjęć, co może uniemożliwić aplikacji poprawne rozpoznanie i wymazanie. Bywają jednak inne, bardziej zabawne artefakty. Zdarza się, że analiza postaci nie obejmie całej sylwetki, ale pominie jakiś fragment lub przedmioty. Pojawiają się wtedy zabawne sceny jak: pies na wiszącej w powietrzu smyczy, unoszący się samodzielnie parasol, czy idące po chodniku same buty. To jednak i tak niewielkie usterki, jak na w pełni zautomatyzowany program. Inną wadą algorytmu jest to, że działa wyłącznie w mieście. Nie da się go zastosować w obszarach niezabudowanych. Według przykładu, jaki podaje sam autor, jego program poprawnie usunie postać człowieka na tle graffiti przedstawiającego konie na pastwisku i zrekonstruuje wygląd malowidła. Ta sama operacja na zdjęciu, które przedstawia człowieka na tle prawdziwych koni na łące nie powiedzie się. Rekonstruowane może być wyłącznie płaskie tło. Być może działanie programu zostanie jeszcze ulepszone. Najbliższy cel Floresa to jednak funkcja usuwania z obrazu całych grup ludzi. Inspiratorem projektu był Serge Belongie, wykładowca Floresa na Wydziale Nauk i Inżynierii Komputerowej. Flores wykorzystał też i ulepszył algorytm wykrywania postaci ludzkich, napisany przez Bastiana Leibego z Uniwersytetu RWTH w Aachen.
  12. KopalniaWiedzy.pl

    Nadzieja dla sparaliżowanych

    Gdy w 2008 roku Zhigang He z Harvard Medical School zregenerował poważnie uszkodzony nerw wzrokowy myszy, pojawiła się nadzieja, że w podobny sposób będzie można reperować uszkodzenia rdzenia kręgowego prowadzące do paraliżu. Amerykańscy naukowcy przeprowadzili właśnie przełomowe badania, w wyniku których doprowadzili do regeneracji komórek nerwowych w uszkodzonym rdzeniu kręgowym. Uszkodzenia rdzenia, uznawane dotychczas za nienaprawialne, prowadzą do różnych form paraliżu. Zespół z Uniwersytetu Kalifornijskiego w Irvine (UC Irvine), San Diego (UC San Diego) oraz Uniwersytetu Harvarda opracowali technikę, dzięki której "cofnęli zegar" komórkowy, doprowadzając do ich ponownego wzrostu i regeneracji połączeń nerwowych. Przełomu dokonano usuwając enzym PTEN, który jest odpowiedzialny za kontrolę kinazy mTOR odpowiedzialnej za wzrost komórek. Podczas ich wzrostu PTEN jest mało aktywny, jednak po zakończeniu procesu tworzenia się tkanki PTEN zostaje włączony blokując mTOR i uniemożliwiając regenerację w przypadku uszkodzenia. Zhigang He oraz Oswald Steward i Binhai Zheng wraz ze swoimi zespołami wypróbowali metody, którą He użył w 2008 roku do reneneracji nerwu wzrokowego. Okazało się, że działa ona również w przypadku rdzenia kręgowego. Dotychczas tak solidna regeneracja nerwów nie była możliwa w obrębie rdzenia. Paraliże i utraty funkcji spowodowane uszkodzeniami rdzenia były uznawane za nieodwracalne, ale nasze odkrycie pokazuje drogę do potencjalnego opracowania terapii, która umożliwi regenerację połączeń nerwowych po uszkodzeniu rdzenia u ludzi - mówi Oswald Steward. Uczeni badają teraz, czy rzeczywiście ich metoda prowadzi do odzyskania funkcji motorycznych przez myszy. Jeśli tak, to w następnym etapie swoich badań zajmą się sprawdzaniem optymalnego czasu, w jakim powinna rozpocząć się terapia oraz metod dostarczania leków koniecznych do jej prowadzenia.
  13. KopalniaWiedzy.pl

    Jak pływają kontynenty

    Teoria tektoniki płyt znana i uznawana jest już od bardzo dawna, ale do dziś trwają pewne wątpliwości - nie było dotychczas pełnego modelu wyjaśniającego mechanizm dryfowania płyt litosfery. Najpopularniejsze dotychczas modele proponowały odmienne mechanizmy: wpływ prądów konwekcyjnych płynnego płaszcza Ziemi lub działanie grawitacji. Żaden model nie wyjaśniał jednak wszystkich zjawisk i parametrów związanych z dryfem płyt tektonicznych. Teorię dokładnie opisującą ich ruch przedstawili geofizycy z Instytutu Oceanografii Scrippsa, Uniwersytetu Kalifornijskiego w San Diego oraz australijskiego Uniwersytetu Monash pod kierunkiem Woutera Schellarta. Wykorzystali one dokładne dane o położeniu płyt, ich ruchu poziomym i pionowym, które poddali komputerowej analizie. Efektem jest matematyczny model dokładnie opisujący mechanikę płyt i uzupełniający dotychczasową teorię. Tworzące skorupę ziemską płyty poruszają się z prędkością rzędu centymetrów na rok. Łączą się one w miejscach, gdzie jedna płyta wchodzi pod drugą. Te graniczne obszary nazywane są strefami subdukcji. Prędkość ruchu płyt i rozmiar stref subdukcji różni się znacznie w różnych miejscach Ziemii. Model Woutera Schellarta wyjaśnia, czemu tak jest. Tempo zanurzania się płyt wciąganych do ziemskiego płaszcza podlega w zasadzie takiej samej dynamice płynów, jak powolne tonięcie monety wrzuconej do miodu - wyjaśnia Dave Stegman. - Komputerowy model pokazuje, w jaki sposób zanurzona w płynnym płaszczu część płyty wciąga w głąb część pozostającą na powierzchni. To wciąganie jest źródłem zarówno ruchu płyt, jak i ruchu obszary granicznego, a rozmiar zanurzającej się części determinuje jego tempo. Tektonika płyt jest powierzchniowym skutkiem dynamiki procesów zachodzących wewnątrz Ziemi, ale dopiero ta teoria wyjaśnia, że to głównie same płyty kontrolują ten proces, a nie - jak dotychczas sądzono - pływy materii ziemskiego płaszcza. Oznacza to, że ziemskie procesy mają źródło na powierzchni - w postaci płyt - a nie w jej głębi. Odkrycie wyjaśnia, dlaczego duże płyty jak na przykład australijska, pacyficzna i Nazca poruszają się szybciej, niż mniejsze płyty, jak afrykańska, eurazjatycka, czy Juan de Fuca. Wyjaśnia też ruch dawnej, nieistniejącej już płyty farallońskiej, której prędkość z upływem czasu zmniejszała się wraz z jej zanikaniem i ze zmniejszeniem się strefy subdukcji z 14 tysięcy kilometrów do 1400 kilometrów. Szczegółowe modelowanie przeszłości pozwoliło także wyjaśnić na przykład obecny wygląd kontynentu północnoamerykańskiego. Praca ukazała się w magazynie Science.
  14. KopalniaWiedzy.pl

    Ryzykowne e-papierosy

    Uczeni z University of California, Riverside donoszą, że palenie "elektronicznych papierosów" wymaga mocniejszego ssania niż w przypadku zwykłych papierosów. Na razie nie wiadomo, jakie może to mieć skutki dla zdrowia palącego. Naukowcy wykorzystali specjalne urządzenie do zbadania właściwości zwykłych papierosów i porównania ich z papierosami elektronicznymi. Urządzenie samo "pali" papierosy i bada skład dymu czy siłę ssania. Okazało się, że wytworzenie odpowiedniej ilości aerozolu w papierosach elektronicznych wymaga silniejszego ssania niż pozyskanie dymu z tradycyjnych papierosów. Co więcej, po 10 pociągnięciach gęstość aerozolu spada, co wymaga zwiększenia siły ssącej. Na razie jest zbyt wcześnie by stwierdzić, jaki wpływ na zdrowie ma silniejsze ssanie i zmniejszająca się gęstość areaozolu, ale czynniki te mogą prowadzić do palenia kompensacyjnego, jakie widzieliśmy w przypadku osób używających papierosów "light" - mówi profesor Prue Talbot. Nasze prace wykazały, że w miarę używania e-papierosów gęstość areozolu spada, co wymaga silniejszego ssania, by ją podtrzymać. Producenci zwykle twierdzą, że zawartość kartridży odpowiada pewnej określonej liczbie tradycyjnych papierosów. Nie wydaje się to prawdą - dodaje Talbot. Z przeprowadzonych przez niego badań wynika, że tylko 10 pierwszych zaciągnięć się e-papierosem daje efekt podobny do palenia prawdziwego tytoniu. Pojedynczy kartridż wystarcza na około 200 zaciągnięć się, jednak nie odpowiadają one 200 zaciągnięciom się prawdziwym papierosem. Badania dowodzą, że papierosy elektroniczne palą się inaczej niż konwencjonalne - dodaje naukowiec. Kamlesh Asotra zarządzający badaniami w ramach University of California Tobacco-Related Disease Research Program (Program badawczy Uniwersytetu Kalifornijskiego nad chorobami związanymi z tytoniem) zauważa, że konieczność silniejszego ssania oznacza, że substancje zawarte w aerozolu dostają się głębiej do płuc niż w przypadku substancji z tradycyjnych papierosów. Ponadto zmniejszająca się gęstość areozolu może powodować, że palacze, by zrekompensować sobie spadek poziomu nikotyny, będą palili więcej, tak jak jest to w przypadku użytkowników papierosów "light".
  15. KopalniaWiedzy.pl

    Ardi - najstarszy hominid

    Naukowcy z Uniwersytetu Kalifornijskiego w Berkeley (University of California, Berkeley) opublikowali wyniki badań nad znalezionym przed 15 laty szkieletem hominida. Niewykluczone, że mamy do czynienia z najstarszym znanym nam przodkiem człowieka. Odkryty szkielet należał do kobiety z gatunku Adripithecus ramidus i liczy sobie 4,4 miliona lat. Dotychczas najstarszymi znanymi nam szczątkami przodka człowieka był szkielet Lucy, której wiek oceniono na 3,2 miliona lat. Ardi, bo tak nazwano "właścicielkę" szkieletu, żyła na terenie dzisiejszej Etiopii. Mierzyła około 1,20 metra wzrostu i poruszała się na dwóch nogach. Jej stopy były płaskie i prawdopodobnie nie mogła przebyć długiego dystansu w postaci wyprostowanej. Żyła również na drzewach, na co wskazuje przeciwstawny palec, jednak nie poruszała się po nich tak zręcznie jak szympansy. W przeciwieństwie jednak do nich, mogła, wędrując na dwóch nogach, przenosić ciężary i lepiej manipulowała przedmiotami bardziej sprawnie, niż szympansy. Jak wyjaśnia Tim White, dyrektor Human Evolution Research Center, Ardi nie była szympansem, ale nie była też człowiekiem. Gdy wędrowała na czterech kończynach nie podpierała się kostkami kończyn górnych, jak szympansy czy goryle, ale całymi dłońmi. Żadne współczesne małpy tego nie robią. Z kolei wspomniana na początku Lucy była lepiej przystosowana do chodzenia po ziemi, co sugeruje, że hominidy stały się zwierzętami poruszającymi się głównie po ziemi dopiero od czasów Australopiteków. Badania zębów Ardi sugerują, że samce jej gatunku żyły w większej zgodzie, niż samce współczesnych małp. Brakowało im potężnych kłów, którymi mogłyby się straszyć, niewykluczone więc, że żyły w stadach składających się z par osobników różniej płci. Być może samce były nawet zaangażowane w zbieranie pożywienia dla stada. Pierwsze szczątki przedstawicieli rodzaju Ardipithecus odnaleziono w 1992 roku w depresji Afar, tej samej, w której w 1974 odkryto Lucy. Na ich pierwszy ślad trafił Gen Suwa, który w okolicy wioski Aramis, położonej w odległości 225 kilometrów na północny wschód od Addis Abeby, odkrył ząb. Dalsze poszukiwania pozwoliły dotrzeć do kolejnych skamielin. Samą Ardi znaleziono w 1994 roku. Początkowo sądzono, że mamy do czynienia z Australopitekami, szybko jednak okazało się, że to nowy gatunek, który nazwano Ardipithecus ramidus. Dalsze wykopaliska ujawniły aż 125 fragmentów szkieletu Ardi. Znaleziono też 110 innych fragmentów, które należą do co najmniej 35 innych przedstawicieli Ardipithecus. Specjaliści z University of Tokyo przeprowadzili za pomocą tomografu komputerowego szczegółowe badania czaszki Ardi, które pozwoliły odtworzyć wygląd jej głowy. Wczoraj, 2 października, 47 naukowców z 10 krajów opublikowało artykuły szczegółowo analizujące poszczególne fragmenty jej ciała oraz środowisko biologiczne i geologiczne, w którym żyła. W dwóch artykułach przeanalizowano 150 000 skamieniałości roślin i zwierząt, w tym 6000 skamieniałości kręgowców. Uczeni wykonali więc tytaniczną pracę, która poszerza naszą wiedzę na temat ewolucji człowieka. Dzięki nim wiemy na przykład, że Ardi była wszystkożerna, a jej dieta różniła się od współcześnie żyjących małp afrykańskich. Artipithecus spędzał na ziemi sporo czasu, szukając roślin, grzybów, bezkręgowców i, niewykluczone, małych kręgowców. Z czasem narodziła się Lucy i hominidy zaczęły rozprzestrzeniać się po sawannach. Wykształciły większe zęby trzonowe i przedtrzonowe, co umożliwiło im jedzenie twardych roślin i nasion, a któryś z nich wpadł na pomysł wykorzystania kamiennych narzędzi do zabijania dużych ssaków na mięso. O samej Ardi możemy powiedzieć jeszcze tyle, że ważyła około 50 kilogramów, a jej mózg był pięciokrotnie mniejszy od naszego. Był zatem wielkości mózgu współczesnych szympansów. Uczeni zauważają, że mimo iż kości Ardi znaleziono w warstwie o 80 metrów głębszej niż kości Lucy, to jednak może być ona bezpośrednim przodkiem Lucy, a Lucy - naszym przodkiem. Jednak rozstrzygnięcie tej hipotezy będzie wymagało dalszych znalezisk i natrafienia na szkielety liczące sobie 3-5 milionów lat.
  16. KopalniaWiedzy.pl

    Chłodzenie grafenem

    W 2008 roku profesor Alexander Balandin z University of California Riverside wykazał, że pojedyncza warstwa niedawno odkrytego grafenu jest świetnym przewodnikiem ciepła. Zrodziło to nadzieję na wykorzystanie grafenu do chłodzenia układów scalonych, jednak dotychczas pozostawało to w sferze projektów z powodu olbrzymich trudności związanych z produkcją dużych, wolnych od wad fragmentów grafenu o grubości pojedynczego atomu. Teraz, w artykule opublikowanym w Nature Materials ukazał się artykuł, w którym Baladin i jego zespół informują, że warstwa grafenu o grubości wielu atomów, a taką jest łatwiej wyprodukować, równie dobrze przewodzi ciepło. Przy okazji badań dokonano znaczących odkryć, dzięki którym wyjaśnili, jak materiał przewodzi ciepło gdy ma grubość jednego atomu i jakie zmiany w przewodnictwie zachodzą w materiale wielokrotnie grubszym. To z kolei może pomóc w skutecznym usuwaniu ciepła z układów scalonych. Zdaniem Balandina grafenu można użyć w połączeniu z krzemem. Co prawda uczony twierdzi, że obecnie nie jesteśmy w stanie produkować jego dużych ilości, ale prace badawcze szybko postępują i w ciągu roku lub dwóch sytuacja może zmienić się diametralnie. Początkowo, jego zdaniem, grafen będzie stosowany w bardzo ograniczonym zakresie, np. w obudowach układów scalonych czy w roli przezroczystych elektrod w ogniwach fotowoltaicznych. Jednak w ciągu pięciu lat może trafić do samych układów scalonych, gdzie zostanie użyty do tworzenia połączeń pomiędzy poszczególnymi elementami czy jako wymiennik ciepła.
  17. Naukowcy z Uniwersytetu Kalifornijskiego w San Diego przygotowali raport o konsumpcji informacji przez Amerykanów w 2008 roku [PDF]. Wynika z niego, że mieszkańcy USA w ciągu 12 miesięcy "użyli" 3,6 zettabajtów (1021, bilion gigabajtów) informacji i niemal 11 biliardów wyrazów. Oznacza to, że przeciętny mieszkaniec tego kraju "konsumował" każdego dnia 34 gigabajty informacji i 100.500 wyrazów. Dane takie uzyskano na podstawie analizy ponad 20 źrodeł informacji. Od książek i gazet po przenośne gry komputerowe, radio satelitarne i internetowy przekaz wideo. W badaniach nie uwzględniono informacji "konsumowanej" w czasie pracy. Uczeni zdefiniowali "informację" jako przepływ danych docierających do ludzi i policzyli bajty, słowa oraz czas spędzany na konsumpcji. Najbardziej rozpowszechnionym sposobem korzystania z informacji jest przekaz obrazkowy. Około 2 zettabajtów pozyskano z gier wideo, a 1,3 ZiB z telewizji. Widać tutaj wyraźny wzrost w porównaniu z poprzednimi badaniami z roku 2000 i 2003. Uczeni zauważają, że liczba godzin spędzanych na konsumpcji informacji rośnie w latach 1980-2008 w tempie 2,8% rocznie. Przed 28 laty przeciętny Amerykanin "konsumował" informacje średnio przez 7,4 godziny na dobę. Obecnie jest to 11,8 godziny. Wśród źródeł informacji nadal dominuje radio i telewizja. Naukowcy wyliczyli, że 60% czasu konsumpcji jest związane właśnie z tymi mediami. Amerykanie spędzają przy źródłach nie związanych z komputerem ponad 75% czasu związanego z konsumpcją informacji. Jednocześnie jednak widać, że komputery zmieniają sposób przyswajania informacji. Przed ich pojawieniem się jedynym interaktywnym źródłem informacji był telefon. Dzięki komputerom 33% słów i ponad 50% bitów jest odbieranych w sposób interaktywny. Komputery przyczyniły się też do zwiększenia, zagrożonego przez telewizję, czytelnictwa, gdyż słowo pisane jest głównym sposobem komunikacji z maszyną.
  18. KopalniaWiedzy.pl

    Niebezpieczna skala nano

    Wprowadzaniu nowych materiałów często towarzyszą obawy o ich wpływ na środowisko naturalne i zdrowie człowieka. Ma to zastosowanie również w dziedzinie elektroniki, w której coraz częściej pojawiają się np. nanorurki i rozwija się nanotechnologia. Naukowcy z University of California w San Diego (UCSD) oraz pobliskiego Veterans Affairs Medical Healthcare System w La Jolla zakończyli właśnie badania, które wykazały, że magnetyczne nanocząsteczki mogą być szkodliwe dla człowieka. Okazuje się, że tego typu cząstki o średnicy mniejszej niż 10 nanometrów hamują wzrost komórek nerwowych. Poprzednio eksperymenty in vitro przeprowadzone w Narodowym Instytucie Standardów i Technologii (NIST) dowiodły, iż nanorurki krótsze niż 200 nanometrów mają szkodliwy wpływ na komórki płuc człowieka. Obecnie szacuje się, że Narodowa Fundacja Nauki (NSF) spędza 10-krotnie więcej czasu na badaniach nad nowymi nanomateriałami, niż na badaniach nad wyeliminowaniem ich toksycznego oddziaływania. Chcielibyśmy, by przeznaczała ona więcej pieniędzy na finansowanie badań podobnych do naszych. Tak, by można było określić, które nanomateriały są najbardziej toksyczne i jak wyeliminować to zagrożenie – mówi profesor Shunho Jin z UCSD. Tysiące firm pracuje obecnie nad rozwojem magnetycznych nanocząsteczek i zastosowaniem ich w bio- i nanotechnologii. Bardzo popularnym materiałem są nanocząstki tlenku żelaza, o których dotychczas sądzono, że są obojętne dla organizmów żywych. Najnowsze badania wykazały, że mogą być niebezpieczne. Zespół Jina odkrył, że w obecności tego typu nanocząstek, jeśli są one mniejsze niż 10 nanometrów, komórki nerwowe nie reagują na sygnały chemiczne i zamiast ułatwiać przekazywanie sygnałów, przechodzą w stan uśpienia. Wcześniej NIST stwierdził, że nanorurki węglowe o długości mniejszej niż 200 nanometrów, z łatwością przenikają do komórek płuc. W zależności od stopnia ich koncentracji, komórki umierają lub wykazują inne objawy zatrucia.
×