Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'mit' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 80 wyników

  1. Na MIT powstały ogniwa fotowoltaiczne cieńsze od ludzkiego włosa, które na kilogram własnej masy wytwarzają 18-krotnie więcej energii niż ogniwa ze szkła i krzemu. Jeśli uda się skalować tę technologię, może mieć do olbrzymi wpływ produkcję energii w wielu krajach. Jak zwraca uwagę profesor Vladimir Bulivić z MIT, w USA są setki tysięcy magazynów o olbrzymiej powierzchni dachów, jednak to lekkie konstrukcje, które nie wytrzymałyby obciążenia współczesnymi ogniwami. Jeśli będziemy mieli lekkie ogniwa, te dachy można by bardzo szybko wykorzystać do produkcji energii, mówi uczony. Jego zdaniem, pewnego dnia będzie można kupić ogniwa w rolce i rozwinąć je na dachu jak dywan. Cienkimi ogniwami fotowoltaicznymi można by również pokrywać żagle jednostek pływających, namioty, skrzydła dronów. Będą one szczególnie przydatne w oddalonych od ludzkich siedzib terenach oraz podczas akcji ratunkowych. To właśnie duża masa jest jedną z przyczyn ograniczających zastosowanie ogniw fotowoltaicznych. Obecnie istnieją cienkie ogniwa, ale muszą być one montowane na szkle. Dlatego wielu naukowców pracuje nad cienkimi, lekkimi i elastycznymi ogniwami, które można będzie nanosić na dowolną powierzchnię. Naukowcy z MIT pokryli plastik warstwą parylenu. To izolujący polimer, chroniący przed wilgocią i korozją chemiczną. Na wierzchu za pomocą tuszów o różnym składzie nałożyli warstwy ogniw słonecznych i grubości 2-3 mikrometrów. W warstwie konwertującej światło w elektryczność wykorzystali organiczny półprzewodnik. Elektrody zbudowali ze srebrnych nanokabli i przewodzącego polimeru. Profesor Bulović mówi, że można by użyć perowskitów, które zapewniają większą wydajność ogniwa, ale ulegają degradacji pod wpływem wilgoci i tlenu. Następnie krawędzie tak przygotowanego ogniwa pomarowano klejem i nałożono na komercyjnie dostępną wytrzymałą tkaninę. Następnie plastik oderwano od tkaniny, a na tkaninie pozostały naniesione ogniwa. Całość waży 0,1 kg/m2, a gęstość mocy tak przygotowanego ogniwa wynosi 370 W/kg. Profesor Bulović zapewnia, że proces produkcji można z łatwością skalować. Teraz naukowcy z MIT planują przeprowadzenie intensywnych testów oraz opracowanie warstwy ochronnej, która zapewni pracę ogniw przez lata. Zdaniem uczonego już w tej chwili takie ogniwo mogłoby pracować co najmniej 1 lub 2 lata. Po zastosowaniu warstwy ochronnej wytrzyma 5 do 10 lat. « powrót do artykułu
  2. Fizycy z MIT opracowali kwantowy „ściskacz światła”, który redukuje szum kwantowy w laserach o 15%. To pierwszy taki system, który pracuje w temperaturze pokojowej. Dzięki temu możliwe będzie wyprodukowanie niewielkich przenośnych systemów, które będzie można dobudowywać do zestawów eksperymentalnych i przeprowadzać niezwykle precyzyjne pomiary laserowe tam, gdzie szum kwantowy jest obecnie poważnym ograniczeniem. Sercem nowego urządzenia jest niewielka wnęka optyczna znajdująca się w komorze próżniowej. We wnęce umieszczono dwa lustra, z których średnia jednego jest mniejsza niż średnica ludzkiego włosa. Większe lustro jest zamontowane na sztywno, mniejsze zaś znajduje się na ruchomym wsporniku przypominającym sprężynę. I to właśnie kształt i budowa tego drugiego, nanomechanicznego, lustra jest kluczem do pracy całości w temperaturze pokojowej. Wpadające do wnęki światło lasera odbija się pomiędzy lustrami. Powoduje ono, że mniejsze z luster, to na wsporniku zaczyna poruszać się w przód i w tył. Dzięki temu naukowcy mogą odpowiednio dobrać właściwości kwantowe promienia wychodzącego z wnęki. Światło lasera opuszczające wnękę zostaje ściśnięte, co pozwala na dokonywanie bardziej precyzyjnych pomiarów, które mogą przydać się w obliczeniach kwantowych, kryptologii czy przy wykrywaniu fal grawitacyjnych. Najważniejszą cechą tego systemu jest to, że działa on w temperaturze pokojowej, a mimo to wciąż pozwala na dobieranie parametrów z dziedziny mechaniki kwantowej. To całkowicie zmienia reguły gry, gdyż teraz będzie można wykorzystać taki system nie tylko w naszym laboratorium, które posiada wielkie systemy kriogeniczne, ale w laboratoriach na całym świecie, mówi profesor Nergis Mavalvala, dyrektor wydziału fizyki w MIT. Lasery emitują uporządkowany strumień fotonów. Jednak w tym uporządkowaniu fotony mają pewną swobodę. Przez to pojawiają się kwantowe fluktuacje, tworzące niepożądany szum. Na przykład liczba fotonów, które w danym momencie docierają do celu, nie jest stała, a zmienia się wokół pewnej średniej w sposób, który jest trudny do przewidzenia. Również czas dotarcia konkretnych fotonów do celu nie jest stały. Obie te wartości, liczba fotonów i czas ich dotarcia do celu, decydują o tym, na ile precyzyjne są pomiary dokonywane za pomocą lasera. A z zasady nieoznaczoności Heisenberga wynika, że nie jest możliwe jednoczesne zmierzenie pozycji (czasu) i pędu (liczby) fotonów. Naukowcy próbują radzić sobie z tym problemem poprzez tzw. kwantowe ściskanie. To teoretyczne założenie, że niepewność we właściwościach kwantowych lasera można przedstawić za pomocą teoretycznego okręgu. Idealny okrąg reprezentuje równą niepewność w stosunku do obu właściwości (czasu i liczby fotonów). Elipsa, czyli okrąg ściśnięty, oznacza, że dla jednej z właściwości niepewność jest mniejsza, dla drugiej większa. Jednym ze sposobów, w jaki naukowcy realizują kwantowe ściskanie są systemy optomechaniczne, które wykorzystują lustra poruszające się pod wpływem światła lasera. Odpowiednio dobierając właściwości takich systemów naukowcy są w stanie ustanowić korelację pomiędzy obiema właściwościami kwantowymi, a co za tym idzie, zmniejszyć niepewność pomiaru i zredukować szum kwantowy. Dotychczas optomechaniczne ściskanie wymagało wielkich instalacji i warunków kriogenicznych. Działo się tak, gdyż w temperaturze pokojowej energia termiczna otaczająca system mogła mieć wpływ na jego działanie i wprowadzała szum termiczny, który był silniejszy od szumu kwantowego, jaki próbowano redukować. Dlatego też takie systemy pracowały w temperaturze zaledwie 10 kelwinów (-263,15 stopni Celsjusza). Tam gdzie potrzebna jest kriogenika, nie ma mowy o niewielkim przenośnym systemie. Jeśli bowiem urządzenie może pracować tylko w wielkiej zamrażarce, to nie możesz go z niej wyjąć i uruchomić poza nią, wyjaśnia Mavalvala. Dlatego też zespół z MIT pracujący pod kierunkiem Nancy Aggarval, postanowił zbudować system optomechaczniczny z ruchomym lustrem wykonanym z materiałów, które absorbują minimalne ilości energii cieplnej po to, by nie trzeba było takiego systemu chłodzić. Uczeni stworzyli bardzo małe lustro o średnicy 70 mikrometrów. Zbudowano je z naprzemiennie ułożonych warstw arsenku galu i arsenku galowo-aluminowego. Oba te materiały mają wysoce uporządkowaną strukturę atomową, która zapobiega utratom ciepła. Materiały nieuporządkowane łatwo tracą energię, gdyż w ich strukturze znajduje się wiele miejsc, gdzie elektrony mogą się odbijać i zderzać. W bardziej uporządkowanych materiałach jest mniej takich miejsc, wyjaśnia Aggarwal. Wspomniane wielowarstwowe lustro zawieszono na wsporniku o długości 55 mikrometrów. Całości nadano taki kształt, by absorbowała jak najmniej energii termicznej. System przetestowano na Louisiana State University. Dzięki niemu naukowcy byli w stanie określić kwantowe fluktuacje liczby fotonów względem czasu ich przybycia do lustra. Pozwoliło im to na zredukowanie szumu o 15% i uzyskanie bardziej precyzyjnego „ściśniętego” promienia. « powrót do artykułu
  3. Naukowcy z MIT-u odkryli nieznane dotychczas zjawisko, powodujące, że w węglowych nanorurkach powstają potężne fale energii. Uczeni są zdania, że może to pomóc w stworzeniu nowej metody produkcji elektryczności. Zjawisko nazwano "falami termomocy" (thermopower waves). Badania przeprowadzone przez zespół pracujący pod kierunkiem Wonjoon Choi wykazały, że fale cieplne przesuwające się przez mikroskopijny przewód mogą spowodować powstanie napięcia elektrycznego. Uczeni z MIT przeprowadzili eksperyment, podczas którego nanorurki pokryto warstwą paliwa. Następnie podpalano je za pomocą lasera bądź iskry elektrycznej. Powodowało to pojawienie się szybko wędrującej fali cieplnej. Przesuwała się ona tysiące razy szybciej, niż spalało się paliwo. W temperaturze 3000 kelvinów fala cieplna była 10 000 razy szybsza niż reakcja spalania. Okazało się, że spowodowała ona pojawienie się sporego napięcia elektrycznego. Co prawda uczeni od ponad 100 lat matematycznie badają fale cieplne, ale to profesor Michael Strano, główny autor artykułu opisującego badania, jako pierwszy przewidział, że fala cieplna wysłana przez nanorurkę bądź nanokable może doprowadzić do pojawienia się prądu elektrycznego. Jednak wynik eksperymentów zaskoczył naukowców. Po początkowym udoskonaleniu całego systemu okazało się, że na jednostkę masy uwalnia on 100-krotnie więcej energii niż współczesne baterie litowo-jonowe. Co prawda wiele półprzewodników po podgrzaniu wydziela energię elektryczną (tzw. zjawisko Seebecka), jednak w węglu jest ono niezwykle słabe. Stąd też zaskoczenie naukowców, gdy okazało się ono znacznie bardziej potężne niż przewidywały jakiekolwiek obliczenia. Profesor Strano informuje, że na jego wzmocnienie wpływa olbrzymia prędkość poruszania się fali cieplnej. Jako, że odkrycie zostało właśnie dokonane, trudno przewidzieć jego zastosowania. Strano uważa, że być może posłuży ono do zasilania urządzeń wielkości ziarnka ryżu, które będą wstrzykiwane do ciała ludzkiego czy czujników środowiskowych rozsiewanych w powietrzu jak kurz. Teoretycznie energia w takich urządzeniach nie wyczerpywałaby się tak długo, jak długo by się ich nie używało. W obecnie używanych bateriach energia stopniowo zanika, nawet gdy ich nie używamy. Naukowcy chcą też sprawdzić kolejny aspekt swojej teorii. Prognozują, że jeśli nanorurki zostaną pokryte różnym rodzajem paliwa, to fala cieplna będzie oscylowała i powstanie prąd zmienny. To z kolei rodzi nowe możliwości. Prąd zmienny jest bowiem podstawą istnienia fal radiowych, ale obecne urządzenia do przechowywania energii dostarczają prądu stałego. Co więcej, nowy system może zostać jeszcze znacznie ulepszony, gdyż... jest mało efektywny. Bardzo duża część energii jest tracona w postaci energii cieplnej i świetlnej. Zespół z MIT-u będzie pracował nad udoskonaleniem swojego wynalazku. Profesor Ray Baughman, dyrektor Nanotech Institute z University of Texas jest pod kolosalnym wrażeniem odkrycia. Zaczęło się od szalonego pomysłu na seminarium, a zakończyło niezwykłymi wynikami eksperymentu, odkryciem nowego zjawiska, pozwoliło zrozumieć je na gruncie teoretycznym i otworzyło nowe możliwości - powiedział dodając, że dzięki temu powstaje nowe, ekscytujące pole do badań.
  4. Naukowcy z MIT-u (Massachusetts Institute of Technology) poinformowali o dokonaniu przełomowego odkrycia, które w niedalekiej przyszłości zamieni światło słoneczne z marginalnego w główne źródło czystej energii. Akademicy opracowali bowiem tanią prostą metodę przechowywania energii. Dotychczas z energii słońca można było korzystać tylko w dzień, gdyż jej przechowywanie jest bardzo drogie i mało efektywne. Wykorzystanie energii słonecznej zawsze miało poważne ograniczenia. Teraz myślimy o Słońcu jako o niewyczerpanym źródle energii, z którego już wkrótce będziemy mogli korzystać - mówi profesor Daniel Nocera, jeden z głównych autorów studium. To wielkie odkrycie o olbrzymim znaczeniu dla przyszłości ludzkości - mówi Barber. Nie można go przecenić, gdyż umożliwia opracowanie technologii, które zmniejszą naszą zależność od paliw kopalnych, a jednocześnie pomogą w walce ze zmianami klimatycznymi - dodaje. Obecnie używane przemysłowe procesy elektrolizy, dzięki którym przeprowadza się rozkład wody na tlen i wodór, mają spore wady w porównaniu z technologią Nocery. Wykorzystywane są w nich bowiem bardzo drogie elektrody, a cały proces przebiega w silnie zasadowym środowisku. Sam Nocera mówi, że prace jego zespołu to dopiero początek. Jego zdaniem naukowcy wykorzystają nową technologię i w ciągu 10 lat rozpocznie się rewolucja, której skutkiem będzie ograniczenie scentralizowanych systemów produkcji i dystrybucji energii. Każdy właściciel domu będzie mógł korzystać za dnia z energii słońca, której nadmiar zostanie wykorzystany do przeprowadzenia elektrolizy wody, dzięki czemu zapewni sobie energię wówczas, gdy słońce nie świeci.
  5. Inżynierowie z MIT-u tak zmodyfikowali baterie litowe, że możliwe jest załadowanie ich w kilka sekund. Przy tym, co niezmiernie ważne, użyli tych samych materiałów, które są obecnie wykorzystywane w bateriach. Zmienili tylko sposób jego produkcji. Oznacza to, że nowe urządzenia mogą trafić na rynek w ciągu 2-3 najbliższych lat. Baterie, które będzie można ładować w kilka sekund przydadzą się zarówno w telefonach komórkowych, jak i w samochodach elektrycznych. Chociaż, w tym ostatnim przypadku, większość z nas nie mogłaby ładować ich we własnych garażach, gdyż domowa sieć elektryczna nie będzie w stanie dostarczyć odpowiedniej ilości energii. Jak wiemy, nowoczesne baterie litowe są w stanie przechowywać duże ilości energii. Ich wadą jest natomiast powolne oddawanie energii i powolne ładowanie. W przypadku np. samochodu elektrycznego oznacza to, że będziemy mogli jeździć nim przez dłuższy czas ze sporą prędkością, jednak będzie miał on słabe przyspieszenie, a gdy bateria się wyczerpie, będzie wymagała wielogodzinnego ładowania. Naukowcy przez długi czas sądzili, iż winnymi tej wady są jony litu, które, niosąc ładunek elektryczny, bardzo wolno przemieszczają się przez materiał, z którego zbudowano baterię. Jednak przed pięciu laty profesor Gerbrand Ceder i jego zespół z MIT-u dokonali zaskakującego odkrycia. Okazało się, że jony potrafią poruszać się bardzo szybko. Uczeni zaczęli więc szukać przeszkody, która je spowalnia. Szczegółowe badania wykazały, że jony rzeczywiście poruszają się błyskawicznie, pod warunkiem, iż wykorzystują do tego celu "tunele" dostępne z powierzchni na której się gromadzą. Jon, który ma pod sobą tunel, przemieści się szybko, ten, który nie ma do dyspozycji tunelu, porusza się powoli. Jony nie potrafią przesunąć się tak, by mieć pod sobą tunel. Ceder i jego student, Byoungwoo Kang, tak zmodernizowali obecnie wykorzystywany materiał, by jony poruszały się po jego powierzchni jak po obwodnicy i by w końcu trafiały do tunelu. Obaj uczeni stworzyli miniaturową baterię, która może zostać rozładowana lub załadowana w czasie 10-20 sekund. Identyczna bateria budowana tradycyjnymi metodami potrzebuje 6 minut na pełne rozładowanie lub załadowanie. Ponadto szczegółowe badania wykazały, że zmodyfikowany materiał, w przeciwieństwie do materiału niezmodyfikowanego, nie ulega degradacji podczas ładowania i rozładowywania. To oznacza, że nowa bateria o tej samej pojemności może być mniejsza i lżejsza od tradycyjnej.
  6. Podczas Fifth International Symposium on Networks-on-Chip 2011 specjaliści z MIT-u zdobyli nagrodę za najlepsze opracowanie naukowe symulatora układu scalonego. Ich program Hornet modeluje działanie wielordzeniowego procesora znacznie lepiej niż inne tego typu oprogramowanie. Potrafił znaleźć w oprogramowaniu błędy, których inne symulatory nie zauważyły. Teraz Hornet został znakomicie udoskonalony i wyposażony w nowe funkcje. Jego nowa wersja potrafi symulować zużycie energii, komunikację między rdzeniami, interakcję pomiędzy CPU a pamięcią oraz obliczyć czas potrzebny na wykonanie poszczególnych zadań. Symulatory są niezwykle ważne dla firm produkujących układy scalone. Zanim przystąpi się do produkcji kości przeprowadzane są liczne testy ich działania na symulatorach. Dotychczasowe symulatory przedkładały szybkość pracy nad dokładność. Nowy Hornet pracuje znacznie wolniej niż jego starsze wersje, jednak dzięki temu pozwala na symulowanie 1000-rdzeniowego procesora z dokładnością do pojedynczego cyklu. Hornet jest nam w stanie wyliczyć, że ukończenie konkretnego zadania będzie np. wymagało 1.223.392 cykli - mówi Myong Cho, doktorant z MIT-u. Przewaga Horneta nad konkurencją polega też na tym, że inne symulatory dobrze oceniają ogólną wydajność układu, mogą jednak pominąć rzadko występujące błędy. Hornet daje większą szansę, że zostaną one wyłapane. Podczas prezentacji Cho, jego promotor profesor Srini Devadas i inni studenci symulowali na Hornecie sytuację, w której wielordzeniowy procesor korzysta z nowej obiecującej techniki przetwarzania danych pacjentów. Hornet zauważył, że niesie ona ze sobą ryzyko wystąpienia zakleszczenia, czyli sytuacji, w której różne rdzenie, aby zakończyć prowadzone obliczenia, czekają nawzajem na dane od siebie. Powoduje to, że zadania nie mogą być zakończone, gdyż rdzenie nawzajem siebie blokują. Żaden inny symulator nie zasygnalizował tego problemu. Hornet pozwolił też na przetestowanie zaproponowanego przez naukowców sposobu na uniknięcie zakleszczenia. Zdaniem jego twórców Hornet, ze względu na swoje powolne działanie, posłuży raczej do symulowania pewnych zadań, a nie działania całych aplikacji. Przyda się zatem tam, gdzie zajdzie potrzeba upewnienia się, czy nie występują żadne nieprawidłowości czy też do statystycznego zbadania możliwości wystąpienia błędów.
  7. Studenci najsłynniejszej uczelni technicznej świata - MIT-u (Massachusetts Institute of Technology) - mogą otrzymać od władz uczelni certyfikat ukończenia kursu... piractwa. I nie chodzi tutaj o piractwo komputerowe, a to prawdziwe, morskie. Uczelnia postanowiła uczynić oficjalnym zwyczaj, który był praktykowany przez jej studentów przez co najmniej 20 lat. MIT wymaga, by uczący się ukończyli w czasie studiów co najmniej 4 różne kursy wychowania fizycznego. Teraz ci, którzy z powodzeniem ukończą strzelanie z pistoletu, łuku, żeglarstwo i szermierkę otrzymają oficjalny certyfikat Carrie Sampson Moore, dziekan wydziału wychowania fizycznego, mówi, że co roku kontaktowali się z nią studenci, prosząc o wydanie zaświadczenia o ukończeniu kursu pirata. Zawsze mówiłam im, że to inicjatywa studencka i byli bardzo rozczarowani - stwierdziła Moore. Od początku bieżącego roku postanowiono, że uczelnia zacznie wydawać oficjalne certyfikaty. Drukowane są one na zwoju pergaminu z równą starannością jak inne uczelniane dyplomy. Właśnie otrzymało je czterech pierwszych piratów, a w kolejce czekają następni. Mimo, iż cała ta historia może brzmieć niepoważnie, to certyfikat i warunki jego uzyskania są traktowane przez uczelnię całkiem serio. Przyszli piraci nie mogą liczyć na żadną taryfę ulgową, a otrzymanie świadectwa ukończenia kursu wiąże się ze złożeniem przysięgi. Stephanie Holden, która znalazła się w czwórce pierwszych piratów, zdradziła, że musiała przysiąc, iż ucieknie z każdej bitwy, której nie będzie mogła wygrać i wygra każdą bitwę, z której nie będzie mogła uciec.
  8. Jak dowiadujemy się z książki Case, Argument Structure and Word Order autorstwa profesora Shigeru Miyagawy, lingwisty z MIT-u, języki są znacznie bardziej podobne, niż się nam wydaje. W języku angielskim znalezienie dopełnienia bliższego jest stosunkowo proste. Występuje ono zaraz przy czasowniku. W zdaniu „I gave a book to Mary“ (Dałem książkę Marysi) dopełnienie bliższe „book“ znajdziemy przy czasowniku „gave“, a dopełnienie dalsze „Mary“ jest od niego oddalone. Inaczej jednak ma się sprawa z językiem japońskim, którego szyk jest znacznie bardziej luźny. Tam dopełnienie bliższe oznaczone jest przyrostkiem -o. W zdaniu „Taroo-wa hon-o kinoo katta“ porządek wyrazów jest następujący - „Taro książkę wczoraj kupił“. „Książka“ (hon-o) jest dopełnieniem bliższym, jednak nie sąsiaduje ono z wyrazem „kupił“ (katta). Dla kogoś uczącego się języka, szczególnie gdy w jego rodzinnym języku szyk zdania jest bardziej sztywny niż w japońskim, może być to poważnym problemem. Japoński i angielski wydają się bardzo różnić od siebie. Jednak profesor Miyagawa dowodzi, że z punktu widzenia lingwisty różnice nie są aż tak wielkie. Mamy do czynienia z interesującym napięciem pomiędzy różnicami a podobieństwami. Ludzkie języki są zadziwiająco różne. Każdy z nich ma unikalne właściwości odróżniające go od 6500 czy 7000 innych języków. Jeśli jednak spojrzymy na nie z punktu widzenia lingwisty zauważymy, że istnieją właściwości wspólne wszystkim językom. Uczony wykazuje w swojej książce, że pomiędzy angielskim a japońskim następuje rodzaj pewnej wymiany. Japoński i angielski przyjmują reguły, które drugi język porzucił. Miyagawa zauważył, że w VIII i IX wieku w japońszczyźnie przyrostek -o nie był używany na oznaczenie dopełnienia bliższego. Używano go do oznaczania emfazy. W tym samym czasie język angielski używał znaków gramatycznych (takich jak obecny dopełniacz saksoński) na oznaczenie dopełnienia bliższego występującego w bierniku. Ponadto szyk zdania był znacznie bardziej luźny niż we współczesnym angielskim. Dopełnienie bliższe mogło pojawić się w wielu miejscach zdania. Patrząc z punktu widzenia gramatyki stary japoński jest jak współczesny angielski. A stary angielski i łacina są jak współczesny japoński, stwierdza Miyagawa. Do takiej „wymiany zasad“ pomiędzy japońskim a angielskim dochodziło, gdy języki te nie miały ze sobą żadnej styczności, zatem nie można zjawiska tego tłumaczyć wzajemnym wpływem. Znalezienie takich wzorców jest bardzo trudne. Wiele z nich wymaga bowiem szczegółowych wieloletnich badań. Profesor Miyagawa zawarł w książce wyniki swojej 30-letniej pracy naukowej oraz przegląd prac innych autorów. Jego spostrzeżenia zostały wzmocnione niedawno opublikowaną pracą Yuko Yanagidy z Tsukuba University. Również ona zauważyła, że w starym japońskim występuje sposób oznaczania dopełnienia bliższego, który jest podobny do metody używanej czasem we współczesnym angielskim. W jednej z fraz występuje bowiem połączenie dopełnienia bliższego i czasownika „tuki-sirohu“, co przypomina np. współczesne angielskie „bird-watching“, a podobną konstrukcję można znaleźć w języku Czukczów „qaa-tym-ge“.. Szczególnie zadowoleni z książki Miyagawy są lingwiści badający ewolucję języków. Niezbyt wiele języków zachowało historyczne zapiski i tylko niektóre z nich przydają się do badania zmian. Większość takich jeżyków to języki indoeuropejskie. Dobrze przeprowadzona analiza zmian w języku japońskim jest zatem niezwykle cenna - powiedział David Lightfood z Georgetown University. Miyagawa zauważył też inne podobieństwa. Na przykład w języku japońskim występuje, podobnie jak i w angielskim tzw. „efekt blokujący“. Polega on na tym, że np. w angielskim można zastąpić wyraz „curious“ wyrazem „curiosity“, ale nie można zastąpić wyrazu „glorious“ słowem „gloriosity“. Dzieje się tak, gdyż istnieje wyraz „glory“. W japońskim efekt blokujący występuje na bardzo szeroką skalę. Nikt jednak nie przeprowadził wcześniej takiego porównania - mówi Miyagawa. Pracę profesora chwali też John Whitman z Cornell University. Lingwiści mają tendencję do myślenia, że ich własny język zawsze stosował się do tych samych podstawowych reguł. Ale Shigeru Miyagawa wykazał, że japoński sprzed 1000 lat był różny od współczesnego języka - mówi. Jego zdaniem kolejnym krokiem w tego typu badaniach powinno być podzielenie badanych okresów na mniejsze części. Miyagawa pokazał zmiany na przestrzeni setek lat. Warto byłoby zobaczyć, jak zmienia się język np. co 50 lat.
  9. Massachusetts Institute of Technology (MIT) najsłynniejsza uczelnia techniczna świata uruchamia pierwszy z ogólnodostępnych bezpłatnych kursów, z których będzie można korzystać w ramach opisywanego przez nas projektu MITx. Od dzisiaj na stronie mitx.mit.edu można zapisywać się na kurs 6.002x (Obwody i elektronika), który będzie prowadzony od 5 marca do 8 czerwca bieżącego roku. Uczestnicy kursu będą brali udział w wykładach dyrektora Laboratorium Nauk Komputerowych i Sztucznej Inteligencji profesora Ananta Agarwala, który w swojej pracy badawczej skupia się na zagadnieniach przetwarzania równoległego oraz chmur obliczeniowych i jest współzałożycielem wielu firm, w tym producenta wielordzeniowych procesorów - Tilera. Wykłady będzie prowadził też profesor Gerald Sussman, autor książki „Structure and Interpretation of Computer Programs“ uznawanej za jeden z najlepszych podręczników akademickich. Sussman jest też twórcą języka programowania Scheme, a jako naukowiec skupia się na zagadnieniach od sztucznej inteligencji, fizyki, układów chaotycznych po projektowanie superkomputerów. Trzecim wykładowcą będzie doktor Piotr Mitros, który pracował jako projektant w firmach Texas Instruments, Talking Lights oraz Rhytmia Medical. Kurs 6.002x posłuży do przetestowania platformy udostępniania online’owych wykładów oraz udoskonalania wykorzystywanych narzędzi. Pod koniec kursu uczestnicy spełniający określone kryteria otrzymają bezpłatny certyfikat jego ukończenia.
  10. Społeczeństwa Zachodu starzeją się. Oznacza to, że trzeba coraz więcej produktów projektować lub przeprojektowywać pod kątem użytkowania przez osoby starsze. Młodym ludziom trudno postawić się na ich miejscu i wyobrazić sobie, co czuje, chodząc, ktoś w wieku 75 lat. Ma w tym pomóc kombinezon AGNES (Age Gain Now Empathy System), który powstał w AgeLab MIT-u. Kombinezon oddający siłę, giętkość, zręczność oraz możliwości ruchowo-wzrokowe osoby w wieku siedemdziesięciu kilku lat powstawał pod czujnym okiem Josepha F. Coughlina. Aby oddać sztywność stawów i zmęczenie mięśni, zastosowano specjalne unieruchamiające szelki. Paski w okolicy nóg spowalniają chodzenie, a mocowania przy hełmie wymuszają przygarbienie. Na tym jednak nie koniec. Pojawiają się żółte okulary, które uniemożliwiają odczytanie małej czcionki i zatyczki do uszu. Studenci ubrani w AGNES zostali wysłani do sklepu spożywczego. Na półkach mieli znaleźć produkty często kupowane przez starszych ludzi. Okazało się, oczywiście, że wykonanie zadania sprawiło im sporo trudności.
  11. MIT ogłosił uruchomienie MITx, platformy interaktywnych kursów edukacyjnych. Jej użytkownicy będą mogli zdalnie korzystać z materiałów MIT-u, zajęć prowadzonych na tej uczelni, używać wirtualnych laboratoriów i kontaktować się z innymi studentami. Praca online’owych studentów będzie normalnie oceniania, a ci, którzy spełnią wymagania uczelni, otrzymają dyplom jej ukończenia. W początkowej fazie MITx ma być przeznaczona dla studentów z uczelnianego kampusu. Massachusetts Institute of Technology nie wyklucza jednak, że w przyszłości będą z niej korzystały miliony osób na całym świecie. MIT będzie ciągle rozwijał nowe narzędzia online’owej nauki i doskonalił te już istniejące. Nowa platforma powstała na bazie OpenCourseWare. To liczący sobie 10 lat program edukacyjny, w ramach którego MIT bezpłatnie publikuje niemal wszystkie swoje materiały. Obecnie w OpenCourseWare znajduje się niemal 2100 kursów, z których skorzystało dotychczas ponad 100 milionówosób. MIT ogłosił, że oprogramowanie MITx będzie bezpłatnie udostępniane, zatem swoje własne platformy będą mogły budować inne instytucje edukacyjne.
  12. Gdy profesor neurobiologii Dean Buonomano z Uniwersytetu Kalifornijskiego w Los Angeles (UCLA) zapoznał się z układem scalonym symulującym pracę synaps ludzkiego mózgu stwierdził, że reprezentowany przez chip poziom biologicznego realizmu jest zadziwiający. Naukowcy od dziesięcioleci próbują stworzyć układ scalony, który mógłby symulować ludzki mózg. Uczeni z MIT (Massachusetts Institute of Technology) dokonali olbrzymiego kroku naprzód. Zbudowali chip wykorzystujący około 400 tranzystorów, które symulują pracę pojedynczej synapsy. Każda z synaps w mózgu łączy ze sobą dwa neurony. Nasze mózgi posiadają około 100 miliardów neuronów, a każdy z nich tworzy liczne synapsy łączące go z wieloma innymi neuronami. Naturalna aktywność synaps jest zależna od kanałów jonowych, które kontrolują przepływ jonów sodu, potasu czy wapnia. Kanały te odgrywają również kluczową rolę w procesach długotrwałego wzmocnienia synaptycznego (LPT) oraz długotrwałego osłabienia synaptycznego (LTD). To pierwsze zachodzi pod wpływem krótkiego bodźca o wysokiej częstotliwości, natomiast LTD to wynik długotrwałego pobudzania niską częstotliwością. LPT i LTD są też związane, odpowiednio, z bardziej i mniej sprawnym transportem jonów. Naukowcy z MIT-u tak zaprojektowali swój układ, by tranzystory naśladowały zachowanie kanałów jonowych. Działanie poszczególnych tranzystorów jest uzależnione od potencjału płynącego prądu, tak, jak działanie kanałów jest zależne od częstotliwości sygnału. Możemy teraz naśladować każdy proces jonowy, który ma miejsce w neuronie - mówi Chi-Sang Poon, główny badacz z Harvard-MIT Division of Health Sciences and Technology. Już wcześniej symulowano pracę synaps, jednak nie były to symulacje oddające różnice w potencjałach. Jeśli naprawdę chcesz symulować funkcje mózgu, nie możesz ograniczyć się tylko do wysyłania sygnałów. Musisz naśladować cały proces międzykomórkowy, który opiera się na kanałach jonowych - dodaje Poon. Naukowcy z MIT-u chcą wykorzystać swój układ do symulowania konkretnych funkcji neuronów, jak np. sposobu przetwarzania obrazów. Obecnie symulacja prostych połączeń w mózgu zajmuje wydajnym komputerom całe godziny lub dni. Nowy analogowy chip będzie w stanie przetwarzać odpowiednie sygnały nawet szybciej niż prawdziwy system biologiczny. Niewykluczone też, że w przyszłości podobne układy scalone pozwolą np. na komunikację pomiędzy mózgiem a protezami, a w jeszcze bardziej odległej perspektywie staną się podstawą do stworzenia sztucznej inteligencji.
  13. Przez dziesięciolecia neurolodzy zastanawiali się, w jaki sposób mózg zapamiętuje wydarzenia potrafiąc uporządkować je w czasie. Teoretyzowano, że muszą istnieć jakieś "odciski czasowe" w mózgu, jednak nie udawało się na nie trafić. Odnalazł je zespół naukowców z MIT-u, pracujący pod kierownictwem profesor Ann Graybiel. W mózgu naczelnych odkryli grupy neuronów, odpowiedzialne za precyzyjne zapamiętanie czasu. Polega to na stawianiu 'pieczątki czasu' przy każdym wydarzeniu. Gdy chcemy sobie je przypomnieć, cofamy się przez te 'pieczątki', aż trafiamy na właściwą - mówi pani profesor. Precyzyjne kontrolowanie czasu jest potrzebne w codziennym życiu. Wykorzystujemy je jadąc samochodem czy grając na instrumentach. Służy też do zapamiętywania wydarzeń. Naukowcy nauczyli dwa makaki reagowania ruchami oczu na sygnał. Pozwolono im na wykorzystanie własnych czasów reakcji. Okazało się, że po sygnale poszczególne grupy neuronów aktywowały się w ściśle określonych, precyzyjnych odstępach: 100 milisekund, 110 milisekund, 150 ms itp. Neurony te zlokalizowane są w korze przedczołowym i prążkowiu, które odgrywają ważną rolę w kontroli uczenia się, poruszania i myślenia. Profesor Graybiel mówi, że prawdopodobnie w innych częściach mózgu również znajdują się neurony odpowiedzialne za tworzenie "pieczęci czasowych". Mamy receptory światła, dźwięku, dotyku, ciepła, gorąca i zapachu, ale nie mamy receptorów czasu. Ich funkcję spełnia mózg - stwierdził profesor Peter Strick z University of Pittsburgh. Przeprowadzenie badań było możliwe dzięki nowej metodzie rejestrowania sygnałów elektrycznych z setek neuronów oraz matematycznej analizie tych sygnałów. Profesor Graybiel ma nadzieję, że jej badania przyczynią się do opracowania metod leczenia osób z chorobą Parkinsona. Wydaje się bowiem, że ich mózgi mają problem z określaniem odstępów czasu. Trudno im nauczyć się rzeczy, które wymagają wyczucia czasu (np. tańca), a z drugiej strony rytmiczne stymulowanie, jak np. stukanie, pomaga im wypowiadać się bardziej płynnie.
  14. Aaron Swartz, 24-letni współzałożyciel popularnego serwisu Reddit, wpadł w poważne kłopoty. Grozi mu do 35 lat więzienia i milion dolarów grzywny za włamanie się do należącego do MIT-u archiwum JSTOR i kradzież olbrzymiej ilości danych. Swartz jest oskarżony o pobranie z serwerów MIT-u 4,7 miliona artykułów, recenzji książek i innych treści. Ponadto jego działanie spowodowało, że legalni użytkownicy mieli kłopot z dostaniem się do archiwum. Przestaliśmy pobierać pliki i zidentyfikowaliśmy odpowiedzialnego, pana Swartza. Zabezpieczyliśmy pobraną przez niego zawartość i otrzymaliśmy zapewnienie, że dane te nie zostały skopiowane ani przekazane dalej - oświadczyli przedstawiciele JSTOR. Swartz włamał się do szafy z okablowaniem w jednym z budynków MIT-u i podłączył tam laptop, na którym było oprogramowanie automatycznie logujące się do archiwum, pobierające dane i przesyłające je na założony w tym celu adres e-mail. Pracownicy uczelni, gdy zorientowali się w sytuacji, zablokowali IP z którego korzystał włamywacz. Swartz zmienił wówczas login i adres MAC, co pozwoliło mu kontynuowanie pobierania. Jego działalność spowodowała 100-krotny, w porównaniu z przeciętnym, wzrost obciążenia serwerów archiwum. Po kilkukrotnych próbach zablokowania włamywacza, podjęto decyzję o tymczasowym wyłączeniu archiwum dla wszystkich komputerów z kampusu MIT-u i dokładnym przyjrzeniu się sprawie. Informatycy nie byli jednak w stanie namierzyć włamywacza. W pewnym momencie widziano jednak Swartza jak wymieniał twardy dysk w komputerze, a kilka dni później wszedł do budynku w kasku motocyklowym, usunął laptopa ze wspomnianej szafy i zainstalował go w innym miejscu. Teraz grozi mu kilkudziesięcioletni wyrok więzienia. Aktualizacja: Pojawiły się informacje, jakoby MIT i JSTOR zrezygnowały ze ścigania Swartza uznając, że nie poniosły znacznych strat. Co więcej, zwróciły się one ponoć do prokuratury, by odstąpiła od oskarżenia. Podobno mężczyzna został zwolniony z aresztu za kaucją wynoszącą 100 000 dolarów. Co ciekawe, Swartz był jeszcze do wczoraj stypendystą Centrum Etyki im. Edmonda J. Safry na Uniwersytecie Harvarda. Jego stypendium dobiegło końca w ubiegłym miesiącu. W związku z włamaniem do MIT-u Universytet Harvarda poprosił Swartza o natychmiastowe opuszczenie swojego kampusu. W śledztwo w sprawie włamania zaangażowane jest też New England Electronics Crimes Task Force, w pracach którego biorą też udział agenci Secret Service.
  15. Najpopularniejszą techniką wykorzystywaną przy produkcji układów scalonych jest fotolitografia. problem jednak w tym, że długość fali światła ogranicza rozdzielczość tej techniki, a zatem ogranicza możliwości zmniejszania poszczególnych elementów. Tymczasem do produkcji prototypowych układów wykorzystywana jest litografia elektronowa, która pozwala na uzyskanie większej rozdzielczości. Jej wadą jest natomiast znacznie mniejsza prędkość pracy niż przy fotolitografii. Co prawda można ją przyspieszyć, ale kosztem zmniejszenia rozdzielczości. Dotychczas najdoskonalsza litografia elektronowa pozwalała na uzyskanie rozdzielczości rzędu 25 nanometrów, czyli niewiele większej od eksperymentalnej 32 nanometrów zaprezentowanej przez niektórych producentów urządzeń. Tymczasem w MIT Research Laboratory of Electronic zaprezentowano szybką litografię elektronową, która pozwala na uzyskanie rozdzielczości 9 nanometrów. W połączeniu w innymi właśnie powstającymi technologiami pozwala to mieć nadzieję, że w przyszłości metoda ta będzie wykorzystywana w masowej produkcji układów scalonych. Dotychczas rozdzielczość zwiększano stosując światło o coraz mniejszej długości fali. Pracuje się nad wykorzystaniem ekstremalnie dalekiego ultrafioletu. Jest to jednak trudne zadanie, gdyż konieczne jest dostosowywanie układów optycznych do coraz mniejszej długości fali, a same źródła takiego światła są bardzo mało wydajne. Litografia polega, w skrócie, na pokryciu plastra krzemu światłoczułym materiałem tzw. fotorezystem i naświetleniu go według odpowiedniego wzorca. Tam, gdzie światło pada na fotorezyst, materiał zostanie utwardzony. Następnie usuwamy warstwy utwardzone bądź nieutwardzone, tworząc w ten sposób schemat połączeń. Główna różnica pomiędzy litografią elektronową a fotolitografią jest taka, że w tej pierwszej metodzie układ scalony jest tworzony ścieżka po ścieżce, co wymaga bardzo dużo czasu. W fotolitografii światło pada przez odpowiednią maskę od razu na całą powierzchnię odpowiednio przygotowanego plastra krzemowego i za jednym razem tworzy wymagany wzór. Litografię elektronową można przyspieszyć jeśli spowodujemy, by na fotorezyst padało mniej elektronów. Jednak mniej elektronów oznacza mniejszą energię promienia, a elektrony o niższej energii ulegają większemu rozproszeniu i jest ono tym bardziej widoczne, im głębiej w fotorezyst wnikają. Dlatego też podczas litografii elektronowej używa się generalnie wyższych energii, co jednak skutkuje wolniejszą pracą. Magistraci Vitor Manfrinato, Lin Lee Cheong i Donald Winston we współpracy z profesorami Karlem Berggrenem i Henym Smithem, wykorzystali dwie sztuczki, które pozwoliły im na zmniejszenie energii strumienia elektronów. Po pierwsze użyli cieńszej warstwy fotorezystu, co zmniejszyło rozpraszanie elektronów, a po drugie wykorzystali roztwór... soli kuchennej do utwardzenia tych regionów fotorezystu, które otrzymały nieco większą dawkę elektronów. Obszary, do których dotarło nieco mniej elektronów nie uległy utwardzeniu. Profesor fizyki Pieter Kruit z Uniwersytetu Technologicznego w Delft i współzałożyciel firmy Mapper, która zbudowała system do litografii elektronowej składający się ze 110 równoległych źródeł elektronów, jest pod wrażeniem prac uczonych z MIT-u. Zauważa, że systemy o niższej energii są nie tylko szybsze, ale też mniejsze i łatwiejsze w budowie. W miarę zwiększania energii strumienia elektronów dochodzi się bowiem do takiego momentu, że całość staje się tak duża, a izolacji pomiędzy poszczególnymi elektrodami musi być tak wiele, że stworzenie takiego systemu jest niemożliwe. Kruit wątpi jednocześnie, czy producenci układów scalonych wykorzystają dokładnie taki fotorezyst, jaki powstał na MIT. Jego zdaniem jest on nieco zbyt czuły. Ilość energii dostarczanej do elektrod urządzeń litograficznych nieznacznie się waha i przy zbyt czułym fotorezyście wahania te będą widoczne w wielkości podzespołów powstających na układzie scalonym. „Ale to kwestia niewielkiej modyfikacji fotorezystu, a jego producenci cały czas wprowadzają takie modyfikacje" - zauważa Kruit.
  16. Nowa architektura baterii, którą opracowano na MIT (Massachussetts Institute of Technology) może pozwolić na stworzenie lekkich i tanich baterii dla samochodów elektrycznych, których ładowanie będzie przebiegało tak szybko i prosto jak napełnianie baku paliwem. Innowacyjna architektura to połączenie baterii przepływowych i baterii litowo-jonowych. Cząsteczki ciała stałego są w niej zawieszone w płynie i przepompowywane przez baterię. Te cząsteczki stanowią katodę i anodę. W nowej baterii dwie zasadnicze funkcje jakie spełniają tego typu urządzenia - przechowywanie energii i jej uwalnianie w razie potrzeby - zostały przeniesione do dwóch fizycznych różnych struktur. W konwencjonalnej baterii energia jest przechowywana i uwalniania w tej samej strukturze. Dzięki rozdzieleniu tych funkcji projekt baterii jest bardziej efektywny. Twórcy urządzenia, Mihai Duduta i Bryan Ho, którzy pracowali pod kierunkiem profesorów W. Craiga Cartera i Yet-Ming Chianga, mówią, że nowy typ baterii pozwala na stworzenie urządzeń dwukrotnie mniejszych niż obecne. To z kolei może pozwolić na stworzenie samochodów elektrycznych, które będą w pełni konkurencyjne do pojazdów na tracydyjne paliwa. Drugą niezwykle ważną cechą urządzeń jest możliwość wypompowywania zużytego płynu i wpompowania nowego, ewentualnie wymianę zbiorników z płynem przepływającym przez baterię. Oczywiście możliwe będzie również tradycyjne ładowanie baterii. Podobne baterie istnieją już od pewnego czasu, jednak charakteryzują się małą gęstością energetyczną, przez co są duże i wymają szybkiego pompowania płynu. Baterie z MIT-u z jednej strony oferują 10-krotnie większą gęstość energetyczną od innych baterii przepływowych, a z drugiej są tańsze w produkcji niż urządzenia litowo-jonowe. Dzięki dużej gęstości energetycznej, płyn nie musi być szybko przepompowywany. Nowe baterie przepływowe mogą być tanio i łatwo skalowane. Można je będzie zatem stosować zarówno w samochodach jak i dużych instalacjach energetycznych. Chiang dodaje, że urządzenie może posłużyć do powstania nowej klasy baterii, gdyż jego budowa nie jest w żaden sposób zależna od składników płynu przechowującego baterię. Obecnie młody uczony wraz z kolegami eksperymentują z różnymi „wsadami" do baterii. Yuri Gogotski, profesor na Drexel University mówi: Pokazanie litowo-jonowej baterii przepływowej to ważny przełom, który pokazuje, że tego typu aktywne materiały mogą być używane do przechowywania energii elektrycznej. Będzie to miało olbrzymie znaczenie dla przechowywania energii w przyszłości. Uczony dodaje, że musi zostać wykonanych jeszcze wiele badań, zanim nowe baterie trafią na rynek. Nie widzę jednak fundamentalnych problemów, który nie można będzie rozwiązać. To przede wszystkim problemy inżynieryjne. Oczywiście stworzenie baterii, która będzie konkurowała z obecnymi urządzeniami pod względem kosztów i wydajności z obecnymi może zająć całe lata - dodaje. Licencję na nową baterię ma firma 24M Technologies, którą Chiang i Carter założyli w ubiegłym roku wraz z przedsiębiorcą Throopem Wilderem. Firma zebrała już na dalsze badania 16 milionów dolarów od funduszy inwestycyjnych i budżetu federalnego.
  17. Bogaci przedsiębiorcy w USA często wspomagają finansowo uczelnie, które ukończyli. Jednak 81-letni Amar Bose, absolwent MIT-u, najwyraźniej doszedł do wniosku, że dotacja to zbyt mało i przekazał swojej alma mater... większość akcji Bose Corp., znanego producenta wysokiej jakości sprzętu nagłaśniającego. MIT stał się zatem większościowym właścicielem Bose, jednak na uczelnię nałożono spore ograniczenia. Akcje nie dają jej prawa głosu, nie mogą zostać sprzedane, a MIT nie może oddelegować swojego przedstawiciela do władz Bose. Uczelnia będzie jednak otrzymywała dywidendę odpowiednią do udziałów w firmie. Rzecznik prasowa Bose oświadczyła, że firma będzie pracowała tak, jak dotychczas. Amar Bose ukończył na MIT studia magisterskie i doktorskie. W latach 1956-2001 był wykładowcą tej uczelni. W roku 1964 założył Bose Corporation. Obecnie zatrudnia ona około 9000 osób i jest znanym producentem głośników, słuchawek, samochodowych systemów nagłaśniających oraz innych akcesoriów.
  18. Troje duńskich lekarzy - Louise Holmsgaard Färch, Christian Stevns Hansen i Peter Lommer Kristensen - postanowiło stawić czoło jednej z miejscowych legend miejskich, a mianowicie przekonaniu, że można się upić, wchłaniając alkohol przez stopy. Ich sprawozdanie z prowadzonego na sobie eksperymentu ukazało się nie byle gdzie, bo w bożonarodzeniowym British Medical Journal. Nie uwzględniono grupy kontrolnej, a średnia wieku wynosiła 32 lata (lekarze mieli od 31 do 35 lat). Nikt nie cierpiał na żadną chorobę skóry ani wątroby, nie było też uzależnionych od alkoholu czy narkotyków. Ochotnicy zanurzali stopy w misce wypełnionej zawartością trzech 700-ml butelek wódki; w sumie do naczynia trafiło więc 2100 ml wysokoprocentowego napoju. Przez trzy godziny co pół godziny mierzono stężenie etanolu w osoczu krwi (próg wykrywalności wynosił 10 mg/100 ml). Na skali od 0 do 10 przeprowadzano też samoocenę objawów upojenia: pewności siebie, przymusu mówienia oraz liczby spontanicznych uścisków. Okazało się, że w trakcie eksperymentu stężenie etanolu w osoczu utrzymywało się poniżej progu detekcji. Nie zaobserwowano też zmian w symptomach intoksykacji, chociaż pewność siebie i potrzeba mówienia nasiliły się nieco na początku. Wygląda jednak na to, że trzeba to złożyć na karb podniecenia związanego z rozpoczęciem badania i radosnego oczekiwania na wyniki. Wniosek? Stety lub nie, stopy są nieprzenikalne dla alkoholu, a zbyt długie ich moczenie może prowadzić jedynie do maceracji naskórka. Wódkę i inne trunki zaleca się zatem przyjmować via przewód pokarmowy.
  19. Całe współczesne budownictwo stoi na elemencie znanym już starożytnym Rzymianom: betonie. Od czasu wynalezienia cementu portlandzkiego niemal 200 lat temu niemal nic się w tej technologii nie zmieniło aż do dziś. Nie sposób wyobrazić sobie współczesnej cywilizacji bez cementu i nie sposób zmniejszyć na niego zapotrzebowania. Tymczasem, po elektrowniach, przemysł cementowy jest drugim największym producentem gazów cieplarnianych, odpowiadając za 5% światowej emisji dwutlenku węgla. To sprawia, że cementownie stają na celowniku inicjatyw proekologicznych i boleśnie odczuwają restrykcje w emisji gazów cieplarnianych. Żeby oszacować wpływ cementowni na środowisko dość powiedzieć, że wyprodukowanie każdej tony cementu uwalnia do atmosfery pół tony dwutlenku węgla (pochodzącego z reakcji rozkładu węglanu wapnia), niemal drugie tyle CO2 uwalniane jest w procesie podgrzewania półproduktów do temperatury ponad 1600º C. A zapotrzebowanie samych Chin to ponad miliard ton rocznie. Przez te lata niewiele podejmowano prób udoskonalenia receptury lub technologii, jedne z nielicznych to dodawanie żużlu (produktu ubocznego wytopu rud metali) lub popiołów (odpadu z elektrowni węglowych). Dopiero właśnie presja rozporządzeń proekologicznych skłoniła największych producentów na świecie do poszukiwania nowych rozwiązań i sformowania wspólnie z MIT (Massachusetts Institute of Technology) Concrete Sustainability Hub. Kristen Van Vliet, inżynier materiałowy rozpoczął od przeprowadzenia dokładnej analizy cementu, jego struktury, wiązań chemicznych, itd. Może się to wydawać nieco dziwne, ale do tej pory szczegółowych badań tego materiału nie prowadzono. Uczony wykorzystał aż tak zaawansowane narzędzia, jak mikroskop sił atomowych, żeby poznać ułożenie atomów poszczególnych pierwiastków wchodzących w skład cementu. Okazało się, że cement ma w istocie strukturę żelu, w którym wszystko trzyma się razem dzięki wodzie. Twardość i małą ściśliwość zawdzięcza on zaś temu, że molekuły wody nie mają możliwości zmiany swojego położenia. Uzyskane informacje Rouzbeh Shahsavari wykorzystał do stworzenia komputerowej symulacji, dzięki której można było „na sucho" przeanalizować dowolną ilość modyfikacji, zmian składu, itd. Obmyślone udoskonalenia były produkowane i sprawdzane w działaniu przez portugalską firmę CIMPOR, głównego sponsora badań. Rezultatem była znacząca zmiana technologii, dzięki której nowy rodzaj cementu osiąga maksymalną wytrzymałość znacznie mniejszym kosztem i - przede wszystkim - ze znacznie mniejszym obciążeniem dla środowiska. Dodatkowo nie potrzeba zmieniać składu, ani istniejącej infrastruktury. Autorzy uważają, że to wręcz przełom w tej dziedzinie, ale na razie nie ujawniają szczegółów, traktując je jako tajemnicę produkcyjną. Nie jest to jedyna próba udoskonalenia produkcji cementu podejmowana w ostatnich latach. Przykładowo angielska firma Novacem wytwarza cement, który twardniejąc pochłania dwutlenek węgla z atmosfery, redukując „ślad ekologiczny". Jak do tej pory jednak żadne z nowych rozwiązań nie wyparło niemaldwustuletniej technologii produkcji „portlandu", jak będzie tym razem - zobaczymy.
  20. Obecnie wykorzystuje się dwa sposoby pozyskiwania energii słonecznej. Jeden zakłada wykorzystanie ogniw fotowoltaicznych, które zamieniają ją w energię elektryczną, a drugi polega na podgrzaniu wody i albo uzyskaniu pary do obracania turbiny wytwarzającej elektryczność, albo użycia jej do ogrzewania budynków. Znana jest też teoretycznie metoda termochemiczna, jednak od kilkudziesięciu lat nikt nie potrafi jej wykorzystać. Zakłada ona przechwytywanie i przechowywanie energii w molekułach, które miałyby ją uwalniać na żądanie. Ma ona dwie kolosalne zalety; nie wymaga stosowania izolacji zapobiegającej niekontrolowanemu uwalnianiu się ciepła i pozwala przechowywać energię przez lata. Intensywne badania nad metodą termochemiczną prowadzono w latach 70. ubiegłego wieku, jednak nie potrafiono wówczas znaleźć cząsteczki, która pod wpływem światła słonecznego przełączałaby się w jeden stan i umożliwiałaby jego kontrolowane przełączenie do stanu pierwotnego, połączone z uwolnieniem przechowywanej energii. Dopiero w roku 1996 udało się znaleźć odpowiednią molekułę - fulwalen dirutenu. Niestety, zawierała ona rzadki i drogi ruten, nie nadawała się więc do powszechnego użycia. Ponadto nikt nie rozumiał, w jaki sposób działa, co z kolei uniemożliwiło znalezienie jej tańszego odpowiednika. Dopiero teraz naukowcom z MIT-u udało się odkryć zasadę działania wspomnianej cząstki. Dzięki temu możliwe będzie znalezienie jej tańszego zamiennika. Dotychczas wiedziano, że molekuła, pod wpływem światła słonecznego, przechodzi zmianę strukturalną i wchodzi na wyższy stan energetyczny, na którym może pozostać dowolnie długo. Pod wpływem ciepła lub katalizatora powraca do stanu pierwotnego, uwalniając energię cieplną. Uczeni z MIT-u dowiedzieli się obecnie, że istnieje też stan pośredni, który odgrywa zasadniczą rolę w całym procesie. Molekuła znajduje się w tym półstabilnym stanie podczas przejścia między oboma stanami stabilnymi. Tego się nie spodziewaliśmy - mówi profesor Jeffrey Grossman. Istnienie stanu przejściowego wyjaśnia, dlaczego molekuła jest tak bardzo stabilna, dlaczego cały proces jest odwracalny i dlaczego dotychczas nie udało się znaleźć zastępnika dla niej. Profesor Grossman dodaje, że gdyby wyprodukować z fulwalenu dirutenu paliwo do baterii przechowujących energię słońca, to mogłoby ono generować temperaturę nawet 200 stopni Celsjusza. To wystarczyłoby do ogrzania domów czy napędzenia silników elektrycznych. Grossman jest przekonany, że po przeprowadzeniu symulacji, badań i przejrzeniu bazy danych z dziesiątkami milionów molekuł uda się znaleźć tani zastępnik dla fulwalenu dirutenu. Przed naukowcami stoją jeszcze dwa najważniejsze zadania. Pierwsze, to opracowanie taniej metody syntetyzowania cząstki, która będzie miała takie właściwości jak fulwalen dirutenu oraz znalezienie katalizatora dla niej. Aby odpowiedzieć na te pytania Grossman chce nawiązać współpracę z Danielem Nocerą, o którego przełomowych badaniach informowaliśmy przed dwoma laty.
  21. Naukowcom z MIT-u udało się skopiować pomysł natury na przeprowadzanie fotosyntezy. Ich wynalazek już na etapie prototypu jest w stanie zamienić w energię elektryczną aż 40% energii padającego nań promieniowania słonecznego. To znacznie więcej niż najdoskonalsze obecnie konwencjonalne ogniwa fotowoltaiczne. Jednym z największych problemów związanych z pozyskiwaniem energii ze Słońca jest fakt, iż promieniowanie słoneczne niszczy wiele materiałów, przez co stopniowo tracą one swoje właściwości. Natura radzi sobie z tym w ten sposób, że przechwytujące światło molekuły ulegają rozbiciu, a następnie ponownie zostają złożone. Dzięki temu element światłoczuły jest ciągle odnawiany, charakteryzuje się zatem wysoką wydajnością. Michael Strano, profesor chemii z MIT-u mówi, że na pomysł naśladowania natury wpadł, czytając o biologii roślin. Byłem naprawdę pod wrażeniem tego, jak wydajny jest mechanizm naprawy roślin. W lecie, w pełnym słońcu liść z drzewa odtwarza swoje proteiny co 45 minut - mówi uczony. Strano postanowił znaleźć sposób na naśladowanie tego mechanizmu. Wraz ze swoim zespołem wyprodukował sztuczne fosfolipidy w kształcie dysku. Fosfolipidy te stanowiły podstawę dla innych, światłoczułych molekuł, nazwanych tutaj centrami reakcji. Gdy uderzył weń foton, uwalniały one elektron. Dyski z fosfolipidów były zanurzone w roztworze zawierającym nanorurki, w których spontanicznie się z nimi łączyły. Nanorurki utrzymywały dyski w uporządkowanym ułożeniu tak, że wszystkie centra reakcji były jednocześnie wystawione na działanie słońca. Nanorurki przewodziły pozyskane elektrony. Gdy do całości dodano surfaktant, cała struktura rozpadała się na swoje części składowe, tworząc zawiesinę. Z kolei po usunięciu surfaktantu - co uzyskiwano przepychając roztwór przez membranę - ponownie dochodziło do spontanicznego zorganizowania się wszystkich składowych w ogniwo fotowoltaiczne. Uczeni zbudowali prototyp według wcześniej opracowanych teoretycznych założeń. Badania wykazały, że po 14 godzinach pracy i ciągłego rozbijania oraz ponownego składania ogniwa, nie występuje żaden spadek jego wydajności. Teoretyczna wydajność takiego systemu jest bliska 100 procentom. Obecnie naukowcy szukają sposobu na zwiększenie w roztworze koncentracji struktur budujących ogniwo. Prototyp zawierał ich niewiele, dlatego też produkował bardzo mało elektryczności na jednostkę powierzchni.
  22. Komórki macierzyste mają być przełomem w medycynie, ale na razie problemem jest ich wytwarzanie. Istnieją sposoby na przemianę zwykłych komórek w macierzyste, ale modyfikowanie ich przy pomocy DNA stwarza ryzyko nowotworów. Być może lepsze okaże się RNA. Komórki macierzyste to komórki niedorosłe, które mogą potencjalnie przekształcić się w dowolny rodzaj tkanki. Opanowanie tego procesu pozwoliłoby na leczenie takich chorób jak alzheimer, cukrzyca, choroba Parkinsona, może nawet na regenerację uszkodzonych nerwów. Niestety, trudno znaleźć naturalne komórki macierzyste w wystarczających ilościach. Ok kilku lat znana jest metoda pozwalająca na przekształcenie dorosłych komórek skóry w komórki macierzyste. Dokonuje się tego poprzez wstrzykiwanie do wnętrza komórki odpowiednich genów, nośnikami fragmentów DNA, które nadpisuje genom komórki, są wirusy. Proces przeprogramowania oparty na DNA jest jednak ryzykowny, nieudany może grozić uszkodzeniem zapisu genetycznego i przemianę komórki w nowotworową. Istnieją też inne metody, naukowcy z Uniwersytetu Kyoto dokonali reprogramowania komórki przy pomocy jedynie czterech genów, udało się też z sukcesem przekształcić komórkę dostarczając bezpośrednio do jej wnętrza zamiast genów - gotowe białka. Wszystkie te technologie wymagają jednak długiego czasu i większych nakładów. Są zbyt drogie i zbyt mało wydajne, dlatego powszechnie wykorzystuje się wciąż reprogramowanie przy pomocy DNA. Potencjalnie istnieje inny sposób, pożądane geny można wstrzykiwać przy pomocy RNA. Naukowcy z Massachusetts Institute of Technology: Mehmet Fatih Yanik i Matthew Angel spróbowali wykorzystać messenger RNA (mRNA, RNA matrycowe) - cząstki, które przenoszą fragmenty DNA z informacjami wewnątrz komórki. Metoda ta napotkała jednak na poważną przeszkodę: wewnątrzkomórkowy system immunologiczny, który broni komórki przed infekcją wirusową. Obce fragmenty RNA są przez niego usuwane, jeśli zaś pojawia się ich zbyt wiele, komórka ulega apoptozie (śmierci samobójczej), aby uniknąć rozprzestrzeniania się infekcji. Yanik i Angel znaleźli na to sposób. Wiedząc, że niektóre wirusy potrafią omijać system obronny komórki, podpatrzyli i wykorzystali mechanizm, którym posługują się wirusy zapalenia wątroby typu C. Dzięki wstrzyknięciu małego interferującego RNA (siRNA) dało im się zablokować odpowiedź immunologiczną komórki i można było na dalszym etapie wprowadzić mRNA przekształcające komórkę z dorosłej w macierzystą. Tym samym Naukowcy MIT są pierwszymi, którym udało się dostarczenie odpowiednich genów przy pomocy mRNA. Technika ta jest bardzo obiecująca, ale przez badaczami jeszcze wiele pracy. Nie mogą na razie oficjalnie stwierdzić, że udało im się nową metodą przekształcić komórkę z dorosłej w macierzystą. Aby dowieść sukcesu, muszą skutecznie wyhodować w laboratorium większą ilość komórek i utrzymać je przez dłuższy czas. Jeśli technika ma mieć szanse na komercyjne zastosowanie, muszą jeszcze potwierdzić zdolność przekształcania się tak stworzonych komórek macierzystych w wybrane, konkretne tkanki. Świat medyczny jednak bez wątpienia czekać będzie z niecierpliwością na wyniki dalszych prac Yanika i Angela.
  23. Człowiek w pewnym wieku najbardziej chyba obawia się dwóch rzeczy: starzenia oraz alzheimera. Jak sugerują naukowcy z MIT, na obie te przypadłości wpływa ten sam gen: SIRT1. Stwarza to perspektywy znalezienia nowych metod leczenia tej strasznej choroby. Alzheimer objawia się demencją, utratą pamięci, otępieniem, spowodowanymi powolnym niszczeniem kory mózgowej przez odkładające się złogi z beta-amyloidów. Dokładna przyczyna choroby i znaczenie amyloidowych blaszek nie są znane, nie ma dotąd skutecznego lekarstwa na tę chorobę. Dzięki pracom badaczy z Massachusetts Institute of Technology może się to zmieni. Odkryli oni, że na proces powstawania chorobowych złogów ma wpływ gen SIRT1. SIRT1 dotychczas znany był ze swojego powiązania z procesem starzenia. Wytwarzane przez niego białka sirtuiny odpowiadają za regulowanie wielu procesów komórkowych, zwłaszcza związanych z reakcją na stres i utratą kalorii. Wersja tego genu występująca u drożdży (SIR2) reguluje ich długowieczność. W badaniach przeprowadzonych na MIT wykazano, że gen SIRT1 aktywuje produkcję enzymu tnącego białka APP (ang. amyloid precursor proteins, białka-prekursory amyloidu) na mniejsze nieszkodliwe fragmenty. Bez tego enzymu APP rozpadają się na peptydy A-beta, z których formują się później złogi blaszek amyloidowych. W doświadczeniach na modyfikowanych genetycznie myszach z objawami choroby Alzheimera wykazano, że zwiększona aktywność SIRT1 redukowała poziom szkodliwych peptydów i poprawiała sprawność intelektualną. Myszy z wyłączonym genem SIRT1 miały zwiększony poziom peptydów A-beta i nasilone objawy choroby. Odkrycie stwarza perspektywy na skuteczne leczenie choroby Alzheimera przez aktywowanie działalności genu SIRT1 i zwiększenie produkcji enzymu rozkładającego proteiny APP.
  24. W "Raporcie mniejszości" widzieliśmy Toma Cruise'a, który za pomocą gestów sterował obrazami na ekranie komputera. Idea takiego interfejsu zainspirowała specjalistów, którzy od lat prezentują najróżniejsze sposoby na sterowanie komputerem za pomocą gestów. Naukowcy z Massachusetts Institute of Technology pokazali właśnie banalnie prosty i tani system komunikowania się z maszyną dzięki gestom. Ich pomysł zakłada wykorzystanie tylko dwóch dodatkowych przedmiotów - standardowej kamery internetowej oraz... kolorowych rękawiczek z lycry, których cena produkcji nie przekroczy dolara. Inne tanie systemy zakładały np. użycie odbijającej światło taśmy, przylepionej do czubków palców. Jednak, jak mówią Robert Wang i Jovan Popović, twórcy nowego systemu z MIT-u, informacja zbierana jest w nich tylko z czubków palców i jest informacją dwuwymiarową. Użycie proponowanych przez Wanga i Popovicia rękawiczek odzwierciedla trójwymiarową budowę ludzkich dłoni i pozwala na przekazywanie informacji w trzech wymiarach. Najbardziej oczywistym zastosowaniem nowego interfejsu są gry komputerowe. Ich użytkownik mógłby brać i używać wirtualnych przedmiotów za pomocą gestów rąk. Niewykluczone jednak, że kolorowe rękawiczki uda się zastosować w wielu innych obszarach, gdzie konieczna jest manipulacja wirtualnymi trójwymiarowymi przedmiotami. Zaprojektowanie odpowiedniej rękawiczki nie było proste. Uczeni testowali różne kształty, kolory i rozkład barw. Ostatecznie najlepiej spisywały się rękawiczki pomalowane 10 kolorami, które komputer bardzo łatwo potrafi odróżnić zarówno od nich samych, jak i od tła w najróżniejszych warunkach oświetleniowych. Rozkład kształtów i kolorów dobrano tak, by jak najrzadziej dochodziło do pomyłek w ich interpretacji. Sercem całego systemu jest algorytm, który błyskawicznie przeszukuje bazę danych w poszukiwaniu informacji na temat zebranego obrazu. Po tym, jak kamera uchwyci widok dłoni, jest on natychmiast redukowany do obrazu o wymiarach 40x40 pikseli. Następnie alborytm przeszukuje bazę składającą się z olbrzymiej liczby najróżniejszych kombinacji. Gdy znajdzie właściwą, komputer otrzymuje informację, jaki układ dłoni odpowiada takiemu obrazowi. Cała operacja zajmuje ułamki sekundy, gdyż komputer nie musi za każdym razem samodzielnie wyliczać układu dłoni - korzysta z gotowej bazy danych. Taka baza jest olbrzymia - zajmuje setki megabajtów. Jednak dla współczesnych komputerów domowych, które przeciętnie korzystają z 4 gigabajtów RAM, nie powinno stanowić to większego problemu. Tym bardziej, że ilość RAM-u będzie rosła. Specjalistów zachwyciła elastyczność i prostota stystemu Wanga i Popovicia. Ludzie mają przecież różnej wielkości dłonie i siedzą w różnej odległości od komputera. Tymczasem kalibracja systemu wymaga zabiera około... 3 sekund. Wystarczy przed kamerą umieścić kartkę papieru A4 i na chwilę położyć na niej dłonie w rękawiczkach. Uczeni z MIT-u pracują obecnie nad podkoszulką, która pozwoli komputerowi na zbieranie informacji z ruchów tułowia.
  25. Yoel Fink, profesor materiałoznawstwa z MIT-u i główny naukowiec Laboratorium Badań nad Elektroniką MIT, od dawna uważał, że zarówno tradycyjne włókna, takie jak wełna czy poliester, jak i światłowody, są zbyt pasywne. Dlatego od 10 lat pracuje nad włóknami, które będą reagowały na środowisko. W sierpniowym numerze Nature Materials Fink i jego zespół zdradzają szczegóły włókien, które są w stanie wykryć i wytworzyć... dźwięk. Takie włókna pozwolą np. na wbudowanie w ubrania mikrofonów rejestrujących mowę czy monitorujących funkcje organizmu. Niewykluczone jest powstanie włókien mierzących ciśnienie w naczyniach włosowatych czy w mózgu. O ile standardowe światłowody uzyskuje się metodą wyciągania włókna z jednego rodzaju podgrzanego materiału i jego schłodzenie, to w metodzie Finka mamy do czynienia ze skrupulatnym składaniem włókien z różnych materiałów. Są one tak skonstruowane, by przetrwały proces podgrzewania i wyciągania bez zmiany swojego układu. Najważniejszym elementem nowego włókna jest tworzywo sztuczne takie, jak używane w mikrofonach. Uczeni tak zmanipulowali budową tego tworzywa, że nawet po podgrzewaniu i wyciąganiu zachowuje ono specyficzny układ atomów - z jednej strony znajdują się atomy fluoru, z drugiej wodoru. Dzięki tej asymetrii tworzywo jest piezoelektrykiem. W standardowym mikrofonie pole elektryczne generowane jest przez metalowe elektrody. Jednak w naszym przypadku odkształciłyby się one podczas wyciągania włókna. Dlatego też uczeni wykorzystali przewodzące tworzywo sztuczne zawierające grafit. Całość zachowuje po podgrzaniu wysoką lepkość, znacznie wyższą od metalu. To zapobiega mieszaniu się materiałów i zapewnia ich odpowiednią grubość. Już po wyciągnięciu włókna konieczne jest zorientowanie wszystkich molekuł w tym samym kierunku. W tym celu przykłada się do włókna bardzo silne pole elektryczne. Jego dodatkową zaletą jest fakt, że tam, gdzie włókno jest zbyt cienkie, powstaje łuk elektryczny, który niszczy materiał. Automatycznie zatem są wykrywane i usuwane wady włókna. Na razie nowe włókna powstają tylko w laboratorium. Ich wynalazcy nie wykluczają, że posłużą one też do generowania nie tylko dźwięku, ale i energii. Chcą też, by właściwości, do uzyskania których obecnie potrzeba dwóch materiałów, można było uzyskać z jednego. To uprości proces produkcyjny. Na razie uczeni niezaangażowani w prace MIT-u chwalą osiągnięcie swoich kolegów stwierdzając, że i tak znacząco uprościli proces tworzenia włókien z różnych materiałów, gdyż mogą je wyciągać w jednym przebiegu, zamiast w kilku i później składać włókno.
×
×
  • Dodaj nową pozycję...