Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'MIT' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 80 wyników

  1. Naukowcy z MIT-u w ramach projektu Mouseless stworzyli... niewidzialną myszkę komputerową. Wyeliminowali to urządzenie, ale jednocześnie umożliwili korzystanie z niego. Pranav Mistry, Liyan Chang i Pattie Maes opracowali laser na podczerwień oraz sprzężoną z nim kamerę, dzięki którym można sterować komputerem. Laser oświetla dłoń użytkownika tworząc na niej jasne punkty, a kamera rejestruje obraz, interpretuje ruchy dłoni i przekłada je na odpowiednie ruchy myszki. Kursor na ekranie reaguje tak, jakbyśmy naprawdę poruszali myszką. Niestety, naukowcy nie planują rynkowej premiery swojego wynalazku. Pracują obecnie nad jego ulepszeniem tak, by w przyszłości wykorzystać swoje doświadczenie podczas opracowywania systemu rozpoznawania gestów. To z kolei pozwoli na stworzenie znacznie doskonalszej niewidzialnej myszy, która nie będzie miała ograniczeń obecnie używanych myszek fizycznych. http://www.youtube.com/watch?v=yHGODp0b8Ks&hl=pl_PL&fs=1
  2. Podczas VLSI Circuits Symposium in Honolulu inżynierowie z MIT-u pokazali układ scalony, który przezwycięża jeden z ostatnich poważnych problemów związanych z wykorzystywaniem ultrakondensatorów. Dzięki ich pracom urządzenia takie mogą zastąpić baterie jako źródło zasilania elektroniki. Superkondensatory mają olbrzymie zalety w porównaniu z bateriami. Charakteryzuje je wysoka gęstość energetyczna, można je bardzo szybko ponownie ładować i wytrzymują niemal nieograniczoną liczbę cykli ładowania i rozładowywania. Jednak ich poważną wadą jest fakt, że w miarę rozładowywania ultrakondensatorów znacząco spada też napięcie. Gdy np. w kondensatorze pozostaje około 25% pierwotnej ilości energii, napięcie spada aż o 50%. To zdecydowanie zbyt dużo dla współczesnej elektroniki, która pracuje w wąskich zakresach napięcia, a duże spadki mogą oznaczać pojawienie się błędów np. podczas operacji zapisu/odczytu. Naukowcy z MIT-u wpadli na pomysł, w jaki sposób można wykorzystać niemal całą energię z ultrakondensatora, a jednocześnie nie dopuścić do dużych spadków napięcia. Opracowali oni układ scalony o wymiarach 1,3x1,4 milimetra, w którym zamknęli cztery 2,5 woltowe, 250-milifaradowe ultrakondensatory połączone równolegle. Gdy poziom energii w kondensatorach wyniesie 25% poziomu pierwotnego, a napięcie w każdym z nich spadnie do 1,25 V (co było punktem odniesienia), układ przekierowuje połączenia pomiędzy kondensatorami, tak, że tworzą one dwie pary urządzeń, dostarczając ponownie napięcia rzędu 2,5 volta. Oczywiście z czasem energia nadal jest zużywana, a napięcie spada. Jednak zaproponowane przez MIT rozwiązanie sprawa, że można zużyć aż 98% energii w superkondensatorze, a nie, jak dotychczas, tylko 75%. Po naładowaniu kondensatorów układ automatycznie zmienia połączenia między nimi tak, że ponownie pracują jak urządzenia niezależne. Do czasu, gdy pojawi się konieczność ponownego połączenia ich w pary. Teraz uczeni chcą zbudować małe wszczepiane urządzenie medyczne, które zamiast dotychczas wykorzystywanych baterii, będzie używało superkondensatorów.
  3. W niedalekiej przyszłości do sklepów mogą trafić baterie o pojemności nawet 10-krotnie większej niż dotychczas. Wszystko dzięki badaniom naukowców z MIT-u, którzy wykorzystali węglowe nanorurki drastycznie zwiększając pojemność baterii na jednostkę wagi. Zespół pracujący pod kierunkiem profesor Yang Shao-Horn i Pauli Hammond wykorzystał metodę produkcji elektrody warstwa po warstwie, w której materiał bazowy jest na zmianę zanurzany z roztworze zawierającym węglowe nanorurki potraktowane odpowiednim organicznym związkiem, który nadaje im ładunek negatywny lub pozytywny. Dzięki temu nanorurki tworzą ściśle przylegającą, stabilną i wytrzymałą warstwę. Nanorurki nie dość, że są porowate w bardzo małej skali to jeszcze mają wiele grup tlenowych, które mogą przechowywać olbrzymią liczbę jonów litu. To dzięki temu możliwe było gwałtowne zwiększenie pojemności baterii. Węglowe nanorurki wykazują też dużą stabilność. Badania pokazały, że po 1000 cyklach rozładowania/ładowania nie doszło do żadnego wykrywalnego zmniejszenia wydajności baterii. Naukowcy nie wykluczają, że ich wynalazek przyda się nie tylko do tworzenia niewielkich baterii dla urządzeń przenośnych, ale również trafi do akumulatorów samochodów elektrycznych. Profesor Hammond już pracuje nad przyspieszeniem produkcji nowej elektrody. Jej zdaniem, czasochłonną technikę naprzemiennego zanurzania w roztworze można będzie zastąpić techniką natryskiwania poszczególnych warstw.
  4. Picie kawy wcale nie otrzeźwia. W rzeczywistości upośledza tylko ocenę sytuacji przez sięgającego po nią lub napój energetyzujący człowieka. Pierwszy i najpoważniejszy problem polega na niemożności stwierdzenia, że alkohol nadal działa (Behavioural Neuroscience). Gdy dr Thomas Gould z Temple University i jego zespół prowadzili badania na myszach, po kofeinie gryzonie stawały się bardziej czujne, co jednak nie usuwało wywołanych przez procenty zaburzeń świadomości, m.in. upośledzenia zdolności do unikania rzeczy, które mogą wyrządzić krzywdę. Mit o mocach wytrzeźwieniowych kawy należy czym prędzej obalić, ponieważ łączne spożywanie kawy i alkoholu może w rzeczywistości prowadzić do podejmowania złych decyzji i katastrofalnych skutków. Odczuwający zmęczenie i zamroczenie ludzie, którzy pili tylko alkohol, mogą być bardziej skłonni do przyznawania, że są pijani. Dla odmiany osoby łączące małą czarną i drinki czują się przytomniejsze i na tyle sprawne, by dać sobie radę w potencjalnie niebezpiecznych sytuacjach, np. podczas jazdy samochodem czy w konfrontacji z określonymi sytuacjami społecznymi. Amerykanie sprawdzali, jak myszy radzą sobie z przebyciem labiryntu i unikaniem nieprzyjemnych bodźców po spożyciu alkoholu, kofeiny bądź jednego i drugiego. Okazało się, że pijane gryzonie były bardziej ruchliwe i pewne siebie, ale miały problem z nauczeniem się unikania nieprzyjemności. Zwierzęta, którym podano odpowiednik 6-8 kaw dla ludzi, stały się bardziej lękliwe, mniej się przemieszczały i gorzej uczyły. Po podaniu alkoholu i kofeiny, naukowcy zauważyli, że alkohol eliminuje wywoływaną przez kofeinę ostrożność/lęk, ale nie zanika związana z upojeniem obniżona zdolność uczenia. Przez to zwierzęta uspokajały się, ale nie umiały unikać zagrożeń. Po alkoholowo-kawowym koktajlu ludzie czują się niemal trzeźwi i zdolni do prawie normalnego funkcjonowania, ale jak wiadomo – prawie robi wielką różnicę...
  5. Komputery powstały po to, by dać odpowiedzi na trudne logiczne pytania. I przez dziesięciolecia służyły właśnie temu celowi - precyzyjnemu rozwiązywaniu zadań. W ostatnim czasie sytuacja się jednak zmienia i coraz częściej jesteśmy skłonni poświęcić precyzję na rzecz prędkości. Przykładem niech będzie sposób działania wyszukiwarek. Rezultaty uzyskane z Google'a czy Yahoo! nie są najbardziej precyzyjne z możliwych, jednak internauci wolą szybko uzyskać nieco mniej dokładną odpowiedź, niż dłużej czekać na najlepszą z możliwych. Stąd też np. dokładna kolejność pierwszych kilku czy kilkunastu wyników wyszukiwania nie jest ważna. Grupa badaczy z MIT-u pracująca pod kierunkiem profesora Martina Rinarda postanowiła wykorzystać takie podejście i stworzyła system automatycznie wyszukujący w kodzie komputerowym miejsc, w których nieco dokładności może zostać poświęconej na rzecz znacznego przyspieszenia pracy programu. Udało im się osiągnąć zadziwiające rezultaty. Podczas testów skrócili o połowę czas potrzebny do zakodowania transmisji wideo w celu przesłania jej przez sieć. Jakość obrazu pozostała przy tym niezmieniona. Takie samo podejście może zostać wykorzystane wszędzie tam, gdzie konieczne jest przetwarzanie danych w czasie rzeczywistym, a więc np. w oprogramowaniu do analiz giełdowych czy systemach śledzenia i monitorowania wykorzystujących sieci czujników. Opracowany przez zespół Rinarda system może działać dwojako. Potrafi wskazać programiście te miejsca kodu, w których możliwe jest poświęcenie precyzji na rzecz prędkości. Jest też w stanie samodzielnie dokonać odpowiednich zmian. Przykładem takiego zastosowania niech będzie wideokonferencja przeprowadzana z użyciem laptopa. Gdy program do konferencji jest jedynym uruchomionym na maszynie, kodowanie sygnału wideo może odbywać się tradycyjnymi metodami. Jeśli jednak komputer wykonuje jednocześnie inne zadania, mógłby automatycznie przełączać kodowanie w tryb wymagający zużycia mniej mocy procesora. Uczeni z MIT-u wykorzystali bardzo prosty trick. Rozbudowane programy komputerowe wykorzystują liczne pętle, czyli wielokrotnie powtarzane procesy. Rinard oraz współpracujący z nim naukowcy Stelios Sidiroglou-Douskos, Hank Hoffman i Sasa Misailovic nazwali swoją technikę "perforacją pętli". Polega ona na "wybijaniu dziur" w pętlach, co po prostu polega na pomijaniu pewnych kroków w pętli. System automatycznie ocenia, ile takich kroków można pominąć by znacząco przyspieszyć pracę programu, a jednocześnie nie poświęcić zbyt wiele z precyzji jego działania. Sam system opracowany przez grupę Rinarda jest pętlą - przeszukuje on program, "wybija" w nim dziury, a następnie uruchamia program i wylicza, jak jego działanie wpłynęło na wydajność programu. Następnie oceniane jet, która z "perforacji" najlepiej wpływa na zwiększenie wydajności, a jednocześnie oznacza najmniejsze straty w precyzji. Pomysł uczonych z MIT-u jest niezwykle prosty, a jednocześnie zapewnia olbrzymi wzrost wydajności. Jednocześnie jest sprzeczny z intuicją programistów, którzy starają się udoskonalać swój kod, a teraz słyszą, że mogą część swojej pracy wyrzucić do kosza, a jednocześnie nie poświęcą zbyt dużo z precyzji działania programu.
  6. Studium Mathilde Beaulieu-Lefebvre z Uniwersytetu Montrealskiego obaliło mit o wyostrzonym zmyśle powonienia osób niewidomych. Okazuje się, że niemożność posługiwania się wzrokiem sprawia, iż ludzie po prostu zwracają większą uwagę na to, jak postrzegają zapachy. Jeśli wejdziesz do pomieszczenia, gdzie zaparza się kawę, szybko spojrzysz na ekspres. Wchodząc do tego samego pokoju, osoba niewidoma uzyska informację jedynie w postaci zapachu kawy. Z tego powodu woń stanie się bardzo ważna dla jej przestrzennej reprezentacji [otoczenia]. W 3-etapowym badaniu wzięło udział 25 ludzi, w tym 11 niewidomych od urodzenia. Wszyscy wypełniali kwestionariusz i byli angażowani w 2 eksperymenty. W pierwszym za pomocą olfaktometru mieli rozróżnić 16 zapachów perfum, w drugim, leżąc w specjalnym urządzeniu do obrazowania tomodesytometrze, mieli zidentyfikować trzy wonie: róży, wanilii oraz butanolu. Prof. Maurice Ptito, opiekun naukowy Beaulieu-Lefebvre, uznaje teorię o dokładniejszym zmyśle powonienia niewidomych za jeden z tzw. miejskich mitów. Przyznaje jednak, że ociemniali przewyższają widzących pod względem nakładów poznawczych, przeznaczanych do rozpoznania zapachu. Dzięki obrazowani funkcjonalnemu Kanadyjczycy ustalili, że ludzie niewidomi intensywniej używają wtórnej kory węchowej (haka i kory śródwęchowej), poza tym posługują się korą potyliczną, która w zwykłych okolicznościach realizuje funkcje związane z widzeniem. W przypadku tej ostatniej Ptito mówi o swego rodzaju recyklingu, gdzie część mózgu jest reorganizowana i wykorzystywana w inny niż pierwotnie pomyślano sposób. Beaulieu-Lefebvre już planuje programy adaptacyjne dla ociemniałych. Wspomina m.in. o centrach handlowych, gdzie każdy dział czy sklep ma swój unikatowy zapach. Specjalnie opracowana metoda pozwoliłaby niewidomym orientować się w takich miejscach.
  7. Jedną z metod przechowywania i zamieniania energii słonecznej na użyteczne paliwo, jest jej wykorzystanie do rozłożenia wody na tlen i wodór. Zespół profesor Angeli Belcher z Massachusetts Institute of Technology, opracował nowatorską wydajną metodę produkcji energii ze Słońca. Uczeni całkowicie pominęli proces pośredni, czyli wyłapywanie energii przez panele słoneczne. Zamiast nich wykorzystali genetycznie zmodyfikowane nieszkodliwe wirusy M13, których zadaniem jest związanie molekuł katalizatora (tlenek irydu) i biologicznego pigmentu (porfiryny cynkowe). W efekcie wirusy tworzą długie łańcuchy, które bardzo skutecznie rozbijają wodę na tlen i wodór. Z czasem jednak takie łańcuchy zbijałyby się w grupy i traciły na efektywności. dlatego też uczeni zamknęli je w kapsułach z żelu, dzięki którym utrzymywały efektywność i stabilność. Profesor Belcher już wcześniej próbowała wykorzystywać materiał roślinny do przeprowadzania podobnych operacji, jednak okazał się on bardzo niestabilny. Dlatego też postanowiła skorzystać nie z samego materiału, a z wykorzystywanych przez rośliny metod. W roślinach pigmenty absorbują światło, a katalizator jest wykorzystywany do przeprowadzenia reakcji. W metodzie MIT-u wirusy są wykorzystywane jako rodzaj rusztowania dla pigmentu i katalizatora tak, by dochodziło do absorpcji światła oraz reakcji. Pigment działa jak antena przechwytująca światło. Następnie energia jest transportowana po łańcuchu wirusów - wyjaśnia Belcher. Dzięki odpowiedniej konfiguracji wszystkich elementów udało się, w porównaniu do podobnych metod, czterokrotnie zwiększyć wydajność systemu. Uczeni pracują teraz nad drugim elementem systemu. Obecnie bowiem wodór jest rozbijany na protony i elektrony. Naukowcy chcą opracować sposób na to, by ponownie się one połączyły. Poszukiwany jest też tańszy i łatwiej dostępny zamiennik dla rzadkiego irydu, który został wykorzystany podczas wstępnych prac. Profesor Thomas Mallouk z Pennsylvania State University chwali osiągnięcia swoich kolegów z MIT-u. Dodaje przy tym, że nowy system, by móc konkurować z obecnie używanymi technologiami pozyskiwania energii ze Słońca, musi być 10-krotnie bardziej wydajny od naturalnej fotosyntezy, powinien wykorzystywać tańsze materiały, a reakcja musi być powtarzalna miliardy razy. Tak daleko idącego udoskonalenia nowego systemu nie należy się spodziewać w najbliższej przyszłości. Jednak pomysł ten może być decydującym elementem, który pomoże projektować takie systemy - dodał Mallouk. Profesor Belcher nie chciała nawet spekulować na temat daty rynkowej premiery nowej technologii. Stwierdziła jedynie, że w ciągu najbliższych dwóch lat chciałaby skonstruować prototypowe urządzenie, które będzie wykorzystywało opracowany przez jej zespół proces.
  8. Zespół profesora Yang Shao-Horna z MIT-u, który specjalizuje się w badaniach nad bateriami litowo-powietrznymi, dokonał bardzo ważnego odkrycia dającego nadzieję, że na rynek trafią baterie o największej dostępnej gęstości mocy. Baterie litowo-tlenowe korzystają z lekkich porowatych elektrod węglowych oraz powietrza atmosferycznego, dzięki czemu są znacznie lżejsze niż dominujące obecnie na rynku baterie litowo-jonowe. W swoim najnowszym artykule, który ukazał się w Electrochemical and Solid-State Letters, zespół Shao-Horna oraz współpracujący z nimi profesor Hubert Gasteiger donoszą, iż elektrody ze złota lub platyny są znacznie bardziej aktywne, niż elektrody węglowe. Pozwalają zatem na osiągnięcie wyższej wydajności. Badania uczonych z Massachusetts Institute of Technology kładą podstawy pod dalsze badania nad bateriami litowo-powietrznymi i mogą doprowadzić do powstania znacznie lepszych elektrod niż dotychczas. Naukowcy poinformowali o opracowaniu metody oceny aktywności różnych katalizatorów, co pozwoli na badania nad różnymi materiałami. Będą mogli określić warunki, jakie powinien spełniać pożądany katalizator i przewidzieć zachowanie różnych materiałów. Technologia litowo-powietrzna daje nadzieję na stworzenie baterii, które będą znacznie bardziej pojemne, a przy tym lżejsze niż urządzenia, z jakich obecnie korzystamy. Na drodze do ich skomercjalizowania pozostało jednak jeszcze tak wiele przeszkód, że, zdaniem niektórych specjalistów, nie trafią one na rynek szybciej niż za 10 lat.
  9. Większość polimerów to dobre izolatory zarówno dla energii elektrycznej, jak i cieplnej. Naukowcom z MIT-u (Massachusetts Institute of Technology) udało się tak zmienić polietylen - najpopularniejszy z polimerów - że zaczął przewodzić ciepło lepiej niż wiele metali. Pozostał przy tym izolatorem dla elektryczności. Bardzo ciekawą właściwością nowego polietylenu jest fakt, iż przewodzi on ciepło tylko w jednym kierunku. Dzięki temu możne znaleźć zastosowanie tam, gdzie potrzebne jest efektywne odprowadzanie energii cieplnej, czyli np. w urządzeniach chłodzących podzespoły komputerowe. Kluczem do sukcesu było ułożenie molekuł polimeru w jednej linii. Zwykle tworzą one chaotyczną splątaną warstwę. Dokonano tego dzięki powolnemu wyciąganiu włókna polietylenowego z roztworu za pomocą końcówki mikroskopu sił atomowych. Posłużyła on jednocześnie do sprawdzenia właściwości włókna. Badania wykazały, że tak produkowane włókno przewodzi ciepło aż 300-krotnie lepiej od zwykłego polietylenu. Przewyższa pod tym względem połowę metali, w tym żelazo czy platynę. Profesor Gang Chen, szef zespołu badawczego zapewnia, że po udoskonaleniu techniki uda się uzyskać jeszcze lepsze właściwości. Nowy polimer przyda się wszędzie tam, gdzie potrzebujemy dobrego jednokierunkowego przewodnictwa cieplnego. Jeśli dodamy do tego, że polietylen niewiele waży, jest dobrym izolatorem elektrycznym oraz wykazuje stabilne właściwości chemiczne, to pole jego zastosowań znacznie się zwiększy. Wszystko zależy oczywiście od tego, czy uda się opracować tanie techniki masowej produkcji nowego materiału.
  10. Kontrolowanie rozprzestrzeniania się cieczy po powierzchniach jest niezwykle ważne zarówno podczas tworzenia mikromacierzy DNA, w drukarkach atramentowych czy systemach lab-on-chip. Dotychczas jednak uczeni potrafili kontrolować ilość rozprzestrzeniającej się cieczy, ale nie kierunek jej wędrówki. Badacze z MIT-u (Massachusetts Institute of Technology) zaproponowali nową technikę, dzięki której możliwe jest zmuszenie kropli, by przesuwała się tylko w określonym kierunku. Okazało się, że utworzenie miniaturowych struktur na powierzchni, wymusza na kroplach ruch w określonym kierunku. System opracowany przez profesor Evelyn N. Wang i studentów Kuang-Han Chu i Rong Xiao jest całkowicie pasywny. Miniaturowe struktury na powierzchni powodują, że kropla może poruszać się tylko w jednym kierunku. Wystarczy umieścić ją na odpowiednio przygotowanej powierzchni, by rozpoczęła wędrówkę. Uczeni z MIT-u umieścili na krzemie małe krzemowe włókna, które z jednej strony pokryto złotem, by zgięły się w konkretnym kierunku. Naukowcy, chcąc udowodnić, że ruch kropli jest wywołany tylko i wyłącznie odpowiednim ukształtowaniem powierzchni, a nie jakąś reakcją chemiczną zachodzącą pomiędzy złotem a krzemem, użyli polimeru do pokrycia testowanej powierzchni, dzięki czemu woda miała kontakt tylko z jednym rodzajem materiału. Także i wówczas kropla poruszała się w określonym kierunku. Profesor Wang zauważa, że co prawda badania jej zespołu znajdują się w bardzo wczesnym stadium, ale znajdą zastosowanie zarówno w mikrobiologii, systemach testujących, urządzeniach odsalających wodę czy chłodzących układy scalone.
  11. Naukowcy z Uniwersytetu w Pittsburghu obalili powtarzany od setek lat mit, jakoby Kartagińczycy regularnie składali niemowlęta w ofierze. Po zbadaniu szczątków dzieci antropolodzy stwierdzili, że większość z nich zmarła jeszcze w łonie matki lub tuż po urodzeniu, a więc zbyt szybko, by można je było poświęcić (PLoS ONE). Specjaliści jako pierwsi przeanalizowali szkielety z 348 kartagińskich urn. Zespół profesora Jeffreya H. Schwartza przekonuje, że małe dzieci były kremowane i chowane w urnach bez względu na przyczynę śmierci. Antropolog podkreśla, że analizując jakieś zachowanie z zamierzchłej przeszłości, trzeba wziąć pod uwagę wszystkie dowody. Pomysł dotyczący regularnego poświęcania niemowląt w Kartaginie nie jest oparty na studium skremowanych szczątków, ale na przypadkach poświęcania ludzi, opisanych przez kilku starożytnych kronikarzy, wnioskach wyciąganych z dwuznacznych kartagińskich inskrypcji oraz odniesieniach ze Starego Testamentu. Nasze wyniki pokazują, że niektóre dzieci rzeczywiście składano w ofierze, ale przeczą twierdzeniu, że Kartagińczycy byli brutalami systematycznie poświęcającymi swoich najmłodszych obywateli. Schwartz współpracował z Frankiem Houghtonem z Veterans Research Foundation of Pittsburgh, Roberto Macchiarellim z Narodowego Muzeum Historii Naturalnej w Paryżu oraz Luca Bondiolim z Narodowego Muzeum Prehistorii i Etnografii w Rzymie. Razem badali oni pozostałości dzieci pogrzebanych w tofetach położonych na obrzeżach nekropolii przeznaczonych dla dorosłych i starszych dzieci. Nazwa "tofet" pochodzi z hebrajskiego i oznacza poświęcone bogom miejsce palenia. Ponieważ w zgromadzonych tam urnach znajdowały się szczątki małych dzieci i zwierząt, założono, że były zarezerwowane właśnie dla ofiar rytuałów. Członkowie międzynarodowej ekipy zajęli się 348 urnami. Skupili się na markerach rozwojowych, by w ten sposób określić wiek maluchów w chwili śmierci. Schwartz i Houghton przeprowadzili zatem pomiary czaszki, bioder, zębów i kości długich, które wskazywały, że większość dzieci zmarła w pierwszym roku życia, a spora ich liczba nawet między 2. a 5. miesiącem życia. Poza tym co najmniej 20% stanowiły zgony prenatalne. Następnie tandem wytypował 50 osób zmarłych przed narodzeniem albo tuż po nim i wysłał próbki do Macchiarellego i Bondiolego, by ci zbadali linię neonatalną. Tworzy się ona we wszystkich zębach mlecznych w okresie pomiędzy przerwaniem produkcji szkliwa przy urodzeniu a wznowieniem w trakcie pierwszych dwóch tygodni życia. Identyfikacja linii pozwala ustalić wiek niemowlęcia w momencie śmierci. Jako że znaleziono ją tylko u 24 jednostek, oznacza to, że reszta (26) zmarła w okresie prenatalnym albo w ciągu 2 tygodni po urodzeniu. Również zawartość urn nie potwierdza założenia o masowym zabijaniu dzieci. Żadna z urn nie zawierała bowiem materiału kostnego, który sugerowałby obecność więcej niż dwóch całych osób. W niektórych znajdowały się co prawda dodatkowe fragmenty, ale naukowcy sądzą, że to raczej skutek przypadkowego zmieszania kości z kolejnych kremacji. Zespół rozprawił się też z rzekomym zamiłowaniem Kartagińczyków do poświęcania pierworodnych synów. Gdy określono płeć dzieci, okazało się, że większość kości z próby należała do osób płci żeńskiej (38 miednic należało z pewnością do kobiet, których wcięcie kulszowe jest płytkie i szerokie, a 26 do mężczyzn, których wcięcie kulszowe jest głębokie oraz wąskie; przy pozostałych 6 naukowcy mieli wątpliwości).
  12. Pomimo gwałtownego rozwoju techniki tworzone przez nas urządzenia są pod wieloma względami niezwykle prymitywne w porównaniu z tym, co stworzyła natura. Dlatego też Rahul Sarpeshkar z MIT-u próbuje stworzyć podstawy projektowe dla przyszłych elektronicznych obwodów scalonych wzorując się na komórkach ludzkiego ciała. Pojedyncza komórka jest bowiem 10 000 razy bardziej wydajna energetycznie niż jakikolwiek współczesny tranzystor. Dość wspomnieć, że w każdej sekundzie w komórce dochodzi do około 10 milionów reakcji chemicznych, które w sumie zużywają około pikowata energii. Sarpeshkar jest autorem właśnie wydanej książki Ultra Low Power Bioelectronics, w której podkreśla podobieństwa pomiędzy reakcjami chemicznymi w komórce, a przepływem prądu w obwodzie scalonym. Opisuje też, w jaki sposób komórka może przeprowadzać wiarygodne obliczenia korzystając z niedoskonałych "podzespołów" i zmagając się z zakłócającym szumem. Autor proponuje uczyć się od natury. Dzięki temu, jego zdaniem, będzie można wyprodukować bardzo wydajne procesory graficzne dla telefonów komórkowych czy wszczepiane do mózgu implanty pozwalające niewidomym odzyskać wzrok. Sarpeshkar ma wieloletnie doświadczenie w projektowaniu energooszczędnych obwodów scalonych oraz układów biomedycznych. W ubiegłym roku stworzył energooszczędny układ radiowy, który naśladuje budowę ślimaka w ludzkim uchu. Układ potrafi przetwarzać sygnały z internetu, telefonu komórkowego, radia czy telewizora znacznie szybciej i przy mniejszym użyciu energii niż było to wcześniej możliwe. Teraz naukowiec przechodzi z elektroniki neuromorficznej do cytomorficznej. Z przeprowadzonych przez niego analiz wynika bowiem, że równania opisujące dynamikę reakcji chemicznych i przepływ elektronów przez obwody analogowe są niezwykle do siebie podobne. Prace Sarpeshkara mogą mieć kapitalne znaczenie dla przyszłości. Jednym z możliwych pól ich zastosowań jest, zaprezentowane podczas konferencji 2009 IEEE Symposium on Biological Circuits and Systems, stworzenie obwodów scalonych modelujących dowolną sieć denów. Sarpeshkar zaprojektował obwód, który umożliwia przeprowadzenie symulacji pracy dowolnej sieci genów na układzie scalonym.
  13. Naukowcy z MIT-u zaprezentowali pierwszy laser z germanu, który generuje fale światła o długości przydatnej w komunikacji. To jednocześnie pierwszy laser germanowy działający w temperaturze pokojowej. German, w przeciwieństwie do wielu innych materiałów, może być łatwo wykorzystany we współczesnym przemyśle półprzewodnikowym. Ponadto, co niezwykle ważne, skonstruowanie wspomnianego lasera dowodzi, że, wbrew wcześniejszym przewidywaniom, półprzewodniki z pośrednim pasmem wzbronionym mogą posłużyć do produkcji laserów. To niezwykle ważny krok w kierunku budowy komputerów przesyłających dane, a niewykluczone że i dokonujących obliczeń, za pomocą światła w miejsce elektryczności. Rosnąca wydajność obliczeniowa układów scalonych oznacza, że pomiędzy poszczególnymi komponentami komputera trzeba przesyłać coraz więcej danych. Wykorzystywanie do tego celu prądu elektrycznego ma tę wadę, że im szybciej chcemy przesłać informacje, tym więcej energii musimy zużyć. Znacznie bardziej wydajną metodą jest użycie światła, jednak tutaj pojawia się konieczność opracowania taniego sposobu integracji podzespołów optycznych i elektronicznych w jednym układzie scalonym. Wprowadzenie każdego nowego rodzaju podzespołów do układu scalonego to poważne wyzwanie. Trzeba bowiem znaleźć taki materiał, który pozwala na wyprodukowanie pożądanego podzespołu o potrzebnych właściwościach, a który jednocześnie dobrze wiąże się chemicznie z warstwami układu scalonego znajdującymi się pod nim i nad nim. Ponadto proces nakładania nowego podzespołu musi odbywać się w temperaturach i środowisku chemicznym odpowiednich dla innych materiałów tworzących układ scalony. Wiele takich materiałów źle "współpracuje" z krzemem, dlatego np. proces umieszczania w chipie laserów z arsenku galu jest bardzo skomplikowany i kosztowny. Tymczasem techniki pracy z germanem są dobrze poznane, znacznie prostsze i tańsze. German wykorzystywany jest od lat przez większość producentów półprzewodników. Służy on do produkcji rozciągniętego krzemu, w którym elektrony poruszają się szybciej, niż w zwykłym krzemie. We współczesnej elektronice wykorzystywane są takie półprzewodniki jak krzem, german czy arsenek galu. Ten ostatni jest materiałem o bezpośrednim paśmie wzbronionym. W środowisku naukowym krążyła opinia, że materiały z pośrednim pasmem wzbronionym nigdy nie wygenerują światła laserowego - mówi Jurgen Michel z Electronic Materials Research Group, który brał udział w opracowaniu germanowego lasera. Tego uczą w szkole - wtóruje mu profesor Lionel Kimerling, szef grupy badawczej. Dzieje się tak dlatego, gdyż w półprzewodniku elektron znajdujący się w paśmie przewodzenia może przyjąć jeden z dwóch stanów. W jednym z nich uwalnia energię w postaci fotonu, w drugim - w inny sposób, np. w postaci ciepła. W materiałach o bezpośrednim paśmie wzbronionym stan, w którym emitowany jest foton, jest niższym stanem energetycznym. W półprzewodnikach o paśmie pośrednim, niższym stanem jest drugi z nich. Tak więc w sposób naturalny elektron emituje foton tylko w półprzewodnikach o paśmie bezpośrednim. Naukowcom z MIT-u udało się jednak zmusić elektrony germanu do przejścia w wyższy, emitujący fotony, stan energetyczny. Jedna z metod to wzbogacenie kryształu germanu o fosfor, który posiada pięć zewnętrznych elektronów, podczas gdy german ma ich cztery. Każdy atom fosforu daje zatem jeden dodatkowy elektron, który wypełnia niższy stan energetyczny powodując, że pobudzone elektrony germanu pozostają w stanie wyższym i emitują foton. Z wyliczeń uczonych wynika, że optymalny poziom domieszkowania germanu wynosi 1020 atomów fosforu na każdy centymetr sześcienny germanu. Obecnie udało im się opracować technologię, pozwalającą na domieszkowanie na poziomie 1019 i już zaobserwowano emisję światła laserowego. Drugim sposobem na zmuszenie elektronów germanu do przyjęcia wyższego stanu energetycznego jest zmniejszenie różnicy pomiędzy stanem wyższym a niższym, co zwiększa prawdopodobieństwo, iż elektrony znajdą się w wyższym stanie. Aby tego dokonać, uczeni rozciągnęli german umieszczając go w podwyższonej temperaturze na krzemie. Po schłodzeniu krzem nie skurczył się, a stygnące atomy germanu, próbując dopasować się do atomów krzemu, nieco zwiększyły odległości pomiędzy sobą. Odpowiednio manipulując kątem i odległościami wiązań atomowych, uczeni byli w stanie zmienić wartości poziomów energetycznych. Przy okazji, jak pochwalił się Kimerling, jego zespół wynalazł technikę umieszczania germanu na krzemie i kontrolowania całego procesu.
  14. Pojemność teoretycznej "cyfrowej baterii kwantowej" może o całe rzędy wielkości przewyższać pojemność współczesnych urządzeń. Koncepcję baterii kwantowej zaproponowali naukowcy z University of Illinois at Urbana-Champaign (UIUC). Współczesne baterie zbudowane są z dwóch elektrod przedzielonych izolatorem. Po dostarczeniu do elektrod napięcia, w izolatorze powstaje pole elektryczne, dzięĸi któremu przechowywana jest energia. Nie można jednak przechowywać jej nieskończenie wiele, gdyż po przekroczeniu pewnej ilości pomiędzy elektrodami powstanie łuk elektryczny i utracimy to, co przechowujemy. Naukowcy z UIUC teoretyzują, że gdybyśmy zbudowali baterię z macierzy miniaturowych elektrod oddalonych od siebie zaledwie o około 10 nanometrów, to w nanoskali dojdzie do wystąpienia efektu kwantowego, który zapobieże pojawieniu się łuku elektrycznego. Alfred Hubler, główny autor artykułu na temat baterii kwantowych uważa, że gęstość mocy (a więc prędkość z jaką można uwalniać lub ładować energię) baterii kwantowych może być o kilka rzędów wielkości wyższa, a gęstość energii (a więc ilość energii, którą można przechować) będzie od 2 do 10 razy większa niż w najnowocześniejszych współczesnych bateriach. Ponadto twierdzi, kwantowe baterie można produkować przy użyciu współczesnych procesów litograficznych oraz nietoksycznych tanich materiałów takich jak żelazo, wolfram i krzem. Uczony mówi, że być może już w ciągu roku uda się wyprodukować działający prototyp. Hubler złożył wniosek patentowy i zwrócił się do DARPA o fundusze na dalsze badania. Nie wiadomo jednak, jak potoczą się losy jego pomysłu. Profesor Joel Schindall z MIT-u zwraca bowiem uwagę, że nie jest jasne, czy ładunek elektryczny nie zniszczy urządzeń wykonanych w nanoskali. Przyznaje jednak, że pomysł jest intrygujący i wiele z jego założeń wydaje się prawdziwych. W 2005 roku Koreańczycy udowodnili, że możliwe jest wyprodukowanie nanokondensatora. Baterie Hublera musiałby zawierać miliardy lub nawet biliony takich urządzeń.
  15. Tak szybkiego rozwiązania nietypowego konkursu zorganizowanego przez DARPA nie spodziewał się chyba nikt. Grupa zwołana przez studentów i wykładowców z MIT potrzebowała zaledwie dziewięciu godzin na zebranie informacji o wszystkich dziesięciu czerwonych balonach rozstawionych przy drogach w różnych miejscach na terenie USA. Drużyna stworzona przez przedstawicieli słynnej uczelni ze stanu Massachusetts składała się z ponad 4600 informatorów zaproszonych do udziału w konkursie przez Internet. Aby dodatkowo zmotywować ich do wysiłku, władze MIT przewidziały nagrody dla osób, które przyczynią się do sukcesu zespołu. Zgodnie z zasadami, każdy, kto podał położenie geograficzne poszukiwanego obiektu, otrzyma od uczelni 2000 dolarów. Na tym jednak nie koniec. Uczestnik, który zaprosił szczęśliwego znalazcę do udziału w zabawie, otrzyma dla siebie kolejny tysiąc. Jakby tego było mało, osoba, która zaprosi zwycięzcę drugiej nagrody, otrzyma 500 dolarów, a kolejna osoba w łańcuchu zaproszeń - 250 dolarów. Decyzją władz MIT kwota pozostała po wypłaceniu wszystkich nagród trafi na cele charytatywne. Mimo to, uczelnia odniesie dzięki konkursowi niemałą korzyść - międzynarodowy rozgłos i potwierdzenie reputacji czołowej uczelni technicznej świata są dla amerykańskiej ekipy co najmniej tak samo cenne, jak pieniądze.
  16. Ogniwa słoneczne są tym bardziej wydajne, im dłużej wystawimy je na działanie Słońca. To jednak zmienia w ciągu dnia swoją pozycję. Konieczne jest zatem stosowanie silników pozycjonujących panele słoneczne bądź układów optycznych, zapewniający ciągły dopływ światła. Na University of Illinois powstały ogniwa o sferycznych kształtach, dzięki którym można będzie zrezygnować z silników i optyki, a promienie słoneczne zawsze do nich dotrą. Jeśli testy wykażą ich przydatność, mogą one zastąpić tradycyjne płaskie ogniwa, a jednocześnie ich produkcja nie będzie droga, gdyż małe sferyczne ogniwa łączone w duże macierze wymagają użycia mniejszej ilości materiału. Dotychczas nie produkowano ogniw o powierzchniach sferycznych, gdyż współczesne techniki litograficzne najlepiej sprawdzają się na płaskich powierzchniach. Zespół z Univesity of Illinois poradził sobie z tym problemem dzięki technice samodzielnego dostosowywania kształtu z płaskich powierzchni. Naukowcy zaczęli od litograficznej obróbki cienkiej płaskiej warstwy krzemu. Następnie wycięli z niego formę o kształcie kwiatu. Na środku przykleili kawałek szkła, który pomagał zachować nadaną formę. W środek "kwiatu" wpuścili kroplę wody. Gdy ta parowała, napięcie powierzchniowe spowodowało, że "płatki" krzemu się uniosły, tworząc sferę. Jak mówi profesor Ralph Nuzzo, szef zespołu badawczego, największą trudnością jest opracowanie kolejnych etapów produkcji tak, by uzyskać wymagany kształt. Uczeni stworzyli więc liczne modele matematyczne opisujące, co należy zrobić, by krzem przybierał różne kształty, jak reaguje on na obecność wody i w jaki sposób należy wodę wzbogacić środkami chemicznymi, by w pożądany sposób oddziaływała na krzem. Zespół Nuzzo otrzymał w opisany powyżej sposób cały zestaw mikroskopijnych sferycznych ogniw słonecznych. Pierwsze testy wykazały, że ich wydajność wynosi zaledwie 1%. To niewiele jak na ogniwa, jednak, co warto podkreślić, to lepszy wynik niż można uzyskać z płaskich ogniw wyprodukowanych przy użyciu takiej samej technologii i tej samej ilości materiału. To z kolei oznacza, że po ulepszeniu nowa technika może okazać się lepsza od obecnie stosowanych. Jednak jej zalety nie ograniczają się do krzemu. Za jej pomocą można zginać też inne materiały. Zginanie jest bardzo interesujące, gdyż pozwala uzyskać fantastyczne trójwymiarowe kształty - stwierdził profesor George Barbastathis z MIT-u.
  17. Badacze z MIT-u obserwowali starsze dzieci i dorosłych, którym udało się przywrócić wzrok. Dzięki temu stwierdzili, w jaki sposób mózg uczy się widzieć. Okazuje się, że kluczem do rozwiązania zagadki jest dynamiczna informacja, czyli obserwowanie poruszających się obiektów. Przypadki, gdy ktoś zaczyna widzieć, choć wcześniej przez całe życie był niewidomy, są naprawdę rzadkie. Mózg musi się nauczyć robić użytek z napływających danych wzrokowych, których przez całe lata był pozbawiony. W krajach zachodnich operuje się niewidome dzieci, ale w krajach rozwijających się, np. w Indiach, niekoniecznie. Los takich osób jest nie do pozazdroszczenia. Często borykają się one bezrobociem, są niewykształcone i wcześnie umierają. Lekarze nie chcieli dotąd operować pacjentów powyżej 5.-6. roku życia, ponieważ uważało się, że właśnie do tego wieku mózg uczy się widzieć i jakiekolwiek późniejsze zmiany są zwyczajnie pozbawione sensu. Profesor Pawan Sinha z MIT-u zajął się za pośrednictwem swojej organizacji charytatywnej Project Prakash kilkoma takimi osobami. Po paru latach prac okazało się, że operowanie po 6. roku życia ma jednak sens, a dzięki takim odkryciom można m.in. stworzyć widzące komputery, lepsze procedury rehabilitacyjne czy bardziej adekwatne modele ludzkiego systemu wzrokowego. W 2007 roku Sinha i Yuri Ostrovsky spotkali się z kobietą, która zaczęła widzieć w wieku 12 lat, co więcej - jej możliwości wzrokowe były niemal całkowicie normalne. Jak łatwo się domyślić, jej przypadek zadawał kłam teorii wieku krytycznego. Naukowcy nie byli jednak w stanie stwierdzić, jak jej mózgowi się to udało, ponieważ spotkali ją po 20 latach od momentu odtworzenia wzroku. Najnowsze studium Amerykanów objęło 3 nastolatków i młodych dorosłych z Indii. Ich losy i umiejętności śledzono przez 18 miesięcy od operacji. Zespół Sinhy stwierdził, że na początku badani mieli duży problem z odróżnieniem figur od tła, oddzieleniem od siebie nakładających się przedmiotów czy złożeniem w całość poszczególnych elementów różnych obiektów. Później zaczęli sobie jednak coraz lepiej radzić z takimi zadaniami. Jeden z badanych pacjentów (S.K.) urodził się z afakią - bez soczewek oczu. Zoperowano go w 2004 roku w wieku 29 lat. Po zabiegu wziął udział w serii testów, podczas których miał identyfikować proste kształty i obiekty. Potrafił rozpoznać niektóre kształty – trójkąty, kwadraty – kiedy były ustawione obok siebie, ale nie wtedy, gdy się nakładały. Jego mózg nie umiał rozróżnić obrysu całej figury, zamiast tego uznawał, że każdy fragment kształtu jest oddzielną całością. Jego świat był rozbity na wiele drobnych kawałków. Co ciekawe, jeśli kwadrat bądź trójkąt wprawiano w ruch, zarówno S.K., jak i pozostałe dwie uwzględnione w studium osoby o wiele lepiej radziły sobie z rozpoznaniem obiektu. Liczba przypadków pomyślnej identyfikacji kształtu rosła od blisko 0% do ok. 75%. Później te same figury łatwiej im było rozpoznać na zdjęciach. Ostatecznie pacjenci radzili sobie z nieruchomymi obiektami niemal normalnie. Mózg jest tak zaprogramowany, by wykorzystywać podobieństwa ruchu do wnioskowania, które regiony pola widzenia tworzą obiekty postrzeganego świata. Ruch może stanowić odpowiednik płyty instalacyjnej, wgrywając zasady "rozbierania" na części pierwsze obrazów statycznych.
  18. Krew nie spełnia tylko biernej funkcji, dostarczając jedynie tlen i składniki odżywcze do komórek ciała. Naukowcy z MIT wykazali, że przepływając obok, może wpływać na aktywność neuronów. Płynna tkanka zmienia przekaźnictwo między komórkami nerwowymi, a więc reguluje rozprzestrzenianie informacji w obrębie mózgu (Journal of Neurophysiology). Hipotetyzujemy, że krew aktywnie moduluje sposób, w jaki neurony przetwarzają dane. Wiele dowodów sugeruje, że krew robi coś bardziej interesującego, niż tylko dostarcza składniki odżywcze. Jeśli zmienia pracę komórek nerwowych, zmienia też działanie całego mózgu – wyjaśnia Christopher Moore. Uchwycenie związków między przepływem krwi a funkcjonowaniem mózgu jest bardzo istotne, ma bowiem znaczenie dla zrozumienia choroby Alzheimera, stwardnienia rozsianego, padaczki czy schizofrenii. Amerykanie posuwają się nawet do tego, by twierdzić, że choroby neurodegeneracyjne nie są, jak sama nazwa wskazuje, skutkiem pierwotnego uszkodzenia neuronów. Wg naukowców, ich zakłócona praca, np. w wyniku nieprawidłowych oddziaływań ze strony krwi, może być też czynnikiem sprawczym. To alternatywna wersja patogenezy między innymi alzheimeryzmu. W rejonach mózgu epileptyków, gdzie rozpoczynają się ataki, często wykrywa się anormalne naczynia krwionośne. Sugeruje to, że nieprawidłowy przepływ krwi może wywoływać napad drgawek. Bazując na wynikach badań laboratoryjnych, Moore ukuł kilka teorii na temat, w jaki sposób krew mogłaby wpływać na aktywność neuronów. Po pierwsze, płynna tkanka zawiera dyfundujące składniki, które mogą wydostawać się z naczyń krwionośnych. Zmiany w objętości krwi wpływają na stężenie tych substancji. Po drugie, neurony mogą reagować na bodźce mechaniczne, generowane przez skurcz i rozciąganie naczyń. Po trzecie, krew wpływa na temperaturę tkanki mózgowej, co koryguje aktywność neuronów.
  19. Biopsja tkanki nowotworowej może dostarczyć wielu cennych informacji. Niestety, uzyskujemy w ten sposób wyłącznie dane na temat bieżącego stanu guza. Problem ten może zostać rozwiązany dzięki najnowszemu wynalazkowi opracowanemu w MIT. Praca tego urządzenia jest jak umieszczenie laboratorium w ciele pacjenta, opisuje prof. Michael Cima, szef zespołu pracującego nad prototypem wynalazku. Zadaniem pierwszej wersji aparatu jest pomiar stężenia gonadotropiny kosmówkowej - hormonu, którego poziom we krwi wzrasta w niektórych przypadkach choroby nowotworowej. Innowacyjny produkt działa w oparciu o aktywne magnetycznie nanocząsteczki opłaszczone przeciwciałami swoistymi dla gonadotropiny kosmówkowej. Znajdują się one we wnętrzu cylindrycznej polietylenowej komory o średnicy 5 mm. W ścianach naczynka znajdują się otwory, których rozmiar został dobrany tak, by umożliwić przenikanie poszukiwanego hormonu, lecz nie pozwolić na ucieczkę nośnika przeciwciał. Jeżeli w okolicy implantu wytwarzana jest gonadotropina kosmówkowa, przenika ona do wnętrza komory i jest wiązana przez przeciwciała. A ponieważ wiele cząsteczek przeciwciał "rywalizuje" o przyłączenie pojedynczej molekuły hormonu, po pewnym czasie tworzą one zbitą strukturę, widoczną podczas badania techniką rezonansu magnetycznego. Jeżeli do związania poszukiwanej substancji nie dojdzie, nanocząsteczki pozostają rozproszone i niewidoczne. Pierwsze testy urządzenia, przeprowadzone na myszach, pozwoliły na monitorowanie poziomu gonadotropiny kosmówkowej przez okrągły miesiąc. Wciąż jest to jednak skromny pokaz możliwości - autorzy prototypu uważają, że jego dalsze modyfikacje mogą pozwolić także na ocenę takich parametrów, jak pH, wysycenie tkanki tlenem czy innych markerów pozwalających na ocenę stanu metabolicznego nowotworu. Autorzy implantu nie kryją entuzjazmu. Jak ocenia prof. Cima, jest to jedno z tych narzędzi, których będziemy potrzebowali, by nowotwór stał się możliwym do rozwiązania problemem, a nie wyrokiem śmierci. Trzymamy kciuki, żeby tak się właśnie stało.
  20. Na terenie Unii Europejskiej rozpoczęły się testy nowego implantu stymulującego odbudowę tkanki kostnej i chrzęstnej. Wynalazek, opracowany przez naukowców z MIT przy współpracy z kolegami z Uniwersytetu Cambridge, ma ułatwić rekonstrukcję stawów uszkodzonych np. w przebiegu chorób lub w wyniku wypadków. Eksperymentalny produkt ma dwojakie działanie. Po pierwsze, zawarte w nim związki aktywnie stymulują odbudowę leczonej tkanki. Po drugie, stanowi on podporę dla dzielących się komórek i wspomaga odtworzenie prawidłowej struktury stawu. Implant opracowany przez specjalistów z MIT jest zbudowany z dwóch warstw. Pierwsza z nich, widoczna na załączonym zdjęciu jako część powyżej poziomej linii przecinającej gąbczastą strukturę, to część odpowiadająca za stymulację powstawania tkanki kostnej. Dolna pobudza wytwarzanie tkanki chrzęstnej, tworzącej naturalną powłokę ścierających się ze sobą powierzchni stawowych. Źródłem komórek odbudowujących uszkodzoną tkankę jest szpik kostny. To z niego, dzięki stymulacji przez składniki implantu, uwalniane są tzw. mezenchymalne komórki macierzyste, zdolne do migracji i integracji w sprzyjających miejscach. Po opuszczeniu szpiku identyfikują one implant i wiążą się z nim, a następnie przekształcają się w komórki tkanki kostnej i chrzęstnej. Dotychczasowe testy wynalazku, przeprowadzone na kozach, zakończyły się sukcesem - uszkodzoną tkankę udało się odbudować w czasie do 16 tygodni. Teraz przyszedł czas na badania na ludziach. Od ich wyników będzie zależało ewentualne dopuszczenie nowej technologii do powszechnego zastosowania w klinikach.
  21. Niewielki aparat do ciągłego pomiaru ciśnienia krwi został zaprezentowany przez inżynierów z MIT. Jeżeli wynalazek upowszechni się, może stać się istotnym narzędziem wspomagającym leczenie chorób układu krążenia. Pomiar ciśnienia tętniczego krwi jest jednym z podstawowych testów oceniających stan zdrowia człowieka. Jego wynik może powiedzieć wiele na temat kondycji pacjenta, lecz wykonanie pojedynczego badania dość często oznacza bardzo niewiarygodne wyniki. Rozwiązaniem tego problemu może być urządzenie opracowane na MIT, pozwalające na wykonywanie ciągłego pomiaru w czasie rzeczywistym. Zaprojektowany aparat składa się z dwóch elementów: miniaturowego zacisku mocowanego do małego palca dłoni oraz jednostki centralnej, nieco większej od pudełka zapałek, instalowanej przy nadgarstku. Całość jest na tyle mała i lekka, że noszenie jej przez cały dzień nie powinno stanowić dla pacjenta problemu. Istotną cechą urządzenia jest brak charakterystycznego rękawa, stosowanego w większości ciśnieniomierzy. Zamiast tego prototyp mierzy szybkość przepływu krwi pomiędzy dwoma sensorami zlokalizowanymi nad jednym naczyniem krwionośnym, a następnie, po skorygowaniu wyniku o dane na temat położenia dłoni, oblicza ciśnienie tętnicze. Badacze zajmujący się opracowaniem innowacyjnego ciśnieniomierza uważają, że całodobowy pomiar ciśnienia tętniczego w czasie rzeczywistym znacząco poprawi jakość nadzoru nad stanem zdrowia pacjentów. Można oczekiwać, że pozwoli to na prowadzenie dokładnego monitoringu kondycji pacjentów cierpiących nie tylko na nadciśnienie tętnicze, lecz także np. na bezdech senny. Aby ułatwić komercjalizację wynalazku, jego autorzy uruchomili firmę CardioSign. Wsparcia finansowego dla projektu udzieliła firma Sharp oraz amerykańskie instytucje: Narodowa Fundacja Nauki (NSF) i Narodowe Instytuty Zdrowia (NIH). W najbliższych miesiącach możemy się spodziewać uruchomienia pierwszych testów klinicznych, których zadaniem będzie ocena skuteczności urządzenia.
  22. Sergio Della Sala jest neurologiem z ponad 20-letnim doświadczeniem. W przyszłym miesiącu wygłosi na Uniwersytecie w Edynburgu bożonarodzeniowy wykład, w którym obali szereg mitów dotyczących skuteczności ćwiczeń wspomagających mózg, np. oddychania lewą dziurką od nosa, żeby pobudzić prawą półkulę i zwiększyć kreatywność czy picia wody, by poprawić zaopatrzenie w tlen. Wg naukowca, podobnie należy oceniać spożywanie czerwonego wina jako metodę zapobiegania demencji oraz słuchanie muzyki klasycznej w celu zwiększenia wydajności umysłowej. Niektóre twierdzenia to dzieło dowcipnisiów, inne zostały wymyślone przez producentów określonych towarów (te są, jak twierdzi Della Sala, najniebezpieczniejsze), a pozostałe są powtarzane w dobrej wierze. Łączy je jedno, jeśli jest w nich trochę prawdy, to nie więcej niż ziarenko... Naukowiec zdecydowanie buntuje się przeciwko ćwiczeniom dla dzieci, które kompletnie nie uwzględniają reguł działania mózgu i niczego nie usprawniają. Pomimo absurdalności części z nich, wcale nie powinno nam być do śmiechu. Słabym punktem oddychania przez lewą dziurkę jest fakt, że powietrze dociera do płuc, a nie do mózgu. Poza tym dlaczego w ogóle uznać prawą półkulę za bardziej twórczą? Dla Della Sali to oczywisty nonsens. Wykonują one różne zadania, ale nie można ich poddawać tego typu wartościującej ocenie. Kolejne nieporozumienie to picie wody, by stymulować mózg poprzez zwiększenie absorpcji tlenu. Na szczęście woda nigdy nie dostaje się do mózgu, ponieważ gdyby do tego doszło, niechybnie byśmy umarli. Dla neurologa reklamowanie gier za pomocą haseł, że dzięki nim nasz mózg zacznie działać jak organ dużo młodszej osoby, to zwykłe oszustwo. Niczyjej pamięci nie uratuje też wypijanie nawet hektolitrów wina. Jedyne, do czego można w ten sposób doprowadzić, to uzależnienie. Jak potraktować poważnie teorię, że wykorzystujemy zaledwie 10% mózgu? Gdyby to była prawda, pacjenci po urazie lub udarze nie powinni cierpieć z powodu jakichkolwiek zaburzeń. Tak się jednak nie dzieje. Grudniowy wykład zapowiada się niezwykle ciekawie. Miejmy nadzieję, że odbije się szerszym echem nie tylko wśród naukowców.
  23. Należące do MIT-u Media Lab we współpracy z Plymouth Rock Studios powołały do życia Center for Future Storytelling. Zadaniem Centrum będzie opracowywanie technologii, metod i programów służących temu, co możemy zawrzeć w pojęciu "opowiadania historii". Jak czytamy w oficjalnej relacji prasowej Centrum będzie korzystało z 20-letniego doświadczenia Media Lab w budowaniu zmieniających społeczeństwo technologii służących interaktywności, a teraz podniesie to na wyższy poziom. Zadania stawiane przed Centrum są bardzo ambitne - od prac nad tanią holograficzną telewizją, po technologie dla studiów filmowych i stworzeniem... sztucznych aktorów. Specjaliści z Center for Future Storytelling będą pracowali m.in. nad oprogramowaniem Viper 2.0, które umożliwi amatorom dokonywanie profesjonalnej edycji wideo. Obrazy będzie można później wyświetlić na holograficznym telewizorze, którego cena ma być taka, jak zwykłych telewizorów. Każdy z nas będzie mógł codziennie zapisywać historię swojego życia. Uczeni chcą, by każdy z przedmiotów - buty, rower, zabawki, walizka czy stół - były w stanie zbierać, przechowywać i odpowiednio interpretować to, co się wokół nich codziennie dzieje. Centrum skupi się też na rozwijaniu autonomicznych i półautonomicznych technologii, dzięki którym bardziej emocjonalnie będziemy angażowali się w różne czynności. Wśród projektów znajdzie się więc coś, co nazwano "Syntetycznym aktorem przyszłej generacji". Ma być to zbiór narzędzi i interfejsów, które uczynią kontakt z przedmiotami bardziej "ludzkim". Uczeni chcą, by przedmioty rozpoznawały np. wyraz ludzkiej twarzy i odpowiednio go interpretowały, by potrafiły podążać za gestami, by w końcu - w przypadku robotów - nawiązywały kontakt wzrokowy czy też miały "ludzką" mimikę. Udoskonaleniu robotów ma służyć też projekt "Charakter w butelce". Umożliwi on nadanie maszynom cech indywidualności, ich własnego charakteru, manier, sposobu poruszania się itp. itd. Nie zapomniano przy tym o dzieciach. Powstaną specjalne, skierowane właśnie do nich narzędzia, dzięki którym będą mogły tworzyć własne historie i implementować je w zautomatyzowanym świecie. Dzięki temu dziecko będzie mogło zyskać cyberpomocnika, który wesprze je np. w nauce języka obcego, a specjalnie zaprogramowane roboty, reagujące na dziecko, będą mogły np. wspierać terapię dzieci autystycznych. Centrum skupi się też na opracowywaniu najnowszych technologii prezentacji obrazu. W dokumencie mówi się o uniwersalnej platformie służącej wymianie danych wideo, o tworzeniu wyświetlaczy 4D i 6D. W ramach projektu Second Skin ma powstać rodzaj zakładanego na całe ciało ubrania, wyposażonego w tysiące czujników. Dzięki nim możliwe będzie tworzenie na bieżąco trójwymiarowej mapy ciała i pomiaru wydajności jego poszczególnych elementów. Bardzo ciekawym projektem jest pomysł tworzenia "programowalnych" filmów. Będą one zmieniały się w zależności od tego kto, gdzie i kiedy je ogląda, a widz będzie miał możliwość łączenia różnych obrazów na podstawie zawartych w nich metatagów i tworzenia z nich własnej historii.
  24. Niewielkie "plecaki" przytwierdzające się samodzielnie do komórek zostały opracowane przez specjalistów z MIT. Ich zdaniem, tego typu struktury mogą pewnego dnia stać się ważnym narzędziem diagnostycznym i terapeutycznym. Struktury, o których mowa, to w rzeczywistości polimerowe kieszonki zbudowane z trzech warstw o różnych właściwościach. Dolna, syntetyzowana jako pierwsza, służy do przymocowania "plecaka" do podłoża. Środkowa uszczelnia pęcherzyk i pozwala przechowywać w nim różnego rodzaju substancje, zaś warstwa górna, wytwarzana jako ostatnia, pozwala na przyłączenie się naczynia do powierzchni komórki. Gdy produkcja pęcherzyka jest zakończona, do naczynia wpuszcza się komórki (np. limfocyty). Niemal natychmiast wiążą się one z "plecakami" i tym samym przywierają do dna naczynia. W tym momencie wystarczy nieznacznie obniżyć temperaturę otoczenia, by dolna warstwa rozpuściła się i uwolniła komórkę z przyczepionym pęcherzykiem. Aby sprawdzić siłę wiązania naczynka z powierzchnią komórki, przeprowadzono prosty test. Pęcherzyki zostały wypełnione nanocząstkami reagującymi na pole magnetyczne, a następnie, po oderwaniu komórek od dna, przyłożono do naczynia hodowlanego magnes. Efekt eksperymentu przedstawia film: Mauro Ferrari, dyrektor wydziału medycyny Uniwersytetu Teksańskiego niezwiązany z badaniami, zauważa istotną cechę opracowanej technologii: zwykle cząsteczki połączone z powierzchnią komórki są wchłaniane w ciągu kilku sekund. Fakt, że ten wynalazek zostaje tam na dłużej, jest godny uwagi. Zdaniem Michaela Rubnera, jednego z autorów "plecaków", ten proces umożliwia zastosowanie wielu różnych rodzajów ładunku. Badacz twierdzi, że technologia pozwala na zastosowanie wielu związków, nawet tych toksycznych, i szczelne zamknięcie ich wewnątrz pęcherzyka. Stwarza to, przynajmniej teoretyczne, wspaniałe możliwości dostarczania bardzo silnych toksyn do zmienionych chorobowo tkanek. Dotychczas nie przeprowadzono testów oceniających przeżywalność komórek oraz ich zachowanie w żywym organizmie. Istnieje np. ryzyko, że będą one "gubiły" swój ładunek albo przestaną się mieścić w wąskich szczelinach w obrębie układu krwionośnego. Zdaniem Rubnera dotychczasowe testy nie dostarczają niepokojących informacji, a budowa "plecaczków" nie powinna utrudniać naturalnego sposobu poruszania się komórek. Mimo to, jak podkreśla, prawdziwym sprawdzianem technologii będą testy na zwierzętach. Aby ułatwić badania nad zachowaniem "plecaków" w organizmie żywym (i jednocześnie sprawdzić ich przydatność w procedurach diagnostycznych), badacze planują wykorzystanie jednego z dwóch rodzajów ładunku. Mogą to być albo nanocząsteczki reagujące na pole magnetyczne, które mogłyby być wykrywane za pomocą tomografii rezonansu magnetycznego, albo barwniki fluorescencyjne, których świecenie jest bardzo łatwe do wykrycia. Ostatecznym celem, jaki chcieliby osiągnąć badacze z MIT, jest "ulepszenie" komórek odpornościowych i wyposażenie ich w ładunek śmiertelny dla nowotworu. Komórki pacjenta mogłyby być pobrane z jego ciała, a następnie, po serii modyfikacji, podane z powrotem w celu zniszczenia guza. Nierozwiązanym problemem wydaje się być jednak brak kontroli nad uwalnianiem i otwieraniem pęcherzyków w określonych sytuacjach. To nowe podejście, opisuje swój mikroskopijny wynalazek Rubner. Można je wykorzystywać na bardzo wiele sposobów, a my mamy nadzieję, że ta elastyczność będzie mogła być wykorzystana w sposób naprawdę wartościowy dla społeczeństwa. Niestety, badacz zastrzega jednocześnie, że nim stanie się to możliwe, może minąć jeszcze trochę czasu.
  25. Rywalizacja pomiędzy naukowcami i studentami z California Institute of Technology (Caltech) oraz bliźniaczej uczelni zlokalizowanej w stanie Massachussets, czyli MIT, jest niemal legendarna. Ostatnio przedstawiciele obu uczelni wyzwali się na prawdziwą bitwę! Polały się hektolitry krwi, ale, na szczęście, nic nikomu się nie stało. Jak to możliwe? Bardzo łatwo: studenci oddali się w ręce pracowników Amerykańskiego Czerwonego Krzyża, a "bitwa" była w rzeczywistości pomysłowo zaaranżowaną akcją honorowego krwiodawstwa. Impreza, nazwana "krwawą bitwą" (Blood Battle), ma charakter konkursu, którego zwycięzca jest wyłaniany na podstawie ilości oddanej krwi w przeliczeniu na liczbę pracowników i studentów całej uczelni. To już druga edycja imprezy, która ma odbywać się co roku. Trzeba przyznać, że przewidziana przez organizatorów nagroda za zwycięstwo może zachęcać do oddania "kawałka siebie" drugiemu człowiekowi. Triumfator otrzymuje bowiem... tytuł zwycięzcy, a to nie lada zaszczyt, biorąc pod uwagę zaciętą rywalizację pomiędzy Caltech i MIT. Warto przy okazji wspomnieć, że także polscy studenci organizują podobne akcje promujące honorowe krwiodawstwo. Nie sposób nie wspomnieć choćby o Wampiriadzie, a także o mniejszych, bardziej lokalnych inicjatywach. Doceniamy wysiłek Polaków, lecz prezentujemy pomysł ich amerykańskich kolegów. Wierzymy, że nadanie akcji charakteru honorowej rywalizacji mogłoby zwiększyć zainteresowanie ze strony polskich żaków. Przypominamy także o inicjatywie "Krewniacy", której oficjalna strona jest wspaniałym źródłem informacji na temat honorowego krwiodawstwa. Zapraszamy też do odwiedzenia witryny "Oddaj krew" prowadzonej przez Polski Czerwony Krzyż, jeden z organów koordynujących funkcjonowanie publicznej służby krwi w Polsce.
×
×
  • Dodaj nową pozycję...