Jump to content
Forum Kopalni Wiedzy

Search the Community

Showing results for tags 'CMOS'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Found 11 results

  1. IBM zaprezentował technologię CMOS Integrated Silicon Nanophotonics (CISN) i zapowiedział, że już w przyszłym roku pojawią się układy scalone, które będą przesyłały dane za pomocą impulsów światła. Technologia CMOS z krzemową nanofotoniką, która opracowaliśmy w IBM-ie może spełniać wymagania stawiane przed systemami eksaskalowymi poprzez skalowanie przepustowości i zwiększanie gęstości upakowania poszczególnych elementów - powiedział Will Green z IBM-a. Od kilku lat słyszymy, że IBM, Intel, HP, NEC, IMEC Samsung i dziesiątki innych firm pracują nad krzemową fotoniką, która ma być przyszłością technologii CMOS. Teraz Błękitny Gigant ogłosił, że jego specjalistom udało się rozwiązać problemy związane ze zintegrowaniem fotoniki z elektroniką i konwersją sygnałów elektrycznych w optyczne i na odwrót. W związku z tym technologia CISN trafi do komercyjnych układów scalonych już w przyszłym roku. Sytuacja podobna jest do tej, gdy Marconi zademonstrował pierwszą radiową transmisję przez Atlantyk. Dzisiaj oceany dzielą systemy cyfrowe, płyty główne i układy scalone, ale IBM udowodnił, że optyczne łącza mogą przekraczać te oceany za pomocą tradycyjnej litografii CMOS - stwierdził Rick Doherty, analityk z firmy The Evisioneering Group. Ostatnim z głównych problemów, które niedawno rozwiązał IBM na drodze do komercjalizacji CISN, było nałożenie warstwy germanu w technologii CMOS. Już wcześniej firma Freescale we współpracy z Luxterą pokazały sposób na nakładanie germanu w ostatnim etapie produkcji. Inżynierowie IBM-a opracowali metodę nakładania go na samym początku, dzięki czemu udało się aż 10-krotnie zmniejszyć przestrzeń zajmowaną przez komponenty optyczne. To z kolei pozwoliło na umieszczenie optycznych nadajników/odbiorników na powierzchni zaledwie połowy milimetra kwadratowego i zintegrowanie ich z 65-nanometrowym układem CMOS. Technologia CISN pozwala na budowę bloków o wymiarach 4x4 milimetry, umożliwiających przepustowość rzędu terabita na sekundę. IBM przewiduje, że w najbliższych latach CISN będzie coraz szerzej używana i udoskonalana tak, iż do roku 2016 zostanie wykorzystana do łączenia rdzeni w pojedynczym procesorze.
  2. Canon poinformował o opracowaniu 120-megapikselowego czujnika APS-H. Nowe urządzenie pozwala na wykonywanie zdjęć o wymiarach 13280 x 9184 pikseli. Osiągi czujnika są imponujące. Zwykle tak gęste upakowanie elementów światłoczułych i przesyłanie tak olbrzymich informacji wiąże się z niemożnością szybkiego wykonywania zdjęć. Jednak Canon zapewnia, że czujnik umożliwia wykonanie 9,5 ujęcia na sekundę. Sto dwadzieścia megapikseli to ponadsiedmiokrotnie więcej niż mamy do dyspozycji w profesjonalnym aparacie EOS-1D. Opracowanie czujnika nie oznacza jednak, że szybko trafi on na rynek. Warto tutaj przypomnieć, że już w 2007 roku Canon zaprezentował 50-megapikselowy CMOS. Wciąż jednak nie pojawiły się aparaty, które by go wykorzystywały. Niewykluczone, że czujniki o tak wielkiej rozdzielczości nigdy nie pojawią się w ofercie dla klientów indywidualnych.
  3. Specjaliści z IBM-a otworzyli pasmo wzbronione w tranzystorze polowym (FET) wykonanym z grafenu, pokonując tym samym jedną z ostatnich przeszkód na drodze do skomercjalizowania grafenowej elektroniki. Ich grafenowy FET, jak zapewniają, będzie w przyszłości mógł konkurować z tranzystorami CMOS. W grafenie w sposób naturalny nie występuje energetyczne pasmo wzbronione, które jest potrzebne do większości zastosowań elektronicznych. Możemy ogłosić, że otworzyliśmy pasmo o wartości do 130 meV w naszym dwuwarstwowym grafenowym tranzystorze polowym. Z pewnością można osiągnąć też pasma o wyższych wartościach - powiedział Phaedon Avouris z IBM-a. Otwarcie pasma pozwala na zastosowanie grafenu w elektronice oraz optoelektronice. Brak pasma wzbronionego w grafenie powoduje, że, pomimo iż ruchliwość elektronów w tym materiale jest znacznie wyższa niż w krzemie, to współczynnik on/off wynosi w nich zaledwie 10, podczas gdy w krzemie jest liczony w setkach. IBM poinformował, że po otwarciu pasma w temperaturze pokojowej udało się osiągnąć w grafenie współczynnik bliski 100, a gdy urządzenie jest schłodzone wzrasta on do 2000. Ekspertom udało się to wszytko osiągnąć głównie dzięki odizolowaniu bramki za pomocą polimeru. To zredukowało rozpraszanie elektronów, prowadząc do zwiększenia współczynnika on/off. Teraz badacze IBM-a rozpoczynają prace nad zmniejszeniem grubości warstwy izolującej, otwarciem szerszego pasma wzbronionego i zwiększeniem współczynnika on/off.
  4. Jak twierdzi doktor Hector J. De Los Santos z kalifornijskiego NanoMEMS Research, komputery przyszłości mogą pracować nie dzięki przepływowi elektronów, a fal poruszających się w "cieczy elektronowej". To rozwiązałoby problem z dochowaniem wierności Prawu Moore'a. Obowiązujące od ponad 40 lat prawo przewiduje, że co 18 miesięcy liczba tranzystorów w układzie zwiększa się dwukrotnie. Obecnie już wiadomo, że wykorzystując współczesną technologię CMOS za kilka lat będziemy mieli poważne problemy z zachowaniem Prawa Moore'a. Dlatego też De Los Santos opracował koncepcję nazwaną nano-electron-fluidic logic (NFL), która zakłada wykorzystanie przepływu plazmonów w podobnym cieczy gazie elektronów. Uczony przewiduje, że takie rozwiązanie pozwoli na przełączanie bramek w ciągu femtosekund przy rozpraszaniu energii mniejszym niż femtodżul. Naukowiec wyjaśnia, że jego teoria korzysta z właściwości fali plazmonów powierzchniowych (SPW). Poruszają się one wzdłuż powierzchni styku dwóch materiałów, których stałe dielektryczne mają przeciwne znaki. Mogą więc poruszać się w układzie scalonym zbudowanym z materiałów o różnych właściwościach. Koncepcja De Los Santosa zakłada uruchomienie jednak SPW, a zaraz później innej SPW, która znajdzie się na kolizyjnym kursie do pierwszej fali. Po kolizji fale rozproszą się w jednym z dwóch możliwych kierunków. Ich obecność będzie interpretowana jako "1", ich brak jako "0". Proces obliczeniowy rozpoczyna się zatem od SPW1 poruszającej się w elektronowym gazie wzdłuż kanału, który na końcu się rozdwaja. Obie jego odnogi są wyposażone w odpowiednie czujniki. Z obu boków do kanału, jeszcze przed miejscem, w którym się on rozdwaja, dochodzą dwa dodatkowe kanały. Każdym z nich możemy puścić dodatkową SPW2, która zderzy się z SPW1. Gdy np. puścimy ją z prawej strony to SPW1 trafi do lewego rozgałęzienia, gdzie jej obecność zostanie uznana za "1". Koncepcja De Los Santosa nie wykorzystuje zatem, jak ma to miejsce w technologii CMOS, przepływu cząstek, ale przepływ fali. Cząstki, podobnie jak wtedy, gdy wrzucimy kamień do wody, pozostają w tym samym miejscu, poruszając się tylko w górę i w dół. Tym samym rozprzestrzenianie się fali zakłócenia nie wymaga przenoszenia masy. Dzięki temu przesuwają się szybciej niż elektrony - mówi De Los Santos. W technologii CMOS poruszające się elektrony wchodzą w interakcje z zanieczyszczeniami w materiale, z którego zbudowany jest układ scalony i z samym materiałem, co ogranicza ich prędkość oraz zwiększa wydzielanie ciepła. NFL jest pozbawiona tych wad. Kluczem do sukcesu NFL jest zoptymalizowanie odpowiedniej "gęstości" układu scalonego. SPW z czasem zanikają, a więc odległość, którą mają przebyć musi być tak dobrana, by fala dotarła do wyznaczonego celu. W przeciwnym razie zaniknie i nie dojdzie do wykonania żadnej operacji logicznej. Odległość nie może być też zbyt mała, gdyż fala dotrze do celu, odbije się, powróci do punktu wyjścia i ponownie się odbije wywołując rezonans w wykrywających ją czujnikach. Należy więc dobrać taki rozmiar kanałów, którymi będą poruszały się SPW, by fala nie zaniknęła przed ich końcem i by po odbiciu się nie dotarła do punktu wyjścia. De Los Santos przewiduje, że największa gęstość urządzenia będzie równa wielkości najmniejszego możliwego plazmonu, którym jest układ dwóch różnoimiennych ładunków (dipol). Jako że najmniejszym dipolem jest atom, oznacza to, że NFL może teoretycznie wykonywać działania logiczne na powierzchni czterokrotnie mniejszej niż CMOS. Kolejną zaletą wykorzystania fali plazmonów powierzchniowych jest ich olbrzymia prędkość wynosząca miliard centymetrów na sekundę. To oznacza, że układy scalone wykorzystujące SPW mogłyby pracować w temperaturze pokojowej z prędkością nawet 6 THz. Co więcej, operacje odbywałyby się przy zużyciu minimalnej ilości energii. Do wzbudzenia SPW wystarczy bowiem prąd stały o natężeniu większym od zera. Podtrzymanie istnienia elektronowego gazu wymaga użycia tak małych ilości energii, że są to wartości pomijalne. Innymi słowy, do pracy układu wykorzystującego NFL wystarczy minimalna wykrywalna ilość energii. Jakby tego jeszcze było mało, koncepcja NFL jest kompatybilna z obecnie używanymi procesami litograficznymi. Do produkcji nowego typu układów można wykorzystać zatem już istniejące urządzenia i można łączyć NFL z CMOS.
  5. Naukowcy z laboratorium HP połączyli memrystor z tradycyjnym układem scalonym. Udowodnili w ten sposób, że nowy komponent może współpracować ze współczesną technologią, a to oznacza, iż wkrótce układy z memrystorami mogą trafić na rynek. To bardzo dobra wiadomość dla producentów procesorów, którzy szukają sposobów na ciągłe zwiększanie wydajności tych układów. W ciągu najbliższych lat możemy dojść do granicy, poza którą nie będzie możliwe produkowanie coraz mniejszych podzespołów. Już wcześniej udowodniono, że dzięki memrystorom będzie można tworzyć mniejsze, energooszczędne układy, gdyż memrystor może zastępować tranzystory. Memrystor to rodzaj opornika z pamięcią. Potrafi on zmieniać oporność w zależności od wartości i kierunku przyłożonego napięcia i, co bardzo ważne, zapamiętuje oporność po odłączeniu zasilania. Każdy memrystor może zastąpić od 7 do 12 tranzystorów - mówi Stan Williams, jeden z twórców memrystora. Jako, że potrafi on zapamiętać ostatnią wartość, jest znacznie bardziej energooszczędny od tranzystorów, które muszą być bez przerwy odświeżane nowymi dawkami energii elektrycznej. Williams, który kieruje badaniami nad memrystorami, wraz z zespołem umieścili 10 000 memrystorów na standardowym układzie CMOS. Specjaliści mówią, że największym wyzwaniem było samo umieszczenie memrystorów na miejscu, gdyż powierzchnia układów CMOS nie jest równa, a odchylenia rzędu 1/10000 milimetra mogłyby okazać się zbyt duże. Zastosowana macierz memrystorów została zbudowana z 200 krzyżujących się przewodów, które utworzyły siatkę z 10 000 połączeń. W każdym punkcie, gdzie przewody się krzyżowały, umieszczono pomiędzy nimi warstwę dwutlenku tytanu. Dzięki temu punkty skrzyżowań stały się memrystorami. Macierz połączono miedzianymi kablami z leżącym poniżej układem scalonym. Memrystor mógł przejąć część zadań układu CMOS. W ten sposób zwiększono jego wydajność bez konieczności zwiększania liczby tranzystorów, co pociągnęłoby za sobą konieczność użycia mniejszych tranzystorów, by większa ich liczba zmieściła się na takiej samej powierzchni. Co więcej, jak zauważył Williams, użycie memrystora spowodowało, że kość została wzbogacona o właściwości układu FPGA, czyli takiego, który można na bieżąco konfigurować w zależności od potrzeb. Uczeni zauważają, że konieczne jest jeszcze zwiększenie wydajności hybryd memrystor-CMOS, jednak ich pojawienie się zapowiada zmiany w całym przemyśle półprzewodnikowym.
  6. Na rynku zadebiutowało pierwsze w historii krzemowe urządzenie wykorzystujące fotonikę. Dotychczas jedynie w naukowych laboratoriach udało się wykorzystać krzem do przesyłania sygnałów za pomocą światła. Firma Luxtera, która wyłoniła się z California Institute of Technology (Caltech), oferuje pierwszy kabel optyczny bazujący na takiej samej technologii, jak mikroprocesory. Dzięki zastosowaniu taniego krzemu kabel Blazar o przepustowości 40 gigabitów kosztuje tyle, co obecnie stosowane kable o dwukrotnie mniejszej przepustowości. Współczesna fotonika korzysta bowiem z drogich materiałów, takich jak niobek litu czy fosforek indu. Blazar powstał dzięki standardowej technice complementary-metal-oxide-semiconductor (CMOS). To pierwszy przypadek zastosowania procesu CMOS do produkcji urządzenia wykorzystywanego w fotonice – mówi Cary Gunn, prezes Luxtery. Badania, które doprowadziły do wyprodukowania Blazara, trwały osiem lat. Nowy kabel trafi najpierw do wysoko wydajnych centrów obliczeniowych i posłuży do budowy klastrów. Obecnie do łączenia poszczególnych komputerów używa się kabli miedzianych i światłowodów. Te pierwsze zapewniają niższą przepustowość i grzeją się, ale są tanie, natomiast światłowody charakteryzują się dużą przepustowością, ale i wysoką ceną. Wpływają na nią przymocowane do kabla drogie urządzenia nadawczo-odbiorcze. W kablach Luxtery zastosowano odbiornik, który korzysta ze standardowego lasera z fosforku indu. Światło lasera jest rozdzielane na cztery promienie, z których każdy przechodzi przez krzemowy modulator. Do modulatora wysyłany jest też sygnał elektryczny, kodowany następnie w świetle z prędkością 10 gigabitów na sekundę. Światło z modulatorów trafia do kolejnego krzemowego urządzenia, zwanego holograficznymi soczewkami, i stamtąd wpuszczane jest w sam kabel. Holograficzne soczewki są nadrukowane techniką litograficzną na powierzchni układu scalonego i zastępują drogi zestaw soczewek stosowany w obecnie używanych kablach. Na drugim końcu kabla światło z zakodowanymi danymi trafia do kolejnych holograficznych soczewek, które rzutują je na fotodetektory. Te z powrotem zamieniają światło w sygnał elektryczny i przesyłają dane do odbiornika. Na każdym z końców Blazara znajduje się układ scalony, zawierający zarówno nadajnik, jak i odbiornik.
  7. Naukowcy IBM-a wykorzystali naturalne procesy formowania się płatków śniegu, muszli i zębów do stworzenia układów scalonych przyszłej generacji. To, co podpatrzyli w naturze, pozwoliło im zbudować układ scalony, w którym poszczególne połączenia są odizolowane od siebie za pomocą próżni. Obecnie ścieżki w układach scalonych tworzy się z miedzi, która otoczona jest izolatorem. Cały proces jest dość skomplikowany i wymaga stworzenia odpowiedniej przesłony (tzw. maski), w której wycięty jest wzór rozmieszczenia ścieżek i otworów. Promień lasera, przechodząc przez maskę, rysuje ten wzór na krzemie. Następnie krzem poddaje się jeszcze odpowiedniej obróbce chemicznej. Wynalazek IBM-a pozwala zrezygnować z maski i wytrawiania krzemu światłem. Naukowcy Błękitnego Giganta opracowali odpowiednią mieszaninę składników, którą pokrywa się odpowiednio przygotowany krzem, a następnie całość poddaje wypiekaniu. Podczas tego procesu powstaje wzór, który tym różni się od naturalnego (np. z płatków śniegu), że jest powtarzalny. Technika IBM-a pozwala na stworzenie miliardów identycznych otworów o średnicy 20 nanometrów. Gdy otwory już powstały usunięto z nich szkło węglowo-krzemianowe, tworząc w ten sposób próżnię pomiędzy ścieżkami miedzi. Działa ona jak izolator, a dzięki niej sygnały elektryczne biegną o 35% szybciej niż w analogicznych układach stworzonych za pomocą tradycyjnych metod. Przy tej samej prędkości przepływu sygnałów układ wymaga natomiast o 15% mniej energii. Cały proces można zastosować na standardowych liniach produkcyjnych CMOS i nie wymaga on ani ich przebudowy, ani inwestowania w nowe urządzenia.
  8. Naukowcy pracujący dla HP dokonali odkrycia, które pozwoli na przedłużenie ważności prawa Moore’a. Gordon Moore, współzałożyciel Intela, stwierdził, że liczba tranzystorów w układzie scalonym podwaja się co 18-24 miesięcy. Stwierdzenie to dotychczas się sprawdza. Układy scalone osiągnęły już jednak taki stopień miniaturyzacji, że, jak twierdzą uczeni, w ciągu najbliższych lat dojdziemy do fizycznej granicy, poza którą nie będzie możliwe dalsze pomniejszanie elementów układu scalonego. Wówczas prawo Moore'a przestanie obowiązywać. Naukowcy przewidują, że po przekroczeniu granicy 20 nanometrów pojawią się poważne, trudne do przezwyciężenia przeszkody. Poniżej 10 nanometrów technologia CMOS osiągnie swe fizyczne granice. Tymczasem Intel rozpocznie w bieżącym roku produkcję układów w technologii 45 nanometrów. Pracownikom HP udało się połączyć tradycyjną technologię CMOS z podzespołami wielkości nanometrów. Powstał w ten sposób hybrydowy układ o dużym upakowaniu tranzystorów, mniejszym poborze prądu oraz znacznie bardziej odporny na wady produkcyjne, niż obecnie wykonywane kości. HP twierdzi, że nowa technika pozwoli na budowę układów, w których gęstość upakowania poszczególnych elementów będzie nawet ośmiokrotnie większa, niż w obecnie spotykanych kościach. Zastosowanie technologii CMOS oznacza natomiast, że obecnie stosowane linie produkcyjne wymagałyby jedynie niewielkich przeróbek, po których mogłyby produkować układy nowego typu. To znacząco obniża koszty zastosowania nowej technologii. Pomysł HP polegał na umieszczeniu przełącznika wykonanego w skali nano na strukturze stworzonej w technologii CMOS. Swoją architekturę HP nazywa FPNI (Field Programmable Nanowire Interconnect – programowalna struktura połączeń nanokablami). To odmiana stosowanej obecnie architektury FPGA (Field Programmable Gate Array – programowalna macierz bramek logicznych). To zarówno nowa architektura jak i nowy sposób tworzenia połączeń, który pozwala na zredukowanie przestrzeni potrzebnej do połączenia ze sobą tranzystorów – mówi Rob Lineback, analityk z IC Insights. Jeśli HP rzeczywiście opracowało coś, co zmienia reguły gry, może mieć to olbrzymie znacznie dla użytkowników końcowych. Dodaje jednak, że jest zawsze sceptyczny wobec podobnych doniesień. Tymczasem HP ogłosiło, że w ciągu roku pokaże działający prototypowy układ, wykorzystujący nową technologię produkcji. Pracujący dla tej firmy naukowcy stwierdzili, że "zachowawcza” odmiana ich technologii, która będzie korzystała z 15-nanometrowych nanokabli użytych w 45-nanometrowym procesie CMOS, będzie gotowa do wdrożenia nie później niż w 2010 roku.
  9. Firma 3Dlabs poinformowała o odłączeniu się od Creative Labs po czterech latach współpracy. Pierwszym owocem samodzielności 3Dlabs jest rozpoczęcie wysyłania projektantom systemów swojego procesora medialnego. DMS-02 jest mikroprocesorem zdolnym do dekodowania sygnału wideo wysokiej rozdzielczości w standardzie 720p (kodek H.264) w urządzeniu kieszonkowym. Układ zawiera 24 jednostki zmiennoprzecinkowe, dwa rdzenie ARM 926EJ, wielopoziomową pamięć podręczną, trzy dwukierunkowe porty strumieniowe wideo, interfejsy do ekranu LCD, czujników CMOS, dysków IDE, USB, pamięci flash oraz przetwornika audio. Urządzenie jest niezależne platformowo, a pierwszy zestaw oprogramowania SKD obsługuje Linuksa z jądrem w wersji 2.6. Procesor obsługuje kilka kodeków i API, w tym H.264, MP3, AAC, JPEG oraz OpenGL ES. Może być wykorzystany w palmtopach, urządzeniach nawigacyjnych, systemach wideokonferencyjnych, samochodowym sprzęcie rozrywkowym oraz telefonach komórkowych. Pobór mocy modelu DMS-02 nie przekracza 1 wata.
  10. Badacze IBM-a zaprezentowali z Zurychu przełącznik składający się z pojedynczej molekuły. Jego ustawienia można zmieniać pomiędzy stanami "włączony" i "wyłączony" za pomocą impulsów elektrycznych. Oba stany są stabilne, a odczyt danych nie prowadzi do zmiany stanu przełącznika. Podczas pokazu badacze IBM-a Heike Riel i Emanuel Lörtscher zmienili stan przełącznika ponad 500 razy. Wykorzystana molekuła organiczna ma średnicę 1,5 nanometra, jest więc około stukrotnie mniejsza niż elementy obecnie wykorzystywane do tych zamych zadań. Molekułę wyprodukował zespół profesora Jamesa M. Toura z Rice University w Houston. Technologia CMOS, którą wykorzystują obecne komputery, osiągnie granicę swych fizycznych możliwości za 10 do 15 lat. Najmniejsze stosowane obecnie struktury w układach scalonych mają wielkość około 40 nanometrów. Ich dalsze zmniejszanie jest koniecznością, jeśli Prawo Moore'a ma zachować ważność. Zakłada ono, że gęstość upakowania tranzystorów w półprzewodniku zwiększa się dwukrotnie co 18 miesięcy. Naukowcy przewidują, że po przekroczeniu granicy 20 nanometrów pojawią się poważne, trudne do przezwyciężenia przeszkody. Poniżej 10 nanometrów technologia CMOS osiągnie swe fizyczne granice. Badania IBM-a dają nadzieję na to, że w przyszłości molekuły organiczne posłużą do budowanie układów pamięci i obwodów logicznych. Elektronika molekularna, korzystająca z molekuł o średnicy jednego nanometra (jedna milionowa milimetra) pozwoli na dalszą, daleko bardziej posuniętą miniaturyzację niż jest to możliwe przy wykorzystaniu współczesnych technik.
  11. HP poinformowało o wyprodukowaniu tak małego układu scalonego służącego do nawiązywania łączności bezprzewodowej, że zmieści on się do niemal każdego urządzenia. Obecnie nie istnieje równie mały chip, który charakteryzowałby się równie dużą pojemnością pamięci i byłby w stanie równie szybko odbierać i wysyłać dane. Wśród potencjalnych zastosowań układu wymienia się noszone na nadgarstku urządzenie, które przechowywałyby dane medyczne pacjentów w szpitalach. Układ przydatny też będzie w walce z podrabianiem medykamentów, posłuży do lepszego zabezpieczenia dowodów osobistych czy paszportów, umożliwi umieszczenie dodatkowych informacji w drukowanych dokumentach, czy też, dołączany do kartki lub fotografii z wakacji, posłuży do przekazywania zawartości audiowizualnej. Eksperymentalny układ, nazwany "Memory Spot", zbudowany został w oparciu o technologię CMOS. Jego wymiary, wraz z wbudowaną anteną, wynoszą 2x4 milimetry. Niewykluczone, że w sprzedaży znajdzie się m.in. w formie samoprzylepnych naklejek, które można będzie umieścić na każdej powierzchni. Memory Spot uwalnia cyfrową zawartość od pecetów i Internetu i pozwala wykorzystywać ją w każdej sytuacji – mówi, Ed McDonnell z HP Labs. Prędkość transferu danych, którą można osiągnąć wykorzystując Memory Spot wynosi... 10 megabitów na sekundę. Pojemność pamięci działających prototypów wahała się od 256 kilobitów do 4 megabitów. Może więc przechowywać krótkie klipy wideo, zdjęcia czy dziesiątki stron tekstu. W przyszłości pojemność układu ma wzrosnąć. Informacje można zapisywać i odczytywać za pomocą urządzenia, które może zostać w budowane w telefon komórkowy, palmtopa, aparat fotograficzny, drukarkę czy jakiekolwiek inne urządzenie. Memory Spot jest całkowicie samodzielnym urządzeniem, nie wymaga też żadnego stałego źródła energii. Zasilane jest indukcyjnie poprzez urządzenie zapisująco-odczytujące w czasie pobierania lub zachowywania informacji w chipie.
×
×
  • Create New...