Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Holey Optochip - czyli terabit na sekundę

Recommended Posts

IBM pokaże dzisiaj prototypowy optyczny układ scalony „Holey Optochip“. To pierwszy równoległy optyczny nadajnik-odbiornik pracujący z prędkością terabita na sekundę. Urządzenie działa zatem ośmiokrotnie szybciej niż inne tego typu kości. Układ pozwala na tak szybki transfer danych, że mógłby obsłużyć jednocześnie 100 000 typowych użytkowników internetu. Za jego pomocą można by w ciągu około godziny przesłać zawartość Biblioteki Kongresu USA, największej biblioteki świata.

Holey Optochip powstał dzięki wywierceniu 48 otworów w standardowym układzie CMOS. Dało to dostęp do 24 optycznych nadajników i 24 optycznych odbiorników. Przy tworzeniu kości zwrócono też uwagę na pobór mocy. Jest on jednym z najbardziej energooszczędnych układów pod względem ilości energii potrzebnej do przesłania jednego bita informacji. Holey Optochip potrzebuje do pracy zaledwie 5 watów.

Cały układ mierzy zaledwie 5,2x5,8 mm. Odbiornikami sygnału są fotodiody, a nadajnikami standardowe lasery półprzewodnikowe VCSEL pracujące emitujące światło o długości fali 850 nm.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      W laboratorium IBM-a w Zurichu zaprezentowano rekordowo pojemny napęd taśmowy. Pojedynczy kartridż pozwala na przechowanie aż... 580 terabajtów danych. To aż 29-krotnie więcej niż oferowany obecnie przez IBM-a kartridż o pojemności 20 TB. Błękitny Gigant jest tutaj rynkowym liderem. Najnowszy standard przemysłowy LTO-Ultrium (Linear Tape-Open, version 9) mówi o kartridżach o pojemności 18 TB.
      Mark Lantz, menedżer CloudFPGA odpowiedzialny w IBM Zurich za technologie taśmowe mówi, że w ostatnich latach taśmy magnetyczne przeżywają swój renesans. Ma to związek z jednej strony z wykładniczym wzrostem ilości wytwarzanych danych, które trzeba gdzieś archiwizować oraz z jednoczesnym spowolnieniem przyrostu gęstości zapisu na dyskach twardych. Jak zauważa Lantz, w ciągu ostatnich kilkunastu lat składane roczne tempo wzrostu gęstości zapisu na HDD spadło do poniżej 8%. Jednocześnie świat produkuje coraz więcej danych. Roczny wzrost wytwarzania informacji wynosi aż 61%. Eksperci mówią, że do roku 2025 wytworzymy 175 zetabajtów danych.
      Jako, że gęstość zapisu HDD niemal stanęła w miejscu, dramatycznie wzrosła cena każdego gigabajta dysnku twardego. Już w tej chwili 1 bit HDD jest czterokrotnie droższy niż 1 bit taśmy magnetycznej. Ta wielka nierównowaga pojawiła się w bardzo niekorzystnym momencie, gdy ilość wytwarzanych danych zaczęła gwałtownie rosnąć. Centra bazodanowe mają coraz większy problem. Na szczęście zdecydowana większość danych to informacje, które są rzadko potrzebne. To zaś oznacza, że w ich przypadku szybkość odczytu danych nie jest rzeczą zbyt istotną. Mogą być więc przechowywane na taśmach magnetycznych.
      Taśmy mają wiele zalet w porównaniu z dyskami twardymi. Są bardziej odporne na ataki cyberprzestępców, do działania potrzebują mniej energii, są trwałe i znacznie tańsze w przeliczeniu na gigabajt. Zalety te spowodowały, że – jak ocenia IBM – już 345 000 eksabajtów danych przechowywanych jest właśnie na taśmach.
      Najnowszy napęd taśmowy to wynik 15-letniej współpracy IBM-a i Fujifilm. Od roku 2006 firmy pobiły sześć kolejnych rekordów dotyczących napędów taśmowych. Ostatnie osiągnięcie było możliwe dzięki udoskonaleniu samej taśmy, głowicy odczytującej oraz serwomechanizmu odpowiadającego za precyzję pozycjonowania głowicy. Firma Fujifilm odeszła tutaj od przemysłowego standardu jakim jest ferryt baru i pokryła taśmę mniejszymi cząstkami ferrytu strontu. Inżynierowie IBM-a, mając do dyspozycji nową taśmę, opracowali nową technologię głowicy odczytująco-zapisującej, która współpracuje z tak gładką taśmą.
      O tym jak wielkie postępy zostały dokonane w ciągu kilkunastoletniej współpracy Fujifilm i IBM-a najlepiej świadczą liczby. W roku 2006 obie firmy zaprezentowały taśmę pozwalającą na zapisanie 6,67 miliarda bitów na calu kwadratowym. Najnowsza taśma pozwala na zapis 317 miliardów bitów na cal. Kartridż z roku 2006 miał pojemność 8 TB, obecnie jest to 580 TB. Szerokość ścieżki zapisu wynosiła przed 14 laty 1,5 mikrometra (1500 nanometrów), teraz to zaledwie 56,2 nanometra. Liniowa gęstość zapisu w roku 2006 sięgała 400 000 bitów na cal taśmy. Na najnowszej taśmie na każdym calu można zapisać 702 000 bitów. Zmniejszyła się też – z 6,1 mikrometra do 4,3 mikrometra – grubość taśmy, wzrosła za to jej długość. W pojedynczym kartridżu mieści się obecnie 1255 metrów taśmy, a przed 14 laty było to 890 metrów.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Fototerapia była znana już w starożytnym Egipcie. W pracach Hipokratesa można doszukać się wzmianek na temat leczniczych właściwości światła słonecznego. Dziś leczenie światłem można skutecznie praktykować w gabinetach odnowy biologicznej, salonach masażu czy w zaciszu własnego domu. Jakie są właściwości lampy Bioptron?
      Światło źródłem zdrowia
      Praktyki z udziałem światła słonecznego stosowane w starożytnym Egipcie nie mają co prawda potwierdzenia w formie medycznych dowodów naukowych. Jednak wówczas korzystne działanie promieni słonecznych uznawano za niepodważalny fakt. Dzięki osiągnięciom współczesnej medycyny wiadomo już, że organizm jest w stanie zamienić światło w energię elektrochemiczną. Pozyskana energia aktywuje pasmo reakcji biochemicznych w komórkach, a skutkiem tych zmian jest efekt terapeutyczny.
      Lata badań i spektakularne rezultaty
      Warto nadmienić, że badania nad pozytywnym wpływem promieni słonecznych na organizm od dziesięcioleci prowadzone są na całym świecie. Naukowcy zafascynowani możliwościami światła spolaryzowanego od lat pochylają się nad kluczowymi dla ludzkiego zdrowia projektami.
      Potrzebowano ponad 20 lat szczegółowych badań i doświadczeń, by stworzyć lampę Bioptron. Polichromatyczne światło spolaryzowane stało się głównym obiektem naukowców, którzy po latach badań opracowali rewolucyjny przyrząd, zdolny do leczenia licznych schorzeń. Światło pochodzące z lampy poprawia mikrokrążenie w tkankach, aktywując je do procesów odpornościowych. Urządzenie okazało się przełomowe, co potwierdzają specjaliści licznych gabinetów, w których jest stosowane.
      Zastosowanie lampy Bioptron
      Za główne przeznaczenie lampy uważa się leczenie zmian skórnych i wspomaganie procesu gojenia się ran. Urządzenie bardzo dobrze sprawdzi się także w leczeniu chorób reumatologicznych oraz przy dolegliwościach bólowych kręgosłupa. Lata badań wykazały ponadto, że stosowanie fototerapii przynosi doskonałe rezultaty przeciwdziałając starzeniu się skóry. Lampa szybko znalazła zatem zastosowanie w gabinetach kosmetycznych i klinikach medycyny estetycznej.
      Podkreślając dobroczynne działanie lampy na zmiany skórne, warto skupić się wokół takich schorzeń, jak opryszczka, łuszczyca, atopowe zapalenie skóry czy trądzik młodzieńczy. Regularne stosowanie lampy Bioptron skutecznie regeneruje tkanki podskórne, pomagając wyleczyć odleżyny oraz owrzodzenia.
      Za imponującymi efektami opowiadają się także lekarze specjaliści. Lampa doskonale wspomaga leczenie tkanek miękkich i stanów zapalnych, więc chętnie korzystają z niej ortopedzi oraz reumatolodzy. Polecana jest także przez grono laryngologów jako urządzenie wpierające leczenie zatok czołowych oraz zapalenia zatok obocznych nosa.
      Światło lampy Bioptron zostało opracowane przez szereg specjalistów. Jej działanie jest na tyle bezpieczne, że urządzenie można stosować samodzielnie w domu, jak również z powodzeniem wykorzystywać przy leczeniu problemów skórnych u najmłodszych.
      Partnerem materiału jest Zepter Sklep - Twoja lampa Zepter Bioptron.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Przez 20 lat naukowcy badali, jak światło obraca się wokół osi podłużnej równoległej do kierunku jego ruchu. Powstaje jednak pytanie, czy może się ono poruszać w inny sposób. Teraz, dzięki urlopowi naukowemu dwóch akademików dowiedzieliśmy się, że światło może obracać się wzdłuż osi poprzecznej, prostopadłej do kierunku jego ruchu. Może więc przypominać przemieszczającą się trąbę powietrzną.
      Andy Chong i Qiwen Zhan z University of Dayton postanowili z czystej ciekawości zbadać kwestię ruchu światła. Wzięliśmy urlop naukowy, by w całości skupić się na tych badaniach. Dzięki temu dokonaliśmy naszego odkrycia, mówi Chong.
      Uczeni przyznają, że nie wiedzieli, czego szukają i co mogą znaleźć. To była czysta ciekawość. Czy możemy zrobić to, albo zmusić światło do zachowywania się tak, dodaje profesor Zhan, który specjalizuje się w elektrooptyce oraz fotonice i jest dyrektorem UD-Fraunhofer Joint Research Center.
      Gdy już stwierdziliśmy, że potrafimy to zrobić [wymusić obrót światła wzdłuż osi poprzecznej – red.], powstało pytanie co dalej, dodają uczeni.
      Na razie nikt nie wie co dalej, a odpowiedź na to pytanie z pewnością będzie przedmiotem dalszych badań zarówno uczonych z Dayton, jak i innych grup naukowych. Trudno w tej chwili stwierdzić, w jaki sposób można nowe zjawisko wykorzystać. Być może posłuży ono np. do opracowania technologii szybszego i bezpieczniejszego przesyłania danych. Obecnie tego nie wiemy. Ale jedynym ograniczeniem jest wyobraźnia badaczy, dodaje Zhan. Chong i Zhan już wiedzą, co będą badali w następnej kolejności. Najbardziej interesuje ich interakcja światła z różnymi materiałami. Chcemy lepiej zrozumieć, jak ten nowy stan światła w chodzi w interakcje z materiałami w czasie i przestrzeni, stwierdza Chong.
      Ze szczegółami odkrycia można zapoznać się na łamach Nature Photonics.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Wyobraźmy sobie całkowicie elastycznego robota, który nie zawiera żadnych obwodów i jest napędzany światłem słonecznym, mówi Amos Meeks z Uniwersytetu Harvarda (SEAS) i główny autor najnowszych badań. Badań, których autorzy opracowali nowatorską całkowicie optyczną platformę obliczeniową. Taką, w której do obliczeń wykorzystuje się tylko i wyłącznie światło.
      W większości współczesnych systemów obliczeniowych wykorzystuje się twarde materiały, takie jak metalowe kable, półprzewodniki i fotodiody łączące elektronikę i światło, stwierdza Meeks. U podstaw wyłącznie optycznej platformy obliczeniowej leży chęć pozbycia się tych elementów i kontrolowanie światła za pomocą światła, dodaje.
      Tego typu platformy wykorzystują materiały nieliniowe, które zmieniają indeks refrakcyjny w reakcji na intensywność światła. Gdy światło przechodzi przez taki materiał, zwiększa się jego indeks refrakcyjny i w materiale pojawia się, generowany światłem, światłowód. Problem jednak w tym, że obecnie większość materiałów nieliniowych wymaga albo użycia potężnych laserów, albo też w wyniku oddziaływania światła na stałe zmieniają się ich właściwości.
      Naukowcy z Harvard John A. Paulson School of Engineering and Applied Sciences (SEAS) we współpracy z uczonymi z McMaster University oraz University of Pittsburgh opracowali nowatorski materiał, który w reakcji na światło lasera o niskiej mocy zmiania swój indeks refrakcyjny zmniejszając i zwiększając swoje rozmiary, a zmiany te są odwracalne.
      Nowy materiał to hydrożel zbudowany z sieci polimerowej nasączonej wodą oraz z niewielkiej liczby spiropyranów, molekuł reagujących na światło.
      Gdy hydrożel zostaje oświetlony, nieco się kurczy i zmienia się jego indeks refrakcyjny. Po wyłączeniu światła żel powraca do oryginalnego kształtu. Gdy zaś hydrożel zostanie oświetlony przez wiele źródeł światła, wchodzą one w interakcje i wpływają na siebie. Na przykład promień A może blokować promień B, promień B może blokować promień A, oba mogą blokować się nawzajem lub oba mogą przez siebie przechodzić. Powstaje w ten sposób bramka logiczna.
      Mimo, że to oddzielne promienie, mogą na siebie wpływać. Możemy wyobrazić sobie, że w przyszłości taki sposób reakcji na światło może zostać wykorzystany do wykonywania obliczeń, mówi Kalaichelvi Saravanamuttu z McMaster University.
      Nauki materiałowe się zmieniają. Samoregulujące, adaptacyjne materiały zdolne do optymalizowania swoich właściwości w reakcji na otoczenie zastępują statyczne, nieefektywne energetycznie i zewnętrznie regulowane materiały. Zaprezentowany przez nas materiał, który kontroluje światło o niezwykle niskiej intensywności to kolejny pokaz nadchodzącej rewolucji technologicznej, dodaje profesor Joanna Aizenberg z SEAS.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      IBM uruchomił w Nowym Jorku Quantum Computation Center, w którym znalazł się największy na świecie zbiór komputerów kwantowych. Wkrótce dołączy do nich nich 53-kubitowy system, a wszystkie maszyny są dostępne dla osób i instytucji z zewnątrz w celach komercyjnych i naukowych.
      Quantum Computation Center ma w tej chwili ponad 150 000 zarejestrowanych użytkowników oraz niemal 80 klientów komercyjnych, akademickich i badawczych. Od czasu, gdy w 2016 roku IBM udostępnił w chmurze pierwszy komputer kwantowy, wykonano na nim 14 milionów eksperymentów, których skutkiem było powstanie ponad 200 publikacji naukowych. W związku z rosnącym zainteresowaniem obliczeniami kwantowymi, Błękity Gigant udostępnił teraz 10 systemów kwantowych, w tym pięć 20-kubitowych, jeden 14-kubitowy i cztery 5-kubitowe. IBM zapowiada, że w ciągu miesiąca liczba dostępnych systemów kwantowych wzrośnie do 14. Znajdzie się wśród nich komputer 53-kubitowy, największy uniwersalny system kwantowy udostępniony osobom trzecim.
      Nasza strategia, od czasu gdy w 2016 roku udostępniliśmy pierwszy komputer kwantowy, polega na wyprowadzeniu obliczeń kwantowych z laboratoriów, gdzie mogły z nich skorzystać nieliczne organizacje, do chmur i oddanie ich w ręce dziesiątków tysięcy użytkowników, mówi Dario Gil, dyrektor IBM Research. Chcemy wspomóc rodzącą się społeczność badaczy, edukatorów i deweloperów oprogramowania komputerów kwantowych, którzy dzielą z nami chęć zrewolucjonizowania informatyki, stworzyliśmy różne generacje procesorów kwantowych, które zintegrowaliśmy w udostępnione przez nas systemy kwantowe.
      Dotychczas komputery kwantowe IBM-a zostały wykorzystane m.in. podczas współpracy z bankiem J.P. Morgan Chase, kiedy to na potrzeby operacji finansowych opracowano nowe algorytmy przyspieszające pracę o całe rzędy wielkości. Pozwoliły one na przykład na osiągnięcie tych samych wyników dzięki dostępowi do kilku tysięcy przykładów, podczas gdy komputery klasyczne wykorzystujące metody Monte Carlo potrzebują milionów próbek. Dzięki temu analizy finansowe mogą być wykonywane niemal w czasie rzeczywistym. Z kolei we współpracy z Mitsubishi Chemical i Keio University symulowano początkowe etapy reakcji pomiędzy litem a tlenem w akumulatorach litowo-powietrznych.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...