Zaloguj się, aby obserwować tę zawartość
Obserwujący
0
Memrystory bardziej przydatne niż sądzono
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Naukowcy z Austrii i Włoch stworzyli „kwantowy memrystor”, urządzenie zdolne do przekazywania koherentnej informacji kwantowej w postaci superpozycji pojedynczych fotonów. Urządzenie takie może stać się podstawą do stworzenia kwantowej wersji architektury neuromorficznej, której działanie ma naśladować pracę ludzkiego mózgu.
Memrystor, to czwarty podstawowy typ elementu elektronicznego. Od dawna znaliśmy opornik, kondensator i cewkę. W 1971 roku profesor Leon Chua z Kalifornii wysunął hipotezę, że może istnieć czwarty element, który nazwał opornikiem pamięci czyli memrystorem. Urządzenie takie powstało niemal 40 lat później, w 2008 roku. Memrystory szybko okazały się bardziej przydatne, niż sądzono, a przed dwoma laty wykorzystano je do zbudowania urządzenia działającego podobnie jak neuron.
Badania nad tym elementem elektronicznym ciągle trwają, a najnowszym osiągnięciem jest połączenie go z technologią kwantową.
Memrystor współpracujący ze stanami kwantowymi i przekazujące kwantowe informacje został zbudowany przez uczonych z Uniwersytetu Wiedeńskiego, Politechniki Mediolańskiej i włoskiej Narodowej Rady Badawczej. Stworzono go za pomocą femtosekundowego lasera emitującego krótkie impulsy światła trwające zaledwie 10-15 sekundy. Za pomocą tych impulsów naukowcy rzeźbili w szkle falowody, kanały zdolne do więzienia lub przesyłania światła.
Michele Spagnolo i jego zespół wykorzystali falowody do przesyłania pojedynczych fotonów. Dzięki ich kwantowej naturze znajdujące się w superpozycji fotony można było w tym samym czasie wysyłać przez dwa lub więcej falowodów. Za pomocą bardzo zaawansowanych wykrywaczy pojedynczych fotonów mogliśmy dokonywać pomiaru fotonu w jednym z falowodów, a następnie wykorzystać ten pomiar do kontrolowania urządzenia modulując transmisję w innym falowodzie. W ten sposób nasze urządzenie zachowywało się jak memrystor, wyjaśnia Michele Spagnolo. Oprócz uzyskania w ten sposób zachowania typowego dla memrystora, naukowcy – za pomocą symulacji – wykazali, że sieć optyczna zawierająca kwantowe memrystory będzie zdolna do nauki rozwiązywania problemów zarówno w sposób klasyczny, jak i kwantowy. To zaś wskazuje, że kwantowy memrystor może być tym elementem, który połączy sztuczną inteligencję i komputery kwantowe.
Klasyczne memrystory są obecnie używane w badaniach nad komputerowymi platformami neuromorficznymi. Dlatego też włosko-austriacki zespół sądzi, że kwantowy memrystor może przyczynić się do powstania kwantowych sieci neuromorficznych.
Uwolnienie pełnego potencjału możliwości sztucznej inteligencji zbudowanej na systemach kwantowych to jedno z najważniejszych obecnie wyzwań fizyki kwantowej i informatyki, dodaje Spagnolo. Uczony dodaje, że jego grupa już rozpoczęła prace nad odpowiednim urządzeniem. Jej pierwszym celem jest stworzenie urządzenia składającego się z kilkunastu kwantowych memrystorów operującego na kilkunastu fotonach. To poważne wyzwanie technologiczne, przyznaje naukowiec.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Jedną z przyczyn, dla której nie udało się dotychczas stworzyć maszyny o możliwościach obliczeniowych mózgu jest brak urządzenia, które działałoby jak neuron. Jednak dzień powstania sztucznego mózgu właśnie znacznie się przybliżył. Troje naukowców poinformowało na łamach Nature o stworzeniu pojedynczego urządzenia zachowującego się jak neuron.
W reakcji na przyłożenie prądu stałego urządzenie reaguje podobnie jak neuron: pojawiają się w nim serie wyładowań, samopodtrzymujące się oscylacje i inne procesy, które możemy obserwować w mózgu. Urządzenie łączy w sobie funkcje opornika, kondensatora i memrystora Motta. Memrystory to urządzenia, które przechowują dane w postaci pamięci o oporze.
Memrystory Motta mają dodatkową możliwość zapamiętania zmian w oporności powodowanych temperaturą. Dzieje się tak, gdyż materiały, z których zbudowany jest memrystor Motta są izolatorami lub przewodnikami w zależności od temperatury.
Do zmian takich dochodzi z nanoskalowej warstwie ditlenku niobu. Po przyłożeniu napięcia NbO2 rozgrzewa się, zmieniając właściwości z izolujący w przewodzące. Po takiej zmianie prąd może przepłynąć przez urządzenia. Następnie urządzenie się chłodzi, a ditlenek niobu staje się ponownie izolatorem. W efekcie takich działań pojawia się wyładowanie podobne do tego, obserwowanego w neuronach. Przez pięć lat nad tym pracowaliśmy. W małym nanoskalowym kawałku materiału dzieje się bardzo wiele, mówi jeden z autorów badań, R. Stanley Williams z Texas A&M University.
Drugi z autorów badań, Suhas Kumar z Hewlett Packard Laboratories, przypomina, że wynalazca memrystora, Leon Chua, przewidywał, iż w urządzeniu tym pomiędzy dwoma stabilnymi regionami znajduje się region chaotycznych zjawisk. Na krawędzi takiego regionu urządzenie może zaś wykazywać zachowania podobne do zachowań neuronów.
Uzyskanie odpowiednich zjawisk nie jest jednak łatwe. Williams chwali Kumara za wysiłek, jaki włożył w to, by precyzyjnie dobrać parametry pracy urządzenia. Tego się nie odkrywa przypadkiem. Wszystkie parametry muszą być perfekcyjnie dobrane zanim zauważysz zjawiska, których poszukujesz. Gdy już jednak uda się tego dokonać okazuje się, że całość pracuje bardzo stabilnie i łatwo jest to powielać, stwierdza uczony.
Naukowcy przetestowali swoje urządzenie budując z nich bramki logiczne NAND i NOR oraz niewielki analogowy obwód optymizujący pracę całości. Naukowcy przyznają, że potrzeba jeszcze wiele pracy, by całość zmienić w praktyczne urządzenie i skalować je tak, by mogły z nich powstać systemy zdolne do rzucenia wyzwania współczesnym komputerom. Kumar i Williams mają zamiar poszukać innych materiałów, nadających się do budowy sztucznego neuronu. Przemiany zachodzące w NbO2 mają bowiem miejsce w temperaturze 800 stopni Celsjusza. Można ją osiągnąć w warstwach o grubości liczonej w nanometrach.
Jednak przeskalowanie całości na miliony takich neuronów i uzyskanie podobniej wydajności może być problemem. Stąd m.in. potrzeba znalezienia innego materiału.
« powrót do artykułu -
przez KopalniaWiedzy.pl
HP ma zamiar stworzyć do 2017 roku 256-rdzeniowy procesor Corona, którego rdzenie będą komunikowały się ze sobą za pomocą łączy optycznych. Taka kość miałaby wykonywać 10 biliardów operacji zmiennoprzecinkowych na sekundę, zatem wydajność pięciu układów dorównywałaby wydajności współczesnych superkomputerów. Poszczególne rdzenie wymieniałyby dane z prędkością 20 terabitów na sekundę, a komunikacja między procesorem a pamięcią odbywałaby się z prędkością 10 Tb/s. Co więcej Corona zużywałaby znacznie mniej energii niż współczesne układy, dzięki czemu superkomputerom łatwiej będzie pokonać barierę eksaflopsa (1018 operacji zmiennoprzecinkowych na sekundę).
Obecnie istnieją dwa główne problemy, które znacznie utrudniają zwiększanie wydajności układów scalonych w dotychczasowym tempie. Im więcej rdzeni w procesorze, tym trudniej jest koordynować ich pracę i komunikować je ze sobą. Bardzo trudno jest uzyskać układ posiadający więcej niż 16 rdzeni, który pracowałby jak procesor równoległy. Drugi poważny problem to olbrzymi pobór mocy, który ma miejsce podczas przesyłania danych od i do układów pamięci.
Obie te przeszkody można rozwiązać za pomocą zintegrowanej fotoniki, czyli laserów i łączy optycznych wbudowanych w układ scalony. Przykładem takiej kości może być zaprezentowany właśnie przez IBM-a Holey Optochip. Nad podobnymi rozwiązaniami pracują też Intel (projekt Runnemede), Nvidia (Echelon), Sandia National Laboratory (X-calibur) czy MIT (Angstrom).
Najważniejszą jednak rolę odgrywa zintegrowana fotonika w projekcie Corona. Problem w tym, że część potrzebnej technologii wciąż jeszcze nie została opracowana. Jednak co się powoli zmienia. Od dłuższego już czasu informujemy o postępach na tym polu. Przez ostatnie lata wiele firm pracowało nad poszczególnymi podzespołami, teraz zaczęto łączyć je w układy. To jak przejście od tranzystora do układu scalonego - stwierdził Marco Fiorentino z HP Labs.
HP ma zamiar w każdy rdzeń Corony wbudować laser, który będzie wysyłał informacje do wszystkich innych rdzeni. Jak obliczają specjaliści wykorzystanie elektroniki do stworzenia 10-terabitowego kanału przesyłu danych pomiędzy CPU a pamięcią wymagałoby 160 watów mocy. Zdaniem HP, jeśli zastąpimy elektronikę zintegrowaną fotoniką, pobór mocy spadnie do 6,4 wata.
Zmniejszenie poboru mocy to dla superkomputerów niezwykle istotna sprawa. Najpotężniejsza maszyna na świecie, japoński K Computer, potrzebuje obecnie do pracy 12,6 MW. Jego wydajność wynosi 10,5 PFlops, trzeba by ją zatem zwiększyć niemal 100-krotnie by osiągnąć barierę eksaflopsa.
Zintegrowana fotonika przyczyni się również do obniżenia poboru mocy przez serwery i urządzenia telekomunikacyjne, co odgrywa olbrzymią rolę w internecie, którym przesyłamy coraz większą ilość danych. Z czasem lasery i łącza optyczne mogą trafić też do urządzeń przenośnych, pozwalający na ich dłuższą pracę bez potrzeby ładowania baterii. Również, co niezwykle istotne, w fotonice nie występuje problem interferencji elektromagnetycznej, zatem jej stosowanie np. w samochodach czy samolotach będzie bezpieczniejsze niż stosowanie urządzeń elektronicznych.
Problemem jest też stworzenie miniaturowych laserów, które można będzie budować za pomocą dostępnych technologii. Jako, że z krzemu nie można generować światła, specjaliści badają inne materiały, przede wszystkim arsenek galu i fosforek indu. Ostatnio MIT zainteresował się też germanem.
Trwają również intensywne prace nad rozwojem technologii TSV (through silicon vias). Pozwoli się ona pozbyć szyn, za pomocą których łączą się ze sobą poszczególne układy. Szyny stanowią dla danych wąskie gardło i zużywają sporo energii. TSV pozwala układać na sobie układy scalone (powstają w ten sposób układy 3D) i łączyć je kablami poprowadzonymi wewnątrz takiego stosu układów, co zwiększa przepustowość, a jednocześnie zmniejsza zużycie prądu i pozwala na zaoszczędzenie miejsca na płycie głównej.
W projekcie Corona HP chce połączyć obie technologie - 3D i zintegrowaną fotonikę. Dzięki temu ma powstać 256-rdzeniowy procesor zbudowany z 64-rdzeniowych klastrów. Całość zostanie wykonana w procesie 16 nanometrów i będzie połączona łączami optycznymi.
-
przez KopalniaWiedzy.pl
Hewlett-Packard jest twórcą pierwszej na rynku stacji roboczej typu all-in-one. W 27-calowym wyświetlaczu zamknięto całą maszynę, w tym serwerowy procesor, kartę graficzną i zasilacz. Jin Zafarana, dyrektor HP ds. stacji roboczych powiedział, że klienci chcieli mieć więcej miejsca na biurkach, stąd pomysł na stację robocza all-in-one.
Zdaniem Zafarany Z1 można porównać do Z800, najbardziej wydajnej stacji roboczej HP. „Dostarczamy moc stacji roboczej, ale bez obudowy typu tower“ - mówi Zafarana.
W Z1 zastosowano procesor Xeon, kartę graficzną Nvidia Quadro oraz 400-watowy zasilacz. Urządzenie wyposażono w kamerę i porty USB 3.0. Jest tam też miejsce na dwa dyski twarde i czytnik Blu-ray. Użytkownik łatwo może zdemontować wyświetlacz i wymieniać poszczególne elementy.
-
przez KopalniaWiedzy.pl
Ze złożonych w sądzie dokumentów dowiadujemy się, że HP zapłacił Intelowi 690 milionów dolarów, by półprzewodnikowy koncern utrzymał produkcję i rozwój procesorów Itanium do roku 2017. Najpierw na podstawie umowy z 2008 roku HP zapłacił 440 milionów za przedłużenie życia Itanium do roku 2014. W 2010 roku obowiązywanie umowy przedłużono do 2017, a HP dopłacił 250 milionów USD.
Producenci oprogramowania, tacy jak Microsoft czy Red Hat, zaprzestali rozwijania aplikacji dla architektury Itanium, gdyż wiedzą, że jej czas dobiega końca. Wielcy producenci sprzętu, jak Dell czy IBM już od lat nie oferują serwerów z Itanium. Nawet sam Intel przestał w ubiegłym roku wspierać Itanium w kompilatorach C/C++ i Fortrana. Co więcej, część swojego zespołu pracującego nad Itanium Intel skierował już do prac nad projektami związanymi z układami Xeon.
HP potrzebuje utrzymania Itanium, gdyż jego najważniejsze produkty - HP-UX, OpenVMS czy NonStop - korzystają właśnie z niej i miną całe lata, zanim uda się stworzyć ich odpowiedniki dla Xeona. Koncern jednak musi się spieszyć. Sprzedaż platformy Itanium spada od wielu lat, a sztuczne utrzymywanie Itanium nie tylko kosztuje go setki milionów dolarów, które musi płacić Intelowi, ale naraża na szwank jego relacje z innymi firmami. O wysokości opłat wnoszonych na rzecz Intela dowiedzieliśmy się bowiem przy okazji sporu sądowego pomiędzy HP a Oracle’em. HP twierdzi, że Oracle złamał umowę zaprzestając produkcji oprogramowania dla Itanium, a zrobił to, by promować własne serwery z architekturą Sun SPARC. Oracle zaś twierdzi, że HP postępowało niewłaściwie, nie informując klientów o przyszłości Itanium. Przed trzema dniami sąd orzekł, że obie firmy postępowały niewłaściwie. HP, gdyż nie informował swoich partnerów, klientów i pracowników o planach dotyczących Itanium, a Oracle, gdyż wykorzystało fałszywy pretekst do zaprzestania produkcji programów dla Itanium w celu promowania platformy SPARC.
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.