Slidetronika sposobem na dalszą miniaturyzację układów pamięci?
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Stała struktury subtelnej (α) to być może najważniejsza ze stałych we wszechświecie. Opisuje siłę oddziaływań elektromagnetycznych i jest kombinacją trzech podstawowych stałych przyrody – ładunku elektronu, stałej Plancka i prędkości światła. Istnieje wiele metod pomiaru tej stałej. Zwykle pomiary takie są dokonywane pośrednio, poprzez pomiar innych właściwości fizycznych i obliczenie na tej podstawie wartości α. Na Uniwersytecie Technicznym w Wiedniu (TU Wien) przeprowadzono eksperyment, w trakcie którego udało się po raz pierwszy bezpośrednio zmierzyć wartość stałej struktury subtelnej.
Stała struktury subtelnej opisuje siłę oddziaływań elektromagnetycznych. Wskazuje, z jaką siłą naładowane cząstki, takie jak elektrony, reagują z polem magnetycznym. Jej wartość wynosi 1/137, gdyby była nieco inna – powiedzmy 1/136 – świat, jaki znamy, nie mógłby istnieć Atomy miałyby inne rozmiary, wszystkie procesy chemiczne przebiegałyby inaczej, inaczej też przebiegałyby reakcje termojądrowe w gwiazdach. Co interesujące, naukowcy spierają się o to, czy stała struktury subtelnej jest rzeczywiście stałą, czy też w ciągu miliardów lat jej wartość uległa niewielkim zmianom.
Większość ważnych stałych fizycznych to wartości wymiarowe, wyrażane w konkretnych jednostkach, na przykład prędkość światła wyrażamy w metrach na sekundę. Stała struktury subtelnej jest inna. Nie ma tutaj jednostek, to po prostu liczba. Jest to stała bezwymiarowa, wyjaśnia profesor Andrei Pimenow z Instytutu Fizyki Ciała Stałego na TU Wien.
Pimenov oraz jego koledzy z TU Wien i naukowcy z Uniwersytetu Kalifornijskiego w Los Angeles przeprowadzili pierwszy eksperyment, podczas którego możliwe było dokonanie bezpośrednich pomiarów wartości stałej struktury subtelnej.
Światło lasera jest spolaryzowane liniowo, oscyluje wertykalnie. Gdy podczas eksperymentu trafia na dysk z materiału o grubości liczonej w nanometrach, jego polaryzacja ulega zmianie. Samo w sobie nie jest to niczym niezwykłym. Wiele materiałów powoduje zmianę polaryzacji światła laserowego. Dzięki interakcji fotonów z polem elektromagnetycznym można polaryzację można obracać. Przy silnych polach magnetycznych i w niskich temperaturach pojawia się kwantowy efekt Halla, a zmiany polaryzacji są proporcjonalne do stałej struktury subtelnej. Jednak konieczność używania silnego pola magnetycznego powoduje, że trzeba uwzględnić je w równaniach opisujących α, co utrudnia przygotowanie eksperymentu.
Podczas ostatniego eksperymentu naukowcy wykorzystali światło terahercowego lasera, które nakierowali na cienki dysk izolatora topologicznego o wzorze chemicznym (Cr0.12Bi0.26Sb0.62)2Te3. Materiał zawiera chrom, ma więc wbudowane pole magnetyczne. Gdy naukowcy przyjrzeli się zmianie polaryzacji światła po przejściu przez dysk okazało się, że doszło do skokowej, a nie płynnej, zmiany kąta polaryzacji i wynosiła ona tyle, ile wartość α. Stała struktury subtelnej jest tutaj natychmiast widoczna jako kąt, cieszy się Pimenov.
I mimo że pomiary te nie dały tak dokładnego wyniku, jak pomiary pośrednie, to – jak podkreśla Pimenov – główną korzyścią jest tutaj możliwość otrzymania podstawowej stałej fizycznej z bezpośredniego eksperymentu, a nie poleganie na innych pomiarach i precyzji kalibracji sprzętu.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Światło posiada niezwykle interesującą cechę. Jego fale o różnej długości nie wchodzą ze sobą w interakcje. Dzięki temu można jednocześnie przesyłać wiele strumieni danych. Podobnie, światło o różnej polaryzacji również nie wchodzi w interakcje. Zatem każda z polaryzacji mogłaby zostać wykorzystana jako niezależny kanał przesyłania i przechowywania danych, znakomicie zwiększając gęstość informacji.
Naukowcy z Uniwersytetu Oksfordzkiego poinformowali właśnie o opracowaniu metody wykorzystania polaryzacji światła do zmaksymalizowania gęstości danych. Wszyscy wiemy, że przewaga fotoniki nad elektronika polega na tym, że światło przemieszcza się szybciej i jest bardziej funkcjonalne w szerokich zakresach. Naszym celem było wykorzystanie wszystkich zalet fotoniki połączonych z odpowiednim materiałem, dzięki czemu chcieliśmy uzyskać szybsze i gęstsze przetwarzanie informacji, mówi główny autor badań, doktorant June Sang Lee.
Jego zespół, we współpracy z profesorem C. Davidem Wrightem z University of Exeter, opracował nanowłókno HAD (hybrydyzowane-aktywne-dielektryczne). Każde z nanowłókien wyróżnia się selektywną reakcją na konkretny kierunek polaryzacji, zatem możliwe jest jednoczesne przetwarzanie danych przenoszonych za pomocą różnych polaryzacji. Stało się to bazą do stworzenia pierwszego fotonicznego procesora wykorzystującego polaryzację światła. Szybkość obliczeniowa takiego procesora jest większa od procesora elektronicznego, gdyż poszczególne nanowókna są modulowane za pomocą nanosekundowych impulsów optycznych. Nowy układ może być ponad 300-krotnie bardziej wydajny niż współczesne procesory.
To dopiero początek tego, co możemy osiągnąć w przyszłości, gdy uda się nam wykorzystać wszystkie stopnie swobody oferowane przez światło, w tym polaryzację. Dzięki temu uzyskamy niezwykły poziom równoległego przetwarzania danych. Nasze prace wciąż znajdują się na bardzo wczesnym etapie, dlatego też szacunki dotyczące prędkości pracy takiego układu wciąż wymagają eksperymentalnego potwierdzenia. Mamy jednak niezwykle ekscytujące pomysły łączenia elektroniki, materiałów nieliniowych i komputerów, komentuje profesor Harish Bhakaran, który od ponad 10 lat prowadzi prace nad wykorzystaniem światła w technologiach obliczeniowych.
Ze szczegółami pracy można zapoznać się w artykule Polarisation-selective reconfigurability in hybridized-active-dielectric nanowires opublikowanym na łamach Science Advances.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Firma Samsung Electronics poinformowała o stworzeniu pierwszego modułu High Bandwidth Memory (HBM) zintegrowanego z modułem obliczeniowym wykorzystującym sztuczną inteligencję – HBM-PIM. Architektura processing-in-memory (PIM) umieszczona wewnątrz wysokowydajnych modułów pamięci ma służyć przede wszystkim przyspieszeniu przetwarzania danych w centrach bazodanowych, systemach HPC (High Performance Computing) oraz aplikacjach mobilnych.
Nasz HBM-PIM to pierwsze programowalne rozwiązanie PIM przeznaczone dla różnych zastosowań z wykorzystaniem sztucznej inteligencji. Planujemy rozszerzenie współpracy z dostawcami rozwiązań z zakresu sztucznej inteligencji, dzięki czemu będziemy mogli zaproponować coraz bardziej zaawansowane rozwiązania korzystające z PIM, stwierdził wiceprezes Samsunga, Kwangil Park.
Większość współczesnych systemów komputerowych bazuje na architekturze von Neumanna, zgodnie z którą dane są przechowywane i przetwarzane w osobnych układach. Taka architektura wymaga ciągłego przesyłania informacji pomiędzy układami, przez co – szczególnie w systemach operujących na olbrzymich zestawach danych – powstaje wąskie gardło spowalniające pracę całego systemu komputerowego.
Architektura HBM-PIM zakłada wykorzystanie modułu przetwarzania danych w miejscu, w którym dane się znajdują. Uzyskano to poprzez umieszczenie wewnątrz każdego modułu pamięci silnika SI zoptymalizowanego pod kątem współpracy z układami DRAM. W ten sposób umożliwiono równoległe przetwarzanie danych i zminimalizowano potrzebę ich przesyłania.
Samsung informuje, że po połączeniu HBM-PIM z obecnym już na rynku rozwiązaniem HBM2 Aquabolt pozwoliło na dwukrotne zwiększenie wydajności systemu przy jednoczesnym 70-procentowym spadku zapotrzebowania na energię. Koreańczycy podkreślają, że HBM-PIM nie wymaga żadnych zmian sprzętowych ani programowych, zatem łatwo można je zastosować w już istniejących systemach.
HBM-PIM zapewnia imponujący wzrost wydajności przy jednoczesnym olbrzymim spadku zapotrzebowania na energię w kluczowych rozwiązaniach SI, zatem z zainteresowaniem oczekujemy na możliwość sprawdzenia jego wydajności w rozwiązywaniu problemów nad którymi pracujemy w Argonne, stwierdził Rick Stevens, dyrektor ds. obliczeniowych, środowiskowych i nauk biologicznych w Argonne National Laboratory.
Szczegóły HBM-PIM zostaną zaprezentowane 22 lutego podczas International Solid-State Circuits Virtual Conference (ISSCC).
« powrót do artykułu -
przez KopalniaWiedzy.pl
Międzynarodowa grupa naukowa pracująca pod przewodnictwem inżynierów z Narodowego Uniwersytetu Singapuru opracowała nowe urządzenie spintroniczne do manipulowania cyfrową informacją. Jest ono 20-krotnie bardziej wydajne i 10-krotnie bardziej stabilne niż dostępne obecnie rozwiązania komercyjne. Nowe urządzenie zostało opracowane we współpracy z naukowcami z Instytutu Technologicznego Toyoty oraz Uniwersytetu Koreańskiego.
Nasze odkrycie może stać się nową platformą rozwojową dla przemysłu spintronicznego, który obecnie zmaga się z problemami związanymi z niestabilnością i skalowalnością, gdyż wykorzystuje się tutaj bardzo cienkie elementy magnetyczne, mówi profesor Yang Hyunso z Singapuru.
Obecnie na świecie powstają olbrzymie ilości cyfrowych informacji. Istnieje więc duże zapotrzebowanie na tanie, energooszczędne, stabilne i skalowalne produkty do przechowywania tej informacji i manipulowania nią. Stawiane warunki mogłyby spełniać materiały spintroniczne bazujące na rozwiązaniach ferromagnetycznych. Jednak wciąż są one bardzo drogie z powodu problemów ze skalowalnością i stabilnością. Układy pamięci bazujące na ferromagnetykach nie mogą mieć grubości większej niż kilka nanometrów, gdyż efektywność ich okablowania wykładniczo spada wraz z rosnącą grubością. Zaś obecna grubość jest niewystarczająca, by zapewnić stabilne przechowywanie danych w warunkach naturalnie wahających się temperatur, wyjaśnia doktor Yu Jiawei.
Uczeni, aby poradzić sobie z tym problemem, zaprzęgli do pracy materiały ferrimagnetyczne. Zauważyli, że mogą być one 10-krotnie grubsze niż materiały ferromagnetyczne i nie wpływa to na ich wydajność. W ferrimagnetykach spin elektronów napotyka na minimalne opory. To jest taka różnica, jakbyśmy jechali samochodem drogą 8-pasmową, w porównaniu do jazdy 1-pasmową ulicą w mieście. Dla spinu ferromagnetyk to jak wąska ulica w mieście, zaś ferrimagnetyk jest jak szeroka autostrada, mówi jeden z badaczy, Rahul Mishra.
Pamięć stworzona z materiału ferrimagnetycznego okazała się 10-krotnie bardziej stabilna i 20-krotnie bardziej wydajna niż pamięć z ferromagnetyku. Zdaniem profesora Yanga, za różnicę w wydajności odpowiada unikatowe uporządkowanie atomów.W ferrimagnetykach sąsiadujące ze sobą domeny magnetyczne są zwrócone do siebie przeciwnymi znakami. Zaburzenia spinu powodowane przez jeden atom, są kompensowane przez sąsiedni. Dzięki temu informacja może przepływać szybciej, dalej i przy mniejszym zużyciu energii, stwierdził.
Na kolejnym etapie badań naukowcy przyjrzą się już nie tylko problemowi przesyłania informacji w ferrimagnetykach, ale zbadają też tempo jej odczytu i zapisu. Spodziewają się, że będzie ono niezwykle szybkie. Chcą też rozpocząć współpracę z przemysłem, by ich wynalazek jak najszybciej trafił do praktycznego użycia.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Przed dwoma laty firma Nantero ogłosiła, że pamięci NRAM CNT (carbon nanotubes) są gotowe do produkcji i mogą być używane w układach system-on-a-chip. Teraz podczas konferencji Hot Chips 2018 poinformowano, że nowa technologia przeszła wszelkie testy świadczące o jej przydatności do produkcji masowej, a nowe kości mogą być używane jako nieulotna alternatywa dla układów DDR4.
Prace nad układami CNT rozpoczęto w 2001 roku, a w roku 2016 zaprezentowano 256 megabitowe układy i ogłoszono, że zadebiutują one w roku 2018 we współpracy z Fujitsu. Teraz dowiadujemy się, że Nantero jest gotowa do produkcji większych ilości układów, a kości będą dostępne od przyszłego roku.
Komórki pamięci korzystają z nanorurek umieszczonych na podłożu, na którym są kontrolowane za pomocą impulsów elektromagnetycznych. Nanorurki znajdują się pomiędzy dwiema elektrodami i, w zależności od tego czy są skrzyżowane czy nie, zmienia się oporność. Dzięki pomiarom oporności można określić dwa stany, reprezentujące 0 i 1. Gdy rurki się nie stykają, oporność jest wysoka, interpretowana jako 1. Gdy się stykają, oporność spada i interpretowana jest jako 0.
Nantero twierdzi, że tego typu rozwiązanie ma wiele zalet. Kości CNT są niezwykle wytrzymałe. Ich szacowany czas pracy w temperaturze pokojowej to 10 000 lat. Wydajność zaś powinna dorównywać wydajności układów DD4. To zaś, w połączeniu z nieulotnością sprawia, ze są konkurencyjne wobec rozwiązań 3D XPoint i NAND Flash.
Fujitsu oświadczyło, że ma zamiar doprowadzić do rynkowego debiutu NRAM. Nie wiadomo, kiedy to się tanie, gdyż pozostały jeszcze pewne problemy do rozwiązania. W najbliższym czasie przekonamy się, że firma spełni swoja zapowiedź sprzed dwóch lat i przed końcem bieżącego roku zadebiutuje 256-megabitowy układ.
Nintero określa się jako firmę ARM, co oznacza, że będzie udzielała licencji na swoje układy, ale sama nie ma zamiaru ich produkować. Wiadomo, że obecnie gotowe są też projekty 8- i 16-gigabitowych układów składających się z, odpowiednio, 2 i 4 warstw, które mogą być wytwarzane w procesie 28 nanometrów. Firma za zamiar opracować projekt 8-warstwowych 512-gigabitowych układów produkowanych w procesie 7 nanometrów, jednak przygotowanie takiego projektu może zająć wiele lat.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.