Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Koniec miniaturyzacji? Chińczycy stworzyli tranzystor od długości bramki 0,34 nm

Rekomendowane odpowiedzi

Od dekad tranzystory są mniejsze i mniejsze. Dzięki temu w procesorze możemy upakować ich więcej. To zaś najłatwiejszy sposób na zwiększenie wydajności procesora. Powoli zbliżamy się do momentu, w którym nie będziemy już w stanie zmniejszać długości bramki tranzystora. Niewykluczone, że Chińczycy właśnie dotarli do tej granicy.

Prąd w tranzystorze przepływa pomiędzy źródłem a drenem. Przepływ ten kontrolowany jest przez bramkę, która przełącza się pod wpływem napięcia. Długość bramki to kluczowy czynnik decydujący o rozmiarach tranzystora.

W ostatnich latach naukowcy zaczęli eksperymentować z nowymi materiałami, z których chcą budować elektronikę przyszłości. W obszarze ich zainteresowań jest na przykład grafen – dwuwymiarowy materiał składający się z pojedynczej warstwy atomów węgla – czy disiarczek molibdenu, czyli warstwa atomów molibdenu zamknięta między dwiema warstwami siarki.
Teraz specjaliści z Chin wykorzystali te materiały do zbudowania rekordowo małego tranzystora. Długość jego bramki wynosi zaledwie 0,34 nanometra. To tyle, co średnica atomu węgla.

Nowy tranzystor można porównać do dwóch schodów. Na górnym znajduje się źródło, na dolnym zaś dren. Oba zbudowane są z tytanu i palladu. Powierzchnia schodów działa jak łączący je kanał. Jest ona zbudowana w pojedynczej warstwy disiarczku molibdenu, pod którą znajduje się izolująca warstwa ditlenku hafnu. Wyższy stopień zbudowany jest z wielu warstw. Na samy dole znajduje sie warstwa grafenu, nad nią zaś aluminium pokryte tlenkiem aluminium. Jego zadaniem jest oddzielenie grafenu i disiarczku molibdenu. Jedynym miejscem ich połączenia jest widoczna na grafice niewielka szczelina w wyższym stopniu.
Gdy bramka zostaje ustawiona w pozycji „on” jej długość wynosi zaledwie 0,34 nm. Autorzy nowego tranzystora twierdzą, że nie uda się tej odległości już bardziej zmniejszyć. Na pewno zaś próba zbudowania jeszcze mniejszych tranzystorów będzie wymagała nowatorskiego podejścia do materiałów dwuwymiarowych.

Ze szczegółami pracy zespołu z Tsinghua University można zapoznać się na łamach Nature.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Światło posiada niezwykle interesującą cechę. Jego fale o różnej długości nie wchodzą ze sobą w interakcje. Dzięki temu można jednocześnie przesyłać wiele strumieni danych. Podobnie, światło o różnej polaryzacji również nie wchodzi w interakcje. Zatem każda z polaryzacji mogłaby zostać wykorzystana jako niezależny kanał przesyłania i przechowywania danych, znakomicie zwiększając gęstość informacji.
      Naukowcy z Uniwersytetu Oksfordzkiego poinformowali właśnie o opracowaniu metody wykorzystania polaryzacji światła do zmaksymalizowania gęstości danych. Wszyscy wiemy, że przewaga fotoniki nad elektronika polega na tym, że światło przemieszcza się szybciej i jest bardziej funkcjonalne w szerokich zakresach. Naszym celem było wykorzystanie wszystkich zalet fotoniki połączonych z odpowiednim materiałem, dzięki czemu chcieliśmy uzyskać szybsze i gęstsze przetwarzanie informacji, mówi główny autor badań, doktorant June Sang Lee.
      Jego zespół, we współpracy z profesorem C. Davidem Wrightem z University of Exeter, opracował nanowłókno HAD (hybrydyzowane-aktywne-dielektryczne). Każde z nanowłókien wyróżnia się selektywną reakcją na konkretny kierunek polaryzacji, zatem możliwe jest jednoczesne przetwarzanie danych przenoszonych za pomocą różnych polaryzacji. Stało się to bazą do stworzenia pierwszego fotonicznego procesora wykorzystującego polaryzację światła. Szybkość obliczeniowa takiego procesora jest większa od procesora elektronicznego, gdyż poszczególne nanowókna są modulowane za pomocą nanosekundowych impulsów optycznych. Nowy układ może być ponad 300-krotnie bardziej wydajny niż współczesne procesory.
      To dopiero początek tego, co możemy osiągnąć w przyszłości, gdy uda się nam wykorzystać wszystkie stopnie swobody oferowane przez światło, w tym polaryzację. Dzięki temu uzyskamy niezwykły poziom równoległego przetwarzania danych. Nasze prace wciąż znajdują się na bardzo wczesnym etapie, dlatego też szacunki dotyczące prędkości pracy takiego układu wciąż wymagają eksperymentalnego potwierdzenia. Mamy jednak niezwykle ekscytujące pomysły łączenia elektroniki, materiałów nieliniowych i komputerów, komentuje profesor Harish Bhakaran, który od ponad 10 lat prowadzi prace nad wykorzystaniem światła w technologiach obliczeniowych.
      Ze szczegółami pracy można zapoznać się w artykule Polarisation-selective reconfigurability in hybridized-active-dielectric nanowires opublikowanym na łamach Science Advances.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W piśmie Energy & Environmental Science ukazał się artykuł opisujący mikroprocesor zasilany procesem fotosyntezy. Twórcami niewielkiego systemu są naukowcy z University of Cambridge, a ich procesor pracuje bez przerwy od ponad roku. Ich badania dają nadzieję na stworzenie stabilnego, odnawialnego źródła zasilania dla niewielkich urządzeń.
      Wielkość całego systemu jest porównywalna z rozmiarami baterii AA. W jego skład wchodzą glony z rodzaju Synechocystis, niewielka aluminiowa elektroda i mikroprocesor. Całość zbudowana jest z tanich, powszechnie dostępnych i w większości poddających się recyklingowi materiałów. Twórcy systemu mówią, że najbardziej się on przyda w miejscach, gdzie brak jest dostępu do sieci energetycznych, a potrzebne są niewielkie ilości energii np. do zasilania czujników.
      Rozrastający się Internet of Things zwiększa zapotrzebowanie na energię elektryczną. Myślimy, że mamy tutaj rozwiązanie pozwalające na generowanie jej niewielkich ilości na bieżące potrzeby, mówi jeden z twórców systemu, profesor Christopher Howe. W naszym systemie nie występuje problem wyczerpania energii, gdyż do jej wytwarzania wykorzystywane jest światło słoneczne, dodaje.
      Podczas prowadzonego właśnie eksperymentu glony wykorzystywane są do zasilania procesora Arm Cortex M0+, który powszechnie wykorzystywany jest w Internet of Things. Zasilany glonami procesor pracował zarówno w warunkach domowych jak i na zewnątrz. Był wystawiony na naturalne zmiany światła i temperatury. Byliśmy pod wrażeniem ciągłości jego pracy. Sądziliśmy, że całość może ulec awarii po kilku tygodniach, ale tak się nie stało, mówi doktor Paolo Bombelli z Wydziału Biochemii University of Cambridge.
      Glony nie potrzebują specjalnego odżywiania, gdyż zapewniają sobie – i procesorowi – energię drogą fotosyntezy. I mimo tego, że do jej przeprowadzenia konieczne jest światło, procesor był zasilany nawet w okresach, gdy panowała ciemność. Glony wciąż prowadziły procesy metaboliczne.
      Twórcy systemu zwracają uwagę, że zasilanie miliardów Internet of Things stosowanymi obecnie akumulatorami litowo-jonowymi byłoby niepraktyczne. Potrzebne do tego byłoby więcej litu, niż obecnie wytwarzamy. A tradycyjne ogniwa fotowoltaiczne wytwarzane są z użyciem materiałów niebezpiecznych dla środowiska. Stąd potrzeba opracowania nowych, stabilnych i przyjaznych środowisku źródeł energii.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Microsoft zatrudnił byłego projektanta układów scalonych Apple'a, , który wcześniej pracował też w firmach Arm i Intel,  trafił do grupy kierowanej przez Raniego Borkara, zajmującej się rozwojem chmury Azure. Zatrudnienie Filippo wskazuje, że Microsoft chce przyspieszyć prace nad własnymi układami scalonymi dla serwerów tworzących oferowaną przez firmę chmurę. Koncern idzie zatem w ślady swoich największych rywali – Google'a i Amazona.
      Obecnie procesory do serwerów dla Azure są dostarczane przez Intela i AMD. Zatrudnienie Filippo już odbiło się na akcjach tych firm. Papiery Intela straciły 2% wartości, a AMD potaniały o 1,1%.
      Filippo rozpoczął pracę w Apple'u w 2019 roku. Wcześniej przez 10 lat był głównym projektantem układów w firmie ARM. A jeszcze wcześniej przez 5 lat pracował dla Intela. To niezwykle doświadczony inżynier. Właśnie jemu przypisuje się wzmocnienie pozycji układów ARM na rynku telefonów i innych urządzeń.
      Od niemal 2 lat wiadomo, że Microsoft pracuje nad własnymi procesorami dla serwerów i, być może, urządzeń Surface.
      Giganci IT coraz częściej starają się projektować własne układy scalone dla swoich urządzeń, a związane z pandemią problemy z podzespołami tylko przyspieszyły ten trend.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Powszechna obecność komputerów kwantowych to wciąż dość odległa przyszłość, jednak specjaliści już pracują nad kryptografią postkwantową, czyli technikami kryptograficznymi mającymi na celu uchronienie nas przed atakami przeprowadzanymi za pomocą komputerów kwantowych. Algorytmy takie wymagają jednak olbrzymich mocy obliczeniowych. Teraz naukowcy z Niemiec ogłosili, że stworzyli układ scalony, który bardzo efektywnie wykorzystuje tego typu algorytmy i może rozpocząć epokę kryptografii postkwantowej.
      Większość współczesnej kryptografii korzysta z faktu, że komputery klasyczne potrzebują bardzo dużo czasu do rozwiązania złożonych problemów matematycznych, takich jak faktoryzacja (rozkład na czynniki) wielkich liczb. Jednak komputery kwantowe będą radziły sobie z takimi obliczeniami błyskawicznie. A przeprowadzenie udanej faktoryzacji oznacza we współczesnej kryptografii złamanie szyfru.
      Dlatego też specjaliści już od lat projektują algorytmy dla kryptografii postkwantowej. To problemy matematyczne, które mają sprawiać dużą trudność zarówno komputerom klasycznym jak i kwantowym. Wiele z nich to algorytmy kratowe. Ta krata to zbiór punktów w przestrzeni z periodyczną strukturą. W strukturze tej można zapisać wektory. Zaszyfrowana wiadomość zależy od jednego z tych punktów/wektorów. Do kraty dodawany jest też losowy szum, a cała trudność polega na tym, by – nie wiedząc jaki szum został dodany – znaleźć oryginalny punkt/wektor za pomocą którego zaszyfrowano wiadomość i go odszyfrować.
      Odszyfrowanie tak zabezpieczonej wiadomości jest trudne zarówno dla komputerów klasycznych jak i kwantowych. Jednak wykorzystanie takiego algorytmu wymaga bardzo dużych mocy obliczeniowych. Georg Sigl i jego koledzy z Uniwersytetu Technicznego w Monachium właśnie rozwiązali ten problem.
      Wspólnie z Siemensem, Infineonem i Giesecke+Devrient stworzyli układ scalony oparty na opensource'owej architekturze RISC-V. Zarówno układ jak i pracujące na nim oprogramowanie zostały zoptymalizowane pod kątem pracy z algorytmami kratowymi.
      W porównaniu z rozwiązaniami bazującymi tylko na oprogramowaniu, nowy układ jest 10-krotnie szybszy podczas pracy z Kyberem, jednym z najbardziej obiecujących algorytmów kratowych. Wykorzystuje też 8-krotnie mniej energii. Co więcej układ jest na tyle elastyczny, że pracuje też z SIKE, innym algorytmem kryptografii postkwantowej, który nie jest algorytmem kratowym. W tym przypadku ma być on 21-krotnie szybszy niż rozwiązania czysto software'owe.
      Twórcy nowego układu pracują też nad rozwiązaniem innego problemu bezpieczeństwa – trojanów sprzętowych. To złośliwe elementy sprzętowe celowo wprowadzane do układów scalonych. Sigle i jego grupa wbudowali w swój układ cztery takie trojany.
      Aby wiedzieć, czy można zaufać danemu chipowi, musimy posiadać metody jego weryfikacji. Chcemy się dowiedzieć, w jaki sposób można sprawdzić sam sprzęt i wykryć w nim sprzętowe trojany, wyjaśnia Sigl. Każdy z trojanów, które badają specjaliści z Monachium, działa w inny sposób. Jeden może zmniejszać wydajność układu, inny zaś przekazywać dane na zewnątrz. Celem badań jest stworzenie metod identyfikacji tego typu zagrożeń. Na razie udało się opracować trzy metody wykrywania sprzętowych trojanów na etapie projektowania układu scalonego.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Jeszcze w bieżącym roku ma zadebiutować kolejna edycja systemu operacyjnego Microsoftu – Windows 11. Koncern z Redmond opublikował minimalną specyfikację sprzętową, jaka będzie koniczna, by zaktualizować komputer i okazało się, że wielu użytkowników nie będzie mogło tego zrobić. Windows 11 nie będzie bowiem wspierał wszystkich procesorów. Nie zainstalujemy go na procesorze starszym nią 4–5 lat.
      Microsoft opublikował dokładne listy układów Intela, AMD i Qualcommu, na których można będzie zainstalować najnowszy system operacyjny. Co ciekawe, na liście tej nie ma układu Intel Core i7-7820HQ, który używany jest w microsoftowym notebooku Surface Studio 2. Jak można się domyślać, użytkownicy tego sprzętu nie są zbytnio zadowoleni z faktu, że nie otrzymają najnowszego Windowsa.
      Jednak nie tylko oni. MiIiony osób korzystających obecnie z Windows 10 nie będzie mogło zaktualizować systemu do jego najnowszej edycji. Za pomocą aplikacji PC Health Check możemy sprawdzić, czy nasz komputer spełnia minimalne wymagania, by zainstalować na nim Windows 11.
      Nie do końca jest jasne, na ile ściśle zasady te będą jednak przestrzegane. Już wcześniej menedżerowie Microsoftu sugerowali, że – po wyświetleniu ostrzeżenia – Windows 11 zainstaluje się na części teoretycznie niewspieranych procesorów. Na stronie polskiego Microsoftu czytamy, że na urządzeniach, które nie spełniają minimalnych wymagań zainstalowanie Windows 11 może okazać się niemożliwe.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...