Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Problemy z EUV rozwiązane, za kilka lat powstaną 2-nanometrowe kości?

Rekomendowane odpowiedzi

AMD zaprezentowało niedawno 7-nanometrowe procesory z rodziny Ryzen 3, a Samsung może w ciągu najbliższych miesięcy rozpocząć produkcję kości w technologii 5-nanometrów. Stało się to możliwe dzięki temu, że w końcu poradzono sobie z problemami trapiącymi litografię w ekstremalnie dalekim ultrafiolecie (EUV).

Świat czekał na litografię EUV od 15 lat. To technika litograficzna kolejnej generacji, która pracuje ze źródłem światła o długości fali 13,4–13,7 nanometra.

Możliwości EUV nie kończą się jednak na kościach AMD i Samsunga. W ciągu 6 lat możemy być świadkami debiutu pierwszych układów z bramką o długości 2 nanometrów. Postęp oznacza też, że świat znowu odskoczył Chinom. Państwo środka może nie być w stanie dorównać możliwościom technologicznym firm z USA, Korei Południowej i Tajwanu przez kolejnych 10–15 lat. Chiny importują większość układów scalonych, sprzedaż najnowszego sprzętu litograficznego do Chin jest zablokowana, nałożono też ograniczenia na zatrudnianie przez chińskie firmy czołowych światowych specjalistów od litografii.

Chińskie zapóźnienie to m.in. wynik mniejszych wydatków na prace badawczo-rozwojowe. W 2018 roku największy chiński producent półprzewodników, Semiconductor Manufacturing International, wydał na prace badawczo-rozwojowe 550 milionów dolarów. Rok wcześniej Intel przeznaczył na ten cel ponad 13 miliardów USD.

Dzięki EUV w ciągu najbliższej dekady możemy zejść do poziomu 2-nanometrowych układów scalonych. Co dalej? Trudno powiedzieć. Musimy zdać sobie sprawę, że odległości pomiędzy atomami krzemu w sieci krystalicznej wynoszą około 0,27 nanometrów. Oznacza to, że 2-nanometrowa bramka logiczna będzie miała szerokość zaledwie 7 atomów. Można się spodziewać wielu różnych propozycji nowych architektur. Producenci półprzewodników będą musieli coś wymyślić, zanim pojawi się technologia pozwalająca wytwarzać jeszcze mniejsze bramki logiczne. Na nią przyjdzie nam jednak sporo poczekać.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Światło posiada niezwykle interesującą cechę. Jego fale o różnej długości nie wchodzą ze sobą w interakcje. Dzięki temu można jednocześnie przesyłać wiele strumieni danych. Podobnie, światło o różnej polaryzacji również nie wchodzi w interakcje. Zatem każda z polaryzacji mogłaby zostać wykorzystana jako niezależny kanał przesyłania i przechowywania danych, znakomicie zwiększając gęstość informacji.
      Naukowcy z Uniwersytetu Oksfordzkiego poinformowali właśnie o opracowaniu metody wykorzystania polaryzacji światła do zmaksymalizowania gęstości danych. Wszyscy wiemy, że przewaga fotoniki nad elektronika polega na tym, że światło przemieszcza się szybciej i jest bardziej funkcjonalne w szerokich zakresach. Naszym celem było wykorzystanie wszystkich zalet fotoniki połączonych z odpowiednim materiałem, dzięki czemu chcieliśmy uzyskać szybsze i gęstsze przetwarzanie informacji, mówi główny autor badań, doktorant June Sang Lee.
      Jego zespół, we współpracy z profesorem C. Davidem Wrightem z University of Exeter, opracował nanowłókno HAD (hybrydyzowane-aktywne-dielektryczne). Każde z nanowłókien wyróżnia się selektywną reakcją na konkretny kierunek polaryzacji, zatem możliwe jest jednoczesne przetwarzanie danych przenoszonych za pomocą różnych polaryzacji. Stało się to bazą do stworzenia pierwszego fotonicznego procesora wykorzystującego polaryzację światła. Szybkość obliczeniowa takiego procesora jest większa od procesora elektronicznego, gdyż poszczególne nanowókna są modulowane za pomocą nanosekundowych impulsów optycznych. Nowy układ może być ponad 300-krotnie bardziej wydajny niż współczesne procesory.
      To dopiero początek tego, co możemy osiągnąć w przyszłości, gdy uda się nam wykorzystać wszystkie stopnie swobody oferowane przez światło, w tym polaryzację. Dzięki temu uzyskamy niezwykły poziom równoległego przetwarzania danych. Nasze prace wciąż znajdują się na bardzo wczesnym etapie, dlatego też szacunki dotyczące prędkości pracy takiego układu wciąż wymagają eksperymentalnego potwierdzenia. Mamy jednak niezwykle ekscytujące pomysły łączenia elektroniki, materiałów nieliniowych i komputerów, komentuje profesor Harish Bhakaran, który od ponad 10 lat prowadzi prace nad wykorzystaniem światła w technologiach obliczeniowych.
      Ze szczegółami pracy można zapoznać się w artykule Polarisation-selective reconfigurability in hybridized-active-dielectric nanowires opublikowanym na łamach Science Advances.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Urządzenia elektroniczne pracują coraz szybciej i szybciej.Jednak w pewnym momencie dotrzemy do momentu, w którym prawa fizyki nie pozwolą na dalsze ich przyspieszanie. Naukowcy z Uniwersytetu Technologicznego w Wiedniu, Uniwersytetu Technologicznego w Grazu i Instytutu Optyki Kwantowej im. Maxa Plancka w Garching określili najkrótszą skalę czasową, w której mogą pracować urządzenia optoelektroniczne.
      Podzespoły elektroniczne pracują w określonych interwałach czasowych i z sygnałami o określonej długości. Procesy kwantowo-mechaniczne, które umożliwiają wygenerowanie sygnału, trwają przez pewien czas. I to właśnie ten czas ogranicza tempo generowania i transmisji sygnału. Jego właśnie udało się określić austriacko-niemieckiemu zespołowi.
      Naukowcy, chcąc dotrzeć do granic tempa konwersji pól elektrycznych w sygnał elektryczny, wykorzystali impulsy laserowe, czyli najbardziej precyzyjne i najszybsze dostępne nam pola elektromagnetyczne. O wynikach swoich badań poinformowali na łamach Nature Communications.
      Badaliśmy materiały, które początkowo w ogóle nie przewodzą prądu, mówi profesor Joachim Burgdörfer z Instytutu Fizyki Teoretycznej Uniwersytetu Technologicznego w Wiedniu. Materiały te oświetlaliśmy ultrakrótkimi impulsami lasera pracującego w ekstremalnym ultrafiolecie. Impulsy te przełączały wzbudzały elektrony, które wchodziły na wyższy poziom energetyczny i zaczynały się swobodnie przemieszczać. W ten sposób laser zamieniał na krótko nasz materiał w przewodnik. Gdy tylko w materiale pojawiały się takie swobodne elektrony, naukowcy z pomocą drugiego, nieco dłuższego impulsu laserowego, przesuwali je w konkretnym kierunku. W ten sposób dochodziło do przepływu prądu elektrycznego, który rejestrowano za pomocą elektrod po obu stronach materiału.
      Cały proces odbywał się w skali atto- i femtosekund. Przez długi czas uważano, że zjawiska te powstają natychmiast. Jednak obecnie dysponujemy narzędziami, które pozwalają nam je precyzyjnie badać, wyjaśnia profesor Christoph Lemell z Wiednia. Naukowcy mogli więc odpowiedzieć na pytanie, jak szybko materiał reaguje na impuls lasera, jak długo trwa generowanie sygnału i jak długo sygnał ten trwa.
      Eksperyment był jednak obarczony pewną dozą niepewności związaną ze zjawiskami kwantowymi. Żeby bowiem zwiększyć tempo, konieczne były ekstremalnie krótkie impulsy lasera, by maksymalnie często dochodziło do tworzenia się wolnych elektronów. Jednak wykorzystanie ultrakrótkich impulsów oznacza, że nie jesteśmy w stanie precyzyjnie zdefiniować ilości energii, jaka została przekazana elektronom. Możemy dokładnie powiedzieć, w którym momencie w czasie dochodziło do tworzenia się ładunków, ale nie mogliśmy jednocześnie określić, w jakim stanie energetycznym one były. Ciała stałe mają różne pasma przewodzenia i przy krótkich impulsach laserowych wiele z nich jest wypełnianych wolnymi ładunkami w tym samym czacie, dodaje Lemell.
      Elektrony reagują różnie na pole elektryczne, a reakcja ta zależy od tego, jak wiele energii przenoszą. Jeśli nie znamy dokładnie tej wartości, nie możemy precyzyjnie ich kontrolować i dochodzi do zaburzeń przepływu prądu. Szczególnie przy bardzo intensywnej pracy lasera.
      Okazuje się, że górna granica możliwości kontrolowania procesów optoelektronicznych wynosi około 1 petaherca, mówi Joachim Burgdörfer. To oczywiście nie oznacza, że będziemy kiedykolwiek w stanie wyprodukować układy komputerowe z zegarami pracującymi nieco poniżej petaherca. Realistyczne możliwości technologii są zwykle znacznie niższe niż granice fizyczne. Jednak mimo tego, że nie jesteśmy w stanie pokonać praw fizyki, badania nad limitami fizycznych możliwości pozwalają na ich analizowanie, lepsze zrozumienie i udoskonalanie technologii.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Microsoft zatrudnił byłego projektanta układów scalonych Apple'a, , który wcześniej pracował też w firmach Arm i Intel,  trafił do grupy kierowanej przez Raniego Borkara, zajmującej się rozwojem chmury Azure. Zatrudnienie Filippo wskazuje, że Microsoft chce przyspieszyć prace nad własnymi układami scalonymi dla serwerów tworzących oferowaną przez firmę chmurę. Koncern idzie zatem w ślady swoich największych rywali – Google'a i Amazona.
      Obecnie procesory do serwerów dla Azure są dostarczane przez Intela i AMD. Zatrudnienie Filippo już odbiło się na akcjach tych firm. Papiery Intela straciły 2% wartości, a AMD potaniały o 1,1%.
      Filippo rozpoczął pracę w Apple'u w 2019 roku. Wcześniej przez 10 lat był głównym projektantem układów w firmie ARM. A jeszcze wcześniej przez 5 lat pracował dla Intela. To niezwykle doświadczony inżynier. Właśnie jemu przypisuje się wzmocnienie pozycji układów ARM na rynku telefonów i innych urządzeń.
      Od niemal 2 lat wiadomo, że Microsoft pracuje nad własnymi procesorami dla serwerów i, być może, urządzeń Surface.
      Giganci IT coraz częściej starają się projektować własne układy scalone dla swoich urządzeń, a związane z pandemią problemy z podzespołami tylko przyspieszyły ten trend.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Firma Taiwan Semiconductor Manufacturing Co. (TSMC), największy na świecie producent układów scalonych na zlecenie, poinformowała, że wybuduje fabrykę półprzewodników w Japonii. To już druga tego typu zapowiedź w ostatnim czasie. Przed kilkoma miesiącami TSMC ogłosiła, że zainwestuje 12 miliardów dolarów w budowę nowej fabryki w Arizonie.
      Prace budowlane w Japonii rozpoczną się  przyszłym roku, a masowa produkcja chipów ma rozpocząć się w roku 2024. Japoński zakład będzie wyposażony w linie do produkcji w technologii 22 i 28 nanometrów. Będzie więc mniej zaawansowany technologicznie niż fabryka w Arizonie, gdzie powstanie 7-nanometrowa linia technologiczna. W Kraju Kwitnącej Wiśni z taśm produkcyjnych TSMC będą zjeżdżały podzespoły dla produktów konsumenckich, przemysłu samochodowego oraz Internet of Things.
      Dyrektor wykonawczy TSMC, C.C. Wei, poinformował, że firma otrzymała pomoc od japońskiego rządu i swoich japońskich klientów. Nie ujawnił wartości inwestycji, ale zrobił to premier Japonii Fumi Kishida, który poinformował parlament, że budowa pochłonie 8,8 miliarda USD, a część kosztów weźmie na siebie rząd.
      Japońska prasa dowiedziała się, że fabryka powstanie w prefekturze Kumamoto na zachodzie kraju, na ternie należącym do Sony i w pobliżu fabryki Sony, w której powstają matryce światłoczułe. Taka lokalizacja ma spory sens, gdyż Sony jest największym japońskim klientem TSMC.
      Światowy przemysł wciąż ma poważny problem z dostępnością półprzewodników. Niedawno Apple poinformował że najprawdopodobniej będzie zmuszony zmniejszyć tegoroczną produkcję iPhone'ów 13 nawet o 10 milionów sztuk. Do zmniejszenia produkcji została zmuszona też Toyota.
      Pandemia z pełną mocą ujawniła, jak bardzo producenci elektroniki z Europy, USA i Japonii są uzależnieni od chińskich, tajwańskich i południowokoreańskich producentów półprzewodników. Rozpoczęto więc działania, które mają zapobiegać tego typu sytuacjom w przyszłości. Sekretarz Handlu USA zaproponowała przeznaczenie 52 miliardów dolarów na badania nad półprzewodnikami i ich produkcję, Europa chce zwiększyć swoje możliwości produkcyjne, podobnie robi też Japonia. Na Uniwersytecie Tokijskim powołano dwie specjalne organizacje – Research Association for Advanced Systems (RAAS) oraz d.lab – których celem będzie ułatwienie wymiany technologicznej. W ramach RAAS, do której wstęp jest ograniczony, firmy takie jak TSMC, Hitachi czy Toppan mogą wymieniać się swoim know-how oraz korzystać z wyników zaawansowanych badań materiałowych, fizycznych i chemicznych prowadzonych na Uniwersytecie Tokijskim.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Nowy półprzewodnik, arsenek boru (BAs), ma wysoką przewodność cieplną i może być zintegrowany ze współczesnymi chipami, by odprowadzić z nich ciepło i poprawić tym samym ich wydajność. Materiał ten lepiej rozprasza ciepło niż najlepsze dostępnie obecne systemy do chłodzenia podzespołów komputerowych – twierdzą twórcy arsenku boru.
      Coraz większa miniaturyzacja, możliwość umieszczenia na tej samej powierzchni coraz większej liczby tranzystorów, oznacza, że procesory są coraz szybsze. Pojawiają się jednak problemy z odprowadzaniem ciepła, szczególnie w postaci lokalnych punktów znacznie wyższej temperatury. Ciepło to negatywnie wpływa na wydajność układów.
      Yongjie Hu z Uniwersytetu Kalifornijskiego w Los Angeles stworzył niedawno wolny od wad arsenek boru. To materiał, który rozprasza ciepło znacznie lepiej niż inne metale i półprzewodniki, jak diament czy węglik krzemu. Hu i jego koledzy wykazali też, że można go zintegrować z układami scalonymi zawierającymi tranzystory z azotku galu. Następnie przeprowadzili badania, które wykazały, że w układzie scalonym ze zintegrowanym arsenkiem boru, pracującym z niemal maksymalną wydajnością, temperatura najcieplejszych punktów jest znacznie niższa niż w układach chłodzone za pomocą innych materiałów.
      W czasie eksperymentów punktowa temperatura układów scalonych z arsenkiem boru wzrosła od temperatury pokojowej do nieco poniżej 87 stopni Celsjusza, podczas gdy chłodzonych diamentem wyniosła niemal 137 stopni, a chłodzonych węglikiem krzemu – zbliżyła się do 167 stopni Celsjusza.
      Wykazaliśmy, że możemy przetwarzać strukturę BAs i integrować ją z chipem o wysokiej mobilności elektronów. To bardzo obiecujące rozwiązanie dla wysoko wydajnej elektroniki, mówi Hu.
      Dodatkową zaletą arsenku boru jest jego bardzo niski opór cieplny na styku z innym materiałem. To zaś oznacza, że transport ciepła odbywa się szybciej niż w przypadku konkurencyjnych rozwiązań. To tak, jakby ciepło mogło przeskoczyć przez przeszkodę, jaką stanowi styk dwóch materiałów, w porównaniu z innymi rozwiązaniami, gdzie zwalnia, by ostrożnie przeszkodę przekroczyć, wyjaśnia Hu.
      Naukowcy, zachęceni wynikami swoich eksperymentów, planują teraz zintegrować swój materiał z różnymi rodzajami obwodów i chipami o różnej architekturze.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...