Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

TSMC światowym liderem we wdrażaniu EUV

Recommended Posts

Przed tygodniem TSMC ogłosiło, że wykorzystywana przezeń technologia 7nm plus (N7+) jest pierwszym komercyjnie dostępnym wdrożeniem technologii EUV (litografii w ekstremalnie dalekim ultrafiolecie). Tym samym tajwański gigant ustawił się w roli światowego lidera EUV. I wielu analityków to potwierdza.

TSMC jest ewidentnym liderem na rynku EUV, zarówno jeśli chodzi o zamówione i już wykorzystywane narzędzia, liczbę plastrów wytwarzanych w technologii EVU jak i zintegrowania EUV w swoich planach produkcyjnych, mówi Jim Fontanelli, analityk w firmie Arete Ressearc.

Obecnie najnowocześniejszą z wykorzystywanych technologii jest 7+ z trójwarstwową maską EUV. W drugiej połowie połowie przyszłego roku TSMC ma zamiar wdrożyć 5 nm z maską 15-warstwową, a pod koniec 2020 roku zadebiutuje technologia 6 nm, w której wykorzystana zostanie 4-warstwowa maska EUV, twierdzi Fontanelli.

Zdaniem analityka, obecnie największym odbiorcą plastrów 7+ produkowanych przez TSMC jest AMD i ma to związek z ograniczoną dostępnością produktu. Jednak przy przejściu na węzeł 5nm pozycję kluczowego klienta w tej technologii powinno zyskać Huawei, a na drugim miejscu znajdzie się Apple. Obie firmy chcą bowiem wykorzystać możliwości związane z miniaturyzacją, mniejszym poborem mocy oraz poprawieniem wydajności. Największym odbiorcą plastrów 6nm ma zostać, również w zwiazku z ograniczoną podażą 7nm, MediaTek.

Wdrożenie EUV jest bardzo trudne. Dość wspomnieć, że technologia ta wymaga źródła światła o mocy 250W. Tymczasem w powszechnie obecnie wykorzystywanej litografii zanurzeniowej wykorzystuje się moc 90W. A kolejna generacja EUV, high-NA EUV będzie wymagała 500-watowego źródła.

EUV oferuje jednak tak wiele zalet, że warto przebrnąć trudy jej wdrożenia. Przede wszystkim pozwala zaś skrócić czas produkcji i uniknąć wielokrotnego naświetlania plastra.

Technologia ta jest jednak na tyle nowa, kosztowna i sprawia tak dużo problemów, że obecnie jedynie trzech światowych producentów – TSMC, Samsung i Intel – ma w planach jej wdrożenie do produkcji. Intel jest w tych pracach najmniej zaawansowany. Intel wydaje się całkowicie zaangażowany w EUV 7nm, którą wdroży w 2021 roku. Liczba warstw w masce będzie tam mniejsza niż liczba warstw w węźle 5nm TSMC. Ma to związek w różnicach wymagań technologicznych. Prawdopodobnie warstw tych będzie mniej niż 10, mówi Fontanelli.

Fakt, dla którego Fontanelli w dużej mierze opiera się na domysłach, dobrze wyjaśniają słowa innego analityka, Dana Hutchesona z VLSI Reseearch. Intel to największa zagadka spośród tych trzech producentów, gdyż nie tworzy podzespołów na zamówienie, zatem nie ma powodu, dla którego miałby zdradzać, co robi. Ponadto warto pamiętać, że Intel zawsze wdrażał narzędzia litograficzne dla kolejnych węzłów wcześniej, niż ktokolwiek inny. Ponadto od lat najbardziej angażuje się w badania nad EUF. Nie ma też marketingowego powodu, by na bieżąco informować o postępach w EUF, dlatego też sądzę, że nic nie powiedzą, zanim nie będą pewni, że są gotowi do rozpoczęcia produkcji.

Początkowo Intel miał zamiar rozpocząć produkcję 7-nanometrowych układów w 2017 roku, jednak w związku z opóźnieniami przy węzłach 14- i 10-nanometrowym plany te przesunięto o cztery lata. W bieżącym roku menedżerowie Intela zapowiedzieli, że procesy produkcyjne 7-nanometrowych układów tej firmy będą równie lub bardziej wydajne niż procesy produkcyjne 5-nanometrowych kości TSMC.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      AMD konsekwentnie zdobywa coraz silniejszą pozycję na rynku. Firma analityczna Mercury Research, z której usług korzystają m.in. AMD i Intel, poinformowała, że IV kwartał 2019 roku był już 9. kwartałem z kolei, w którym AMD zwiększało swoje udziały w rynku procesorów.
      Analityków zaskoczyły niewielkie postępy na rynku desktopów oraz centrów bazodanowych. W ciągu trzech ostatnich miesięcy ubiegłego roku AMD zyskało tam, odpowiednio, 0,2 i 0,3 punktu procentowego. Największe zaś postępy firma zanotowała na rynku urządzeń przenośnych, gdzie pomiędzy październikiem a grudniem 2019 roku wzrosły o 1,5 punktu procentowego.
      Obecnie AMD posiada 4,5% rynku serwerów (+ 1,4 pp rok do roku), 18,3% rynku desktopów (+2,4 pp rdr), 16,2% rynku urządzeń mobilnych (+ 4,0 pp rdr). Całkowity udział AMD w rynku układów x86 wynosi obecnie 15,5%. Ostatnio tak dobrym wynikiem firma mogła pochwalić się przed niemal 7 laty.
      Sprzedaż desktopowych CPU wzrosła dzięki dużemu popytowi na highendowe procesory dla graczy oraz dlatego, że Intel zwiększył dostawy tanich procesorów. AMD zanotowało bardzo silny wzrost sprzedaży układów z serii Ryzen 3000, a Intel duży wzrost w segmencie i9. Większość wzrostu obu firm pochodziło ze sprzedaży procesorów o największej liczbie rdzeni, mówi Dean McCarron z Mercury Research.
      Warto też zauważyć, że AMD zdominował Black Friday i Cyber Monday na Amazonie, gdzie jego procesory często zajmowały pierwszych 10 pozycji wśród najchętniej kupowanych układów. To jednocześnie pokazuje, że rynek klienta indywidualnego jest znacznie mniejszy niż rynek OEM, na którym tradycyjnie dominuje Intel. Koncern jest szczególnie silny w segmencie przedsiębiorstw i administracji państwowej. Klienci ci pozostają wierni platformie Intela, gdyż unikają w ten sposób kosztownych i długotrwałych procesów związanych z przejściem na inna platformę sprzętową.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W procesorach Intela odkryto kolejną lukę. Dziura nazwana CacheOut to luka typu side-channel, czyli błąd pozwalający na wykorzystanie pewnych szczegółów, często prawidłowej, implementacji.
      Dziura odkryta przez naukowców z University of Michigan i University of Adelaide występuje we wszystkich procesorach od architektury SkyLake po Coffee Lake powstałych przed rokiem 2019. Wiadomo, że nie występuje ona w procesorach AMD, ale badacze nie wykluczają, że jest obecna w układach IBM-a i ARM.
      Jak zauważyli eksperci gdy dane są pobierane z cache'u L1 często trafiają do buforów, z których mogą zostać wykradzione przez napastnika. Bardzo atrakcyjnym elementem CacheOut jest fakt, że napastnik może zdecydować, które dane z L1 zostaną umieszczone w buforze, skąd dokona kradzieży. Specjaliści wykazali, że możliwy jest wyciek danych mimo wielu różnych zabezpieczeń. w tym zabezpieczeń pomiędzy wątkami, procesami, wirtualnymi maszynami, przestrzenią użytkownika a jądrem systemu.
      Intel, który o problemie został poinformowany już w ubiegłym roku, sklasyfikował lukę L1D Eviction Sampling/CVE-2020-0549/INTEL-SA-00329 jako średnio poważną i przygotował odpowiednie poprawki. Odpowiedni mikrokod zostanie upubliczniony a nwjbliższym czasie. Tymczasowym obejściem problemu jest wyłączenie wielowątkowości lub wyłączenie rozszerzenia TSX.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W mediach pojawiły się informacje, z których wynika, że podczas targów CES 2020 Intel zaprezentuje technologię, która pozwoli na pozbycie się wentylatorów z notebooków. Takie rozwiązanie pozwoliłoby na budowanie lżejszych i cieńszych urządzeń. Podobno na targach mają zostać zaprezentowane gotowe notebooki z technologią Intela.
      Część mediów pisze, że nowatorskie rozwiązanie to połączenie technologii komory parowej (vapor chamber) i grafitu. W technologii komory parowej płynne chłodziwo paruje na gorącej powierzchni, którą ma schłodzić, unosi się do góry, oddaje ciepło i ulega ponownej kondensacji. Rozwiązanie takie od lat stosuje się np. w kartach graficznych, jednak zawsze w połączeniu z wentylatorem, odprowadzającym ciepło z powierzchni, do której jest ono oddawane przez chłodziwo. Podobno Intel był w stanie pozbyć się wentylatora, dzięki poprawieniu o 25–30 procent rozpraszania ciepła.
      Obecnie w notebookach systemy chłodzące umieszcza się pomiędzy klawiaturą a dolną częścią komputera, gdzie znajduje się większość komponentów wytwarzającyh ciepło. Intel miał ponoć zastąpić systemy chłodzące komorą parową, którą połączył z grafitową płachtą umieszczoną za ekranem, co pozwoliło na zwiększenie powierzchni wymiany ciepła.
      Z dotychczasowych doniesień wynika również, że nowy projekt Intela może być stosowany w urządzeniach, które można otworzyć maksymalnie pod kątem 180 stopni, nie znajdzie więc zastosowania w maszynach z obracanym ekranem typu convertible. Podobno jednak niektórzy producenci takich urządzeń donoszą, że wstępnie poradzili sobie z tym problemem i w przyszłości nowa technologia trafi też do laptopów z obracanymi ekranami.
      Niektórzy komentatorzy nie wykluczają, że Intel wykorzystał rozwiązania z technologii k-Core firmy Boyd, która wykorzystuje grafit do chłodzenia elektroniki w przemyśle satelitarnym, lotniczym i wojskowym.
      Obecnie na rynku są dostępne przenośne komputery bez wentylatorów, są to jednak zwykle ultrabooki czy mini laptopy. Pełnowymiarowych maszyn jest jak na lekarstwo i nie  są to rozwiązania o najmocniejszych konfiguracjach sprzętowych.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Tegoroczna International Conference for Hight Performance Computing (SC19) nie przyniosła żadnych sensacyjnych informacji na temat TOP500, listy najpotężniejszych komputerów na świecie. Znacznie bardziej interesujące było to, co mówiono o systemach eksaskalowych, których budowa ma rozpocząć się w 2021 roku.
      Wielkimi wygranymi są tutaj ADM, Cray i Intel. Już teraz wiadomo, że firmy te będą tworzyły trzy eksaskalowe maszyny, których powstanie sfinansuje Departament Energii. Cray, należący obecnie do HP Enterprise, będzie odpowiedzialny za połączenia we wszystkich wspomnianych superkomputerach. Maszyna eksaskalowa to superkomputery zdolny do wykonania 1 eksaflopsa czyli 1 tryliona (1018) operacji zmiennoprzecinkowych na sekundę.
      Budową superkomputera Frontier, który stanie w Oak Ridge National Laboratory, zajmą się AMD i Cray. AMD dostarczy CPU i GPU. Zintegrowanie całości będzie zadaniem Craya. Z kolei maszyna Aurora, przeznaczona dla Argonne National Laboratory, ma zostać zbudowana przez Intela (GPU i GPU) oraz Craya (integracja). Trzeci z planowanych w najbliższych latach amerykańskich systemów eksaskalowych – El Capitán – ma zostać zbudowany przez Craya. Obecnie nie wiadomo, kto dostarczy doń procesorów.
      Na pierwszy rzut oka widać, że brakuje w tym towarzystwie dwóch potentatów rynku HPC (High Performance Computing) – IBM-a i Nvidii. Jednak jeśli nawet żadna z tych firm nie będzie zaangażowana w budowę El Capitana, to z pewnością nie zabraknie dla nich pracy na rynku superkomputerów.
      Jeszcze przed SC19 odbyła się konferencja zorganizowana przez Intela, na której koncern mówił o kościach, które rozwija na potrzeby Aurory. Wiemy, że zostaną one wykonane w 7-nanometrowym procesie. Nazwa kodowa procesora Xeon dla Aurory to Sapphire Rapids. Jednak uczestników konferencji bardziej zainteresował przyszły intelowski GPU – Xe HPC o nazwie kodowej Ponte Vecchio.
      Ponte Vecchio będzie miał wersję specjalnie na rynek HPC. Głównym zadaniem układów GPU przeznaczonych do zastosowań HPC jest przetwarzanie liczb zmiennoprzecinkowych pojedynczej i podwójnej precyzji, jednak nowy GPU Intela ma również wspierać formaty popularne na polu sztucznej inteligencji, takie jak INT8, BFloat16 i FP16. Intel wykorzysta również technologię pakowania układów EMIB, która pozwala na podłączenie GPU do interfejsu HBM (High Bandwidth Memory). Ponadto w Ponte Vecchio znajdziemy technologię Foveros 3D pozwalającą składać procesor na podobieństwo klocków i interkonekt XE Memory Fabric (XEMF), przez co CPU i GPU mają mieć dostęp do superszybkiej pamięci zwanej Rambo cache'em. Dzięki dużej ilości cache'u ma poprawić się skalowalność tak ambitnych projektów jak superkompuery eksaskalowe.
      Na potrzeby tych rozwiązań intel tworzy też nowe oprogramowanie oparte na nowym języku programowania Data Parallel C++ (DPC++). Bazuje on na standardzie SYCL z dodanymi przez Intela specyficznymi rozszerzeniami.
      Pojedynczy węzeł Aurory będzie zawierał 2 układy Xeon Sapphire Rapids oraz 6 Ponte Vecchio HPC GPU. Trzeba zauważyć, że Intel wziął na siebie bardzo ambitne zadanie. W ciągu dwóch lat musi bowiem mieć gotowe i przetestowane nowe oprogramowanie, nowy GPU wykonany według nowego procesu produkcyjnego i nowej technologii pakowania.
      W lepszej sytuacji jest AMD. Maszyna Frontier będzie korzystała z EPYC CPU i Radeon Instinct GPU. Firma już produkuje te kości. Obecnie pracuje nad ROCM, czyli odpowiedzią na CUDA Nvidii. ROCM będzie wspierało Tensor Flow i PyTorch. Obecnie AMD bardzo mocno inwestuje w rozwój tej platformy, a podczas SC19 przedstawiciele firmy zapowiedzieli poszerzenie ofery procesorów EPYC.
      Co jeszcze wiemy o przyszłych amerykańskich eksaskalowych komputerach?
      Budowana przez Craya maszyna El Capitán będzie stała z Lawrence Livermore National Laboratory. Jej maksymalna wydajność ma przekraczać 1,5 eksaflopsa, a komputer – wyposażony w zaawansowane możliwości modelowania, symulacji i sztucznej inteligencji bazujące na architekturze Shasta – będzie wykorzystywany do zadań związanych z bezpieczeństwem nuklearnym. Na jego zbudowanie przeznaczono 600 milionów USD, a maszyna ma zostać dostarczona pod koniec 2022 roku.
      Tworzony przez AMD i Craya Frontier ma ruszyć już w 2021 roku, a jego wydajność ma być wyższa niż 1,5 eksafolopsa. Superkomputer będzie wykorzystywany do wielu zadań związanych m.in. z badaniami nad rozpadem atomowym, badaniami klimatu, zostanie zaprzęgnięty do pracy w dziedzinie biomedycyny i inżynierii materiałowej. Również i on ma kosztować około 600 milionów USD.
      Jeśli zaś chodzi o Aurorę, to będzie się on zajmował badaniami nad fuzją jądrową, poszukiwał leków na nowotwory, wykorzystany zostanie przez chemików do badania procesów katalitycznych, wspomoże też nauki z dziedziny neurobiologii czy astrofizyki. Również i na tę maszynę przeznaczono 600 milionów dolarów. Jej wydajność ma przekraczać 1 eksaflops, a komputer ma być gotowy w 2021 roku.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Inżynierowie z intelowskiej grupy Strategic Offensive Research & Mitigation (STORM) opublikowali pracę naukową opisującą nowy rodzaj pamięci dla procesorów. Pamięć taka miałaby zapobiegać atakom side-channel wykorzystującym mechanizm wykonywania spekulatywnego, w tym atakom na błędy klasy Spectre.
      Wymienienie w tym kontekście dziury Spectre nie jest przypadkiem. Zespół STORM powstał bowiem po tym, jak Intel został poinformowany przez Google'a i niezależnych badaczy o istnieniu dziur Meltdown i Spectre. Przypomnijmy, że są to błędy w architekturze procesorów. Meltdown występuje niemal wyłącznie w procesorach Intela, Spectre dotyczy wszystkich procesorów wyprodukowanych przed rokiem 2019, które wykorzystują mechanizm przewidywania rozgałęzień. Dziura Spectre ma większy wpływ na procesory Intela niż innych producentów.
      Główny rywal Intela, AMD, w dużej mierze poradził sobie z atakami typu Spectre zmieniając architekturę procesorów Ryzen i Epyc. Intel jak dotąd walczy ze Spectre za pomocą poprawiania oprogramowania. To dlatego – jak wykazały testy przeprowadzone przez witrynę Phoronix – średni spadek wydajności procesorów Intela spowodowany zabezpieczeniami przed Spectre jest aż 5-krotnie większy niż w przypadku procesorów AMD.
      Inżynierowie ze STORM opisali nowy rodzaj pamięci dla procesorów, którą nazwali Speculative-Access Protected Memory (SAPM). Ma być ona odporna na obecne i przyszłe ataki typu Spectre i podobne. Członkowie grupy STORM mówią, że większość ataków typu Spectre przeprowadza w tle te same działania, a SAPM ma domyślnie blokować takie operacje, co zapobiegnie obecnym i ewentualnym przyszłym atakom.
      Jak przyznają badacze Intela, zaimplementowanie pamięci SAPM negatywnie wpłynie na wydajność procesorów tej firmy, jednak wpływ ten będzie mniejszy niż wpływ obecnie stosowanych łatek programowych. Mimo że spadek wydajności dla każdego przypadku dostępu do pamięci SAPM jest dość duży, to operacje tego typu będą stanowiły niewielką część operacji związanych z wykonaniem oprogramowania, zatem całkowity koszt będzie niski i potencjalnie mniejszy niż spadek wydajności spowodowany obecnie stosowanymi rozwiązaniami, czytamy w opublikowanym dokumencie.
      SAPM może zostać zaimplementowany zarówno na poziomie adresu fizycznego jak i wirtualnego. W tym drugim przypadku pamięć byłaby kontrolowana z poziomu systemu operacyjnego. Jeśli zaś ten zostałby skompromitowany, a tak się często dzieje, SAPM nie będzie chroniła przed atakiem.
      W opublikowanej pracy czytamy, że jest to praca teoretyczna, dotycząca możliwych implementacji, co oznacza, że całościowa koncepcja nie jest jeszcze gotowa i jeśli w ogóle SAPM powstanie, będzie wymagała długotrwałych szczegółowych testów.

      « powrót do artykułu
×
×
  • Create New...