Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

TSMC światowym liderem we wdrażaniu EUV

Recommended Posts

Przed tygodniem TSMC ogłosiło, że wykorzystywana przezeń technologia 7nm plus (N7+) jest pierwszym komercyjnie dostępnym wdrożeniem technologii EUV (litografii w ekstremalnie dalekim ultrafiolecie). Tym samym tajwański gigant ustawił się w roli światowego lidera EUV. I wielu analityków to potwierdza.

TSMC jest ewidentnym liderem na rynku EUV, zarówno jeśli chodzi o zamówione i już wykorzystywane narzędzia, liczbę plastrów wytwarzanych w technologii EVU jak i zintegrowania EUV w swoich planach produkcyjnych, mówi Jim Fontanelli, analityk w firmie Arete Ressearc.

Obecnie najnowocześniejszą z wykorzystywanych technologii jest 7+ z trójwarstwową maską EUV. W drugiej połowie połowie przyszłego roku TSMC ma zamiar wdrożyć 5 nm z maską 15-warstwową, a pod koniec 2020 roku zadebiutuje technologia 6 nm, w której wykorzystana zostanie 4-warstwowa maska EUV, twierdzi Fontanelli.

Zdaniem analityka, obecnie największym odbiorcą plastrów 7+ produkowanych przez TSMC jest AMD i ma to związek z ograniczoną dostępnością produktu. Jednak przy przejściu na węzeł 5nm pozycję kluczowego klienta w tej technologii powinno zyskać Huawei, a na drugim miejscu znajdzie się Apple. Obie firmy chcą bowiem wykorzystać możliwości związane z miniaturyzacją, mniejszym poborem mocy oraz poprawieniem wydajności. Największym odbiorcą plastrów 6nm ma zostać, również w zwiazku z ograniczoną podażą 7nm, MediaTek.

Wdrożenie EUV jest bardzo trudne. Dość wspomnieć, że technologia ta wymaga źródła światła o mocy 250W. Tymczasem w powszechnie obecnie wykorzystywanej litografii zanurzeniowej wykorzystuje się moc 90W. A kolejna generacja EUV, high-NA EUV będzie wymagała 500-watowego źródła.

EUV oferuje jednak tak wiele zalet, że warto przebrnąć trudy jej wdrożenia. Przede wszystkim pozwala zaś skrócić czas produkcji i uniknąć wielokrotnego naświetlania plastra.

Technologia ta jest jednak na tyle nowa, kosztowna i sprawia tak dużo problemów, że obecnie jedynie trzech światowych producentów – TSMC, Samsung i Intel – ma w planach jej wdrożenie do produkcji. Intel jest w tych pracach najmniej zaawansowany. Intel wydaje się całkowicie zaangażowany w EUV 7nm, którą wdroży w 2021 roku. Liczba warstw w masce będzie tam mniejsza niż liczba warstw w węźle 5nm TSMC. Ma to związek w różnicach wymagań technologicznych. Prawdopodobnie warstw tych będzie mniej niż 10, mówi Fontanelli.

Fakt, dla którego Fontanelli w dużej mierze opiera się na domysłach, dobrze wyjaśniają słowa innego analityka, Dana Hutchesona z VLSI Reseearch. Intel to największa zagadka spośród tych trzech producentów, gdyż nie tworzy podzespołów na zamówienie, zatem nie ma powodu, dla którego miałby zdradzać, co robi. Ponadto warto pamiętać, że Intel zawsze wdrażał narzędzia litograficzne dla kolejnych węzłów wcześniej, niż ktokolwiek inny. Ponadto od lat najbardziej angażuje się w badania nad EUF. Nie ma też marketingowego powodu, by na bieżąco informować o postępach w EUF, dlatego też sądzę, że nic nie powiedzą, zanim nie będą pewni, że są gotowi do rozpoczęcia produkcji.

Początkowo Intel miał zamiar rozpocząć produkcję 7-nanometrowych układów w 2017 roku, jednak w związku z opóźnieniami przy węzłach 14- i 10-nanometrowym plany te przesunięto o cztery lata. W bieżącym roku menedżerowie Intela zapowiedzieli, że procesy produkcyjne 7-nanometrowych układów tej firmy będą równie lub bardziej wydajne niż procesy produkcyjne 5-nanometrowych kości TSMC.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Tegoroczna International Conference for Hight Performance Computing (SC19) nie przyniosła żadnych sensacyjnych informacji na temat TOP500, listy najpotężniejszych komputerów na świecie. Znacznie bardziej interesujące było to, co mówiono o systemach eksaskalowych, których budowa ma rozpocząć się w 2021 roku.
      Wielkimi wygranymi są tutaj ADM, Cray i Intel. Już teraz wiadomo, że firmy te będą tworzyły trzy eksaskalowe maszyny, których powstanie sfinansuje Departament Energii. Cray, należący obecnie do HP Enterprise, będzie odpowiedzialny za połączenia we wszystkich wspomnianych superkomputerach. Maszyna eksaskalowa to superkomputery zdolny do wykonania 1 eksaflopsa czyli 1 tryliona (1018) operacji zmiennoprzecinkowych na sekundę.
      Budową superkomputera Frontier, który stanie w Oak Ridge National Laboratory, zajmą się AMD i Cray. AMD dostarczy CPU i GPU. Zintegrowanie całości będzie zadaniem Craya. Z kolei maszyna Aurora, przeznaczona dla Argonne National Laboratory, ma zostać zbudowana przez Intela (GPU i GPU) oraz Craya (integracja). Trzeci z planowanych w najbliższych latach amerykańskich systemów eksaskalowych – El Capitán – ma zostać zbudowany przez Craya. Obecnie nie wiadomo, kto dostarczy doń procesorów.
      Na pierwszy rzut oka widać, że brakuje w tym towarzystwie dwóch potentatów rynku HPC (High Performance Computing) – IBM-a i Nvidii. Jednak jeśli nawet żadna z tych firm nie będzie zaangażowana w budowę El Capitana, to z pewnością nie zabraknie dla nich pracy na rynku superkomputerów.
      Jeszcze przed SC19 odbyła się konferencja zorganizowana przez Intela, na której koncern mówił o kościach, które rozwija na potrzeby Aurory. Wiemy, że zostaną one wykonane w 7-nanometrowym procesie. Nazwa kodowa procesora Xeon dla Aurory to Sapphire Rapids. Jednak uczestników konferencji bardziej zainteresował przyszły intelowski GPU – Xe HPC o nazwie kodowej Ponte Vecchio.
      Ponte Vecchio będzie miał wersję specjalnie na rynek HPC. Głównym zadaniem układów GPU przeznaczonych do zastosowań HPC jest przetwarzanie liczb zmiennoprzecinkowych pojedynczej i podwójnej precyzji, jednak nowy GPU Intela ma również wspierać formaty popularne na polu sztucznej inteligencji, takie jak INT8, BFloat16 i FP16. Intel wykorzysta również technologię pakowania układów EMIB, która pozwala na podłączenie GPU do interfejsu HBM (High Bandwidth Memory). Ponadto w Ponte Vecchio znajdziemy technologię Foveros 3D pozwalającą składać procesor na podobieństwo klocków i interkonekt XE Memory Fabric (XEMF), przez co CPU i GPU mają mieć dostęp do superszybkiej pamięci zwanej Rambo cache'em. Dzięki dużej ilości cache'u ma poprawić się skalowalność tak ambitnych projektów jak superkompuery eksaskalowe.
      Na potrzeby tych rozwiązań intel tworzy też nowe oprogramowanie oparte na nowym języku programowania Data Parallel C++ (DPC++). Bazuje on na standardzie SYCL z dodanymi przez Intela specyficznymi rozszerzeniami.
      Pojedynczy węzeł Aurory będzie zawierał 2 układy Xeon Sapphire Rapids oraz 6 Ponte Vecchio HPC GPU. Trzeba zauważyć, że Intel wziął na siebie bardzo ambitne zadanie. W ciągu dwóch lat musi bowiem mieć gotowe i przetestowane nowe oprogramowanie, nowy GPU wykonany według nowego procesu produkcyjnego i nowej technologii pakowania.
      W lepszej sytuacji jest AMD. Maszyna Frontier będzie korzystała z EPYC CPU i Radeon Instinct GPU. Firma już produkuje te kości. Obecnie pracuje nad ROCM, czyli odpowiedzią na CUDA Nvidii. ROCM będzie wspierało Tensor Flow i PyTorch. Obecnie AMD bardzo mocno inwestuje w rozwój tej platformy, a podczas SC19 przedstawiciele firmy zapowiedzieli poszerzenie ofery procesorów EPYC.
      Co jeszcze wiemy o przyszłych amerykańskich eksaskalowych komputerach?
      Budowana przez Craya maszyna El Capitán będzie stała z Lawrence Livermore National Laboratory. Jej maksymalna wydajność ma przekraczać 1,5 eksaflopsa, a komputer – wyposażony w zaawansowane możliwości modelowania, symulacji i sztucznej inteligencji bazujące na architekturze Shasta – będzie wykorzystywany do zadań związanych z bezpieczeństwem nuklearnym. Na jego zbudowanie przeznaczono 600 milionów USD, a maszyna ma zostać dostarczona pod koniec 2022 roku.
      Tworzony przez AMD i Craya Frontier ma ruszyć już w 2021 roku, a jego wydajność ma być wyższa niż 1,5 eksafolopsa. Superkomputer będzie wykorzystywany do wielu zadań związanych m.in. z badaniami nad rozpadem atomowym, badaniami klimatu, zostanie zaprzęgnięty do pracy w dziedzinie biomedycyny i inżynierii materiałowej. Również i on ma kosztować około 600 milionów USD.
      Jeśli zaś chodzi o Aurorę, to będzie się on zajmował badaniami nad fuzją jądrową, poszukiwał leków na nowotwory, wykorzystany zostanie przez chemików do badania procesów katalitycznych, wspomoże też nauki z dziedziny neurobiologii czy astrofizyki. Również i na tę maszynę przeznaczono 600 milionów dolarów. Jej wydajność ma przekraczać 1 eksaflops, a komputer ma być gotowy w 2021 roku.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Inżynierowie z intelowskiej grupy Strategic Offensive Research & Mitigation (STORM) opublikowali pracę naukową opisującą nowy rodzaj pamięci dla procesorów. Pamięć taka miałaby zapobiegać atakom side-channel wykorzystującym mechanizm wykonywania spekulatywnego, w tym atakom na błędy klasy Spectre.
      Wymienienie w tym kontekście dziury Spectre nie jest przypadkiem. Zespół STORM powstał bowiem po tym, jak Intel został poinformowany przez Google'a i niezależnych badaczy o istnieniu dziur Meltdown i Spectre. Przypomnijmy, że są to błędy w architekturze procesorów. Meltdown występuje niemal wyłącznie w procesorach Intela, Spectre dotyczy wszystkich procesorów wyprodukowanych przed rokiem 2019, które wykorzystują mechanizm przewidywania rozgałęzień. Dziura Spectre ma większy wpływ na procesory Intela niż innych producentów.
      Główny rywal Intela, AMD, w dużej mierze poradził sobie z atakami typu Spectre zmieniając architekturę procesorów Ryzen i Epyc. Intel jak dotąd walczy ze Spectre za pomocą poprawiania oprogramowania. To dlatego – jak wykazały testy przeprowadzone przez witrynę Phoronix – średni spadek wydajności procesorów Intela spowodowany zabezpieczeniami przed Spectre jest aż 5-krotnie większy niż w przypadku procesorów AMD.
      Inżynierowie ze STORM opisali nowy rodzaj pamięci dla procesorów, którą nazwali Speculative-Access Protected Memory (SAPM). Ma być ona odporna na obecne i przyszłe ataki typu Spectre i podobne. Członkowie grupy STORM mówią, że większość ataków typu Spectre przeprowadza w tle te same działania, a SAPM ma domyślnie blokować takie operacje, co zapobiegnie obecnym i ewentualnym przyszłym atakom.
      Jak przyznają badacze Intela, zaimplementowanie pamięci SAPM negatywnie wpłynie na wydajność procesorów tej firmy, jednak wpływ ten będzie mniejszy niż wpływ obecnie stosowanych łatek programowych. Mimo że spadek wydajności dla każdego przypadku dostępu do pamięci SAPM jest dość duży, to operacje tego typu będą stanowiły niewielką część operacji związanych z wykonaniem oprogramowania, zatem całkowity koszt będzie niski i potencjalnie mniejszy niż spadek wydajności spowodowany obecnie stosowanymi rozwiązaniami, czytamy w opublikowanym dokumencie.
      SAPM może zostać zaimplementowany zarówno na poziomie adresu fizycznego jak i wirtualnego. W tym drugim przypadku pamięć byłaby kontrolowana z poziomu systemu operacyjnego. Jeśli zaś ten zostałby skompromitowany, a tak się często dzieje, SAPM nie będzie chroniła przed atakiem.
      W opublikowanej pracy czytamy, że jest to praca teoretyczna, dotycząca możliwych implementacji, co oznacza, że całościowa koncepcja nie jest jeszcze gotowa i jeśli w ogóle SAPM powstanie, będzie wymagała długotrwałych szczegółowych testów.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Pod koniec sierpnia GlobalFoundries pozwało TSMC i 20 jego klientów o naruszenie 16 patentów GF. Nie trzeba było długo czekać, by pojawił się kontrpozew, w którym TSMC oskarża GF o naruszenie 25 patentów. TSMC domaga się m.in. nałożenie na GF zakazu produkcji urządzeń naruszających patenty, zakazu sprzedaży już wyprodukowanych przedmiotów oraz znaczącego odszkodowania finansowego.
      Niedługo po tym, gdy pojawiły się informacje o pozwie TSMC, w GlobalFoundries odpowiedziało: TSMC od dawna wykorzystuje swoją dominująca pozycję do wywierania nacisków na mniejszych konkurentów i do wysuwania odwetowych kontrpozwów. Obecny pozew wpisuje się w tę strategię.  Jesteśmy pewni naszego stanowiska oraz wyniku procesu sądowego i nie pozwolimy się zastraszyć. Pod odpowiedzią podpisany jest Sam Azar, wiceprezes ds. prawnych GF.
      GlobalFoundries złożyło swój pozew w USA i Niemczech, kontrpozew TSMC został złożony w USA, Niemczech i Singapurze. TSMC twierdzi, że patenty, które narusza GF obejmują „co najmniej” technologie wytwarzania układów scalonych od 40 do 12 nanometrów. To „co najmniej” jest zapewne ostrzeżeniem skierowanym do GF, że jeśli uruchomi zapowiadane przez siebie linie produkcyjne w technologii 7 nm to pozew zostanie rozszerzony i na tę technologię.
      Jim McGregor, główny analityk firmy Tirias Research, komentując przepychanki pomiędzy firmami stwierdził: To sprawa, na której nie wygra nikt, prócz prawników. Tak, jak można się było tego spodziewać, TSMC złożyło kontrpozew w odpowiedzi na działania GlobalFoundries. Co prawda GF domaga się odszkodowania, ale prawdopodobnie sprawa skończy się szerokim porozumieniem dotyczącym wzajemnego licencjonowania patentów, co zabezpieczy obie firmy przed przyszłymi pozwami. W innym przypadku proces potrwa wiele lat, a wszelkie ugody finansowe i tak zostaną przejedzone na koszty procesu.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Podczas konferencji Hot Chips IBM zapowiedział nowy interfejs pamięci, który ma zadebiutować wraz z przyszłoroczną wersją procesorów Power 9. Mowa tutaj o Open Memory Interface (OMI). Pozwoli on na upakowanie w serwerze większej ilości pamięci korzystającej do tego z większej przepustowości nić DDR. OMI ma być konkurentem dla Gen-Z oraz intelowskiej CXL.
      OMI przenosi kontroler pamięci poza płytkę samego CPU, na osobną kartę DIMM. Dzięki takiemu rozwiązaniu możliwe będzie zastosowanie w serwerze do 4 TB pamięci o przepustowości 320 Gb/s lub też 512 GB o przepustowości do 650 Gb/s. Koszt takiego rozwiązania to dodatkowe co najmniej 4 nanosekundy opóźnienia oraz dodatkowe 4 waty poboru mocy powodowane przez osobną kartę z kontrolerem. Wiadomo, że w laboratoriach IBM-a już pracują takie testowe karty wyprodukowane przez Microsemi.
      IBM przewiduje, że w przyszłości OMI może być używane w połączeniu z układami DRAM. Takie rozwiązanie charakteryzowało by się opóźnieniem rzędu 80 ns, a więc stanowiłoby atrakcyjną alternatywę wobec Gen-Z, gdzie opóźnienie może dochodzić do 400 ns, twierdzi architekt procesorów William Starke z IBM-a.
      Wykorzystywane przez OMI układy serdes zostały przez IBM-a zoptymalizowane pod kątem jak najmniejszego zużycia energii oraz ograniczenia wielkości samego układu, co osiągnięto ograniczając częstotliwość ich pracy. Oferują one przepustowość do 600 Gb/s i mogą być przystosowane zarówno do pracy z OMI, jak i z nową generacją NVLing czy OpenCAPI 4.0.
      W przypadku OMI współpracującego z Power 9 pamięć będzie wykorzystywała 96 linii układu serdes 25G (miliardów operacji na sekundę), a przyszłe procesory Power 10 będę współpracowały z serdes 32-50G. Pojawiły się głosy mówiące,że pod tym względem OMI przypomina Intelowskie CXL. Z drugiej jednak strony łatwiejsze chłodzenie i uproszczona architektura samego procesora przypominają to, co osiągnęło AMD dzięki Epyc.
      Obecne układy Power 9 są wykonane w technologii 14 nm i obsługują 48 linii PCIe Gen4. Power 10, który ukaże się w roku 2021 będzie wykonany w nowym procesie technologicznym, wykorzysta nowy rdzeń oraz PCIe Gen5, a przepustowość jego pamięci wyniesie 800 Gb/s. Mimo ambitnych celów, jakie wyznacza sobie IBM, procesory Power mają coraz mniejsze udziały w rynku. W ciągu ostatniego roku zmniejszyły się one z 0,219% do 0,190%.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Eksperci z firmy Eclypisium ostrzegają, że ponad 40 sterowników dla systemu Windows zawiera dziury, które mogą zostać wykorzystane do ataku na pecety i serwery. Błędy występują w produktach wielu gigantów IT, takich jak Intel, Toshiba, Huawei czy Asus. Narażone na atak są wszystkie wersje Windows.
      Dziury znalezione przez pracowników Eclypsium pozwalają na zwiększenie uprawnień w dostępie do sprzętu. Za ich powstanie odpowiada niedbałość w pisaniu kodu i niezwracanie uwagi na kwestie bezpieczeństwa.
      Eclypsium już poinformowało wszystkich 20 producentów sterowników. Dotychczas 15 z nich poprawiło swoje oprogramowanie. Sterowniki załatali m.in. Intel, Huawei, Toshiba, NVIDIA, Gigabyte, Biostar, AsRock, AMI, Realtek, ASUSTek czy AMD. Kilku producentów nie wypuściło jeszcze poprawek, dlatego ich nazw nie ujawniono.
      Błędy w sterownikach zdarzają się dość często. W czerwcu Microsoft poprawiał swój sterownik dla urządzeń bezprzewodowych firmy Broadcom, a w marcu specjaliści z Redmond poinformowali Huawei o znalezieniu dziury w sterowniku highendowych MateBook'ów.

      « powrót do artykułu
×
×
  • Create New...