Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Będzie sześć rdzeni

Recommended Posts

Intel ujawnił szczegóły na temat swojego pierwszego procesora, który będzie wykorzystywał więcej niż 4 rdzenie. Sześciordzeniowy Dunnington to kolejny "prawdziwy" wielordzeniowiec Intela. Dotychczas na jednym kawałku rdzeniu Intel umieszczał tylko dwa rdzenie. Procesory czterordzeniowe Intela to de facto dwa dwurdzeniowce w jednej obudowie.

W przypadku Dunningtona, który na rynek ma trafić już w drugiej połowie bieżącego roku, wszystkie rdzenie umieszczono na tym samym kawałku krzemu.
Nowy procesor będzie składał się z 1,9 miliarda tranzystorów i zostanie wybudowany w technologii 45 nanometrów. CPU wyposażono w 16 megabajtów współdzielonej pamięci cache 3. poziomu.

Układy Dunnington będą produkowane tylko w wersjach dla serwerów, gdzie mają zastąpić kości Tigerton.

Oczywiście, rodzi się pytanie, po co produkować wielordzeniowe procesory, gdy istnieje niewiele aplikacji potrafiących wykorzystać moc wszystkich rdzeni. Większość programów nie jest w stanie skorzystać z procesorów o 4 rdzeniach, a Intel zapowiada już układ 6-rdzeniowy.

Koncern najwyraźniej wierzy, że już wkrótce olbrzymie moce drzemiące w wielu rdzeniach zostaną wykorzystane. Jeszcze dzisiaj Intel wspólnie z Microsoftem ma oficjalnie poinformować o uruchomieniu wspólnego przedsięwzięcia, którego celem jest stworzenie warunków do rozwoju oprogramowania korzystającego z wielordzeniowych procesorów.

Share this post


Link to post
Share on other sites
CPU wyposażono w 16 megabajtów współdzielonej pamięci cache 3. poziomu

 

No to bedzie nowy system operacyjny ;D ;D bo coś musi tę pamięć zagospodarować 8)

Share this post


Link to post
Share on other sites
Guest tymeknafali

Słyszałem już gdzieś że są w stanie zrobić procesor 64 a nawet 128 rdzeniowy, tylko po prostu nie opłaca się im wyskakiwać od razu z taką technologią, a co do wykorzystania... coraz lepsze gry będą, wyższe standardy

Share this post


Link to post
Share on other sites

Faktycznie, procesory wielordzeniowe (a nie kilkurdzeniowe) da radę wytworzyć, tylko o ile wiem problem jest w tym, że nie będą to wycinki jednego wafla krzemowego. I tu jest największy problem, bo każde połączenie dwóch wafli to ogromne spowolnienie transferu, więc procesor będzie tak naprawdę czymś takim, jak czterordzeniowce Intela: nigdy cztery rdzenie, ale tak naprawdę 2x2.

Share this post


Link to post
Share on other sites

Ogromne spowolnienie transferu? Prawdziwy czterordzeniowiec, a dwa sklejone rdzenie, to nie ma większej różnicy jeśli chodzi o wydajność. A w przypadku powstałych już procesorów o kilkudziesięciu rdzeniach to z tego co mi wiadomo, każdy procesor jest z jednego wafla, z jednego kawałka krzemu (nie sklejaki).

Share this post


Link to post
Share on other sites

Tak jak pisałem, nie jestem specjalistą, powtarzam to, co wyczytałem. Słyszałem, że spowolnienie jest dość wyraźne.

Share this post


Link to post
Share on other sites

Sebaci ma rację. Testy nie wykazują różnic pomiędzy procesorami na jednym i na dwóch kawałkach. Myślę, że to takie gadanie tylko. Gdyby były różnice wydajności to Intel, który zwykle wypuszcza "prawdziwe" wielordzeniowce później od AMD, przegrywałby na rynku. A jest raczej odwrotnie.

Ale fakt, też wielokrotnie słyszałem, że procesory na kilku kawałkach krzemu są mniej wydajne.

Share this post


Link to post
Share on other sites
Testy nie wykazują różnic pomiędzy procesorami na jednym i na dwóch kawałkach. Myślę, że to takie gadanie tylko.

Istnieje też druga możliwość. Być może rzeczywiście na złączeniu dwóch wafli powstaje zastój, ale w międzyczasie (w końcu od wprowadzenia dwurdzeniowców do wprowadzenia czterordzeniowców minęły jakieś dwa lata) opracowano jakąś technologię, która pozornie zniwelowała tę różnicę. I być może gdyby teraz udało się wyprodukować czterordzeniowca na jednym fragmencie krzemu mielibyśmy poprawę szybkości w stosunku do czterordzeniowca na dwóch kawałkach.

Share this post


Link to post
Share on other sites
I być może gdyby teraz udało się wyprodukować czterordzeniowca na jednym fragmencie krzemu mielibyśmy poprawę szybkości w stosunku do czterordzeniowca na dwóch kawałkach.

Poprawę szybkości? Zobacz sobie na czterordzeniowe procesory Intela i na ich testy. To, że dwa dwujajowce komunikują się ze sobą szyną, nie oznacza, że są jakieś wyraźne spadki wydajności. Yorkfieldy mają bardzo dobrą wydajność i niezły potencjał OC. Jak w ogóle wg Ciebie miałby wyglądać prawdziwy procesor 4-rdzeniowy u Intela? Być może mogliby zrobić takiego ze wspólnym cachem dla wszystkich rdzeni, ale niekoniecznie taki procesor byłby lepszy niż połączone dwie dwórdzeniówki. Popatrz na AMD - oni projektując swojego 4-rdzeniowca użyli dodatkowej pamięci cache L3, którą wykorzystują wszystkie rdzenie (każdy z nich ma też 512KB L2). I jakoś nie przyniosło to wyraźnej korzyści, a tylko niepotrzebne opóźnienia, co nawet negatywnie przełożyło się na wydajność. Dlatego nawet te sklejane 4-rdzeniówki Intela są lepiej zaprojektowane niż Phenomy.

Share this post


Link to post
Share on other sites

Słuchaj, nie jestem ekspertem, spekuluję jedynie. Mówię wyłącznie o czysto fizycznej sprawie: prąd łatwije przepływa przez homogenny przewodnik, niż przez przewodnik z jakąś nieregularnością czy nieciągłością w strukturze. Tylko tyle. Naprawdę nie jestem specjalistą i wolę nie pisać już zbyt wiele.

Share this post


Link to post
Share on other sites

Słyszałem już gdzieś że są w stanie zrobić procesor 64 a nawet 128 rdzeniowy, tylko po prostu nie opłaca się im wyskakiwać od razu z taką technologią

 

Dokładnie, typowa ludzka chciwość i korporacje blokują rozwój całej cywilizacji. Bo po co po wypuszczeniu np. dwurdzeniowców rozpoczynać badania i puszczać na rynek np. procesor szesnastordzeniowy, skoro można od nabywających wycisnąć po drodze kasę za procesory 4-, 6-, 8- rdzeniowe. Przypomina mi to obecny przemysł motoryzacyjny, gdzie samochody podobnej klasy i kolejne ich modele zasadniczo różnią się tylko karoserią... Gdyby nie żądza pieniądza (i blokowanie patentów) to kto wie czy fantastyka naukowa nie byłaby dziś rzeczywistością...

Share this post


Link to post
Share on other sites

Gdyby to było takie proste, to AMD dawno wypuściłoby jakiś super procesor i zmiażdzyłoby Intela. Chyba nie powstał jeszcze 64- czy 128-rdzeniowy procesor x86. Nawet jeśli takowy zrobią, to programy muszą je obsługiwać, a developerzy zbytnio nie nadążają z optymalizacjami, bo wiele aplikacji i znaczna większość gier nie potrafi korzystać z 4 rdzeni.

 

Mówię wyłącznie o czysto fizycznej sprawie: prąd łatwije przepływa przez homogenny przewodnik, niż przez przewodnik z jakąś nieregularnością czy nieciągłością w strukturze.

Patrząc z perspektywy fizyki to nie powiem Ci jak to jest, ale zapewniam że wszystkie rdzenie całkiem nieźle sobie radzą z komunikowaniem się między sobą  ;)

Share this post


Link to post
Share on other sites

Ale konieczność optymalizacji właśnie wymuszają producenci drobnymi kroczkami zwiększający ilość rdzeni, przez co jedni "niby" czekają na drugich, bo np. "po co 16 rdzeni, skoro są problemy z obsługą 4, a dopiero co wprowadziliśmy 8". To jest po prostu dla nich bardziej opłacalne by stopniować rozwój. Tak jak kiedyś był trend x-GHz, tak teraz jest trend x-rdzeni. Może już najwyższy czas porzucić archaiczną kompatybilność wstecz z 8086... "no tak, ale to byłoby zbyt kosztowne i wymagałoby przepisania wszystkich aplikacji, kto by to kupował skoro nie ma czego na tym odpalić... hmm... ok, to dodajmy jeszcze ze dwa rdzenie."

Share this post


Link to post
Share on other sites
Guest tymeknafali
Gdyby to było takie proste, to AMD dawno wypuściłoby jakiś super procesor i zmiażdzyłoby Intela. Chyba nie powstał jeszcze 64- czy 128-rdzeniowy procesor x86. Nawet jeśli takowy zrobią, to programy muszą je obsługiwać, a developerzy zbytnio nie nadążają z optymalizacjami, bo wiele aplikacji i znaczna większość gier nie potrafi korzystać z 4 rdzeni.

Ale po co miałaby miażdżyć intela, co jej po tym przyjdzie? Lepiej wspólnie dzielić się rynkiem przez najbliższe dwadzieścia lat - trzydzieści lat, niż jednorazowo przebić a potem nie mieć konkurencyjnego produktu (nawet własnej produkcji) przez kolejnych dziesięć lat. Poza tym, nie wiem jak AMD, ale Intel wyprodukował Procesor 80 rdzeniowy. Programy... nie robią na razie takich, bo się zwyczajnie nie opłaca, zbyt niszowy rynek, pewnie by mieli więcej nakładów finansowych, niż potencjalnego zysku. Pamiętaj: "dla chcącego nic trudnego."

Dokładnie, typowa ludzka chciwość i korporacje blokują rozwój całej cywilizacji. Bo po co po wypuszczeniu np. dwurdzeniowców rozpoczynać badania i puszczać na rynek np. procesor szesnastordzeniowy, skoro można od nabywających wycisnąć po drodze kasę za procesory 4-, 6-, 8- rdzeniowe. Przypomina mi to obecny przemysł motoryzacyjny, gdzie samochody podobnej klasy i kolejne ich modele zasadniczo różnią się tylko karoserią... Gdyby nie żądza pieniądza (i blokowanie patentów) to kto wie czy fantastyka naukowa nie byłaby dziś rzeczywistością...

Najgorsze jest to że dokładnie tak samo dzieje się z rynkiem energetycznym (ropa naftowa), dużo projektów alternatywnych silników dla pojazdów kołowych, powykupywane i poukrywane przez wielkie koncerny, bo najpierw trzeba ropę wcisnąć ludziom. Szkoda że nikt nie dba o środowisko, o świat w którym żyjemy...

Share this post


Link to post
Share on other sites

Co do technologii, która pozwalałaby wykorzystywać wiele procesorów, to oczywiście ona też istnieje - są to przede wszystkim języki funkcyjne. Ostatnio na Studenckim Festiwalu Informatyki w Krakowie wysłuchałem bardzo interesującego wykładu Joe Armstronga, twórcy języka Erlang, który m.in. mówił właśnie o tym problemie (tzn. wykorzystaniu bardzo wielu rdzeni). Problem istotnie jest dosyć poważny, ale jeśli wykorzysta się odpowiedni język programowania, to można będzie wykorzystać nawet 1000 rdzeni. Oczywiście zawsze istnieje bariera w postaci prawa Amdahla, ale ogólnie rzecz biorąc sprawa nie jest taka beznadziejna.

 

Inna kwestia, na którą jakoś nikt nie zwrócił uwagi, to fakt, że wspomniany procesor przeznaczony jest dla serwerów, na których zazwyczaj uruchamia się równolegle wiele procesów i dodatkowe, nawet niezależne jednostki to niemal czysty zysk (w sensie wydajności).

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      W procesorach Intela odkryto kolejną lukę. Dziura nazwana CacheOut to luka typu side-channel, czyli błąd pozwalający na wykorzystanie pewnych szczegółów, często prawidłowej, implementacji.
      Dziura odkryta przez naukowców z University of Michigan i University of Adelaide występuje we wszystkich procesorach od architektury SkyLake po Coffee Lake powstałych przed rokiem 2019. Wiadomo, że nie występuje ona w procesorach AMD, ale badacze nie wykluczają, że jest obecna w układach IBM-a i ARM.
      Jak zauważyli eksperci gdy dane są pobierane z cache'u L1 często trafiają do buforów, z których mogą zostać wykradzione przez napastnika. Bardzo atrakcyjnym elementem CacheOut jest fakt, że napastnik może zdecydować, które dane z L1 zostaną umieszczone w buforze, skąd dokona kradzieży. Specjaliści wykazali, że możliwy jest wyciek danych mimo wielu różnych zabezpieczeń. w tym zabezpieczeń pomiędzy wątkami, procesami, wirtualnymi maszynami, przestrzenią użytkownika a jądrem systemu.
      Intel, który o problemie został poinformowany już w ubiegłym roku, sklasyfikował lukę L1D Eviction Sampling/CVE-2020-0549/INTEL-SA-00329 jako średnio poważną i przygotował odpowiednie poprawki. Odpowiedni mikrokod zostanie upubliczniony a nwjbliższym czasie. Tymczasowym obejściem problemu jest wyłączenie wielowątkowości lub wyłączenie rozszerzenia TSX.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Nowa metoda ataku na procesory Intela wykorzystuje techniki overclockingu. Eksperci ds. bezpieczeństwa odkryli, że możliwe jest przeprowadzenie ataku na procesory i zdobycie wrażliwych danych – jak na przykład kluczy kryptograficznych – poprzez manipulowanie napięciem procesora.
      Nowy atak, nazwany Plundervolt, bierze na celownik Intel Software Guard Extensions (SGS). To zestaw kodów bezpieczeństwa wbudowanych w intelowskie CPU. Celem Intel SGX jest zamknięcie najważniejszych informacji, takich właśnie jak klucze, w fizycznie odseparowanych obszarach pamięci procesora, gdzie są dodatkowo chronione za pomocą szyfrowania. Do obszarów tych, zwanych enklawami, nie mają dostępu żadne procesy spoza enklawy, w tym i takie, działające z większymi uprawnieniami.
      Teraz okazuje się, że manipulując napięciem i częstotliwością pracy procesora można zmieniać poszczególne bity wewnątrz SGX, tworząc w ten sposób dziury, które można wykorzystać.
      Naukowcy z University of Birmingham, imec-DistriNet, Uniwersytetu Katolickiego w Leuven oraz Uniwersytetu Technologicznego w Grazu mówią: byliśmy w stanie naruszyć integralność Intel SGX w procesorach Intel Core kontrolując napięcie procesora podczas przetwarzania instrukcji w enklawie. To oznacza, że nawet technologia szyfrowania/uwierzytelniania SGX nie chroni przed atakiem Plundervolt.
      Intel zaleca aktualizacje BIOS-u do najnowszych wersji.
      Przeprowadzenie ataku nie jest łatwe. Znalezienie odpowiedniej wartości napięcia wymaga eksperymentów i ostrożnego zmniejszania napięcia (np. w krokach co 1 mV), aż do czasu wystąpienia błędu, ale przed spowodowaną manipulacją awarią systemu, stwierdzają odkrywcy dziury. Naukowcom udało się doprowadzić do takich zmian w SGX, że stworzyli dziury umożliwiające zwiększenie uprawnień i kradzież danych.
      Do przeprowadzenia ataku nie trzeba mieć fizycznego dostępu do komputera, jednak by zdalnie zaatakować SGX konieczne jest wcześniejsze zdobycie uprawnień administracyjnych na atakowanym systemie.
      Plundervolt może zostać przeprowadzony na wszystkie procesory Intel Core od czasów Skylake'a, co oznacza, że narażone są Intel Core 6., 7., 8., 9. i 10. generacji oraz układy Xeon E3 v5 i v6, a także Xeony z rodzin E-2100 i E-2200.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Pojawiły się pogłoski, że Intel ma zamiar znacząco obniżyć ceny procesorów 9. generacji. Jak donosi TweakTown, w obliczu zbliżającej się premiery procesorów Cascade Lake-X koncern ma zamiar obciąć ceny układów Skylake-X nawet o 50%. W ten sposób firma chce szybciej opróżnić magazyny i lepiej konkurować z AMD.
      Jeśli rzeczywiście dojdzie do tak znaczącej obniżki, to najprawdopodobniej Intel będzie musiał dopłacić swoim dystrybutorom i innym parterom handlowym. To obniży firmowe zyski, jednak pozwoli lepiej konkurować z AMD.
      Obecnie AMD oferuje lepsze ceny procesorów z przeliczeniu na rdzeń, dlatego też wielu graczy wybiera układy Ryzen 5 3600/X lub Ryzen 7 3700X i cieszy się lepszą wydajnością w grach niż w przypadku układów Core i7-8700K czy Core i9-9900K, które są ponadto droższe.
      Doniesienia o potężnej obniżce opierają się na slajdzie, który prawdopodobnie wyciekł z Intela. Na slajdzie widzimy, że Intel przewiduje iż na obniżki przeznaczy w bieżącymm roku 3 miliardy dolarów. Porównuje się przy tym do AMD, pokazując, że konkurent jest znacznie mniejszą firmą, której cały zysk netto wyniósł w ubiegłym roku 0,3 miliarda USD. Mimo swojej olbrzymiej przewagi finansowej i pozycji na rynku Intel woli najwyraźniej dmuchać na zimne i poważnie traktuje AMD, które od czasu premiery architektury Zen umacnia się na rynku.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Na MIT powstał nowoczesny mikroprocesor z tranzystorami z nanorurek węglowych. Urządzenie można wyprodukować za pomocą technik używanych obecnie przez przemysł półprzewodnikowy, co ma olbrzymie znaczenie dla ewentualnego wdrożenia.
      Nanorurki węglowe są od dawna przedmiotem zainteresowań, gdyż dają nadzieję na zbudowanie kolejnej generacji komputerów po tym, gdy układów krzemowych nie będzie można już miniaturyzować. Tranzystory polowe z nanorurek węglowych (CNFET) mogą mieć bardzo obiecujące właściwości. Z dotychczasowych badań wynika, że powinny być one około 10-krotnie bardziej efektywne pod względem zużycia energii i pozwolić na przeprowadzanie obliczeń ze znacznie większą prędkością. Problem jednak w tym, że przy masowej produkcji w nanorurkach pojawia się tak wiele defektów, że nie można ich w praktyce wykorzystać.
      Naukowcy z MIT opracowali nową technikę, która znacząco zmniejsza liczbę defektów i daje pełną kontrolę nad produkcję CNFET. Co ważne, technika ta wykorzystuje procesy już używane w przemyśle półprzewodnikowym. Dzięki niej na MIT wyprodukowano 16-bitowy mikroprocesor składający się z 14 000 CNFET, który jest w stanie wykonywać te same obliczenia co tradycyjny procesor.
      Nowy procesor oparto na architekturze RISC-V. Testy wykazały, że jest on zdolny do wykonania pełnego zestawu instrukcji dla tej technologii.
      To, jak dotychczas, najbardziej zaawansowany chip wykonany w nowym procesie nanotechnologicznym, który daje nadzieję na wysoką wydajność i efektywność energetyczną, mówi współautor badań, profesor Max M. Shulaker. Krzem ma swoje ograniczenia. Jeśli chcemy coraz szybszych komputerów, to węglowe nanorurki są najbardziej obiecującym materiałem. Nasze badania pokazują zupełnie nowy sposób budowy układów scalonych z węglowymi nanorurkami.
      Shulaker i jego zespół od dawna pracują nad układami scalonymi z CNFET. Przed sześcioma laty byli w stanie zaprezentować procesor złożony ze 178 CNFET, który mógł pracować na pojedynczym bicie danych. Od tamtego czasu uczeni skupili się na rozwiązaniu trzech kluczowych problemów: defektach materiałowych, niedociągnięciach produkcyjnych oraz problemach funkcjonalnych.
      Największym problemem było uzyskanie nanorurek odpowiedniej jakości. Żeby CNFET działał bez zakłóceń, musi bez problemów przełączać się pomiędzy stanem 0 i 1, podobnie jak tradycyjny tranzystor. Jednak zawsze podczas produkcji powstanie jakaś część nanorurek, które będą wykazywały właściwości metalu, a nie półprzewodnika. Takie nanorurki czynią CNFET całkowicie nieprzydatnym. Zaawansowane układy scalone, by być odpornymi na obecność wadliwych nanorurek i móc szybko wykonywać zaawansowane obliczenia, musiałyby korzystać z nanorurek o czystości sięgającej 99,999999%. Obecnie jest to niemożliwe do osiągnięcia.
      Naukowcy z MIT opracowali technikę nazwaną DREAM (designing resilency against metallic CNT), która tak pozycjonuje metaliczne CNFET, że nie zakłócają one obliczeń. Dzięki temu zmniejszyli wymagania dotyczące czystości nanorurek aż o cztery rzędy wielkości. To zaś oznacza, że do wyprodukowania w pełni sprawnego układu potrzebują nanorurek o czystości sięgającej 99,99%, a to jest obecnie możliwe.
      Uczeni przeanalizowali różne kombinacje bramek logicznych i zauważyli, że metaliczne nanorurki węglowe nie wpływają na nie w ten sam sposób. Okazało się, że pojedyncza metaliczna nanorurki w bramce A może uniemożliwić komunikację pomiędzy nią, a bramką B, ale już liczne metaliczne nanorurki w bramce B nie wpływają negatywnie na jej możliwości komunikacji z żadną bramką. Przeprowadzili więc symulacje, by odnaleźć wszystkie możliwe kombinacje bramek, które byłyby odporne na obecność wadliwych nanorurek. Podczas projektowania układu scalonego brano pod uwagę jedynie te kombinacje. Dzięki technice DREAM możemy po prostu kupić komercyjne dostępne nanorurki, umieścić je na plastrze i stworzyć układ scalony, nie potrzebujemy żadnych specjalnych zabiegów, mówi Shulaker.
      Produkcja CNFET rozpoczyna się od nałożenia znajdujących się w roztworze nanorurek na podłoże z predefiniowanym architekturą układu. Jednak nie do uniknięcia jest sytuacja, w której część nanorurek pozbija się w grupy, tworząc rodzaj dużych cząstek zanieczyszczających układ scalony. Poradzono sobie z tym problemem tworząc technikę RINSE (removal of incubated nanotubes through selective exfoliation). Na podłoże nakłada się wcześniej związek chemiczny, który ułatwia nanorurkom przyczepianie się do niego. Następnie, już po nałożeniu nanorurek, całość pokrywana jest polimerem i zanurzana w specjalnym rozpuszczalniku. Rozpuszczalnik zmywa polimer, a ten zabiera ze sobą pozbijane w grupy nanorurki. Te zaś nanorurki, które nie zgrupowały się z innymi, pozostają przyczepione do podłoża. Technika ta aż 250-kronie zmniejsza zagęszczenie zbitek nanorurek w porównaniu z alternatywnymi metodami ich usuwania.
      Poradzono sobie też z ostatnim problemem, czyli wytworzeniem tranzystorów typu N i typu P. Zwykle produkcja tych tranzystorów z węglowych nanorurek kończyła się uzyskaniem urządzeń o bardzo różniącej się wydajności. Problem rozwiązano za pomocą nowej techniki o nazwie MIXED (metal interface engineering crossed with electrostatic doping), dzięki której możliwe jest precyzyjna optymalizacja procesorów do wymaganych zadań. Technika ta polega na dołączeniu do każdego tranzystora, w zależności czy ma być on P czy N, odpowiedniego metalu, platyny lub tytanu. Następnie tranzystory są pokrywane tlenkiem, co pozwala na ich dostosowanie do zadań, jakie będą spełniały. Można więc osobno dostroić je do pracy w zastosowaniach w wysoko wydajnych serwerach, a osobno do energooszczędnych implantów medycznych.
      Obecnie, w ramach programu prowadzonego przez DARPA (Agencja Badawcza Zaawansowanych Projektów Obronnych), wspomniane techniki produkcji układów scalonych z węglowych nanorurek wdrażane są w fabrycznych liniach produkcyjnych. W tej chwili nikt nie potrafi powiedzieć, kiedy w sklepach pojawią się pierwsze procesory z CNFET. Shulaker mówi, że może się to stać już w ciągu najbliższych pięciu lat. Sądzimy, że teraz to już nie jest pytanie czy, ale pytanie kiedy, mówi uczony.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Po tym, jak na początku bieżącego roku firma GlobalFoundries przestała produkować układy scalone na zlecenie, na rynku najbardziej zaawansowanych chipów pozostały jedynie trzy firmy. Największą z nich jest tajwańska TSMC, drugi pod względem wielkości jest Samsung, który przeżywa jednak kłopoty. Trzecia firma to Intel, które nie odniosła na tym rynku większych sukcesów i właśnie pojawiły się pogłoski, że może się z niego wycofać.
      Jak donosi serwis DigiTimes, powołując się na źródła w tajwańskim przemyśle półprzewodników, nie będzie zaskoczeniem, jeśli Intel zaprzestanie produkcji układów scalonych na zlecenie. Z informacji przekazanej przez źródła wynika, że Intel nigdy nie stanowił poważnej konkurencji dla TSMC i Samsunga. Firma oferowała wyższe ceny i nie przyciągnęła ani wielkich klientów, ani nie składano w niej dużych zamówień.
      Tajwańscy eksperci działający na rynku półprzewodników mówią, że Intel nigdy tak naprawdę nie przykładał dużej wagi do konkurowania z TSMC i Samsungiem na rynku układów calonych na zlecenie. Być może przedstawiciele koncernu nigdy nie wierzyli w sukces na rynku, który w ponad 50% jest opanowany przez TSMC, a Samsung i Globalfoundries skupiały się na utrzymaniu swojej pozycji. Wyższe ceny oraz słabszy łańcuch dostaw również nie pomagały Intelowi w rynkowej walce.
      Analizy dotyczące rynku półprzewodników przewidują, że w 2019 roku z powodu spadku cen układów pamięci i wojny handlowej pomiędzy USA a Chinami, inwestycje na tym rynku zmniejszą się o 8%. Wcześniej przewidywano 7-procentowy wzrost. Jednak na Tajwanie sytuacja będzie zupełnie inna. Tam inwestycje mają wzrosnąć o 24%, głównie dzięki budowie przez TSMC fabryk wytwarzających kości w technologii 5 nanometrów.

      « powrót do artykułu
×
×
  • Create New...