Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Core i9-9990XE tylko dla wybranych klientów

Recommended Posts

Pojawiły się doniesienia, jakoby procesor Intela Core i9-9990XE miał być sprzedawany poza tradycyjnym kanałem detalicznym. Z dokumentów, do których dotarli dziennikarze, wynika, że układ będzie dostępny wyłącznie na zamkniętych online'owych aukcjach dla firm budujących systemy komputerowe.

Core i9-9990XE to 14-rdzeniowy, 28-wątkowy procesor taktowany zegarem o częstotliwości od 4 do 5 GHz. Jego TDP wynosi 255 watów.

Układ ma być oferowany wybranym klientom na aukcjach. Te zaś mają odbywać się raz na kwartał. Pierwszą z nich zaplanowano na trzeci tydzień bieżącego roku. To zaś oznacza, że cena procesora nie jest stała i z góry ustalona, a będzie uzależniona od tego, na ile kość wycenią potencjalni klienci. W pierwszej aukcji wezmą udział tylko 3 wybrane przez Intela firmy.

Taki a nie inny system sprzedaży oznacza, że Intelowi nie zależy na tym, by Core i9-9990XE trafił na masowy rynek. Jako, że procesory te będą niezwykle precyzyjnie sortowane podczas produkcji, by odrzucić wszelkie elementy zawierające jakiekolwiek wady, można spodziewać się, że co kwartał na aukcje trafi zaledwie kilkaset sztuk.

Niewykluczone, że cena pojedynczego i9-9990XE przekroczy 2000 USD.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Jak zwykle z tą serią - prawie nikt tego nie będzie miał, ale wszyscy zobaczą słupki z benchmarka. Tak przy okazji - niedawno ktoś pokazał na jutubie jak to pewien dziwny błąd w kernelu Windows powoduje, że podczas testowania procesora konkurencyjnej firmy połowa rdzeni nic nie robi, chociaż na wkresach obciążenia wszystkie mają 100%.

Share this post


Link to post
Share on other sites

Czy to już będzie generacja poprawiona/załatana sprzętowo czy też już wszyscy zapomnieli o dziurawych Intelkach. ;)

Share this post


Link to post
Share on other sites
W dniu 17.01.2019 o 01:31, KopalniaWiedzy.pl napisał:

Układ ma być oferowany wybranym klientom na aukcjach.

Ale po co? Jak to potem spieniężyć? Może jakieś porównanie kosztu GFLOPSa?

Share this post


Link to post
Share on other sites

Może nie chcą zapychać magazynów nie przewidując powszechnego zastosowania.

Share this post


Link to post
Share on other sites

To chyba oznacza, że postęp wyhamował i nie będą się spieszyć z udostępnieniem "dla mas" bo nic im w zanadrzu nie zostanie na przyszłość.

Share this post


Link to post
Share on other sites

Postęp oczywiście wyhamował.

Natomiast te fundamenty znane nam od dziesiątek lat wciąż mają nowe zastosowania, wciąż możemy dokonywać odkryć idąc nowymi ścieżkami.

Pewne ścieżki - takie jak budowa procesorów opartych o tranzystory - są już na ukończeniu.

Są inne ścieżki, dopiero rozpoczynane, takie jak procesory kwantowe, biologiczne itd.

Najbardziej mnie martwi że fundamenty od prawie 100 lat są bez zmian.

Wyobraźcie sobie rok 1900.
Mija 5 lat i pojawia się STW, mija 16 lat i pojawia się OTW, mija 25/26 lat i pojawia się mechanika kwantowa.

Potem oczywiście nie jest tak że wszystko stanęło w miejscu bo w latach 70tych powstał Model Standardowy - ale to już było tylko przystosowanie mechaniki kwantowej do odkryć.

I od tego czasu nasza teoria przekroczyła możliwości teoretyczne naszych narzędzi.
Koniec fundamentów.

Bozon Higgsa i fale grawitacyjne to wisienki na torcie - przewidziano je teoretycznie dziesiątki lat wcześniej - niczym nowym nie były. Tort już został ukończony.

 

Edited by thikim

Share this post


Link to post
Share on other sites

Podobna sytuacja była w końcówce XIX wiek. W 1687 r. Newton opublikował swoje zasady dynamiki, a w 1861 Maxwell swoje równania elektrodynamiki. I naraz się okazało, że oby dwie teorie mają różne podstawy teoretyczne, bo Newton zakładał "natychmiastowe" oddziaływanie, a Maxwell - nie. Jedna i druga doskonale się sprawdzały w swoich dziedzinach - tak jak teraz mechanika kwantowa i ogólna teoria względności - ale ich podstawy teoretyczne były ze sobą w sprzeczności. Z analogiczną sytuacją mamy teraz i naprawdę jest to wyzwanie dla teoretyków. Kto by pomyślał, że problemem będzie zbytnia zgodność teorii z wynikami eksperymentów...

Share this post


Link to post
Share on other sites

Wiem o tym.

Problem z kołem historii jest taki że może i toczy się tak samo ale nie przez te same miejsca.

3 godziny temu, GROSZ-ek napisał:

Z analogiczną sytuacją mamy teraz i naprawdę jest to wyzwanie dla teoretyków.

Dla teoretyków to nie jest żadne wyzwanie - można produkować wiele teorii które pogodzą jedno z drugim.
Problem jest w praktyce - ktoś musi praktycznie coś zweryfikować. Narzędzia do weryfikacji Newtona, Maxwella - były trudne technicznie do zrealizowania w związku z ówczesnym poziomem techniki ale nie było z nimi fundamentalnych przeszkód.
Narzędzia do weryfikacji czy świat to struny  - są niemożliwe do skonstruowania.

Taki trening myślowy - jeśli do zbudowania urządzenia X potrzeba więcej atomów niż istnieje we Wszechświecie to czy jest możliwe zbudowanie tego urządzenia czy nie? :)
Albo czy myślisz że jak zbudujesz potężniejszy akcelerator to rozdzielisz kwarki od siebie? :)
Oczywiście - jeszcze nam daleko do granic fundamentalnych w urządzeniach które muszą być duże jak np. akceleratory. Ale granice ekonomiczne już osiągamy.

Jak myślisz jeśli akcelerator następny zbudujemy do 2040 roku co jest wątpliwe, ale załóżmy że się uda, to za ile lat zbudujemy akcelerator 1000 razy potężniejszy? O rozmiarach 50 000 km? Za 100? Czy za 1000 lat? A co przez te lata? Zastój.

Ale to duże urządzenia.
W dół jesteśmy bliżej granicy fundamentalnej. Jak myślisz kiedy zbudujemy tranzystor mniejszy niż atom wodoru? :)
Podobnie jest w każdej rzeczy. Na początku postępy są znaczne. A potem już bardzo wolne.

Edited by thikim

Share this post


Link to post
Share on other sites
Cytat

Dla teoretyków to nie jest żadne wyzwanie - można produkować wiele teorii które pogodzą jedno z drugim.

No chyba właśnie jest. Na tyle, ile niespecjalista może, staram się śledzić doniesienia na temat prac teoretycznych łączących OTW z MK  i  - o ile mi wiadomo - nie ma opracowanej takiej teorii, z której zgrabnie wynikałaby mechanika kwantowa we współczesnej postaci Modelu Standardowego i dawała jakieś perspektywy na dołączenie efektów grawitacyjnych przewidywanych przez OTW. Jak rozumiem, brakuje nam odpowiedniej matematyki łączącej zakrzywioną czasoprzestrzeń OTW z przestrzenią unitarną MK.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Tegoroczna International Conference for Hight Performance Computing (SC19) nie przyniosła żadnych sensacyjnych informacji na temat TOP500, listy najpotężniejszych komputerów na świecie. Znacznie bardziej interesujące było to, co mówiono o systemach eksaskalowych, których budowa ma rozpocząć się w 2021 roku.
      Wielkimi wygranymi są tutaj ADM, Cray i Intel. Już teraz wiadomo, że firmy te będą tworzyły trzy eksaskalowe maszyny, których powstanie sfinansuje Departament Energii. Cray, należący obecnie do HP Enterprise, będzie odpowiedzialny za połączenia we wszystkich wspomnianych superkomputerach. Maszyna eksaskalowa to superkomputery zdolny do wykonania 1 eksaflopsa czyli 1 tryliona (1018) operacji zmiennoprzecinkowych na sekundę.
      Budową superkomputera Frontier, który stanie w Oak Ridge National Laboratory, zajmą się AMD i Cray. AMD dostarczy CPU i GPU. Zintegrowanie całości będzie zadaniem Craya. Z kolei maszyna Aurora, przeznaczona dla Argonne National Laboratory, ma zostać zbudowana przez Intela (GPU i GPU) oraz Craya (integracja). Trzeci z planowanych w najbliższych latach amerykańskich systemów eksaskalowych – El Capitán – ma zostać zbudowany przez Craya. Obecnie nie wiadomo, kto dostarczy doń procesorów.
      Na pierwszy rzut oka widać, że brakuje w tym towarzystwie dwóch potentatów rynku HPC (High Performance Computing) – IBM-a i Nvidii. Jednak jeśli nawet żadna z tych firm nie będzie zaangażowana w budowę El Capitana, to z pewnością nie zabraknie dla nich pracy na rynku superkomputerów.
      Jeszcze przed SC19 odbyła się konferencja zorganizowana przez Intela, na której koncern mówił o kościach, które rozwija na potrzeby Aurory. Wiemy, że zostaną one wykonane w 7-nanometrowym procesie. Nazwa kodowa procesora Xeon dla Aurory to Sapphire Rapids. Jednak uczestników konferencji bardziej zainteresował przyszły intelowski GPU – Xe HPC o nazwie kodowej Ponte Vecchio.
      Ponte Vecchio będzie miał wersję specjalnie na rynek HPC. Głównym zadaniem układów GPU przeznaczonych do zastosowań HPC jest przetwarzanie liczb zmiennoprzecinkowych pojedynczej i podwójnej precyzji, jednak nowy GPU Intela ma również wspierać formaty popularne na polu sztucznej inteligencji, takie jak INT8, BFloat16 i FP16. Intel wykorzysta również technologię pakowania układów EMIB, która pozwala na podłączenie GPU do interfejsu HBM (High Bandwidth Memory). Ponadto w Ponte Vecchio znajdziemy technologię Foveros 3D pozwalającą składać procesor na podobieństwo klocków i interkonekt XE Memory Fabric (XEMF), przez co CPU i GPU mają mieć dostęp do superszybkiej pamięci zwanej Rambo cache'em. Dzięki dużej ilości cache'u ma poprawić się skalowalność tak ambitnych projektów jak superkompuery eksaskalowe.
      Na potrzeby tych rozwiązań intel tworzy też nowe oprogramowanie oparte na nowym języku programowania Data Parallel C++ (DPC++). Bazuje on na standardzie SYCL z dodanymi przez Intela specyficznymi rozszerzeniami.
      Pojedynczy węzeł Aurory będzie zawierał 2 układy Xeon Sapphire Rapids oraz 6 Ponte Vecchio HPC GPU. Trzeba zauważyć, że Intel wziął na siebie bardzo ambitne zadanie. W ciągu dwóch lat musi bowiem mieć gotowe i przetestowane nowe oprogramowanie, nowy GPU wykonany według nowego procesu produkcyjnego i nowej technologii pakowania.
      W lepszej sytuacji jest AMD. Maszyna Frontier będzie korzystała z EPYC CPU i Radeon Instinct GPU. Firma już produkuje te kości. Obecnie pracuje nad ROCM, czyli odpowiedzią na CUDA Nvidii. ROCM będzie wspierało Tensor Flow i PyTorch. Obecnie AMD bardzo mocno inwestuje w rozwój tej platformy, a podczas SC19 przedstawiciele firmy zapowiedzieli poszerzenie ofery procesorów EPYC.
      Co jeszcze wiemy o przyszłych amerykańskich eksaskalowych komputerach?
      Budowana przez Craya maszyna El Capitán będzie stała z Lawrence Livermore National Laboratory. Jej maksymalna wydajność ma przekraczać 1,5 eksaflopsa, a komputer – wyposażony w zaawansowane możliwości modelowania, symulacji i sztucznej inteligencji bazujące na architekturze Shasta – będzie wykorzystywany do zadań związanych z bezpieczeństwem nuklearnym. Na jego zbudowanie przeznaczono 600 milionów USD, a maszyna ma zostać dostarczona pod koniec 2022 roku.
      Tworzony przez AMD i Craya Frontier ma ruszyć już w 2021 roku, a jego wydajność ma być wyższa niż 1,5 eksafolopsa. Superkomputer będzie wykorzystywany do wielu zadań związanych m.in. z badaniami nad rozpadem atomowym, badaniami klimatu, zostanie zaprzęgnięty do pracy w dziedzinie biomedycyny i inżynierii materiałowej. Również i on ma kosztować około 600 milionów USD.
      Jeśli zaś chodzi o Aurorę, to będzie się on zajmował badaniami nad fuzją jądrową, poszukiwał leków na nowotwory, wykorzystany zostanie przez chemików do badania procesów katalitycznych, wspomoże też nauki z dziedziny neurobiologii czy astrofizyki. Również i na tę maszynę przeznaczono 600 milionów dolarów. Jej wydajność ma przekraczać 1 eksaflops, a komputer ma być gotowy w 2021 roku.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Pojawiły się pogłoski, że Intel ma zamiar znacząco obniżyć ceny procesorów 9. generacji. Jak donosi TweakTown, w obliczu zbliżającej się premiery procesorów Cascade Lake-X koncern ma zamiar obciąć ceny układów Skylake-X nawet o 50%. W ten sposób firma chce szybciej opróżnić magazyny i lepiej konkurować z AMD.
      Jeśli rzeczywiście dojdzie do tak znaczącej obniżki, to najprawdopodobniej Intel będzie musiał dopłacić swoim dystrybutorom i innym parterom handlowym. To obniży firmowe zyski, jednak pozwoli lepiej konkurować z AMD.
      Obecnie AMD oferuje lepsze ceny procesorów z przeliczeniu na rdzeń, dlatego też wielu graczy wybiera układy Ryzen 5 3600/X lub Ryzen 7 3700X i cieszy się lepszą wydajnością w grach niż w przypadku układów Core i7-8700K czy Core i9-9900K, które są ponadto droższe.
      Doniesienia o potężnej obniżce opierają się na slajdzie, który prawdopodobnie wyciekł z Intela. Na slajdzie widzimy, że Intel przewiduje iż na obniżki przeznaczy w bieżącymm roku 3 miliardy dolarów. Porównuje się przy tym do AMD, pokazując, że konkurent jest znacznie mniejszą firmą, której cały zysk netto wyniósł w ubiegłym roku 0,3 miliarda USD. Mimo swojej olbrzymiej przewagi finansowej i pozycji na rynku Intel woli najwyraźniej dmuchać na zimne i poważnie traktuje AMD, które od czasu premiery architektury Zen umacnia się na rynku.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Przed tygodniem TSMC ogłosiło, że wykorzystywana przezeń technologia 7nm plus (N7+) jest pierwszym komercyjnie dostępnym wdrożeniem technologii EUV (litografii w ekstremalnie dalekim ultrafiolecie). Tym samym tajwański gigant ustawił się w roli światowego lidera EUV. I wielu analityków to potwierdza.
      TSMC jest ewidentnym liderem na rynku EUV, zarówno jeśli chodzi o zamówione i już wykorzystywane narzędzia, liczbę plastrów wytwarzanych w technologii EVU jak i zintegrowania EUV w swoich planach produkcyjnych, mówi Jim Fontanelli, analityk w firmie Arete Ressearc.
      Obecnie najnowocześniejszą z wykorzystywanych technologii jest 7+ z trójwarstwową maską EUV. W drugiej połowie połowie przyszłego roku TSMC ma zamiar wdrożyć 5 nm z maską 15-warstwową, a pod koniec 2020 roku zadebiutuje technologia 6 nm, w której wykorzystana zostanie 4-warstwowa maska EUV, twierdzi Fontanelli.
      Zdaniem analityka, obecnie największym odbiorcą plastrów 7+ produkowanych przez TSMC jest AMD i ma to związek z ograniczoną dostępnością produktu. Jednak przy przejściu na węzeł 5nm pozycję kluczowego klienta w tej technologii powinno zyskać Huawei, a na drugim miejscu znajdzie się Apple. Obie firmy chcą bowiem wykorzystać możliwości związane z miniaturyzacją, mniejszym poborem mocy oraz poprawieniem wydajności. Największym odbiorcą plastrów 6nm ma zostać, również w zwiazku z ograniczoną podażą 7nm, MediaTek.
      Wdrożenie EUV jest bardzo trudne. Dość wspomnieć, że technologia ta wymaga źródła światła o mocy 250W. Tymczasem w powszechnie obecnie wykorzystywanej litografii zanurzeniowej wykorzystuje się moc 90W. A kolejna generacja EUV, high-NA EUV będzie wymagała 500-watowego źródła.
      EUV oferuje jednak tak wiele zalet, że warto przebrnąć trudy jej wdrożenia. Przede wszystkim pozwala zaś skrócić czas produkcji i uniknąć wielokrotnego naświetlania plastra.
      Technologia ta jest jednak na tyle nowa, kosztowna i sprawia tak dużo problemów, że obecnie jedynie trzech światowych producentów – TSMC, Samsung i Intel – ma w planach jej wdrożenie do produkcji. Intel jest w tych pracach najmniej zaawansowany. Intel wydaje się całkowicie zaangażowany w EUV 7nm, którą wdroży w 2021 roku. Liczba warstw w masce będzie tam mniejsza niż liczba warstw w węźle 5nm TSMC. Ma to związek w różnicach wymagań technologicznych. Prawdopodobnie warstw tych będzie mniej niż 10, mówi Fontanelli.
      Fakt, dla którego Fontanelli w dużej mierze opiera się na domysłach, dobrze wyjaśniają słowa innego analityka, Dana Hutchesona z VLSI Reseearch. Intel to największa zagadka spośród tych trzech producentów, gdyż nie tworzy podzespołów na zamówienie, zatem nie ma powodu, dla którego miałby zdradzać, co robi. Ponadto warto pamiętać, że Intel zawsze wdrażał narzędzia litograficzne dla kolejnych węzłów wcześniej, niż ktokolwiek inny. Ponadto od lat najbardziej angażuje się w badania nad EUF. Nie ma też marketingowego powodu, by na bieżąco informować o postępach w EUF, dlatego też sądzę, że nic nie powiedzą, zanim nie będą pewni, że są gotowi do rozpoczęcia produkcji.
      Początkowo Intel miał zamiar rozpocząć produkcję 7-nanometrowych układów w 2017 roku, jednak w związku z opóźnieniami przy węzłach 14- i 10-nanometrowym plany te przesunięto o cztery lata. W bieżącym roku menedżerowie Intela zapowiedzieli, że procesy produkcyjne 7-nanometrowych układów tej firmy będą równie lub bardziej wydajne niż procesy produkcyjne 5-nanometrowych kości TSMC.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Inżynierowie z intelowskiej grupy Strategic Offensive Research & Mitigation (STORM) opublikowali pracę naukową opisującą nowy rodzaj pamięci dla procesorów. Pamięć taka miałaby zapobiegać atakom side-channel wykorzystującym mechanizm wykonywania spekulatywnego, w tym atakom na błędy klasy Spectre.
      Wymienienie w tym kontekście dziury Spectre nie jest przypadkiem. Zespół STORM powstał bowiem po tym, jak Intel został poinformowany przez Google'a i niezależnych badaczy o istnieniu dziur Meltdown i Spectre. Przypomnijmy, że są to błędy w architekturze procesorów. Meltdown występuje niemal wyłącznie w procesorach Intela, Spectre dotyczy wszystkich procesorów wyprodukowanych przed rokiem 2019, które wykorzystują mechanizm przewidywania rozgałęzień. Dziura Spectre ma większy wpływ na procesory Intela niż innych producentów.
      Główny rywal Intela, AMD, w dużej mierze poradził sobie z atakami typu Spectre zmieniając architekturę procesorów Ryzen i Epyc. Intel jak dotąd walczy ze Spectre za pomocą poprawiania oprogramowania. To dlatego – jak wykazały testy przeprowadzone przez witrynę Phoronix – średni spadek wydajności procesorów Intela spowodowany zabezpieczeniami przed Spectre jest aż 5-krotnie większy niż w przypadku procesorów AMD.
      Inżynierowie ze STORM opisali nowy rodzaj pamięci dla procesorów, którą nazwali Speculative-Access Protected Memory (SAPM). Ma być ona odporna na obecne i przyszłe ataki typu Spectre i podobne. Członkowie grupy STORM mówią, że większość ataków typu Spectre przeprowadza w tle te same działania, a SAPM ma domyślnie blokować takie operacje, co zapobiegnie obecnym i ewentualnym przyszłym atakom.
      Jak przyznają badacze Intela, zaimplementowanie pamięci SAPM negatywnie wpłynie na wydajność procesorów tej firmy, jednak wpływ ten będzie mniejszy niż wpływ obecnie stosowanych łatek programowych. Mimo że spadek wydajności dla każdego przypadku dostępu do pamięci SAPM jest dość duży, to operacje tego typu będą stanowiły niewielką część operacji związanych z wykonaniem oprogramowania, zatem całkowity koszt będzie niski i potencjalnie mniejszy niż spadek wydajności spowodowany obecnie stosowanymi rozwiązaniami, czytamy w opublikowanym dokumencie.
      SAPM może zostać zaimplementowany zarówno na poziomie adresu fizycznego jak i wirtualnego. W tym drugim przypadku pamięć byłaby kontrolowana z poziomu systemu operacyjnego. Jeśli zaś ten zostałby skompromitowany, a tak się często dzieje, SAPM nie będzie chroniła przed atakiem.
      W opublikowanej pracy czytamy, że jest to praca teoretyczna, dotycząca możliwych implementacji, co oznacza, że całościowa koncepcja nie jest jeszcze gotowa i jeśli w ogóle SAPM powstanie, będzie wymagała długotrwałych szczegółowych testów.

      « powrót do artykułu
×
×
  • Create New...