Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

IBM prezentuje nowy interfejs pamięci dla serwerów

Rekomendowane odpowiedzi

Podczas konferencji Hot Chips IBM zapowiedział nowy interfejs pamięci, który ma zadebiutować wraz z przyszłoroczną wersją procesorów Power 9. Mowa tutaj o Open Memory Interface (OMI). Pozwoli on na upakowanie w serwerze większej ilości pamięci korzystającej do tego z większej przepustowości nić DDR. OMI ma być konkurentem dla Gen-Z oraz intelowskiej CXL.

OMI przenosi kontroler pamięci poza płytkę samego CPU, na osobną kartę DIMM. Dzięki takiemu rozwiązaniu możliwe będzie zastosowanie w serwerze do 4 TB pamięci o przepustowości 320 Gb/s lub też 512 GB o przepustowości do 650 Gb/s. Koszt takiego rozwiązania to dodatkowe co najmniej 4 nanosekundy opóźnienia oraz dodatkowe 4 waty poboru mocy powodowane przez osobną kartę z kontrolerem. Wiadomo, że w laboratoriach IBM-a już pracują takie testowe karty wyprodukowane przez Microsemi.

IBM przewiduje, że w przyszłości OMI może być używane w połączeniu z układami DRAM. Takie rozwiązanie charakteryzowało by się opóźnieniem rzędu 80 ns, a więc stanowiłoby atrakcyjną alternatywę wobec Gen-Z, gdzie opóźnienie może dochodzić do 400 ns, twierdzi architekt procesorów William Starke z IBM-a.

Wykorzystywane przez OMI układy serdes zostały przez IBM-a zoptymalizowane pod kątem jak najmniejszego zużycia energii oraz ograniczenia wielkości samego układu, co osiągnięto ograniczając częstotliwość ich pracy. Oferują one przepustowość do 600 Gb/s i mogą być przystosowane zarówno do pracy z OMI, jak i z nową generacją NVLing czy OpenCAPI 4.0.

W przypadku OMI współpracującego z Power 9 pamięć będzie wykorzystywała 96 linii układu serdes 25G (miliardów operacji na sekundę), a przyszłe procesory Power 10 będę współpracowały z serdes 32-50G. Pojawiły się głosy mówiące,że pod tym względem OMI przypomina Intelowskie CXL. Z drugiej jednak strony łatwiejsze chłodzenie i uproszczona architektura samego procesora przypominają to, co osiągnęło AMD dzięki Epyc.

Obecne układy Power 9 są wykonane w technologii 14 nm i obsługują 48 linii PCIe Gen4. Power 10, który ukaże się w roku 2021 będzie wykonany w nowym procesie technologicznym, wykorzysta nowy rdzeń oraz PCIe Gen5, a przepustowość jego pamięci wyniesie 800 Gb/s. Mimo ambitnych celów, jakie wyznacza sobie IBM, procesory Power mają coraz mniejsze udziały w rynku. W ciągu ostatniego roku zmniejszyły się one z 0,219% do 0,190%.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      IBM zaprezentował 127-kubitowy procesor kwantowy Eagle. Dzięki niemu, jak zapewnia koncern, klienci firmy będą mogli wykorzystać niedostępne dotychczas zasoby obliczeniowe, co ma się stać krokiem milowym w kierunku wykorzystania obliczeń kwantowych w codziennej praktyce. Eagle ma bowiem wkrótce zostać udostępniony wybranym partnerom IBM-a.
      Postrzegamy Eagle'a jako krok na drodze technologicznej rewolucji w historii maszyn obliczeniowych. W miarę, jak procesory kwantowe są rozbudowywane, każdy dodatkowy kubit dwukrotnie zwiększa ilość pamięci, jaką potrzebują komputery klasyczne, by symulować taki procesor. Spodziewamy się, że komputery kwantowe przyniosą realne korzyści, gdyż rosnąca złożoność procesów obliczeniowych, jakie są w stanie wykonać, przekroczy możliwości komputerów klasycznych, czytamy w informacji prasowej IBM-a.
      Inżynierowie Błękitnego Giganta nie mieli łatwego zadania. Prace praktyczne i teoretyczne nad maszynami kwantowymi, opartymi na zasadach mechaniki kwantowej, są prowadzone od dziesięcioleci i od dawna wiemy, że komputery takie są w stanie przeprowadzać obliczenia niedostępne maszynom klasycznym. Jednak ich zbudowanie jest niezwykle trudne. Nawet najmniejszy wpływ czynników zewnętrznych może spowodować dekoherencję kubitów, czyli doprowadzić do stanu, w którym zawarta w nich informacja zostanie utracona.
      Eagle zawiera niemal 2-krotnie więcej kubitów niż jego poprzednik, 65-kubitowy Hummingbird. Jednak jego powstanie wymagało czegoś więcej, niż tylko dodania kubitów. Inżynierowe IBM-a musieli opracować nowe i udoskonalić istniejące techniki, które – jak zapewniają – staną się podstawą do stworzenia ponad 1000-kubitowego układu Condor.
      Kolejnym niezwykle ważnym elementem nowego procesora jest wykorzystanie techniki multiplekosowania odczytu, znaną już z procesora Hummingbird R2. We wcześniejszych układach kwantowych każdy kubit wymagał zastosowania osobnego zestawu elektroniki zajmującej się odczytem i przesyłaniem danych. Taka architektura może sprawdzić się przy kilkudziesięciu kubitach, jednak jest zbyt nieporęczna i niepraktyczna przy ponad 100 kubitach, nie wspominając już o 1121-kubitowym Condorze, który ma powstać za 2 lata. Multipleksowanie odczytu polega na łączeniu sygnałów odczytowych z wielu kubitów w jeden, dzięki czemu można znakomicie zmniejszyć ilość okablowania i komponentów elektronicznych, co z kolei pozwala na lepsze skalowanie całości.
      Najbardziej interesującymi informacjami, których jeszcze nie znamy, są wyniki testów Quantum Volume (QV) i Circuit Layer Operations Per Second (CLOPS). Quantum Volume to stworzony przez IBM-a system pomiaru wydajności kwantowego komputera jako całości. Bierze pod uwagę nie tylko same kubity, ale również interakcje pomiędzy nimi, działania poszczególnych elementów komputera, w tym błędy obliczeniowe, błędy pomiarowe czy wydajność kompilatora. Im większa wartość QV, tym bardziej złożone problemy może rozwiązać komputer kwantowy. Z kolei zaproponowany niedawno przez IBM-a CLOPS to benchmark określający, na ilu obwodach kwantowych procesor jest w stanie wykonać operacje w ciągu sekundy. Maszyna Eagle nie została jeszcze poddana testom wydajnościowym i jakościowym.
      W ubiegłym roku Honeywell ogłosił, że jego System Model H1, korzystający z zaledwie 10 kubitów, osiągnął w teście QV wartość 128. Nieco wcześniej zaś 27-kubitowy system IBM-a mógł się pochwalić QV 64. Widzimy zatem, że sama liczba kubitów nie mówi jeszcze niczego o wydajności samej maszyny.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Ostatnie działania gigantów IT, takich jak Google, oraz koncernów farmaceutycznych sugerują, że pierwszym naprawdę przydatnym zastosowaniem komputerów kwantowych mogą stać się obliczenia związane z pracami nad nowymi lekami. Komputery kwantowe będą – przynajmniej teoretycznie – dysponowały mocą nieosiągalną dla komputerów klasycznych. Wynika to wprost z zasady ich działania.
      Najmniejszą jednostką informacji jest bit. Reprezentowany jest on przez „0” lub „1”. Jeśli wyobrazimy sobie zestaw trzech bitów, z których w każdym możemy zapisać wartość „0” lub „1” to możemy w ten sposób stworzyć 8 różnych kombinacji zer i jedynek (23). Jednak w komputerze klasycznym w danym momencie możemy zapisać tylko jedną z tych kombinacji i tylko na jednej wykonamy obliczenia.
      Jednak w komputerze kwantowym mamy nie bity, a bity kwantowe, kubity. A z praw mechaniki kwantowej wiemy, że kubit nie ma jednej ustalonej wartości. Może więc przyjmować jednocześnie obie wartości: „0” i „1”. To tzw. superpozycja. A to oznacza, że w trzech kubitach możemy w danym momencie zapisać wszystkie możliwe kombinacje zer i jedynek i wykonać na nich obliczenia. Z tego zaś wynika, że trzybitowy komputer kwantowy jest – przynajmniej w teorii – ośmiokrotnie szybszy niż trzybitowy komputer klasyczny. Jako, że obecnie w komputerach wykorzystujemy procesory 64-bitowe, łatwo obliczyć, że 64-bitowy komputer kwantowy byłby... 18 trylionów (264) razy szybszy od komputera klasycznego.
      Pozostaje tylko pytanie, po co komu tak olbrzymie moce obliczeniowe? Okazuje się, że bardzo przydałyby się one firmom farmaceutycznym. I firmy te najwyraźniej dobrze o tym wiedzą. Świadczą o tym ich ostatnie działania.
      W styczniu największa prywatna firma farmaceutyczna Boehringer Ingelheim ogłosiła, że rozpoczęła współpracę z Google'em nad wykorzystaniem komputerów kwantowych w pracach badawczo-rozwojowych. W tym samym miesiącu firma Roche, największy koncern farmaceutyczny na świecie, poinformował, że od pewnego czasu współpracuje już z Cambridge Quantum Computing nad opracowaniem kwantowych algorytmów służących wstępnym badaniom nad lekami.
      Obecnie do tego typu badań wykorzystuje się konwencjonalne wysoko wydajne systemy komputerowe (HPC), takie jak superkomputery. Górną granicą możliwości współczesnych HPC  są precyzyjne obliczenia dotyczące molekuł o złożoności podobne do złożoności molekuły kofeiny, mówi Chad Edwards, dyrektor w Cambridge Quantum Computing. Molekuła kofeiny składa się z 24 atomów. W farmacji mamy do czynienia ze znacznie większymi molekułami, proteinami składającymi się z tysięcy atomów. Jeśli chcemy zrozumieć, jak funkcjonują systemy działające według zasad mechaniki kwantowej, a tak właśnie działa chemia, to potrzebujemy maszyn, które w pracy wykorzystują mechanikę kwantową, dodaje Edwards.
      Cambridge Quantum Computing nie zajmuje się tworzeniem komputerów kwantowych. Pracuje nad kwantowymi algorytmami. Jesteśmy łącznikiem pomiędzy takimi korporacjami jak Roche, które chcą wykorzystywać komputery kwantowe, ale nie wiedzą, jak dopasować je do swoich potrzeb, oraz firmami jak IBM, Honeywell, Microsoft czy Google, które nie do końca wiedzą, jak zaimplementować komputery kwantowe do potrzeb różnych firm. Współpracujemy z 5 z 10 największych firm farmaceutycznych, wyjaśnia Edwards.
      Bardzo ważnym obszarem prac Cambridge Quantum Computing jest chemia kwantowa. Specjaliści pomagają rozwiązać takie problemy jak znalezieniem molekuł, które najmocniej będą wiązały się z danymi białkami, określenie struktury krystalicznej różnych molekuł, obliczanie stanów, jakie mogą przyjmować różne molekuły w zależności od energii, jaką mają do dyspozycji, sposobu ewolucji molekuł, ich reakcji na światło czy też metod metabolizowania różnych związków przez organizmy żywe.
      Na razie dysponujemy jednak bardzo prymitywnymi komputerami kwantowymi. Są one w stanie przeprowadzać obliczenia dla molekuł składających się z 5–10 atomów, tymczasem minimum, czego potrzebują firmy farmaceutyczne to praca z molekułami, w skład których wchodzi 30–40 atomów. Dlatego też obecnie przeprowadzane są obliczenia dla fragmentów molekuł, a następnie stosuje się specjalne metody obliczeniowe, by stwierdzić, jak te fragmenty będą zachowywały się razem.
      Edwards mówi, że w przyszłości komputery kwantowe będą szybsze od konwencjonalnych, jednak tym, co jest najważniejsze, jest dokładność. Maszyny kwantowe będą dokonywały znacznie bardziej dokładnych obliczeń.
      O tym, jak wielkie nadzieje pokładane są w komputerach kwantowych może świadczyć fakt, że główne koncerny farmaceutyczne powołały do życia konsorcjum o nazwie QuPharm, którego zadaniem jest przyspieszenie rozwoju informatyki kwantowej na potrzeby produkcji leków. QuPharm współpracuje z Quantum Economic Development Consortium (QED-C), powołanym po to, by pomóc w rozwoju komercyjnych aplikacji z dziedziny informatyki kwantowej na potrzeby nauk ścisłych i inżynierii. Współpracuje też z Pistoia Alliance, którego celem jest przyspieszenie innowacyjności w naukach biologicznych.
      Widzimy zainteresowanie długoterminowymi badaniami nad informatyką kwantową. Firmy te przeznaczają znaczące środki rozwój obliczeń kwantowych, zwykle zapewniają finansowanie w dwu-, trzyletniej perspektywie. To znacznie bardziej zaawansowane działania niż dotychczasowe planowanie i studia koncepcyjne. Wtedy sprawdzali, czy informatyka kwantowa może się do czegoś przydać, teraz rozpoczęli długofalowe inwestycje. To jest właśnie to, czego ta technologia potrzebuje, dodaje Edwards.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dotychczas słyszeliśmy, że „kiedyś” powstanie pełnowymiarowy komputer kwantowy, zdolny do przeprowadzania obliczeń różnego typu, który będzie bardziej wydajny od komputerów klasycznych. Teraz IBM zapowiedział coś bardziej konkretnego i interesującego. Firma publicznie poinformowała, że do końca roku 2023 wybuduje komputer kwantowy korzystający z 1000 kubitów. Obecnie najpotężniejsza kwantowa maszyna IBM-a używa 65 kubitów.
      Plan IBM-a zakłada, że wcześniej powstaną dwie maszyny pozwalające dojść do zamierzonego celu. W przyszłym roku ma powstać 127-kubitowy komputer, a w roku 2022 IBM zbuduje maszynę operującą na 433 kubitach. Rok później ma zaprezentować 1000-kubitowy komputer kwantowy. A „kiedyś” pojawi się komputer o milionie kubitów. Dario Gil, dyrektor IBM-a ds. badawczych mówi, że jest przekonany, iż firma dotrzyma zarysowanych tutaj planów. To coś więcej niż plan i prezentacja w PowerPoincie. To cel, który realizujemy, mówi.
      IBM nie jest jedyną firmą, która pracuje nad komputerem kwantowym. Przed rokiem głośno było o Google'u, który ogłosił, że jego 53-kubitowy komputer kwantowy rozwiązał pewien abstrakcyjny problem osiągając przy tym „kwantową supremację”, a więc rozwiązując go znacznie szybciej, niż potrafi to uczynić jakakolwiek maszyna klasyczna. Stwierdzenie to zostało jednak podane w wątpliwość przez IBM-a, a niedługo później firma Honeywell ogłosiła, że ma najpotężniejszy komputer kwantowy na świecie.
      Google zapowiada, że w ciągu 10 lat zbuduje kwantową maszynę wykorzystującą milion kubitów. Tak przynajmniej zapowiedział Hartmut Neven, odpowiedzialny w Google'u za prace nad kwantową maszyną, który jednak nie podał żadnych konkretnych terminów dochodzenia do celu.
      IBM zadeklarował konkretne daty po to, by jego klienci i współpracownicy wiedzieli, czego można się spodziewać. Obecnie dziesiątki firm kwantowe używają maszyn kwantowych IBM-a,by rozwijać własne technologie kwantowe. Poznanie planów Błękitnego Giganta i śledzenie jego postępów, pozwoli im lepiej planować własne działania, mówi Gil.
      Jednym z partnerów IBM-a jest firma Q-CTRL, rozwija oprogramowanie do optymalizacji kontroli i wydajności poszczególnych kubitów. Jak zauważa jej założyciel i dyrektor, Michael Biercuk, podanie konkretnych terminów przez IBM-a może zachęcić fundusze inwestycyjne do zainteresowania tym rynkiem. Fakt, że wielki producent sprzętu wkłada dużo wysiłku i przeznacza spore zasoby może przekonać inwestorów, mówi.
      Zdaniem Bierucka 1000-kubitowa maszyna będzie niezwykle ważnym krokiem milowym w rozwoju komputerów kwantowych. Co prawda będzie 1000-krotnie zbyt mało wydajna, by w pełni wykorzystać potencjał technologii, ale przy tej liczbie kubitów możliwe już będą wykrywanie i korekta błędów, które trapią obecnie komputery kwantowe.
      Jako, że stany kwantowe są bardzo delikatne i trudne do utrzymania, badacze opracowali protokoły korekcji błędów, pozwalające na przekazanie informacji z jednego fizycznego kubita do wielu innych. Powstaje w ten sposób „kubit logiczny”, którego stan można utrzymać dowolnie długo.
      Dzięki 1121-kubitowej maszynie IBM będzie mógł stworzyć kilka kubitów logicznych i doprowadzić do interakcji pomiędzy nimi. Taka maszyna będzie punktem zwrotnym w pracach nad komputerami kwantowymi. Specjaliści będą mogli skupić się nie na walce z błędami w indywidualnych kubitach, a na wysiłkach w celu udoskonalenia architektury i wydajności całej maszyny.
      IBM już w tej chwili buduje olbrzymi chłodzony helem kriostat, który ma w przyszłości chłodzić komputer kwantowy z milionem kubitów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      AMD konsekwentnie zdobywa coraz silniejszą pozycję na rynku. Firma analityczna Mercury Research, z której usług korzystają m.in. AMD i Intel, poinformowała, że IV kwartał 2019 roku był już 9. kwartałem z kolei, w którym AMD zwiększało swoje udziały w rynku procesorów.
      Analityków zaskoczyły niewielkie postępy na rynku desktopów oraz centrów bazodanowych. W ciągu trzech ostatnich miesięcy ubiegłego roku AMD zyskało tam, odpowiednio, 0,2 i 0,3 punktu procentowego. Największe zaś postępy firma zanotowała na rynku urządzeń przenośnych, gdzie pomiędzy październikiem a grudniem 2019 roku wzrosły o 1,5 punktu procentowego.
      Obecnie AMD posiada 4,5% rynku serwerów (+ 1,4 pp rok do roku), 18,3% rynku desktopów (+2,4 pp rdr), 16,2% rynku urządzeń mobilnych (+ 4,0 pp rdr). Całkowity udział AMD w rynku układów x86 wynosi obecnie 15,5%. Ostatnio tak dobrym wynikiem firma mogła pochwalić się przed niemal 7 laty.
      Sprzedaż desktopowych CPU wzrosła dzięki dużemu popytowi na highendowe procesory dla graczy oraz dlatego, że Intel zwiększył dostawy tanich procesorów. AMD zanotowało bardzo silny wzrost sprzedaży układów z serii Ryzen 3000, a Intel duży wzrost w segmencie i9. Większość wzrostu obu firm pochodziło ze sprzedaży procesorów o największej liczbie rdzeni, mówi Dean McCarron z Mercury Research.
      Warto też zauważyć, że AMD zdominował Black Friday i Cyber Monday na Amazonie, gdzie jego procesory często zajmowały pierwszych 10 pozycji wśród najchętniej kupowanych układów. To jednocześnie pokazuje, że rynek klienta indywidualnego jest znacznie mniejszy niż rynek OEM, na którym tradycyjnie dominuje Intel. Koncern jest szczególnie silny w segmencie przedsiębiorstw i administracji państwowej. Klienci ci pozostają wierni platformie Intela, gdyż unikają w ten sposób kosztownych i długotrwałych procesów związanych z przejściem na inna platformę sprzętową.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W procesorach Intela odkryto kolejną lukę. Dziura nazwana CacheOut to luka typu side-channel, czyli błąd pozwalający na wykorzystanie pewnych szczegółów, często prawidłowej, implementacji.
      Dziura odkryta przez naukowców z University of Michigan i University of Adelaide występuje we wszystkich procesorach od architektury SkyLake po Coffee Lake powstałych przed rokiem 2019. Wiadomo, że nie występuje ona w procesorach AMD, ale badacze nie wykluczają, że jest obecna w układach IBM-a i ARM.
      Jak zauważyli eksperci gdy dane są pobierane z cache'u L1 często trafiają do buforów, z których mogą zostać wykradzione przez napastnika. Bardzo atrakcyjnym elementem CacheOut jest fakt, że napastnik może zdecydować, które dane z L1 zostaną umieszczone w buforze, skąd dokona kradzieży. Specjaliści wykazali, że możliwy jest wyciek danych mimo wielu różnych zabezpieczeń. w tym zabezpieczeń pomiędzy wątkami, procesami, wirtualnymi maszynami, przestrzenią użytkownika a jądrem systemu.
      Intel, który o problemie został poinformowany już w ubiegłym roku, sklasyfikował lukę L1D Eviction Sampling/CVE-2020-0549/INTEL-SA-00329 jako średnio poważną i przygotował odpowiednie poprawki. Odpowiedni mikrokod zostanie upubliczniony a nwjbliższym czasie. Tymczasowym obejściem problemu jest wyłączenie wielowątkowości lub wyłączenie rozszerzenia TSX.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...