Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Niagara z 16 rdzeniami

Recommended Posts

Sun Microsystems zapowiedział, że przed końcem 2009 roku udostępni trzecią już wersję serwerowego procesora Niagara. Nowy CPU zostanie wyposażony w 16 rdzeni, a każdy z nich będzie w stanie wykonać jednocześnie 16 wątków. Procesor będzie więc wykonywał 256 wątków, a ośmioprocesorowy serwer - aż 2048.

Obecnie najbardziej wydajny procesor z rodziny Niagara to układ Niagara 2. Wyposażony został w osiem rdzeni, z których każdy wykonuje osiem wątków. Sun oferuje dwuprocesorowe serwey z tym układem i zapowiada, że wkrótce na rynek trafi czteroprocesorowy system Botaka.

Share this post


Link to post
Share on other sites

A mogłaby to produkować jakaś normalna firma(AMD i tylko AMD)?

Żebym mógł to kupić w normalnym sklepie?

<irytacja_jakiej_nie_znacie>

Share this post


Link to post
Share on other sites

mac - nie jestem specjalistą, ale skąd wiesz, jakie taktownie i wydajnośc mają te procesory? Samo namnożenie rdzeni to, o ile mi wiadomo, nie wszystko.

Share this post


Link to post
Share on other sites
Guest tymeknafali
Żebym mógł to kupić w normalnym sklepie?

I za normalną cenę....

mac - nie jestem specjalistą, ale skąd wiesz, jakie taktownie i wydajność mają te procesory? Samo namnożenie rdzeni to, o ile mi wiadomo, nie wszystko.

Przede wszystkim szyna, czyli magistrala, na główne parametry proca składają się:

clock (zegar), czyli moc obliczeniowa, ta składa się z:

magistrali x mnożnik.

np. 333 MGH x 4.5 = 1502 MGH i to jest moc obliczeniowa. Im większa magistrala, mniejszy mnożnik, tym komputer ogółem szybciej pracuje, czyli np.

lepszy procek:

800 MGH x 2.5 = 2 GHZ

niż:

500 MGH x 4 = 2 GHZ

poza tym do najważniejszych parametrów proca należą ilość rdzeni, czyli wiadomo,

cache, czyli wewnętrzna podręczna pamięć procesora, im więcej tym lepiej, w normalnych procesorach masz cache 1 i 2, w tych coraz nowszych zrobili 3. Jedynka i 3 są wspólne (chyba), a dwójka jest na każdy procesor, czyli: jeżeli jest napisane 2 MB cache 2, to znaczy, że każdy rdzeń ma 2 MB cache'u.

kolejną ważną sprawą jest technologia wykonania, mierzona w mikronach. Im mniej, tym lepiej, bo: Mniej prądu zużywa, mniej się grzeje. Obecne technologie to ok. 65, stare: ok 80 - 100, najnowsze: 45.

Jeżeli z czymś się pomyliłem, to proszę poprawcie mnie, jeżeli czegoś nie napisałem to dodajcie.

Share this post


Link to post
Share on other sites

Jeżeli z czymś się pomyliłem, to proszę poprawcie mnie, jeżeli czegoś nie napisałem to dodajcie.

Spoko, na pewno nie można nazwać tego "spójnym wstępniakiem", choćby dlatego:

kolejną ważną sprawą jest technologia wykonania, mierzona w mikronach.

Inteligencja też jest mierzona, tzw. IQ.(w dodatku takie testy robią psycholodzy)

A Einstein powiedział, że nie ma czegoś takiego jak inteligencja.

"Jedynym dowodem na to, że istnieje jakaś pozaziemska inteligencja jest to, że się z nami nie kontaktują."

"Nie mam żadnych specjalnych talentów. Jestem tylko namiętnie ciekawy."

"Jest to właściwie jakiś cud, że nowoczesny system nauczania nie zadusił [we mnie] do końca świętej ciekawości badawczej."

Oto zestaw niezbitych dowodów, że mówimy i badamy inteligencję, a jej tak na prawdę nie ma.

Jeśli chodzi o technologię, posłużyłeś się radykalnym uproszczeniem(choć powszechnie stosowanym). Mierzysz technologię, a zapomniałeś, że jest(albo była, na czasie nie jestem) także kategoria RISC(uproszczone schematy przetwarzania)/CISC(złożone schematy przetwarzania). RISC były szybsze i używane w nauce. A CISC używało się w biurkowcach(wolniejsze to i bardziej skomplikowane, ale tańsze).

AMD kiedyś(procesory miał po 90Mhz) wprowadziło rating wydajności PR. Co oznaczało, że ich procesor przetwarza tak szybko jak Intela(np PR90 ozn. "szybki jak 90Mhz Intela"), ale w rzeczywistości miały mniej Mhz(jednak przetwarzało to równie szybko a nawet szybciej).

Dlatego ciekawe: co to w ogóle, ta Niagara, jest. :)

 

Ja nie mam żadnej szczególnej wiedzy. Mam trochę przestarzałe dane(kiedyś byłem w podstawówce, HA! ;) )

Share this post


Link to post
Share on other sites

Ocena czynników wpływających na końcową wydajność procesora to sprawa bardzo zawiła...

 

Oczywiście, że szyna jest bardzo ważna, określa przecież, z jaką szybkością procesor może się z otoczeniem komunikować. Dlatego sensowne jest obniżenie mnożnika przy jednoczesnym podniesieniu FSB, nawet jeśli częstotliwość procesora jest w efekcie taka sama :)

 

np. 333 MGH x 4.5 = 1502 MGH i to jest moc obliczeniowa.

Moc obliczeniowa raczej nie, częstotliwość taktowania ;) Częstotliwość po prostu mówi nam, jak często procesor pracuje, nic więcej. A takt taktowi nierówny, jeden procesor może w takcie wykonać więcej niż drugi. Dlatego 2Ghz może okazać się lepsze niż 3Ghz...

 

Zaś do oceny mocy obliczeniowej mamy takie parametry jak np MIPS albo FLOPS ;)

 

cache, czyli wewnętrzna podręczna pamięć procesora, im więcej tym lepiej, w normalnych procesorach masz cache 1 i 2, w tych coraz nowszych zrobili 3.

No tak, choć ta pierwsza nie jest aż tak ważna, za to L2 pełni dziś istotną rolę. 2 - 6 MB to dziś standard :D Procesory potrzebują odpowiedniej ilości podręcznej pamięci, do której mogą mieć szybki dostęp. Gdyby jej nie było, a procesor musiałby się cały czas odwoływać do RAM'u, to wydajność by drastycznie spadła.

 

 

Jedynka i 3 są wspólne (chyba), a dwójka jest na każdy procesor, czyli: jeżeli jest napisane 2 MB cache 2, to znaczy, że każdy rdzeń ma 2 MB cache'u.

 

L3 pojawiło się w phenomie i jest wspólne dla wszystkich rdzeni :] Każdy z czterech rdzeni ma swobodny dostęp do tej pamięci i dzięki temu może być ona optymalnie wykorzystana. Niestety ta trójpoziomowa organizacja podręcznej pamięci ma też i swoje wady, większe opóźnienia, trochę się to odbija na wydajności. "Sklejaki" Intela (C2Q) sobie jakoś świetnie radzą pomimo braku L3 ;) Wracając jeszcze do L1 i L2 - każdy rdzeń Phenoma ma własną pamięć podręczną tych typów.

 

kolejną ważną sprawą jest technologia wykonania, mierzona w mikronach. Im mniej, tym lepiej, bo: Mniej prądu zużywa, mniej się grzeje. Obecne technologie to ok. 65, stare: ok 80 - 100, najnowsze: 45.

Zaraz, zaraz, ustalmy jednostki :) 65, 90 - to nanometry. W mikronach to będzie 0.065, 0.09.

 

Intel dziś robi w 45nm, AMD - w 65. Dawniej było 90, 130, 180 itd...

Bezpośrednio to wymiar technologiczny nie ma wpływu na wydajność, ale są oczywiście pewne korzyści. Mniejsze zużycie prądu to jedno, temperatura to drugie, trzecie to mniejsze koszty produkcji :D Bo z jednego wafla można więcej rdzeni uzyskać. Ostatnio też Intel użył innych materiałów do budowy tranzystorów (technologia Hi-k, metalowe bramki, hafn i takie tam duperele :P).

 

Nie należy zapominać o współczynniku IPC, czyli ilości instrukcji, jakie może maksymalnie wykonać procesor w jednym takcie. U Intela dziś to jest 4, reszta to 3. Dodanie czwartego potoku przyczyniło się w niemałym stopniu do sukcesu procesorów Core2Duo :]

 

AMD kiedyś(procesory miał po 90Mhz) wprowadziło rating wydajności PR. Co oznaczało, że ich procesor przetwarza tak szybko jak Intela(np PR90 ozn. "szybki jak 90Mhz Intela"), ale w rzeczywistości miały mniej Mhz(jednak przetwarzało to równie szybko a nawet szybciej).

Tak było i w przypadku Athlona XP :] Poszczególne modele miały na końcu, za swoim numerkiem, plusik ("+"). Dzięki temu miało się jakieś rozeznanie, że np Athlon XP 2000+ był wydajnościowo porównywalny z Pentium 4 2000Mhz, mimo że ten pierwszy miał taktowanie na poziomie jedynie 1.6Ghz. Dla klientów wygodniejsze, dla samego AMD z pewnością również, jeśli by patrzeć na to z merketingowego punktu widzenia :D

Share this post


Link to post
Share on other sites
Guest tymeknafali

No właśnie... dziękuję za poprawienie :)

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Oracle kupi firmę Sun Microsystems za kwotę 7,4 miliarda dolarów. Oznacza to wycenę akcji Suna na poziomie 9,5 USD za sztukę. Sun od dłuższego czasu ma kłopoty. Na początku grudnia akcje firmy były warte mniej niż 3 dolary. Do połowy marca wzrosły do 4,70, a później, gdy pojawiła się informacja, że Suna może kupić IBM, gwałtownie zdrożały do 8,89 USD. Następnie szybko spadły do poziomu 6,13 dolarów. Teraz, po ogłoszeniu decyzji Oracle'a, znowu drożeją.
      Władze obu przedsiębiorstw mają nadzieję, że w pierwszym roku po połączeniu zysk operacyjny Oracle'a będzie o 1,5 miliarda dolarów większy, niż obecny wynik obu firm osobno. W drugim roku ma on zwiększyć się o ponad 2 miliardy dolarów.
      Na razie niewiele można powiedzieć o planach firmy Oracle względem Suna. Nie wiadomo co stanie się z działami odpowiedzialnymi za produkcję sprzętu (dotychczas Oracle działało tylko na rynku oprogramowania), ani co stanie się z opensource'ową MySQL.
    • By KopalniaWiedzy.pl
      Marc Tremblay, który przed zaledwie tygodniem opuścił firmę Sun Microsystems, zostanie zatrudniony w Microsofcie. Zmagający się z kłopotami Sun stracił jednego ze swoich najważniejszych inżynierów, a koncern z Redmond zyska świetnego specjalistę od mikroprocesorów. Tremblay pracował w Sunie przez 18 lat. Był jednym z najważniejszych architektów procesorów SPARC i głównym technologiem wydziału odpowiedzialnego za rozwój mikroelektroniki.
      Wiadomo, że Tremblay dołączy do microsoftowej grupy Strategic Software/Silicon Architectures.
      Na razie nie wiadomo, co będzie należało do jego obowiązków. Można się jednak domyślać, że Tremblay przysłuży się zarówno rozwojowi Xboksa, gdzie będzie mógł doradzać na temat konfiguracji sprzętowej przyszłych wersji konsoli, jak i Windows. Trzeba bowiem brać pod uwagę fakt, iż już obecnie procesory dwu- i czterordzeniowe stają się standardem. Kolejne edycje microsoftowego OS-a będą musiały wykorzystywać możliwości układów składających się z jeszcze większej liczby rdzeni.
      Warto tutaj przypomnieć, że od pewnego czasu Microsoft stara się ściągać do siebie najlepszych specjalistów. Przed miesiącem informowaliśmy, że pracownikiem koncernu zostanie Sam Ruby, a prasa doniosła niedawno, iż podobną propozycję otrzymał profesor Uniwersytetu Harvarda Jonathan Shapiro, jeden z twórców języka BitC i mikrojądra Coyotos.
    • By KopalniaWiedzy.pl
      The Wall Street Journal donosi, że IBM prowadzi z Sun Microsystems rozmowy, których celem jest przejęcie tej firmy przez Błękitnego Giganta. Obie firmy sporo łączy - są one zainteresowane przede wszystkim rynkiem klienta korporacyjnego, mają w ofercie własne procesory i systemy operacyjne, więc nie są uzależnione ani od Intela, ani od Microsoftu. Ponadto obie mocno wspierają środowisko opensource'owe. To również oznacza, że są swoimi konkurentami.
      Nie wiadomo, czy dojdzie do transakcji. Jeśli jednak tak się stanie, to jeszcze w bieżącym tygodniu możemy spodziewać się oficjalnego komunikatu. IBM jest skłonny zapłacić za Suna 6,5 miliarda dolarów. To niemal o 100% więcej niż wynosi rynkowa kapitalizacja tej firmy.
      Anonimowe źródła poinformowały WSJ, że w ciągu ostatnich miesięcy Sun Microsystems starał się zainteresować sobą kilka dużych firm. Prowadzono ponoć rozmowy m.in. z HP i Dellem w sprawie przejęcia.
      Jeśli IBM kupi Suna, będzie to największe przejęcie w historii Błękitnego Giganta, które umocni jego pozycję względem największego rywala - HP. Może też sugerować zmianę jego strategii. IBM skupia się bowiem przede wszystkim na oprogramowaniu oraz usługach i stopniowo pozbywa się działów związanych z produkcją sprzętu.
      IBM osiąga obecnie lepsze wyniki finansowe od większego HP. Zakup przynoszącego straty Suna oraz koszty połączenia obu firm mogą zmienić tę sytuację.
      Niewykluczone, jak piszą dziennikarze WSJ, że IBM zdał sobie sprawę z faktu, iż musi zacząć konkurować też na rynku sprzętu. Zakup Suna znacząco wzmocni jego pozycję jako producenta serwerów. Obecnie do IBM-a należy 31,4% tego rynku. HP jest w posiadaniu 29,5%, a Dell - 11,6%. Na czwartej pozycji plasuje się Sun z 10,6%.
      Połączenie obu firm może nie spodobać się urzędom antymonopolowym. Sun i IBM mają razem dominującą pozycję na rynku serwerów z systemami uniksowymi, obie firmy oferują też podobne produkty na rynku oprogramowania i sprzętu do archiwizacji danych na taśmach magnetycznych.
      Tymczasem wszystko wskazuje na to, że administracja prezydenta Obamy nie będzie prowadziła tak liberalnej polityki antymonopolowej, jak administracja George'a Busha.
    • By KopalniaWiedzy.pl
      Na University of Texas w Austin stanął superkomputer Ranger, zbudowany przez Sun Microsystems. Jeśli teraz trafiłby na listę TOP 500 byłby drugą pod względem wydajności maszyną na świecie.
      Ranger korzysta z 15 744 czterordzeniowych procesorów AMD. Wykorzystuje zatem 62 976 rdzeni. Został ponadto wyposażony w 123 terabajty pamięci RAM i 1,7 petabajta przestrzeni dyskowej.
      Maksymalna wydajność maszyny wynosi 504 teraflopsy, czyli 504 biliony operacji zmiennoprzecinkowych na sekundę. Najpotężniejszy superkomputer na świecie, BlueGene/L, charakteryzuje się wydajnością rzędu 596 TFlops.
      Ranger był współfinansowany przez Narodową Fundację Nauki (NSF), dzięki czemu może z niego korzystać każdy amerykański naukowiec. Już w tej chwili korzysta z niego 400 akademików i zamówiono 100 milionów godzin jego pracy. Ranger jest najpotężniejszą na świecie maszyną udostępnianą dla celów badawczych.
      Maszyna powstała kosztem 30 milionów dolarów, a NSF wyda kolejne 29 milionów na jej utrzymanie. Do pracy Ranger potrzebuje 3 megawatów mocy: 2 megawaty zużywane są przez sam komputer, a 1 – przez jego system chłodzenia.
    • By KopalniaWiedzy.pl
      IBM ma zamiar na masową skalę wykorzystywać nową technologię łączenia układów scalonych i ich części. Dzięki temu Błękitny Gigant chce poprawić ich wydajność i jednocześnie zmniejszyć pobór mocy.
      Technologia TSV (through-silicon vias) pozwala na łączenie zarówno procesora i pamięci, jak i rdzeni procesora ze sobą. Połączenie jest realizowane przez tysiące niewielkich przewodów, którymi wędrują dane. Obecnie zadania te spoczywają na urządzeniach zwanych szynami, które jednak często ulegają przeciążeniu. TSV pozwala na przesłanie większej ilości danych w ciągu sekundy, a pobór mocy jest przy tym niższy niż w przypadku szyn.
      IBM nie jest pierwszą firmą, która chce wykorzystać TSV. Wspominał już o tym Intel przy okazji swojego 80-rdzeniowego procesora. IBM ma natomiast zamiar zastosować nową technologię na masową skalę. Pierwsze próbki układów z TSV trafią do klientów jeszcze w bieżącym roku, a w 2008 zacznie się ich masowa produkcja.
      IBM ocenia, że w układach wykonanych z krzemu domieszkowanego germanem (tzw. rozciągnięty krzem) uda się zaoszczędzić nawet 40% energii.
      W układach z technologią TSV zostaną nawiercone mikroskopijne otwory, przez które zostanie przeciągnięte okablowanie z wolframu.
      Badacze IBM-a mają nadzieję, że w ciągu 3-5 lat dzięki TSV uda się połączyć pamięć bezpośrednio z procesorem, bez konieczności stosowania kontrolera pamięci. Powinno to zwiększyć wydajność o dalsze 10%, a pobór mocy zmniejszyć o 20%. Błękitny Gigant pokłada tak wielką nadzieję w nowej technologii, że planuje zastosowanie jest w swoich superkomputerach BlueGene.
      TSV pozwoli też na zmianę architektury płyt głównych. Obecnie niektóre firmy budują je w ten sposób, że łączą układają kości jedną na drugiej. Pozwala to zaoszczędzić miejsca, ale układy łączą się ze sobą za pośrednictwem szyn, więc nie ma zysku wydajności. TSV pozwoli pozbyć się szyn, a tym samym zwiększyć wydajność. Ponadto, dzięki likwidacji szyn możliwe będą dalsze oszczędności miejsca (układy będą połączone za pomocą poprowadzonych w środku kabli).
      Rozpowszechnienie się TSV doprowadzić może do zmiany sposobu sprzedaży układów producentom płyt głównych. Będą oni mogli kupić od takich firm jak IBM czy Intel gotowe połączone ze sobą zestawy, składające się z procesora, chipsetu i pamięci. To jedna z możliwych metod zwiększenia wydajności systemów komputerowych.
      Wśród innych warto wymienić technologię produkcji trójwymiarowych układów pamięci opracowaną przez Matrix Semiconductor czy technologię rozwijaną przez Sun Microsystems, która umożliwia przesyłanie danych pomiędzy odpowiednio blisko znajdującymi się układami. Interesująca jest również technologia Loki, firmy Rambus, która zapewnia przesył danych z prędkością 6,25 gigabita na sekundę przy poborze mocy rzędu 2,2 miliwata na gigabit.
      Niedawno Rambus pokazał prototypowy system Loki, który przez 40 godzin był w stanie pracować na dwóch bateriach AA i przesłał w tym czasie 3,6 petabita (3,6 miliona gigabitów) danych.
      Wracając do TSV warto wspomnieć, że Intel rozwija tą technologię od 2005 roku. Firma nie jest jednak jeszcze gotowa do jej wykorzystania na masową skalę. Inżynierowie Intela chcą użyć TSV do połączenia w jednej obudowie procesora i pamięci operacyjnej, to jednak rodzi poważne kłopoty związane z wydzielaniem ciepła.
      Wszystko więc wskazuje na to, że na rynek TSV trafi po raz pierwszy dzięki IBM-owi.
       
×
×
  • Create New...