Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

TILE-Gx100 - pierwszy 100-rdzeniowy procesor

Rekomendowane odpowiedzi

Firma Tilera poinformowała o stworzeniu nowej rodziny procesorów o nazwie TILE-Gx. W jej skład wchodzi pierwszy w historii 100-rdzeniowy CPU.

Rodzina TILE-Gx składa się z układów o 16, 32, 64 i właśnie 100 rdzeniach.  Wykorzystanie technologii połączeń iMesh eliminuje konieczność stosowania szyny, a mechanizm Dynamic Distributed Cache pozwala każdemu rdzeniowi na dzielnie swojej pamięci cache z wszystkimi innymi.

Układy z rodziny TILE-Gx wykonane są w technologii 40 nanometrów i pracują z zegarem o częstotliwości do 1,5 GHz. Ich pobór mocy waha się od 10 do 55 watów. Procesory korzystają z rozszerzonego zestawu instrukcji SIMD i zintegrowanych kontrolerów DDR3, które mogą obsłużyć do 1 terabajta pamięci.

Procesor jest w stanie kodować dane z prędkością 40 Gbps i dokonywać pełnej kompresji z szybkością 20 Gbps.

Układy TILE-Gx mogą służyć jako koprocesory współpracujące z kośćmi x86 lub też jako procesory dla serwerów i urządzeń sieciowych. Jeszcze przed końcem bieżącego roku zainteresowane firmy otrzymają próbki procesorów.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ciekawe czemu 100 a nie 128... po za tym 100 takich specjalizowanych rdzeni to nic nadzwyczajnego. to coś bardziej zbliżonego do jednostek pixel/vertex shaderowych w kartach graficznych. Nie pełne rdzenie x86 tylko klaster specjalizowanych jednostek do specjalizowanych zadań (przeważnie zmiennoprzecinkowych i operacjach strumieniach). Jeden taki rdzeń to zdecydowanie prostsza konstrukcja niż pełne rdzenie w Intelowych iCore czy AMD Phenom/Athlon. Jak zrobią 100 takich pełnych rdzeni to będzie coś ;) na razie AMD zapowiedziało 12rdzeni na 2010-2011 :P

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

a.. żeby nie być gołosłownym - weźmy chip graficzny z Radeona HD 5870

1600 jednostek cieniujących, czyli można to nazwac 1600 rdzeniowym procesorem! do tego mamy 32 jednostki ROP (Render Out Pixel) i 80 jednostek teksturujących... Każda z tych "jednostek" to jak by "mały procesorek" wykonujący zestaw instrukcji, czyli mikro programy...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Coś mi tu nie zatrybia. Może to pierwszy x-rdzeniowy procesor z określonej rodziny? Bo już dość dawno temu czytałem o wyprodukowaniu serwerowego procesora z 256 rdzeniami (ogólnego zastosowania, nie specjalizowanymi).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

jeśłi chodzi o ot że to 10x10... to jak złożyli 32??5,656854249 x 5,656854249 ?? :|

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pytanie "czemu akurat 100 rdzeni" wzięło się z stąd, że w informacji podano że rodzina TILE-Gx składa się z układów o 16, 32, 64 i właśnie 100 rdzeniach... więc skoro na początku skalują w 2^2 to czemu nagle odskakują od tej nomenklatury. matryce 10x10 raczej bezproblemowo sobie wyobrażam, tylko jakoś to takie nie binarne... ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Znalazłem artykuł na heise-online.pl (btw czytuję ten codziennik z nowinkami IT). Art ukazał sie dzień po newsie na Kopalnii  8)

Ma byc przeznaczony dla urządzeń typu embedded, oraz w przeciwieństwie do GPGPU jest w stanie obsłużyć pełnowartościowy system operacyjny. Twierdzą tam też, że te 100 rdzeni jest wydajniejsze od 100 "rdzeni" wyciętych z kart graf. patrz tu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ja się pytałem o architekturę procesora xD

 

czy to jest x86 , gpu czy coś innego ?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

czy to jest x86 , gpu czy coś innego ?

na tym czymś może działać linux, dla mnie to oznacza, że jak najbardziej

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

E, linuksy biegają na prawie wszystkich liczących się architekturach. Wliczając chyba nawet takie zabytki jak Motorole 680xx.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

radzilbym autorowi jeszcze raz poczytac o produkcie i przepisac artykul na nowo zeby nie bylo niejasnosci

 

"..As with all Tilera processors, each tile can independently run a full operating system, or, multiple tiles taken together can run a multiprocessing OS like SMP Linux.."

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Od dekad elastyczna elektronika była niewielką niszą. Teraz może być gotowa, by wejść do mainstream'u, stwierdził Rakesh Kumar, lider zespołu, który stworzył plastikowy procesor. O elektronice zintegrowanej w praktycznie każdym przedmiocie, od podkoszulków poprzez butelki po owoce, słyszymy od lat. Dotychczas jednak plany jej rozpowszechnienia są dalekie od realizacji, a na przeszkodzi stoi brak elastycznego, plastikowego, wydajnego i taniego procesora, który można by masowo produkować.
      Wiele przedsiębiorstw próbowało stworzyć takie urządzenie i im się nie udało. Według naukowców z amerykańskiego University of Illinois Urbana-Champaign i specjalistów z brytyjskiej firmy PragmatIC Semiconductor, problem w tym, że nawet najprostszy mikrokontroler jest zbyt złożony, by można go było masowo wytwarzać na plastikowym podłożu.
      Amerykańsko-brytyjski zespół zaprezentował właśnie uproszczony, ale w pełni funkcjonalny, plastikowy procesor, który można masowo produkować bardzo niskim kosztem. Przygotowano dwie wersje procesora: 4- i 8-bitową. Na substracie z 4-bitowymi układami, których koszt masowej produkcji liczyłby się dosłownie w groszach, działa 81% procesorów. To wystarczająco dobry wynik, by wdrożyć masową produkcję.
      Procesory wyprodukowano z cienkowarstwowego tlenku indowo-galowo-cynkowego (IGZO), dla którego podłożem był plastik. Innowacja polegała zaś na stworzeniu od podstaw nowej mikroarchitektury – Flexicore.Musiała być maksymalnie uproszczona, by sprawdziła się w na plastiku. Dlatego zdecydowano się na układy 4- i 8-bitowe zamiast powszechnie wykorzystywanych obecnie 16- i 32-bitowych. Naukowcy rozdzielili moduły pamięci przechowującej instrukcje od pamięci przechowującej dane. Zredukowano również liczbę i stopień złożoności instrukcji, jakie procesor jest w stanie wykonać. Dodatkowym uproszczeniem jest wykonywanie pojedynczej instrukcji w jednym cyklu zegara.
      W wyniku wszystkich uproszczeń 4-bitowy FlexiCore składa się z 2104 podzespołów. To mniej więcej tyle samo ile tranzystorów posiadał procesor Intel 4004 z 1971 roku. I niemal 30-krotnie mniej niż konkurencyjny PlasticARM zaprezentowany w ubiegłym roku. Uproszczenie jest więc ogromne. Stworzono też procesor 8-bitowy, jednak nie sprawuje się on tak dobrze, jak wersja 4-bitowa.
      Obecnie trwają testy plastikowych plastrów z procesorami. Są one sprawdzane zarówno pod kątem wydajności, jak i odporności na wyginanie. Jednocześnie twórcy procesorów prowadzą prace optymalizacyjne, starając się jak najlepiej dostosować architekturę do różnych zadań. Jak poinformował Kumar, badania już wykazały, że można znacznie zredukować pobór prądu, nieco zbliżając do siebie poszczególne bramki.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Zespół naukowców, inżynierów i marynarzy ze statku badawczego Neil Armstrong należącego do US Navy, którego operatorem jest Woods Hole Oceanographic Institution (WHOI), pobrał 11,5-metrowy rdzeń osadów z najgłębszej części Rowu Portorykańskiego. Osady zostały pozyskane z głębokości ponad 8000 metrów. To rekord po względem głębokości, z jakiej pozyskano rdzeń na Atlantyku, a może i rekord w ogóle.
      Zespołowi naukowemu z WHOI, Uniwersytetu w Monachium i kilku amerykańskich uniwersytetów, przewodzili profesor Steven D'Hondt oraz doktor Robert Pockalny. Celem wyprawy badawczej, która prowadzona była w lutym i marcu bieżącego roku, było lepsze zrozumienie adaptacji mikroorganizmów do życia w morskich osadach na różnych głębokościach. Dlatego też uczeni pobierali próbki zarówno z głębokości 50 metrów, jak i około 8358 metrów. Pobieraliśmy próbki, gdyż chcemy się dowiedzieć, jak mikroorganizmy żyjące na dnie morskim radzą sobie z ciśnieniem. Naszym ostatecznym celem jest zrozumienie interakcji pomiędzy organizmami żyjącymi w ekstremalnych środowiskach a ich otoczeniem, wyjaśnia D'Hondt.
      Pobranie rdzenia z tak dużej głębokości było możliwe dzięki specjalnemu systemowi opracowanemu już w 2007 roku przez Jima Brodę dla statku badawczego Knorr. Po tym, jak Knorr zakończył służbę, jego system został zaadaptowany do krótszego Neila Armstronga.
      Po zakończeniu obecnych badań system do pozyskiwania rdzeni z tak dużej głębokości zostanie przekazany OSU Marine Sediment Sampling Group. To zespół finansowany przez Narodową Fundację Nauki, który pomaga amerykańskiej społeczności akademickiej w pobieraniu próbek osadów morskich. Dzięki temu system będzie dostępny dla całej amerykańskiej floty statków badawczych.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Osiem lat po przeszczepie komórek węchowych do kanału kręgowego pacjentki z całkowitym uszkodzeniem rdzenia lekarze usunęli stamtąd masę. Przeszczep przeprowadzano, licząc na przywrócenie funkcji sensorycznych i ruchowych.
      Jak tłumaczą autorzy raportu z Journal of Neurosurgery: Spine, komórki węchowe zlokalizowane są w stropie przewodów nosowych, a także w górnej części przegrody nosowej koło blaszki perforowanej i na przyśrodkowej powierzchni górnej małżowiny nosowej. Śluzówka znajduje się w niższej części jamy nosowej. Poza neuronami węchowymi błona węchowa zawiera komórki progenitorowe oraz makroglej OEC (od ang. olfactory ensheathing cells); podczas badań laboratoryjnych oraz in vivo wykazano, że oba rodzaje komórek wspomagają naprawę uszkodzonego rdzenia.
      Opisywana pacjentka przeżyła w wieku 18 lat wypadek, w wyniku którego doznała urazu - złamania z przemieszczeniem - na poziomie 10. i 11. kręgu piersiowego . Mimo operacyjnej stabilizacji kręgosłupa doszło do paraplegii. Trzy lata później, mając nadzieję na odzyskanie czucia i funkcji motorycznych w nogach, kobieta przeszła poza granicami USA autoprzeszczep błony węchowej (umieszczono ją w miejscu uszkodzenia). Osiem lat po eksperymentalnej terapii chora zgłosiła się do Szpitali i Klinik Uniwersytetu Iowa, uskarżając się na ból w środkowej i dolnej części pleców. Badanie neurologiczne nie wykazało klinicznej poprawy po implantacji, lecz obrazowanie ujawniło masę zlokalizowaną koło rdzenia. To ona powodowała ból.
      Analiza wyciętej zmiany ujawniła, że w środku znajdowały się drobne niedziałające gałęzie nerwowe. Mając to na uwadze, lekarze stwierdzili, że rozwinęły się one z nerwowych komórek progenitorowych. Okazało się również, że większość masy wypełniały cysty wyścielone śluzówką układu oddechowego, a także gruczołami podśluzówkowymi i komórkami kubkowymi. W masie występowała poza tym duża ilość materiału przypominającego śluz. Jego akumulacja wywołała objawy pacjentki.
      Amerykanie dywagują, że masa rozwinęła się, bo zamiast wyekstrahować i oczyścić OEC, kobiecie wszczepiono po prostu fragment błony węchowej.
      Naukowcy podkreślają, że rzadki przypadek komplikacji nie powinien zniechęcać do prowadzenia dalszych badań.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W procesorach Intela odkryto kolejną lukę. Dziura nazwana CacheOut to luka typu side-channel, czyli błąd pozwalający na wykorzystanie pewnych szczegółów, często prawidłowej, implementacji.
      Dziura odkryta przez naukowców z University of Michigan i University of Adelaide występuje we wszystkich procesorach od architektury SkyLake po Coffee Lake powstałych przed rokiem 2019. Wiadomo, że nie występuje ona w procesorach AMD, ale badacze nie wykluczają, że jest obecna w układach IBM-a i ARM.
      Jak zauważyli eksperci gdy dane są pobierane z cache'u L1 często trafiają do buforów, z których mogą zostać wykradzione przez napastnika. Bardzo atrakcyjnym elementem CacheOut jest fakt, że napastnik może zdecydować, które dane z L1 zostaną umieszczone w buforze, skąd dokona kradzieży. Specjaliści wykazali, że możliwy jest wyciek danych mimo wielu różnych zabezpieczeń. w tym zabezpieczeń pomiędzy wątkami, procesami, wirtualnymi maszynami, przestrzenią użytkownika a jądrem systemu.
      Intel, który o problemie został poinformowany już w ubiegłym roku, sklasyfikował lukę L1D Eviction Sampling/CVE-2020-0549/INTEL-SA-00329 jako średnio poważną i przygotował odpowiednie poprawki. Odpowiedni mikrokod zostanie upubliczniony a nwjbliższym czasie. Tymczasowym obejściem problemu jest wyłączenie wielowątkowości lub wyłączenie rozszerzenia TSX.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Na MIT powstał nowoczesny mikroprocesor z tranzystorami z nanorurek węglowych. Urządzenie można wyprodukować za pomocą technik używanych obecnie przez przemysł półprzewodnikowy, co ma olbrzymie znaczenie dla ewentualnego wdrożenia.
      Nanorurki węglowe są od dawna przedmiotem zainteresowań, gdyż dają nadzieję na zbudowanie kolejnej generacji komputerów po tym, gdy układów krzemowych nie będzie można już miniaturyzować. Tranzystory polowe z nanorurek węglowych (CNFET) mogą mieć bardzo obiecujące właściwości. Z dotychczasowych badań wynika, że powinny być one około 10-krotnie bardziej efektywne pod względem zużycia energii i pozwolić na przeprowadzanie obliczeń ze znacznie większą prędkością. Problem jednak w tym, że przy masowej produkcji w nanorurkach pojawia się tak wiele defektów, że nie można ich w praktyce wykorzystać.
      Naukowcy z MIT opracowali nową technikę, która znacząco zmniejsza liczbę defektów i daje pełną kontrolę nad produkcję CNFET. Co ważne, technika ta wykorzystuje procesy już używane w przemyśle półprzewodnikowym. Dzięki niej na MIT wyprodukowano 16-bitowy mikroprocesor składający się z 14 000 CNFET, który jest w stanie wykonywać te same obliczenia co tradycyjny procesor.
      Nowy procesor oparto na architekturze RISC-V. Testy wykazały, że jest on zdolny do wykonania pełnego zestawu instrukcji dla tej technologii.
      To, jak dotychczas, najbardziej zaawansowany chip wykonany w nowym procesie nanotechnologicznym, który daje nadzieję na wysoką wydajność i efektywność energetyczną, mówi współautor badań, profesor Max M. Shulaker. Krzem ma swoje ograniczenia. Jeśli chcemy coraz szybszych komputerów, to węglowe nanorurki są najbardziej obiecującym materiałem. Nasze badania pokazują zupełnie nowy sposób budowy układów scalonych z węglowymi nanorurkami.
      Shulaker i jego zespół od dawna pracują nad układami scalonymi z CNFET. Przed sześcioma laty byli w stanie zaprezentować procesor złożony ze 178 CNFET, który mógł pracować na pojedynczym bicie danych. Od tamtego czasu uczeni skupili się na rozwiązaniu trzech kluczowych problemów: defektach materiałowych, niedociągnięciach produkcyjnych oraz problemach funkcjonalnych.
      Największym problemem było uzyskanie nanorurek odpowiedniej jakości. Żeby CNFET działał bez zakłóceń, musi bez problemów przełączać się pomiędzy stanem 0 i 1, podobnie jak tradycyjny tranzystor. Jednak zawsze podczas produkcji powstanie jakaś część nanorurek, które będą wykazywały właściwości metalu, a nie półprzewodnika. Takie nanorurki czynią CNFET całkowicie nieprzydatnym. Zaawansowane układy scalone, by być odpornymi na obecność wadliwych nanorurek i móc szybko wykonywać zaawansowane obliczenia, musiałyby korzystać z nanorurek o czystości sięgającej 99,999999%. Obecnie jest to niemożliwe do osiągnięcia.
      Naukowcy z MIT opracowali technikę nazwaną DREAM (designing resilency against metallic CNT), która tak pozycjonuje metaliczne CNFET, że nie zakłócają one obliczeń. Dzięki temu zmniejszyli wymagania dotyczące czystości nanorurek aż o cztery rzędy wielkości. To zaś oznacza, że do wyprodukowania w pełni sprawnego układu potrzebują nanorurek o czystości sięgającej 99,99%, a to jest obecnie możliwe.
      Uczeni przeanalizowali różne kombinacje bramek logicznych i zauważyli, że metaliczne nanorurki węglowe nie wpływają na nie w ten sam sposób. Okazało się, że pojedyncza metaliczna nanorurki w bramce A może uniemożliwić komunikację pomiędzy nią, a bramką B, ale już liczne metaliczne nanorurki w bramce B nie wpływają negatywnie na jej możliwości komunikacji z żadną bramką. Przeprowadzili więc symulacje, by odnaleźć wszystkie możliwe kombinacje bramek, które byłyby odporne na obecność wadliwych nanorurek. Podczas projektowania układu scalonego brano pod uwagę jedynie te kombinacje. Dzięki technice DREAM możemy po prostu kupić komercyjne dostępne nanorurki, umieścić je na plastrze i stworzyć układ scalony, nie potrzebujemy żadnych specjalnych zabiegów, mówi Shulaker.
      Produkcja CNFET rozpoczyna się od nałożenia znajdujących się w roztworze nanorurek na podłoże z predefiniowanym architekturą układu. Jednak nie do uniknięcia jest sytuacja, w której część nanorurek pozbija się w grupy, tworząc rodzaj dużych cząstek zanieczyszczających układ scalony. Poradzono sobie z tym problemem tworząc technikę RINSE (removal of incubated nanotubes through selective exfoliation). Na podłoże nakłada się wcześniej związek chemiczny, który ułatwia nanorurkom przyczepianie się do niego. Następnie, już po nałożeniu nanorurek, całość pokrywana jest polimerem i zanurzana w specjalnym rozpuszczalniku. Rozpuszczalnik zmywa polimer, a ten zabiera ze sobą pozbijane w grupy nanorurki. Te zaś nanorurki, które nie zgrupowały się z innymi, pozostają przyczepione do podłoża. Technika ta aż 250-kronie zmniejsza zagęszczenie zbitek nanorurek w porównaniu z alternatywnymi metodami ich usuwania.
      Poradzono sobie też z ostatnim problemem, czyli wytworzeniem tranzystorów typu N i typu P. Zwykle produkcja tych tranzystorów z węglowych nanorurek kończyła się uzyskaniem urządzeń o bardzo różniącej się wydajności. Problem rozwiązano za pomocą nowej techniki o nazwie MIXED (metal interface engineering crossed with electrostatic doping), dzięki której możliwe jest precyzyjna optymalizacja procesorów do wymaganych zadań. Technika ta polega na dołączeniu do każdego tranzystora, w zależności czy ma być on P czy N, odpowiedniego metalu, platyny lub tytanu. Następnie tranzystory są pokrywane tlenkiem, co pozwala na ich dostosowanie do zadań, jakie będą spełniały. Można więc osobno dostroić je do pracy w zastosowaniach w wysoko wydajnych serwerach, a osobno do energooszczędnych implantów medycznych.
      Obecnie, w ramach programu prowadzonego przez DARPA (Agencja Badawcza Zaawansowanych Projektów Obronnych), wspomniane techniki produkcji układów scalonych z węglowych nanorurek wdrażane są w fabrycznych liniach produkcyjnych. W tej chwili nikt nie potrafi powiedzieć, kiedy w sklepach pojawią się pierwsze procesory z CNFET. Shulaker mówi, że może się to stać już w ciągu najbliższych pięciu lat. Sądzimy, że teraz to już nie jest pytanie czy, ale pytanie kiedy, mówi uczony.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...