Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'through-silicon vias' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 2 wyniki

  1. Specjaliści Intela pracują nad technologiami, które pozwolą na łatwiejsze oprogramowanie wielordzeniowych procesorów. I nie chodzi tutaj o procesory dwu- czy czterordzeniowe. Mowa o układach, które będą zawierały kilkadziesiąt rdzeni. Co więcej celem Intela jest stworzenie łatwego do oprogramowania układu, który będzie zawierał różne rodzaje rdzeni. Może to być np. 64-rdzeniowa kość z 42 rdzeniami x86 (czyli takimi jakie znajdują się w procesorach wykorzystywanych w domu), 18 akceleratorami wyspecjalizowanymi w dokonywaniu określonych typów obliczeń i 4 rdzeniami graficznymi. Procesory wielordzeniowe stanową poważny problem dla twórców oprogramowania. Najlepszym przykładem jest dziewięciordzeniowy Cell zastosowany w konsoli PlayStation 3, który jest krytykowany przez wielu specjalistów właśnie za trudności z jego programowaniem. Różne firmy pokazywały już procesory składające się z kilkudziesięciu rdzeni. Przed trzema laty ClearSeed Technology zaprezentowała 96-rdzeniowy układ. Niedawno Intel pochwalił się kością z 80 rdzeniami. Układy te są jednak wąsko wyspecjalizowane i mogą przeprowadzać tylko pewne rodzaje obliczeń. Dlatego też powstaje pytanie, czy wielordzeniowe CPU mogą składać się z rdzeni x86 (80-rdzeniowiec Intela nie zawierał tego typu rdzeni) i czy są w stanie współpracować z obecnie dostępnym oprogramowaniem i systemami operacyjnymi. Eksperci Intela twierdzą, że można stworzyć taki procesor i właśnie nad tym zagadnieniem pracują. Jeden z ich pomysłów wzoruje się na egzoszkielecie niektórych zwierząt. Intel proponuje, by wiele rdzeni tworzyło albo wielką sieć albo też jeden olbrzymi rdzeń. Zadania pomiędzy rdzeniami rozdzielane byłyby sprzętowo, nie programowo. Odpowiedni układ dbałby o to, by rdzenie były odpowiednio wykorzystane. Jego zadaniem byłoby też zapewnienie jak najmniejszego wydzielania ciepła. Gdy któryś z rdzeni zacząłby się nadto rozgrzewać, jego zadania zostały by przydzielone sąsiedniej jednostce obliczeniowej. Kolejnym zmartwieniem inżynierów, oprócz przydzielania zadań rdzeniom, jest podział pamięci podręcznej (cache). Obecnie stosowane procesory 2- i 4-rdzeniowe współdzielą obszar pamięci podręcznej. Gdy mamy do czynienia z ośmioma czy szesnastoma rdzeniami sprawy się komplikują – mówi Jerry Bautista, jeden z dyrektorów intelowskiego Tera-Scale Computing Research Program. Jego zespół pracuje nad technologią, która nadawałaby priorytet poszczególnym rdzeniom w dostępie do pamięci cache. To bardzo ważne, gdyż, jak wykazały testy, sama optymalizacja dostępu do cache’u zwiększa wydajność procesora o 10 do 20 procent. Także dostępem do pamięci podręcznej ma się zająć odpowiedni układ. Dzięki temu programiści nie będą musieli być świetnymi specjalistami od zarządzania cache’m czy przyznawania czasu pracy poszczególnym rdzeniom. Wszystkim zajmie się sam procesor. Następnym wyzwaniem stojącym przed inżynierami Intela jest problem wydzielania się ciepła przez układy wejścia-wyjścia. Przy obecnie wykorzystywanych technologiach system I/O wymaga 10 watów mocy do przeprowadzenia operacji z prędkością 1 terabita na sekundę. W warunkach laboratoryjnych Intelowi udało się uzyskać wydajność rzędu 5 Gbps (gigabitów na sekundę) przy poborze 14 miliwatów. Układ zużywa więc o 14% mniej mocy niż obecnie wykorzystywane analogiczne kości. Energooszczędne układy I/O muszą być zastosowane do komunikacji pomiędzy poszczególnymi rdzeniami oraz pomiędzy procesorami. Jeśli nie uda ich się opracować, cały wysiłek może pójść na marne, gdyż kilkudziesięciordzeniowy procesor może wydzielać tyle ciepła, że jego schłodzenie w warunkach domowych nie będzie możliwe. Zdaniem specjalistów Intela, pierwsze CPU wyposażone w kilkadziesiąt rdzeni mogą trafić na rynek w ciągu pięciu lat. Będą one korzystały z technologii Through-Silicon Vias (TSV), a nie, jak obecnie, z jednej dużej magistrali. Technologia TSV (through-silicon vias) pozwala na łączenie zarówno procesora i pamięci, jak i rdzeni procesora ze sobą. Połączenie jest realizowane przez tysiące niewielkich przewodów, którymi wędrują dane. Obecnie zadania te spoczywają na urządzeniach zwanych szynami, które jednak często ulegają przeciążeniu. TSV pozwala na przesłanie większej ilości danych w ciągu sekundy, a pobór mocy jest przy tym niższy niż w przypadku szyn.
  2. IBM ma zamiar na masową skalę wykorzystywać nową technologię łączenia układów scalonych i ich części. Dzięki temu Błękitny Gigant chce poprawić ich wydajność i jednocześnie zmniejszyć pobór mocy. Technologia TSV (through-silicon vias) pozwala na łączenie zarówno procesora i pamięci, jak i rdzeni procesora ze sobą. Połączenie jest realizowane przez tysiące niewielkich przewodów, którymi wędrują dane. Obecnie zadania te spoczywają na urządzeniach zwanych szynami, które jednak często ulegają przeciążeniu. TSV pozwala na przesłanie większej ilości danych w ciągu sekundy, a pobór mocy jest przy tym niższy niż w przypadku szyn. IBM nie jest pierwszą firmą, która chce wykorzystać TSV. Wspominał już o tym Intel przy okazji swojego 80-rdzeniowego procesora. IBM ma natomiast zamiar zastosować nową technologię na masową skalę. Pierwsze próbki układów z TSV trafią do klientów jeszcze w bieżącym roku, a w 2008 zacznie się ich masowa produkcja. IBM ocenia, że w układach wykonanych z krzemu domieszkowanego germanem (tzw. rozciągnięty krzem) uda się zaoszczędzić nawet 40% energii. W układach z technologią TSV zostaną nawiercone mikroskopijne otwory, przez które zostanie przeciągnięte okablowanie z wolframu. Badacze IBM-a mają nadzieję, że w ciągu 3-5 lat dzięki TSV uda się połączyć pamięć bezpośrednio z procesorem, bez konieczności stosowania kontrolera pamięci. Powinno to zwiększyć wydajność o dalsze 10%, a pobór mocy zmniejszyć o 20%. Błękitny Gigant pokłada tak wielką nadzieję w nowej technologii, że planuje zastosowanie jest w swoich superkomputerach BlueGene. TSV pozwoli też na zmianę architektury płyt głównych. Obecnie niektóre firmy budują je w ten sposób, że łączą układają kości jedną na drugiej. Pozwala to zaoszczędzić miejsca, ale układy łączą się ze sobą za pośrednictwem szyn, więc nie ma zysku wydajności. TSV pozwoli pozbyć się szyn, a tym samym zwiększyć wydajność. Ponadto, dzięki likwidacji szyn możliwe będą dalsze oszczędności miejsca (układy będą połączone za pomocą poprowadzonych w środku kabli). Rozpowszechnienie się TSV doprowadzić może do zmiany sposobu sprzedaży układów producentom płyt głównych. Będą oni mogli kupić od takich firm jak IBM czy Intel gotowe połączone ze sobą zestawy, składające się z procesora, chipsetu i pamięci. To jedna z możliwych metod zwiększenia wydajności systemów komputerowych. Wśród innych warto wymienić technologię produkcji trójwymiarowych układów pamięci opracowaną przez Matrix Semiconductor czy technologię rozwijaną przez Sun Microsystems, która umożliwia przesyłanie danych pomiędzy odpowiednio blisko znajdującymi się układami. Interesująca jest również technologia Loki, firmy Rambus, która zapewnia przesył danych z prędkością 6,25 gigabita na sekundę przy poborze mocy rzędu 2,2 miliwata na gigabit. Niedawno Rambus pokazał prototypowy system Loki, który przez 40 godzin był w stanie pracować na dwóch bateriach AA i przesłał w tym czasie 3,6 petabita (3,6 miliona gigabitów) danych. Wracając do TSV warto wspomnieć, że Intel rozwija tą technologię od 2005 roku. Firma nie jest jednak jeszcze gotowa do jej wykorzystania na masową skalę. Inżynierowie Intela chcą użyć TSV do połączenia w jednej obudowie procesora i pamięci operacyjnej, to jednak rodzi poważne kłopoty związane z wydzielaniem ciepła. Wszystko więc wskazuje na to, że na rynek TSV trafi po raz pierwszy dzięki IBM-owi.
×
×
  • Dodaj nową pozycję...