Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'układ scalony' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 68 wyników

  1. Na Uniwersytecie Kalifornijskim w Berkeley opracowano nową metodę tworzenia układów scalonych, która znacząco zwiększa możliwości obecnie wykorzystywanej litografii. Akademicy połączyli metalowe soczewki skupiające światło dzięki pobudzonym elektronom (plazmonom) z "latającą głowicą" przypominającą głowicę zapisująco/odczytującą dysku twardego. Już obecnie za pomocą takiego urządzenia naukowcy są w stanie tworzyć linie szerokości 80 nanometrów z prędkością 12 metrów na sekundę. Twierdzą przy tym, że uda im się zwiększyć rozdzielczość urządzenia. Dzięki nanolitografii plazmonowej będziemy w stanie 10-krotnie zmniejszyć powierzchnię obecnie wykorzystywanych procesorów, jednocześnie znacząco zwiększając ich wydajność. Technologia ta może również zostać wykorzystana do tworzenia ultragęstych dysków twardych, które przechowają od 10 do 100 razy więcej danych, niż dzisiejsze dyski - mówi profesor Xiang Zhang, szef zespołu badawczego. Współczesne procesy litograficzne są bardzo podobne do procesu tworzenia fotografii. Pokryty światłoczułym materiałem plaster krzemowy poddaje się działaniu światła przepuszczonego przez maskę, która jest wzorcem przyszłego układu scalonego. Następnie naświetlony plaster poddaje się obróbce chemicznej, w wyniku której wzorzec pokrywa się odpowiednią siecią połączeń i podzespołów. Magister Liang Pan, który współpracuje przy wspomniany projekcie z profesorami Zhangiem i Davidem Bogym, wyjaśnia: Litografia optyczna, zwana też fotolitografią, umożliwia tworzenie złożonych wzorców na krzemowym podłożu. Jednak możliwości tej techniki ogranicza fundamentalna natura światła. W celu uzyskania coraz mniejszych elementów, musimy używać światła o coraz krótszej fali, co dramatycznie zwiększa koszty produkcji. Ponadto istnieje też limit dyfrakcji, ograniczający stopień skupienia światła. Przy obecnych technikach litograficznych tą granicą jest 35 nanometrów. Opracowana przez nas technologia pozwala na osiągnięcie znacznie większej rozdzielczości stosunkowo niewielkim kosztem. Naukowcy z Berkeley, by pokonać limit dyfrakcji, postanowili wykorzystać fakt, że na powierzchni metali znajdują się wolne elektrony, które po wystawieniu na działanie światła zaczynają oscylować. Ten proces oscylacji, podczas którego światło jest absorbowane i generowane, jest znany jako fala zanikająca, a jej długość jest znacznie mniejsza niż długość fali światła. Specjaliści stworzyli srebrne plazmonowe soczewki składające się z koncentrycznych kręgów, dzięki którym światło skupia się w centrum soczewki i jest emitowane na drugą stronę przez umieszczoną w jej centrum dziurę. W prototypowych soczewkach dziury miały średnicę mniejszą niż 100 nanometrów, ale, teoretycznie, możliwe jest stworzenie otworów o średnicy 5-10 nanometrów. Zestaw takich soczewek został następnie umieszczony na "latającej plazmonowej głowicy", czyli wspomnianej wcześniej głowicy poruszającej się w czasie procesu litograficznego nad światłoczułą powierzchnią. Eksperci z Berkeley mówią, że na takiej głowicy można umieścić nawet 100 000 soczewek, znacznie zwiększając jej wydajność. Cały proces przypomina nieco odtwarzanie płyt winylowych, gdzie ramieniem z igłą jest głowica plazmonowa, a płytą - obracający się plaster krzemowy. Jako że emitowane przez plazmony światło zanika po przebyciu około 100 nanometrów, głowica musi znajdować się blisko plastra, na którym tworzy układ scalony. Jest ona utrzymywana w odległości 20 nanometrów od plastra przez powietrze, którego ruch wywołany jest obracaniem się samego plastra. Naukowcy udowodnili, że dzięki swojemu urządzeniu są w stanie drukować ścieżki z prędkością od 4 do 12 metrów na sekundę. O tym, jak precyzyjnie działa całość, niech świadczy porównanie profesora Zhanga, który stwierdził, że to tak, jakby Boeing 747 leciał na wysokości 2 milimetrów nad ziemią. Co więcej, odległość wspomnianych 20 nanometrów jest stała i utrzymuje się bez względu na nierówności powierzchni plastra. Obecnie pojedyncza maszyna do litografii kosztuje 20 milionów dolarów, a zestaw masek - milion dolarów. Przechodzenie na kolejny etap procesu produkcyjnego, czyli zmniejszanie skali np. z 60 do 45 nanometrów, wymaga zastosowania kolejnych bardzo kosztownych luster i soczewek. Inżynierowie z Berkeley mówią, że dzięki ich technologii urządzenia do litografii, które muszą powstać, by można było nadal zmniejszać poszczególne elementy układu scalonego, będą kosztowały wielokrotnie mniej, niż przy zastosowaniu tradycyjnej technologii. Istnieją, oczywiście, rozwiązania alternatywne dla propozycji z Berkeley - elektronolitografia czy rentgenolitografia - jednak, w porównaniu z nanolitografią plazmonową proces tworzenia układów scalonych jest w tych przypadkach znacznie wolniejszy. Profesor Zhang mówi, że opracowana przez jego zespół technologia powinna trafić na rynek w ciągu 3-5 lat.
  2. Jak donosi EE Times, fabryki układów scalonych korzystające z 450-milimetrowych plastrów krzemowych, rzeczywiście mogą powstać, jednak nie tak szybko, jakby sobie niektórzy życzyli. Najwięksi producenci chipów, Intel, TSMC i Samsung, obiecują, że tego typu zakłady powstaną około roku 2012. Ich zapewnieniom nie wierzy wielu ekspertów, którzy uważają, że stworzenie odpowiednich urządzeń, technologii i wybudowanie linii produkcyjnych jest zbyt kosztowne. Analityk Dean Freeman z Gartnera uważa, że tego typu zakłady rzeczywiście powstaną, ale rozpoczną produkcję nie wcześniej niż w 2017 roku. Koszt wdrożenia nowej technologii jest szacowany na 20-40 miliardów dolarów. Zdaniem Freemana kalendarium wdrażania technologii będzie wyglądało następująco: - w roku 2009 producenci układów scalonych ustalą zasady współpracy nad nową technologią; - w 2010 pojawią się prototypowe plastry krzemowe o średnicy 450 mm; - w latach 2012-2013 będą produkowane prototypowe urządzenia; - pomiędzy rokiem 2014 a 2016 będą uruchamiane pilotażowe linie produkcyjne; - w latach 2017-2019 ruszą pierwsze linie korzystające z 450-milimetrowych plastrów, z których zjadą układy wykonane w technologii 8 lub 5 nanometrów. Powierzchnia 450-milimetrowego plastra jest ponaddwukrotnie większa, niż wykorzystywanych obecnie plastrów 300-milimetrowych. To obniża cenę na pojedynczy układ, pozwala też zaoszczędzić wodę, energię oraz inne zasoby potrzebne do produkcji kości.
  3. Przeżywające od dłuższego czasu kłopoty AMD ma szansę wyjść na prostą. Firma w końcu otrzymała z Abu Dhabi dofinansowanie w wysokości 8,4 miliarda dolarów. Ponadto wszystko wskazuje na to, że podzieli się na dwa przedsiębiorstwa. Samo AMD zajmie się projektowaniem układów scalonych, a wydzielone zeń fabryki staną się osobną firmą, która będzie przyjmowała zlecenia na produkcję kości zarówno dla AMD jak i innych przedsiębiorstw. W skład tej firmy, która już jest nieoficjalnie nazywana Foundry Co., wejdą dwie fabryki w Niemczech oraz nowy zakład w stanie Nowy Jork. Z obecnie dostępnych danych wynika, że rząd Abu Dhabi zapłaci 2,1 miliarda dolarów za 56% Foundry Co. Później ma zainwestować jeszcze 3,6 do 6 miliardów dolarów w budowę nowych zakładów. Ponadto z AMD do Foundry Co. przejdzie 3000 pracowników. Szefem nowej firmy zostanie Doug Grose, który jest obecnie odpowiedzialny w AMD za produkcję. To nie pierwsze inwestycje w AMD ze strony AbuDhabi. Już w ubiegłym roku firma Mubadala Development Co. zakupiła 8,1% udziałów w głównym konkurencie Intela. Teraz wyda ona dodatkowo 314 milionów, a jej udziały zwiększą się do 19 procent.
  4. Akademicy z University of Michigan nie ustają w wysiłkach na rzecz udoskonalania układów scalonych. Przed niemal rokiem informowaliśmy o ich oprogramowaniu, które wyszukuje błędy w chipach i proponuje sposoby ich naprawy. Teraz czas na technologię, dzięki której unikniemy problemów z komputerem, w którym znalazł się wadliwy procesor. Firmy produkujące układy scalone są w stanie wyłapać poważniejsze błędy. Ale niemożliwe jest sprawdzenie wszelkich rodzajów operacji, jakie może wykonywać procesor, dlatego też do klienta mogą trafić kości, które będą ulegały awariom w pewnych nietypowych sytuacjach. Uczeni z University of Michigan chcą uchronić użytkowników przed tego typu niespodziankami dzięki wirtualnemu "płotowi", który zabezpieczy układ. Pomysł naukowców polega na zapisaniu w maleńkim monitorze dołączanym do układu scalonego informacji o wszystkich bezpiecznych scenariuszach jego wykorzystania. Te bezpieczne scenariusze to nic innego jak testy, które układ scalony przechodzi przed opuszczeniem fabryki. Podczas tych testów sprawdzanych jest co prawda stosunkowo niewiele konfiguracji procesora, ale są to takie konfiguracje, w których w praktyce układ znajduje się przez 99,9% swojego czasu pracy. Zadaniem opracowanego przez University of Michigan zabezpieczenia, zwanego semantycznym strażnikiem (Semantic Guardian), jest reagowanie w momencie, gdy kość znajdzie się w nieprzetestowanej konfiguracji. Wówczas praca procesora jest spowalniana, przełączany jest on w "bezpieczny tryb". Innymi słowy, strażnik traktuje wszystkie nieprzetestowane konfiguracje jako stan potencjalnie niebezpieczny. Valeria Bertacco, profesor na Wydziale Inżynierii Elektrycznej i Nauk Komputerowych, zapewnia: Użytkownik nawet nie zauważy, że procesor został przełączony w tryb bezpieczny. Będzie się to zdarzało rzadko i stan taki potrwa bardzo krótko, tak, by kość przeprowadzić przez nieznane terytorium. Później z powrotem przełączy się ona w zwykły tryb. Układ w trybie bezpiecznym wykonuje wszelkie zadane mu operacje, czyni to jednak wolniej. Pani profesor porównuje technologię do motocyklisty, który jadąc szosą trafia nagle na pełną dziur, polną drogę. Otrzymuje wówczas rower, dzięki któremu może bezpiecznie przejechać. Co więcej technologia z Michigan może powstrzymać też przyszłe zagrożenie ze strony cyberprzestępców. Kris Kaspersky zapowiada, że podczas konferencji Hack in the Box zaprezentuje niezależny od systemu operacyjnego sposób ataku na błędy w układzie scalonym.
  5. Berliński Instytut Wysokich Częstotliwości im. Ferdinanda Brauna (Ferdinand-Braun-Institut für Höchstfrequenztechnik - FBH) opracował technologię, która pozwala na tworzenie układów scalonych pracujących z częstotliwościami powyżej 200 gigaherców. Co więcej, nowa technologia umożliwia tworzenie trójwymiarowych układów. Aktywnymi elementami w nowej kości są tranzystory wykonane z arsenku galowo-indowego (InGaAs). Najpierw na podkład nakładane są cienkie warstwy fosforku indu oraz InGaAs. Grubość każdej z nich jest mniejsza niż 10 nanometrów. Następnie całość przygotowuje się za pomocą standardowych procesów wytrawiania i metalizacji. Później frontowa część tak przygotowanej warstwy jest mocowana do ceramicznego nośnika, a dotychczasowy podkład zostaje usunięty. W efekcie otrzymujemy odpowiednio ułożone warstwy fosforku indu i InGaAS umieszczone na ceramicznym podłożu i mamy dostęp do tylnej części, na którą możemy teraz nakładać kolejne warstwy tworząc trójwymiarową strukturę. Wolfgang Heinrich, szef wydziału zajmującego się w FBH badaniem nad mikrofalami wyjaśnia, że dzięki usunięciu krzemowego podkładu wyeliminowano negatywny wpływ tego materiału na właściwości dielektryczne tranzystorów. Dzięki temu uzyskano częstotliwość ich pracy powyżej 200 GHz. Niemieccy naukowcy twierdzą, że teoretycznie częstotliwość taktowania układów wykonanych w nowej technologii może wynieść nawet 480 GHz. Heinrich poinformował, że Instytut nie podjął jeszcze decyzji, czy wspomniana technologia w ogóle trafi na rynek. Przyznał jednak, że toczą się w tej sprawie rozmowy z co najmniej jedną zainteresowaną instytucją.
  6. W miarę postępu miniaturyzacji pojawiają się kolejne problemy związane z produkcją coraz mniejszych elementów oraz zapewnieniem ich bezproblemowej pracy. Jakiś czas temu zauważono, że przy pewnym stopniu miniaturyzacji pojawiają się problemy związane z... oddziaływaniem promieniowania kosmicznego. Docierające z kosmosu na Ziemię cząsteczki powodują błędy w pracy układów scalonych. Fujitsu Laboratories oraz należące do japońskiego Narodowego Instytutu Nauk Naturalnych obserwatorium astronomiczne na Hawajach pracują nad techniką szybkiego i dokładnego obliczania częstotliwości występowania takich błędów. Ta będzie zależała m.in. od szerokości geograficznej czy wysokości nad poziomem morza. Dzięki pracom Japończyków producenci układów scalonych będą mogli opracować techniki chroniące je przed występowaniem błedow. Fujitsu wykorzystuje dane z teleskopu Subaru, umieszczonego na szczycie Mauna Kea. Dociera tam 10-krotnie więcej neutronów niż do miejsca położonego na powierzchni morza. Naukowcy mogą więc obliczyć energię neutronów oraz opracować dane statystyczne dotyczące częstotliwości występowania błędów. Dane z Hawajów porównano z informacjami z Tokio i okazało się, że w stolicy Japonii do pomieszczeń wewnątrz budynków dociera 16-krotnie mniej neutronów. Gdy uwzględniono neutrony zatrzymane przez ściany, okazało się, że Tokio jest bombardowane 7,4-mniejszą liczbą cząstek niż szczyt Mauna Kea. Naukowcy na Hawajach zmierzyli też, że w 1024 układach SRAM wykonanych w technologii 90 nanometrów w ciągu 2400 godzin wystąpiło 36 błędów spowodowanych promieniowaniem kosmicznym. Z tego wynika, że w Tokio tyle samo błędów wystąpiłoby w ośmiokrotnie dłuższym czasie. Japończycy pracują teraz nad przystosowaniem swoich narzędzi do pomiarów liczby błędów w układach wykonanych w technologiach 65, 42 i 32 nanometrów.
  7. Amerykańscy naukowcy z University of Illinois at Urbana-Champaign (UIUC) zaprezentowali pierwszy elastyczny krzemowy układ elektroniczny. Zespół pod kierunkiem Johna Rogersa zaprezentował układ wykonany z krzemu i tworzywa sztucznego, którego grubość wynosi zaledwie 1,5 mikrona. Układ jest na tyle elastyczny, że można go nawet owinąć wokół sfery. Przekonanie, że krzem nie nadaje się do takich zastosowań, ponieważ jest zbyt sztywny i kruchy, zostało właśnie wyrzucone przez okno - mówi profesor John Rogers, szef zespołu badawczego. Opracowane przez niego układy będzie można wykorzystywać zarówno w medycynie, jak i owijać nimi np. kadłuby samolotów, dzięki czemu będą monitorowały stan poszycia. Żeby wyprodukować układ, najpierw na sztywne podłoże nałożono warstwę polimeru. na niej umieszczono bardzo cienką warstwę tworzywa sztucznego. Kolejnym krokiem było wykorzystanie konwencjonalnych metod produkcji elektroniki (w tym metod łączenia nanowstążek pojedynczych kryształów krzemu za pomocą nadruków). W ten sposób na polimerze powstała warstwa plastiku i krzemu, która była 50-krotnie mniejsza od średnicy ludzkiego włosa. Następnie polimer usunięto, a plastik wraz z krzemem umieszczono na elastycznym podłożu ze wstępnie rozciągniętej "krzemowej gumy". Po przymocowaniu wspomnianej warstwy naciąg został zwolniony. To spowodowało, że na warstwę zaczęły działać duże siły, dzięki którym warstwa została pofalowana, co umożliwia jej wyginanie w różnych kierunkach. Naukowcy z UIUC stworzyli już układy scalone składające się z tranzystorów, oscylatorów, bramek logicznych i wzmacniaczy. Ich właściwości elektroniczne są podobne do właściwości układów tworzonych na sztywnym podłożu krzemowym. Co więcej, układ pracuje bez zakłóceń, gdy działają nań siły powodujące jego rozciąganie, ściskanie czy wyginanie.
  8. AMD i IBM poinformowały o wyprodukowaniu pierwszego układu scalonego, który powstał przy użyciu litografii w dalekim ultrafiolecie (extreme ultra-violet – EUV). Technologia ta będzie wykorzystywana za około 8 lat do produkcji układów w procesie technologicznym 22 nanometrów. Testowa kość najpierw przeszła proces 193-nanometrowej litografii zanurzeniowej w należącej do AMD drezdeńskiej Fab 36. Jest to najbardziej zaawansowany proces technologiczny wykorzystywany obecnie przy masowej produkcji układów scalonych. Następnie krzemowy plaster dostarczono do centrum badawczego IBM-a w Albany. Tam użyto wspomnianego skanera litograficznego firmy ASML. Za jego pomocą stworzono pierwszą warstwę połączeń pomiędzy tranzystorami naniesionymi w Dreźnie na krzem. Po ich połączeniu chip poddano teston elektrycznym. Wykazały one, że prace zakończyły się powodzeniem. Teraz plastry wrócą do Niemiec, gdzie zyskają kolejną warstwę połączeń. Powstanie ona przy użyciu standardowych narzędzi dostępnych w Fab 36 i pozwoli na umieszczenie na chipie pamięci cache. Oczywiście litografię w dalekim ultrafiolecie wypróbowano już wcześniej, jednak dotychczas tworzono za jej pomocą część obwodów, nigdy zaś nie powstał cały układ. Kolejnym krokiem będzie stworzenie całego układu scalonego tylko i wyłącznie za pomocą EUV. Nowa technologia musi być gotowa do rozpoczęcia masowej produkcji najpóźniej do końca 2015 roku. International Technology Roadmap for Semiconductor przewiduje bowiem, że w 2016 roku będzie wdrażany 22-nanometrowy proces technologiczny. EUV wykorzystuje fale światła o długości 13,5 nanometra. To olbrzymia różnica w porównaniu z obecnie wykorzystywanymi 193-nanometrowymi falami.
  9. Naukowcy z Uniwersytetu Stanforda wraz z inżynierami Toshiby jako pierwsi na świecie zaprezentowali krzemowy układ scalony, który zamiast miedzianych połączeń wykorzystuje nanorurki węglowe. Po raz pierwszy w historii przez nanorurki przesłano cyfrowe sygnały z częstotliwością 1 gigaherca. Dotychczas mieliśmy tylko nadzieję, że będzie to możliwe, ale żadnego dowodu - powiedział Philip Wong, profesor na Wydziale Inżynierii Elektrycznej Uniwersytetu Stanforda. Prace akademików pozwolą na przedłużenie ważności Prawa Moore'a. Zakłada ono, że co dwa lata liczba tranzystorów w układzie scalonym będzie się podwajała. Ciągle udaje się spełniać ten warunek, jednak upakowanie coraz mniejszych elementów wymaga stosowania coraz cieńszych połączeń między nimi. Istniają obawy, że wkrótce powszechnie stosowana miedź przestanie wystarczać. Gael Close i Philip Wong oraz Shinichi Yasuda, Shinobu Fujita i Bipul Paul z Toshiby stworzyli matrycę składającą się z 256 oscylatorów pierścieniowych. Dodali do nich kolejne obwody, które umożliwiły wybiórcze przeprowadzanie operacji na każdym z oscylatorów. W sumie układ scalony składał się z 11 000 tranzystorów umieszczonych na powierzchni 6,5 milimetra kwadratowego. Podczas projektowania układu, przy każdym z oscylatorów pozostawiono jedno wolne połączenie. Kość została wykonana tradycyjnymi technikami w TSMC, a następnie Close i koledzy uzupełnili brakujące połączenia metalizowanymi nanorurkami. Co ważne, nie były one specjalnie przygotowywane, ale skorzystano z usług jednego z komercyjnych producentów. Każda z nanorurek miała 50-100 nanometrów średnicy i około 5 mikrometrów długości. Nanorurki różniły się jakością, ale ostatecznie udało się połączyć 19 oscylatorów. Każda z nanorurek była umieszczona bezpośrednio na tranzystorze, dzięki czemu maksymalnie zmniejszono opór, co pozwoliło na przesłanie sygnału z częstotliwością 1,02 GHz. Akademicy mówią, że nie należy się spodziewać, by układy scalone z nanorurkami trafiły w najbliższym czasie na rynek. Trzeba włożyć jeszcze sporo pracy zarówno w produkcję nanorurek o odpowiednich parametrach i projekt samego układu. Nanorurki wykorzystane w prototypie były dość duże (były wielkości obecnie używanych połączeń miedzianych) i nie charakteryzowały się odpowiednią czystością. Zrobiliśmy znaczący krok, ale to prototyp - mówi Close. Przemysł od dawna czekał na jego stworzenie, by móc naprawdę posuwać się naprzód - dodaje.
  10. Na University of Michigan powstało oprogramowanie, które wyszukuje błędy w układach scalonych i proponuje najlepszy sposób ich naprawienia. Może ono przyczynić się do powstania doskonalszych chipów. Błędy w układach to problem, który coraz bardziej dotyczy ich wytwórców. Im bardziej miniaturyzują układy scalone, tym więcej błędów w nich powstaje. Obecnie usunięcie usterek z prototypowego procesora może trwać nawet rok, co znacznie opóźnia jego rynkowy debiut i zwiększa koszty produkcji. Wspomniane oprogramowanie nie tylko skróci cykl produkcyjny i obniży koszty, ale spowoduje też, że na rynek będą trafiały układy z mniejszą liczbą błędow. Profesor Rob Rutenbar z Carnegie Mellon University, tak mówi o błędach: To wciąż nierozwiązany problem. Prawdopodobnie Intel ma jakieś zaawansowane technologie [usuwania błędów – red.], ale o tym nie wspomina. Z tego, co wiemy, błędy takie usuwa się ręcznie. Nie jest to proces mocno zautomatyzowany. Dodaje przy tym, że istnieje bardzo mało fachowej literatury na temat błędów występujących w półprzewodnikach. Z kolei profesor Igor Markov z University of Michigan zauważa, że ręczne usuwanie błędów to metoda bardzo niedoskonała i prawdopodobnie wszystkie układy scalone, które trafiają na rynek, zawierają błędy. Przypomina, że na stronie Intela można znaleźć spis 130 usterek sprzętowych, które występują w laptopach. Większość z nich można usunąć za pomocą odpowiedniego oprogramowania, ale około 20 nie można poprawić. Eksperci zauważają, że obecnie usunięcie błędu jest niezwykle trudne. Gdy już się go zidentyfikuje, to nie zawsze wiadomo, w jaki sposób należy go poprawić. Natura usterek może być bardzo różna – od zbyt blisko siebie wydrukowanych ścieżek, po tranzystory umieszczone w nieodpowiednich miejscach. Po naprawieniu jednej usterki często okazuje się, że jej poprawienie spowodowało powstanie innego błędu. Wprowadzanie poprawek kosztuje kolejne miliony dolarów, co oczywiście odbija się na cenie gotowego produktu. Obecnie podczas testów inżynierowie przepuszczają przez prototyp sygnały elektryczne i szukają w nich nieprawidłowości. Na tej podstawie starają się poprawić układ. Oprogramowanie, które powstało w Michigan, samodzielnie testuje chipy i szuka błędów. Gdy je znajdzie, określa, w których częściach procesora powstały i testuje te części. W ten sposób, wykluczając kolejne fragmenty układu, jest w stanie precyzyjnie określić miejsce, które należy poprawić. Gdy już znajdzie błąd, przeprowadza symulacje różnych metod jego poprawienia i proponuje tę najskuteczniejszą. Profesor Rutenbar mówi, że jedną z największych zalet programu jest fakt, iż podaje on często rozwiązania niezgodne z naszą intuicją. Pewne błędy człowiek naprawiłby zupełnie inaczej, niż proponuje to program. Jednak metody zaproponowane przez oprogramowanie, okazują się równie skuteczne, ale tańsze i szybsze w wykonaniu. Gdyby to człowiek miał zdecydować, raczej nie wpadłby na takie rozwiązanie – mówi Rutenbar. Testy wykazały, że program potrafi znaleźć i naprawić około 70% poważnych błędów. Wyszukiwanie konkretnej usterki zajmuje mu nie, jak ludziom, tygodnie, ale kilka dni.
  11. HP poinformowało o wyprodukowaniu tak małego układu scalonego służącego do nawiązywania łączności bezprzewodowej, że zmieści on się do niemal każdego urządzenia. Obecnie nie istnieje równie mały chip, który charakteryzowałby się równie dużą pojemnością pamięci i byłby w stanie równie szybko odbierać i wysyłać dane. Wśród potencjalnych zastosowań układu wymienia się noszone na nadgarstku urządzenie, które przechowywałyby dane medyczne pacjentów w szpitalach. Układ przydatny też będzie w walce z podrabianiem medykamentów, posłuży do lepszego zabezpieczenia dowodów osobistych czy paszportów, umożliwi umieszczenie dodatkowych informacji w drukowanych dokumentach, czy też, dołączany do kartki lub fotografii z wakacji, posłuży do przekazywania zawartości audiowizualnej. Eksperymentalny układ, nazwany "Memory Spot", zbudowany został w oparciu o technologię CMOS. Jego wymiary, wraz z wbudowaną anteną, wynoszą 2x4 milimetry. Niewykluczone, że w sprzedaży znajdzie się m.in. w formie samoprzylepnych naklejek, które można będzie umieścić na każdej powierzchni. Memory Spot uwalnia cyfrową zawartość od pecetów i Internetu i pozwala wykorzystywać ją w każdej sytuacji – mówi, Ed McDonnell z HP Labs. Prędkość transferu danych, którą można osiągnąć wykorzystując Memory Spot wynosi... 10 megabitów na sekundę. Pojemność pamięci działających prototypów wahała się od 256 kilobitów do 4 megabitów. Może więc przechowywać krótkie klipy wideo, zdjęcia czy dziesiątki stron tekstu. W przyszłości pojemność układu ma wzrosnąć. Informacje można zapisywać i odczytywać za pomocą urządzenia, które może zostać w budowane w telefon komórkowy, palmtopa, aparat fotograficzny, drukarkę czy jakiekolwiek inne urządzenie. Memory Spot jest całkowicie samodzielnym urządzeniem, nie wymaga też żadnego stałego źródła energii. Zasilane jest indukcyjnie poprzez urządzenie zapisująco-odczytujące w czasie pobierania lub zachowywania informacji w chipie.
  12. NASA stworzyła wyjątkowo wytrzymały układ scalony. Może on nieprzerwanie pracować przez 1700 godzin w temperaturze 500 stopni Celsjusza. Wszystkie używane obecnie układy scalone wymagają chłodzenia. Te, które pracują najbardziej intensywnie i są najbardziej wydajne – procesory i układy graficzne – mają do dyspozycji własne, często bardzo skomplikowane zestawy chłodzące. Tymczasem naukowcy z NASA postanowili stworzyć chip, który byłby w stanie przez długi czas pracować w bardzo niekorzystnych warunkach. Do wyprodukowania układu wykorzystano węglik krzemu, który jest bardzo odporny na wysokie temperatury. NASA zauważa, że opracowanie chipa to ważny krok w kierunku stworzenie elektroniki odpornej na ekstremalne warunki, które można napotkać podczas eksploracji kosmosu. Co więcej, nie trzeba go chłodzić, więc projektowanie urządzeń na potrzeby badań będzie znacznie prostsze. Chip może kontrolować reakcje spalania w silnikach rakietowych czy sterować robotami na powierzchni takich planet jak np. Wenus. Nowy układ znajdzie również zastosowanie na naszej planecie. Będzie można go wykorzystać np. do sterowania wiertłami za pomocą których poszukiwana jest ropa czy gaz, uczeni z NASA wspominają też o zamontowaniu go w silnikach samochodowych.
  13. Sony prawdopodobnie zamierza sprzedać Toshibie swój oddział zajmujący się produkcją układów scalonych. Firma chce skupić się na swoim głównym rodzaju działalności gospodarczej – produkcji elektroniki użytkowej. Japońskie przedsiębiorstwo chciałoby uzyskać za swoje zakłady około 870 milionów dolarów. Odpowiednia umowa zostanie prawdopodobnie podpisana w ciągu najbliższych kilku miesięcy. Jednocześnie Sony i Toshiba stworzą spółkę, która będzie zajmowała się produkcją chipów. Obecnie Sony Kyushu Semiconductor Corp. ma w ofercie układy wykonywane w technologiach 65, 90, 180, 250 i 350 nanometrów. Gdy w bieżącym roku Sony wycofało się ze współpracy nad nowymi układami z NEC-em i Toshibą, stało się jasne, iż firma chce w ogóle opuścić rynek układów scalonych. Na rynku tym do osiągnięcia zysków konieczne jest utrzymanie wysokiego poziomu sprzedaży. Tymczasem ani konsola PlayStation 3, ani odtwarzacze Blu-ray nie stały się takim przebojem rynkowym, by Sony opłacało się samodzielnie produkować podzespoły.
  14. Akademicy z Purdue University, którzy prowadzą finansowane przez Intela badania, poinformowali, że wykorzystanie jonicznego wiatru do wymiany ciepła aż o 250% usprawnia chłodzenie układów scalonych. Naukowcy stworzyli prototypowy silnik wiatrowy, dzięki któremu pokonano zjawisko polegające na pozostawaniu nagrzanych molekuł powietrza w pobliżu układu. Prototyp silnika składa się z dwóch elektrod umieszczonych po obu stronach chipa. Różnica napięcia pomiędzy elektrodami wynosiła tysiąc woltów, co spowodowało, że molekuły powietrza zostały naładowane i powstał joniczny wiatr przesuwający się nad powierzchnią całego układu. Zwykle dzieje się tak, że powietrze, utrzymując się w naturalny sposób w pobliżu powierzchni układu utrudnia jego chłodzenie. Jeśli udałoby się zintegrować joniczny silnik wiatrowy z chipem, powietrze to można by usunąć, a wydajność obecnie stosowanych układów chłodzących zwiększyłaby się dzięki temu o 250 procent. Uczeni pracują teraz nad zmniejszeniem napięcia koniecznego do wywołania jonicznego wiatru oraz nad zminiaturyzowaniem samego silnika. Na potrzeby laboratoryjnych eksperymentów obie elektrody umieszczono w odległości 10 milimetrów od boków układu i podłączono je do napięcia rzędu tysięcy woltów. Podczas testu układ, który tradycyjnymi metodami udało się schłodzić do 60 stopni Celsjusza po włączeniu silnika osiągnął temperaturę 35 stopni. Obecnie naszym zadaniem jest zmniejszenie odległości pomiędzy obiema elektrodami – mówi profesor Suresh Garimella. Będą znajdowały się one w odległości nie milimetrów a mikronów od układu scalonego. Uczeni twierdzą, że w ciągu dwóch lat opracują nowy prototypowy silnik, który będzie działał przy znacznie niższych napięciach. Purdue University od lat prowadzi badania nad technikami jonicznego wiatru. Są one finansowane przede wszystkim przez National Science Foundation.
  15. Naukowcy IBM-a wykorzystali naturalne procesy formowania się płatków śniegu, muszli i zębów do stworzenia układów scalonych przyszłej generacji. To, co podpatrzyli w naturze, pozwoliło im zbudować układ scalony, w którym poszczególne połączenia są odizolowane od siebie za pomocą próżni. Obecnie ścieżki w układach scalonych tworzy się z miedzi, która otoczona jest izolatorem. Cały proces jest dość skomplikowany i wymaga stworzenia odpowiedniej przesłony (tzw. maski), w której wycięty jest wzór rozmieszczenia ścieżek i otworów. Promień lasera, przechodząc przez maskę, rysuje ten wzór na krzemie. Następnie krzem poddaje się jeszcze odpowiedniej obróbce chemicznej. Wynalazek IBM-a pozwala zrezygnować z maski i wytrawiania krzemu światłem. Naukowcy Błękitnego Giganta opracowali odpowiednią mieszaninę składników, którą pokrywa się odpowiednio przygotowany krzem, a następnie całość poddaje wypiekaniu. Podczas tego procesu powstaje wzór, który tym różni się od naturalnego (np. z płatków śniegu), że jest powtarzalny. Technika IBM-a pozwala na stworzenie miliardów identycznych otworów o średnicy 20 nanometrów. Gdy otwory już powstały usunięto z nich szkło węglowo-krzemianowe, tworząc w ten sposób próżnię pomiędzy ścieżkami miedzi. Działa ona jak izolator, a dzięki niej sygnały elektryczne biegną o 35% szybciej niż w analogicznych układach stworzonych za pomocą tradycyjnych metod. Przy tej samej prędkości przepływu sygnałów układ wymaga natomiast o 15% mniej energii. Cały proces można zastosować na standardowych liniach produkcyjnych CMOS i nie wymaga on ani ich przebudowy, ani inwestowania w nowe urządzenia.
  16. IBM ma zamiar na masową skalę wykorzystywać nową technologię łączenia układów scalonych i ich części. Dzięki temu Błękitny Gigant chce poprawić ich wydajność i jednocześnie zmniejszyć pobór mocy. Technologia TSV (through-silicon vias) pozwala na łączenie zarówno procesora i pamięci, jak i rdzeni procesora ze sobą. Połączenie jest realizowane przez tysiące niewielkich przewodów, którymi wędrują dane. Obecnie zadania te spoczywają na urządzeniach zwanych szynami, które jednak często ulegają przeciążeniu. TSV pozwala na przesłanie większej ilości danych w ciągu sekundy, a pobór mocy jest przy tym niższy niż w przypadku szyn. IBM nie jest pierwszą firmą, która chce wykorzystać TSV. Wspominał już o tym Intel przy okazji swojego 80-rdzeniowego procesora. IBM ma natomiast zamiar zastosować nową technologię na masową skalę. Pierwsze próbki układów z TSV trafią do klientów jeszcze w bieżącym roku, a w 2008 zacznie się ich masowa produkcja. IBM ocenia, że w układach wykonanych z krzemu domieszkowanego germanem (tzw. rozciągnięty krzem) uda się zaoszczędzić nawet 40% energii. W układach z technologią TSV zostaną nawiercone mikroskopijne otwory, przez które zostanie przeciągnięte okablowanie z wolframu. Badacze IBM-a mają nadzieję, że w ciągu 3-5 lat dzięki TSV uda się połączyć pamięć bezpośrednio z procesorem, bez konieczności stosowania kontrolera pamięci. Powinno to zwiększyć wydajność o dalsze 10%, a pobór mocy zmniejszyć o 20%. Błękitny Gigant pokłada tak wielką nadzieję w nowej technologii, że planuje zastosowanie jest w swoich superkomputerach BlueGene. TSV pozwoli też na zmianę architektury płyt głównych. Obecnie niektóre firmy budują je w ten sposób, że łączą układają kości jedną na drugiej. Pozwala to zaoszczędzić miejsca, ale układy łączą się ze sobą za pośrednictwem szyn, więc nie ma zysku wydajności. TSV pozwoli pozbyć się szyn, a tym samym zwiększyć wydajność. Ponadto, dzięki likwidacji szyn możliwe będą dalsze oszczędności miejsca (układy będą połączone za pomocą poprowadzonych w środku kabli). Rozpowszechnienie się TSV doprowadzić może do zmiany sposobu sprzedaży układów producentom płyt głównych. Będą oni mogli kupić od takich firm jak IBM czy Intel gotowe połączone ze sobą zestawy, składające się z procesora, chipsetu i pamięci. To jedna z możliwych metod zwiększenia wydajności systemów komputerowych. Wśród innych warto wymienić technologię produkcji trójwymiarowych układów pamięci opracowaną przez Matrix Semiconductor czy technologię rozwijaną przez Sun Microsystems, która umożliwia przesyłanie danych pomiędzy odpowiednio blisko znajdującymi się układami. Interesująca jest również technologia Loki, firmy Rambus, która zapewnia przesył danych z prędkością 6,25 gigabita na sekundę przy poborze mocy rzędu 2,2 miliwata na gigabit. Niedawno Rambus pokazał prototypowy system Loki, który przez 40 godzin był w stanie pracować na dwóch bateriach AA i przesłał w tym czasie 3,6 petabita (3,6 miliona gigabitów) danych. Wracając do TSV warto wspomnieć, że Intel rozwija tą technologię od 2005 roku. Firma nie jest jednak jeszcze gotowa do jej wykorzystania na masową skalę. Inżynierowie Intela chcą użyć TSV do połączenia w jednej obudowie procesora i pamięci operacyjnej, to jednak rodzi poważne kłopoty związane z wydzielaniem ciepła. Wszystko więc wskazuje na to, że na rynek TSV trafi po raz pierwszy dzięki IBM-owi.
  17. Z najnowszych danych dostarczonych przez PricewaterhouseCoopers wynika, że chińska produkcja urządzeń elektronicznych była odpowiedzialna za 90% światowego wzrostu zapotrzebowania na półprzewodniki. Po raz pierwszy w historii chiński rynek był większy od rynku japońskiego, amerykańskiego czy europejskiego. Specjaliści oceniają, że do roku 2010 do Chin będzie należało 33% rynku półprzrewodników. Chiny zyskują na znaczeniu jako coraz ważniejszy wytwórca elektroniki konsumenckiej. W Państwie Środka szybko rośnie zapotrzebowanie na układy scalone. Jeszcze w roku 2004 producenci sprzętu zakupili 20% wszystkich kości, które trafiły do Chin. Rok później kupili już 26% wszystkich układów. Coraz więcej układów scalonych powstaje też w samych Chinach. Mimo to tylko niewielka ich część produkowana jest przez chińskie firmy. Na liście 70 największych producentów, którzy dostarczyli półprzewodniki do Państwa Środka nie ma ani jednej chińskiej firmy. Chińskie przedsiębiorstwa nie są obecnie w stanie konkurować z zagranicznymi firmami. Wystarczy wspomnieć, że każdy z 10 największych dostawców półprzewodników sprzedał w 2005 roku w samych tylko Chinach swoje układy o wartości ponad miliarda dolarów. W tym samym czasie największy chiński producent układów scalonych osiągnął obrony mniejsze niż 200 milionów USD.
  18. Dzięki opracowanej właśnie metodzie uzyskiwania cienkiej warstwy krzemu możliwe będzie tworzenie zaawansowanych układów scalonych niemal na każdej powierzchni. Uczeni z University of Wisconsin udowodnili, że rozciągnięty krzem, stosowany od kilku lat przez Intela, może zostać wyprodukowany w tak cienkiej warstwie, iż staje się elastyczny. Obecnie stosowane elastyczne układy scalone wykonuje się z polimerów. Materiały te nie zapewniają jednak tak dużej wydajności jak krzem. Rozciągnięty krzem uzyskuje się poprzez jego fizyczne rozciągnięcie bądź domieszkowanie germanem. Takie zabiegi powodują, że odległości pomiędzy poszczególnymi atomami materiału stają się większe, ułatwiając przepływ elektronów, co pozwala na budowę bardziej wydajnych układów. Dotychczas wykorzystuje się warstwy rozciągniętego krzemu, których grubość liczy się w mikrometrach (milionowych częściach metra). Zespół profesora Maxa Lagallyego opracował metodę, która pozwala na wykonanie warstwy takiego krzemu o grubości kilkuset nanometrów (miliardowa część metra) oraz przeniesienie jej na inną powierzchnię. Aby uzyskać odpowiednio cienką warstwę rozciągniętego krzemu, Lagelly wraz ze współpracownikami nałożyli na gotowy krzemowy plaster warstwę tlenku krzemu, a na nią kolejną warstwę krzemu. Na krzem został nałożony następnie krzem z domieszką germanu, czyli rozciągnięty krzem. Jego atomy musiały jednak dostosować swoje położenie do leżących poniżej wielu warstw krzemu (warstwa dodatkowa + warstwy pod tlenkiem krzemu) i uległy ścieśnieniu. Na taką ściśniętą warstwę nałożono kolejną, znowu samego krzemu. W ten sposób powstał rodzaj "kanapki" o grubości 250 nanometrów. "Kanapka" wykazywała jednak właściwości zwykłego krzemu, gdyż, jak wspomniano, warstwa krzemu domieszkowanego germanem uległa ścieśnieniu. Aby ją "uwolnić", całość zanurzono w kwasie fluorowodorowym, który rozpuścił warstwę tlenku krzemu, mocującą całość do plastra. W ten sposób od całości oddzielone zostały trzy połączone ze sobą warstwy o łącznej grubości 250 nanometrów: krzem-krzem z germanem-krzem. Znajdujący się w środku domieszkowany krzem zaczął się rozprężać, rozciągając jednocześnie warstwy nad i pod nim. Uzyskano dzięki temu cienki elastyczny plaster rozciągniętego krzemu, który można było przenieść na elastyczną powierzchnię. Lagally uważa, że pierwsze produkty wykonane za pomocą jego technologii trafią na rynek w ciągu najbliższych lat. Początkowo będą nimi najprawdopodobniej elastyczne systemy prezentacji obrazu i wyświetlacze wysokiej jakości.
×
×
  • Dodaj nową pozycję...