Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'układ scalony' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 68 wyników

  1. Jak donosi EE Times, fabryki układów scalonych korzystające z 450-milimetrowych plastrów krzemowych, rzeczywiście mogą powstać, jednak nie tak szybko, jakby sobie niektórzy życzyli. Najwięksi producenci chipów, Intel, TSMC i Samsung, obiecują, że tego typu zakłady powstaną około roku 2012. Ich zapewnieniom nie wierzy wielu ekspertów, którzy uważają, że stworzenie odpowiednich urządzeń, technologii i wybudowanie linii produkcyjnych jest zbyt kosztowne. Analityk Dean Freeman z Gartnera uważa, że tego typu zakłady rzeczywiście powstaną, ale rozpoczną produkcję nie wcześniej niż w 2017 roku. Koszt wdrożenia nowej technologii jest szacowany na 20-40 miliardów dolarów. Zdaniem Freemana kalendarium wdrażania technologii będzie wyglądało następująco: - w roku 2009 producenci układów scalonych ustalą zasady współpracy nad nową technologią; - w 2010 pojawią się prototypowe plastry krzemowe o średnicy 450 mm; - w latach 2012-2013 będą produkowane prototypowe urządzenia; - pomiędzy rokiem 2014 a 2016 będą uruchamiane pilotażowe linie produkcyjne; - w latach 2017-2019 ruszą pierwsze linie korzystające z 450-milimetrowych plastrów, z których zjadą układy wykonane w technologii 8 lub 5 nanometrów. Powierzchnia 450-milimetrowego plastra jest ponaddwukrotnie większa, niż wykorzystywanych obecnie plastrów 300-milimetrowych. To obniża cenę na pojedynczy układ, pozwala też zaoszczędzić wodę, energię oraz inne zasoby potrzebne do produkcji kości.
  2. Przeżywające od dłuższego czasu kłopoty AMD ma szansę wyjść na prostą. Firma w końcu otrzymała z Abu Dhabi dofinansowanie w wysokości 8,4 miliarda dolarów. Ponadto wszystko wskazuje na to, że podzieli się na dwa przedsiębiorstwa. Samo AMD zajmie się projektowaniem układów scalonych, a wydzielone zeń fabryki staną się osobną firmą, która będzie przyjmowała zlecenia na produkcję kości zarówno dla AMD jak i innych przedsiębiorstw. W skład tej firmy, która już jest nieoficjalnie nazywana Foundry Co., wejdą dwie fabryki w Niemczech oraz nowy zakład w stanie Nowy Jork. Z obecnie dostępnych danych wynika, że rząd Abu Dhabi zapłaci 2,1 miliarda dolarów za 56% Foundry Co. Później ma zainwestować jeszcze 3,6 do 6 miliardów dolarów w budowę nowych zakładów. Ponadto z AMD do Foundry Co. przejdzie 3000 pracowników. Szefem nowej firmy zostanie Doug Grose, który jest obecnie odpowiedzialny w AMD za produkcję. To nie pierwsze inwestycje w AMD ze strony AbuDhabi. Już w ubiegłym roku firma Mubadala Development Co. zakupiła 8,1% udziałów w głównym konkurencie Intela. Teraz wyda ona dodatkowo 314 milionów, a jej udziały zwiększą się do 19 procent.
  3. Akademicy z University of Michigan nie ustają w wysiłkach na rzecz udoskonalania układów scalonych. Przed niemal rokiem informowaliśmy o ich oprogramowaniu, które wyszukuje błędy w chipach i proponuje sposoby ich naprawy. Teraz czas na technologię, dzięki której unikniemy problemów z komputerem, w którym znalazł się wadliwy procesor. Firmy produkujące układy scalone są w stanie wyłapać poważniejsze błędy. Ale niemożliwe jest sprawdzenie wszelkich rodzajów operacji, jakie może wykonywać procesor, dlatego też do klienta mogą trafić kości, które będą ulegały awariom w pewnych nietypowych sytuacjach. Uczeni z University of Michigan chcą uchronić użytkowników przed tego typu niespodziankami dzięki wirtualnemu "płotowi", który zabezpieczy układ. Pomysł naukowców polega na zapisaniu w maleńkim monitorze dołączanym do układu scalonego informacji o wszystkich bezpiecznych scenariuszach jego wykorzystania. Te bezpieczne scenariusze to nic innego jak testy, które układ scalony przechodzi przed opuszczeniem fabryki. Podczas tych testów sprawdzanych jest co prawda stosunkowo niewiele konfiguracji procesora, ale są to takie konfiguracje, w których w praktyce układ znajduje się przez 99,9% swojego czasu pracy. Zadaniem opracowanego przez University of Michigan zabezpieczenia, zwanego semantycznym strażnikiem (Semantic Guardian), jest reagowanie w momencie, gdy kość znajdzie się w nieprzetestowanej konfiguracji. Wówczas praca procesora jest spowalniana, przełączany jest on w "bezpieczny tryb". Innymi słowy, strażnik traktuje wszystkie nieprzetestowane konfiguracje jako stan potencjalnie niebezpieczny. Valeria Bertacco, profesor na Wydziale Inżynierii Elektrycznej i Nauk Komputerowych, zapewnia: Użytkownik nawet nie zauważy, że procesor został przełączony w tryb bezpieczny. Będzie się to zdarzało rzadko i stan taki potrwa bardzo krótko, tak, by kość przeprowadzić przez nieznane terytorium. Później z powrotem przełączy się ona w zwykły tryb. Układ w trybie bezpiecznym wykonuje wszelkie zadane mu operacje, czyni to jednak wolniej. Pani profesor porównuje technologię do motocyklisty, który jadąc szosą trafia nagle na pełną dziur, polną drogę. Otrzymuje wówczas rower, dzięki któremu może bezpiecznie przejechać. Co więcej technologia z Michigan może powstrzymać też przyszłe zagrożenie ze strony cyberprzestępców. Kris Kaspersky zapowiada, że podczas konferencji Hack in the Box zaprezentuje niezależny od systemu operacyjnego sposób ataku na błędy w układzie scalonym.
  4. Berliński Instytut Wysokich Częstotliwości im. Ferdinanda Brauna (Ferdinand-Braun-Institut für Höchstfrequenztechnik - FBH) opracował technologię, która pozwala na tworzenie układów scalonych pracujących z częstotliwościami powyżej 200 gigaherców. Co więcej, nowa technologia umożliwia tworzenie trójwymiarowych układów. Aktywnymi elementami w nowej kości są tranzystory wykonane z arsenku galowo-indowego (InGaAs). Najpierw na podkład nakładane są cienkie warstwy fosforku indu oraz InGaAs. Grubość każdej z nich jest mniejsza niż 10 nanometrów. Następnie całość przygotowuje się za pomocą standardowych procesów wytrawiania i metalizacji. Później frontowa część tak przygotowanej warstwy jest mocowana do ceramicznego nośnika, a dotychczasowy podkład zostaje usunięty. W efekcie otrzymujemy odpowiednio ułożone warstwy fosforku indu i InGaAS umieszczone na ceramicznym podłożu i mamy dostęp do tylnej części, na którą możemy teraz nakładać kolejne warstwy tworząc trójwymiarową strukturę. Wolfgang Heinrich, szef wydziału zajmującego się w FBH badaniem nad mikrofalami wyjaśnia, że dzięki usunięciu krzemowego podkładu wyeliminowano negatywny wpływ tego materiału na właściwości dielektryczne tranzystorów. Dzięki temu uzyskano częstotliwość ich pracy powyżej 200 GHz. Niemieccy naukowcy twierdzą, że teoretycznie częstotliwość taktowania układów wykonanych w nowej technologii może wynieść nawet 480 GHz. Heinrich poinformował, że Instytut nie podjął jeszcze decyzji, czy wspomniana technologia w ogóle trafi na rynek. Przyznał jednak, że toczą się w tej sprawie rozmowy z co najmniej jedną zainteresowaną instytucją.
  5. W miarę postępu miniaturyzacji pojawiają się kolejne problemy związane z produkcją coraz mniejszych elementów oraz zapewnieniem ich bezproblemowej pracy. Jakiś czas temu zauważono, że przy pewnym stopniu miniaturyzacji pojawiają się problemy związane z... oddziaływaniem promieniowania kosmicznego. Docierające z kosmosu na Ziemię cząsteczki powodują błędy w pracy układów scalonych. Fujitsu Laboratories oraz należące do japońskiego Narodowego Instytutu Nauk Naturalnych obserwatorium astronomiczne na Hawajach pracują nad techniką szybkiego i dokładnego obliczania częstotliwości występowania takich błędów. Ta będzie zależała m.in. od szerokości geograficznej czy wysokości nad poziomem morza. Dzięki pracom Japończyków producenci układów scalonych będą mogli opracować techniki chroniące je przed występowaniem błedow. Fujitsu wykorzystuje dane z teleskopu Subaru, umieszczonego na szczycie Mauna Kea. Dociera tam 10-krotnie więcej neutronów niż do miejsca położonego na powierzchni morza. Naukowcy mogą więc obliczyć energię neutronów oraz opracować dane statystyczne dotyczące częstotliwości występowania błędów. Dane z Hawajów porównano z informacjami z Tokio i okazało się, że w stolicy Japonii do pomieszczeń wewnątrz budynków dociera 16-krotnie mniej neutronów. Gdy uwzględniono neutrony zatrzymane przez ściany, okazało się, że Tokio jest bombardowane 7,4-mniejszą liczbą cząstek niż szczyt Mauna Kea. Naukowcy na Hawajach zmierzyli też, że w 1024 układach SRAM wykonanych w technologii 90 nanometrów w ciągu 2400 godzin wystąpiło 36 błędów spowodowanych promieniowaniem kosmicznym. Z tego wynika, że w Tokio tyle samo błędów wystąpiłoby w ośmiokrotnie dłuższym czasie. Japończycy pracują teraz nad przystosowaniem swoich narzędzi do pomiarów liczby błędów w układach wykonanych w technologiach 65, 42 i 32 nanometrów.
  6. Amerykańscy naukowcy z University of Illinois at Urbana-Champaign (UIUC) zaprezentowali pierwszy elastyczny krzemowy układ elektroniczny. Zespół pod kierunkiem Johna Rogersa zaprezentował układ wykonany z krzemu i tworzywa sztucznego, którego grubość wynosi zaledwie 1,5 mikrona. Układ jest na tyle elastyczny, że można go nawet owinąć wokół sfery. Przekonanie, że krzem nie nadaje się do takich zastosowań, ponieważ jest zbyt sztywny i kruchy, zostało właśnie wyrzucone przez okno - mówi profesor John Rogers, szef zespołu badawczego. Opracowane przez niego układy będzie można wykorzystywać zarówno w medycynie, jak i owijać nimi np. kadłuby samolotów, dzięki czemu będą monitorowały stan poszycia. Żeby wyprodukować układ, najpierw na sztywne podłoże nałożono warstwę polimeru. na niej umieszczono bardzo cienką warstwę tworzywa sztucznego. Kolejnym krokiem było wykorzystanie konwencjonalnych metod produkcji elektroniki (w tym metod łączenia nanowstążek pojedynczych kryształów krzemu za pomocą nadruków). W ten sposób na polimerze powstała warstwa plastiku i krzemu, która była 50-krotnie mniejsza od średnicy ludzkiego włosa. Następnie polimer usunięto, a plastik wraz z krzemem umieszczono na elastycznym podłożu ze wstępnie rozciągniętej "krzemowej gumy". Po przymocowaniu wspomnianej warstwy naciąg został zwolniony. To spowodowało, że na warstwę zaczęły działać duże siły, dzięki którym warstwa została pofalowana, co umożliwia jej wyginanie w różnych kierunkach. Naukowcy z UIUC stworzyli już układy scalone składające się z tranzystorów, oscylatorów, bramek logicznych i wzmacniaczy. Ich właściwości elektroniczne są podobne do właściwości układów tworzonych na sztywnym podłożu krzemowym. Co więcej, układ pracuje bez zakłóceń, gdy działają nań siły powodujące jego rozciąganie, ściskanie czy wyginanie.
  7. Naukowcy z Rice University i University of Michigan zaprezentowali technologię, którą nazwali Ending Piracy of Integrated Circuits (EPIC - Koniec Pirackich Układów Scalonych). Ma ona zapobiec pojawianiu się podrobionych układów scalonych, które skonstruowano na podstawie ukradzionych planów oryginalnych kości. Pomysł akademików polega na zaimplementowaniu w każdym układzie unikatowego kodu blokującego. Układ po uruchomieniu komunikuje się z legalnym twórcą i wówczas zostaje odblokowany. Kość może działać tylko po odblokowaniu. Twórcy EPICa informują, że technologia wymaga jedynie niewielkich zmian podczas projektowania układów i w żaden sposób nie wpływa na wydajność czy pobór energii. Kradzieże planów układów scalonych stają się coraz powszechniejsze. Dzieje się tak, gdyż amerykańskie przedsiębiorstwa coraz częściej zlecają, najczęściej azjatyckim partnerom, produkcję scalaków na zewnątrz. Podyktowane jest to względami finansowymi. Wybudowanie w USA fabryki nowoczesnych układów scalonych to koszt rzędu 3-4 miliardów dolarów. EPIC zakłada wyposażenie układów scalonych w kilka dodatkowych przełączników, które będą działały jak zamek szyfrowy. Ich różne kombinacje pozwolą na stworzenie unikatowego, co najmniej 64-bitowego klucza. Układ nie byłby produkowany już z ustawionym kluczem, ale z zaimplementowanymi narzędziami do wygenerowania takiego klucza podczas procesu aktywacji. Wszystkie układy byłyby produkowane według tego samego schematu, ale w momencie aktywowania i wygenerowania numeru identyfikacyjnego, zaczęłyby się od siebie nieco różnić. Przed aktywacją numer pozostawałby nieznany - wyjaśnia Jarrod Roy, jeden z twórców nowej technologii. Układ po włączeniu i wygenerowaniu klucza, wysyłałby go do producenta, a ten, na podstawie przesłanych danych, generowałby klucz odblokowujący, wysyłany do układu. Jako, że klucz jest unikatowy i generowany w czasie rzeczywistym, jego kopiowanie i próba aktywowania innego układu nie miałaby sensu. Uczeni rozważali różne scenariusze ataku na taki układ. Na przykład usunięcie wspomnianych wcześniej przełączników nie prowadziłoby do złamania EPIC, a jedynie uszkodziłoby sam układ. Oczywiście, teoretycznie EPIC można złamać za pomocą techniki reverse-engineeringu, której poddano by całą kość. Jednak potencjalny pirat musiałby przeznaczyć na to około 100 milionów dolarów, więc takie działanie nie ma sensu. Celem wprowadzenia takiego systemu nie jest stworzenie czegoś niemożliwego do złamania, ale upewnienie się, że zakup licencji i legalna produkcja układów scalonych będzie tańsza, niż produkcja podróbek - stwierdził profesor Igor Markov, współautor badań.
  8. AMD i IBM poinformowały o wyprodukowaniu pierwszego układu scalonego, który powstał przy użyciu litografii w dalekim ultrafiolecie (extreme ultra-violet – EUV). Technologia ta będzie wykorzystywana za około 8 lat do produkcji układów w procesie technologicznym 22 nanometrów. Testowa kość najpierw przeszła proces 193-nanometrowej litografii zanurzeniowej w należącej do AMD drezdeńskiej Fab 36. Jest to najbardziej zaawansowany proces technologiczny wykorzystywany obecnie przy masowej produkcji układów scalonych. Następnie krzemowy plaster dostarczono do centrum badawczego IBM-a w Albany. Tam użyto wspomnianego skanera litograficznego firmy ASML. Za jego pomocą stworzono pierwszą warstwę połączeń pomiędzy tranzystorami naniesionymi w Dreźnie na krzem. Po ich połączeniu chip poddano teston elektrycznym. Wykazały one, że prace zakończyły się powodzeniem. Teraz plastry wrócą do Niemiec, gdzie zyskają kolejną warstwę połączeń. Powstanie ona przy użyciu standardowych narzędzi dostępnych w Fab 36 i pozwoli na umieszczenie na chipie pamięci cache. Oczywiście litografię w dalekim ultrafiolecie wypróbowano już wcześniej, jednak dotychczas tworzono za jej pomocą część obwodów, nigdy zaś nie powstał cały układ. Kolejnym krokiem będzie stworzenie całego układu scalonego tylko i wyłącznie za pomocą EUV. Nowa technologia musi być gotowa do rozpoczęcia masowej produkcji najpóźniej do końca 2015 roku. International Technology Roadmap for Semiconductor przewiduje bowiem, że w 2016 roku będzie wdrażany 22-nanometrowy proces technologiczny. EUV wykorzystuje fale światła o długości 13,5 nanometra. To olbrzymia różnica w porównaniu z obecnie wykorzystywanymi 193-nanometrowymi falami.
  9. Naukowcy z Uniwersytetu Stanforda wraz z inżynierami Toshiby jako pierwsi na świecie zaprezentowali krzemowy układ scalony, który zamiast miedzianych połączeń wykorzystuje nanorurki węglowe. Po raz pierwszy w historii przez nanorurki przesłano cyfrowe sygnały z częstotliwością 1 gigaherca. Dotychczas mieliśmy tylko nadzieję, że będzie to możliwe, ale żadnego dowodu - powiedział Philip Wong, profesor na Wydziale Inżynierii Elektrycznej Uniwersytetu Stanforda. Prace akademików pozwolą na przedłużenie ważności Prawa Moore'a. Zakłada ono, że co dwa lata liczba tranzystorów w układzie scalonym będzie się podwajała. Ciągle udaje się spełniać ten warunek, jednak upakowanie coraz mniejszych elementów wymaga stosowania coraz cieńszych połączeń między nimi. Istniają obawy, że wkrótce powszechnie stosowana miedź przestanie wystarczać. Gael Close i Philip Wong oraz Shinichi Yasuda, Shinobu Fujita i Bipul Paul z Toshiby stworzyli matrycę składającą się z 256 oscylatorów pierścieniowych. Dodali do nich kolejne obwody, które umożliwiły wybiórcze przeprowadzanie operacji na każdym z oscylatorów. W sumie układ scalony składał się z 11 000 tranzystorów umieszczonych na powierzchni 6,5 milimetra kwadratowego. Podczas projektowania układu, przy każdym z oscylatorów pozostawiono jedno wolne połączenie. Kość została wykonana tradycyjnymi technikami w TSMC, a następnie Close i koledzy uzupełnili brakujące połączenia metalizowanymi nanorurkami. Co ważne, nie były one specjalnie przygotowywane, ale skorzystano z usług jednego z komercyjnych producentów. Każda z nanorurek miała 50-100 nanometrów średnicy i około 5 mikrometrów długości. Nanorurki różniły się jakością, ale ostatecznie udało się połączyć 19 oscylatorów. Każda z nanorurek była umieszczona bezpośrednio na tranzystorze, dzięki czemu maksymalnie zmniejszono opór, co pozwoliło na przesłanie sygnału z częstotliwością 1,02 GHz. Akademicy mówią, że nie należy się spodziewać, by układy scalone z nanorurkami trafiły w najbliższym czasie na rynek. Trzeba włożyć jeszcze sporo pracy zarówno w produkcję nanorurek o odpowiednich parametrach i projekt samego układu. Nanorurki wykorzystane w prototypie były dość duże (były wielkości obecnie używanych połączeń miedzianych) i nie charakteryzowały się odpowiednią czystością. Zrobiliśmy znaczący krok, ale to prototyp - mówi Close. Przemysł od dawna czekał na jego stworzenie, by móc naprawdę posuwać się naprzód - dodaje.
  10. Na University of Michigan powstało oprogramowanie, które wyszukuje błędy w układach scalonych i proponuje najlepszy sposób ich naprawienia. Może ono przyczynić się do powstania doskonalszych chipów. Błędy w układach to problem, który coraz bardziej dotyczy ich wytwórców. Im bardziej miniaturyzują układy scalone, tym więcej błędów w nich powstaje. Obecnie usunięcie usterek z prototypowego procesora może trwać nawet rok, co znacznie opóźnia jego rynkowy debiut i zwiększa koszty produkcji. Wspomniane oprogramowanie nie tylko skróci cykl produkcyjny i obniży koszty, ale spowoduje też, że na rynek będą trafiały układy z mniejszą liczbą błędow. Profesor Rob Rutenbar z Carnegie Mellon University, tak mówi o błędach: To wciąż nierozwiązany problem. Prawdopodobnie Intel ma jakieś zaawansowane technologie [usuwania błędów – red.], ale o tym nie wspomina. Z tego, co wiemy, błędy takie usuwa się ręcznie. Nie jest to proces mocno zautomatyzowany. Dodaje przy tym, że istnieje bardzo mało fachowej literatury na temat błędów występujących w półprzewodnikach. Z kolei profesor Igor Markov z University of Michigan zauważa, że ręczne usuwanie błędów to metoda bardzo niedoskonała i prawdopodobnie wszystkie układy scalone, które trafiają na rynek, zawierają błędy. Przypomina, że na stronie Intela można znaleźć spis 130 usterek sprzętowych, które występują w laptopach. Większość z nich można usunąć za pomocą odpowiedniego oprogramowania, ale około 20 nie można poprawić. Eksperci zauważają, że obecnie usunięcie błędu jest niezwykle trudne. Gdy już się go zidentyfikuje, to nie zawsze wiadomo, w jaki sposób należy go poprawić. Natura usterek może być bardzo różna – od zbyt blisko siebie wydrukowanych ścieżek, po tranzystory umieszczone w nieodpowiednich miejscach. Po naprawieniu jednej usterki często okazuje się, że jej poprawienie spowodowało powstanie innego błędu. Wprowadzanie poprawek kosztuje kolejne miliony dolarów, co oczywiście odbija się na cenie gotowego produktu. Obecnie podczas testów inżynierowie przepuszczają przez prototyp sygnały elektryczne i szukają w nich nieprawidłowości. Na tej podstawie starają się poprawić układ. Oprogramowanie, które powstało w Michigan, samodzielnie testuje chipy i szuka błędów. Gdy je znajdzie, określa, w których częściach procesora powstały i testuje te części. W ten sposób, wykluczając kolejne fragmenty układu, jest w stanie precyzyjnie określić miejsce, które należy poprawić. Gdy już znajdzie błąd, przeprowadza symulacje różnych metod jego poprawienia i proponuje tę najskuteczniejszą. Profesor Rutenbar mówi, że jedną z największych zalet programu jest fakt, iż podaje on często rozwiązania niezgodne z naszą intuicją. Pewne błędy człowiek naprawiłby zupełnie inaczej, niż proponuje to program. Jednak metody zaproponowane przez oprogramowanie, okazują się równie skuteczne, ale tańsze i szybsze w wykonaniu. Gdyby to człowiek miał zdecydować, raczej nie wpadłby na takie rozwiązanie – mówi Rutenbar. Testy wykazały, że program potrafi znaleźć i naprawić około 70% poważnych błędów. Wyszukiwanie konkretnej usterki zajmuje mu nie, jak ludziom, tygodnie, ale kilka dni.
  11. Sony prawdopodobnie zamierza sprzedać Toshibie swój oddział zajmujący się produkcją układów scalonych. Firma chce skupić się na swoim głównym rodzaju działalności gospodarczej – produkcji elektroniki użytkowej. Japońskie przedsiębiorstwo chciałoby uzyskać za swoje zakłady około 870 milionów dolarów. Odpowiednia umowa zostanie prawdopodobnie podpisana w ciągu najbliższych kilku miesięcy. Jednocześnie Sony i Toshiba stworzą spółkę, która będzie zajmowała się produkcją chipów. Obecnie Sony Kyushu Semiconductor Corp. ma w ofercie układy wykonywane w technologiach 65, 90, 180, 250 i 350 nanometrów. Gdy w bieżącym roku Sony wycofało się ze współpracy nad nowymi układami z NEC-em i Toshibą, stało się jasne, iż firma chce w ogóle opuścić rynek układów scalonych. Na rynku tym do osiągnięcia zysków konieczne jest utrzymanie wysokiego poziomu sprzedaży. Tymczasem ani konsola PlayStation 3, ani odtwarzacze Blu-ray nie stały się takim przebojem rynkowym, by Sony opłacało się samodzielnie produkować podzespoły.
  12. NASA stworzyła wyjątkowo wytrzymały układ scalony. Może on nieprzerwanie pracować przez 1700 godzin w temperaturze 500 stopni Celsjusza. Wszystkie używane obecnie układy scalone wymagają chłodzenia. Te, które pracują najbardziej intensywnie i są najbardziej wydajne – procesory i układy graficzne – mają do dyspozycji własne, często bardzo skomplikowane zestawy chłodzące. Tymczasem naukowcy z NASA postanowili stworzyć chip, który byłby w stanie przez długi czas pracować w bardzo niekorzystnych warunkach. Do wyprodukowania układu wykorzystano węglik krzemu, który jest bardzo odporny na wysokie temperatury. NASA zauważa, że opracowanie chipa to ważny krok w kierunku stworzenie elektroniki odpornej na ekstremalne warunki, które można napotkać podczas eksploracji kosmosu. Co więcej, nie trzeba go chłodzić, więc projektowanie urządzeń na potrzeby badań będzie znacznie prostsze. Chip może kontrolować reakcje spalania w silnikach rakietowych czy sterować robotami na powierzchni takich planet jak np. Wenus. Nowy układ znajdzie również zastosowanie na naszej planecie. Będzie można go wykorzystać np. do sterowania wiertłami za pomocą których poszukiwana jest ropa czy gaz, uczeni z NASA wspominają też o zamontowaniu go w silnikach samochodowych.
  13. Akademicy z Purdue University, którzy prowadzą finansowane przez Intela badania, poinformowali, że wykorzystanie jonicznego wiatru do wymiany ciepła aż o 250% usprawnia chłodzenie układów scalonych. Naukowcy stworzyli prototypowy silnik wiatrowy, dzięki któremu pokonano zjawisko polegające na pozostawaniu nagrzanych molekuł powietrza w pobliżu układu. Prototyp silnika składa się z dwóch elektrod umieszczonych po obu stronach chipa. Różnica napięcia pomiędzy elektrodami wynosiła tysiąc woltów, co spowodowało, że molekuły powietrza zostały naładowane i powstał joniczny wiatr przesuwający się nad powierzchnią całego układu. Zwykle dzieje się tak, że powietrze, utrzymując się w naturalny sposób w pobliżu powierzchni układu utrudnia jego chłodzenie. Jeśli udałoby się zintegrować joniczny silnik wiatrowy z chipem, powietrze to można by usunąć, a wydajność obecnie stosowanych układów chłodzących zwiększyłaby się dzięki temu o 250 procent. Uczeni pracują teraz nad zmniejszeniem napięcia koniecznego do wywołania jonicznego wiatru oraz nad zminiaturyzowaniem samego silnika. Na potrzeby laboratoryjnych eksperymentów obie elektrody umieszczono w odległości 10 milimetrów od boków układu i podłączono je do napięcia rzędu tysięcy woltów. Podczas testu układ, który tradycyjnymi metodami udało się schłodzić do 60 stopni Celsjusza po włączeniu silnika osiągnął temperaturę 35 stopni. Obecnie naszym zadaniem jest zmniejszenie odległości pomiędzy obiema elektrodami – mówi profesor Suresh Garimella. Będą znajdowały się one w odległości nie milimetrów a mikronów od układu scalonego. Uczeni twierdzą, że w ciągu dwóch lat opracują nowy prototypowy silnik, który będzie działał przy znacznie niższych napięciach. Purdue University od lat prowadzi badania nad technikami jonicznego wiatru. Są one finansowane przede wszystkim przez National Science Foundation.
  14. Naukowcy IBM-a wykorzystali naturalne procesy formowania się płatków śniegu, muszli i zębów do stworzenia układów scalonych przyszłej generacji. To, co podpatrzyli w naturze, pozwoliło im zbudować układ scalony, w którym poszczególne połączenia są odizolowane od siebie za pomocą próżni. Obecnie ścieżki w układach scalonych tworzy się z miedzi, która otoczona jest izolatorem. Cały proces jest dość skomplikowany i wymaga stworzenia odpowiedniej przesłony (tzw. maski), w której wycięty jest wzór rozmieszczenia ścieżek i otworów. Promień lasera, przechodząc przez maskę, rysuje ten wzór na krzemie. Następnie krzem poddaje się jeszcze odpowiedniej obróbce chemicznej. Wynalazek IBM-a pozwala zrezygnować z maski i wytrawiania krzemu światłem. Naukowcy Błękitnego Giganta opracowali odpowiednią mieszaninę składników, którą pokrywa się odpowiednio przygotowany krzem, a następnie całość poddaje wypiekaniu. Podczas tego procesu powstaje wzór, który tym różni się od naturalnego (np. z płatków śniegu), że jest powtarzalny. Technika IBM-a pozwala na stworzenie miliardów identycznych otworów o średnicy 20 nanometrów. Gdy otwory już powstały usunięto z nich szkło węglowo-krzemianowe, tworząc w ten sposób próżnię pomiędzy ścieżkami miedzi. Działa ona jak izolator, a dzięki niej sygnały elektryczne biegną o 35% szybciej niż w analogicznych układach stworzonych za pomocą tradycyjnych metod. Przy tej samej prędkości przepływu sygnałów układ wymaga natomiast o 15% mniej energii. Cały proces można zastosować na standardowych liniach produkcyjnych CMOS i nie wymaga on ani ich przebudowy, ani inwestowania w nowe urządzenia.
  15. IBM ma zamiar na masową skalę wykorzystywać nową technologię łączenia układów scalonych i ich części. Dzięki temu Błękitny Gigant chce poprawić ich wydajność i jednocześnie zmniejszyć pobór mocy. Technologia TSV (through-silicon vias) pozwala na łączenie zarówno procesora i pamięci, jak i rdzeni procesora ze sobą. Połączenie jest realizowane przez tysiące niewielkich przewodów, którymi wędrują dane. Obecnie zadania te spoczywają na urządzeniach zwanych szynami, które jednak często ulegają przeciążeniu. TSV pozwala na przesłanie większej ilości danych w ciągu sekundy, a pobór mocy jest przy tym niższy niż w przypadku szyn. IBM nie jest pierwszą firmą, która chce wykorzystać TSV. Wspominał już o tym Intel przy okazji swojego 80-rdzeniowego procesora. IBM ma natomiast zamiar zastosować nową technologię na masową skalę. Pierwsze próbki układów z TSV trafią do klientów jeszcze w bieżącym roku, a w 2008 zacznie się ich masowa produkcja. IBM ocenia, że w układach wykonanych z krzemu domieszkowanego germanem (tzw. rozciągnięty krzem) uda się zaoszczędzić nawet 40% energii. W układach z technologią TSV zostaną nawiercone mikroskopijne otwory, przez które zostanie przeciągnięte okablowanie z wolframu. Badacze IBM-a mają nadzieję, że w ciągu 3-5 lat dzięki TSV uda się połączyć pamięć bezpośrednio z procesorem, bez konieczności stosowania kontrolera pamięci. Powinno to zwiększyć wydajność o dalsze 10%, a pobór mocy zmniejszyć o 20%. Błękitny Gigant pokłada tak wielką nadzieję w nowej technologii, że planuje zastosowanie jest w swoich superkomputerach BlueGene. TSV pozwoli też na zmianę architektury płyt głównych. Obecnie niektóre firmy budują je w ten sposób, że łączą układają kości jedną na drugiej. Pozwala to zaoszczędzić miejsca, ale układy łączą się ze sobą za pośrednictwem szyn, więc nie ma zysku wydajności. TSV pozwoli pozbyć się szyn, a tym samym zwiększyć wydajność. Ponadto, dzięki likwidacji szyn możliwe będą dalsze oszczędności miejsca (układy będą połączone za pomocą poprowadzonych w środku kabli). Rozpowszechnienie się TSV doprowadzić może do zmiany sposobu sprzedaży układów producentom płyt głównych. Będą oni mogli kupić od takich firm jak IBM czy Intel gotowe połączone ze sobą zestawy, składające się z procesora, chipsetu i pamięci. To jedna z możliwych metod zwiększenia wydajności systemów komputerowych. Wśród innych warto wymienić technologię produkcji trójwymiarowych układów pamięci opracowaną przez Matrix Semiconductor czy technologię rozwijaną przez Sun Microsystems, która umożliwia przesyłanie danych pomiędzy odpowiednio blisko znajdującymi się układami. Interesująca jest również technologia Loki, firmy Rambus, która zapewnia przesył danych z prędkością 6,25 gigabita na sekundę przy poborze mocy rzędu 2,2 miliwata na gigabit. Niedawno Rambus pokazał prototypowy system Loki, który przez 40 godzin był w stanie pracować na dwóch bateriach AA i przesłał w tym czasie 3,6 petabita (3,6 miliona gigabitów) danych. Wracając do TSV warto wspomnieć, że Intel rozwija tą technologię od 2005 roku. Firma nie jest jednak jeszcze gotowa do jej wykorzystania na masową skalę. Inżynierowie Intela chcą użyć TSV do połączenia w jednej obudowie procesora i pamięci operacyjnej, to jednak rodzi poważne kłopoty związane z wydzielaniem ciepła. Wszystko więc wskazuje na to, że na rynek TSV trafi po raz pierwszy dzięki IBM-owi.
  16. Z najnowszych danych dostarczonych przez PricewaterhouseCoopers wynika, że chińska produkcja urządzeń elektronicznych była odpowiedzialna za 90% światowego wzrostu zapotrzebowania na półprzewodniki. Po raz pierwszy w historii chiński rynek był większy od rynku japońskiego, amerykańskiego czy europejskiego. Specjaliści oceniają, że do roku 2010 do Chin będzie należało 33% rynku półprzrewodników. Chiny zyskują na znaczeniu jako coraz ważniejszy wytwórca elektroniki konsumenckiej. W Państwie Środka szybko rośnie zapotrzebowanie na układy scalone. Jeszcze w roku 2004 producenci sprzętu zakupili 20% wszystkich kości, które trafiły do Chin. Rok później kupili już 26% wszystkich układów. Coraz więcej układów scalonych powstaje też w samych Chinach. Mimo to tylko niewielka ich część produkowana jest przez chińskie firmy. Na liście 70 największych producentów, którzy dostarczyli półprzewodniki do Państwa Środka nie ma ani jednej chińskiej firmy. Chińskie przedsiębiorstwa nie są obecnie w stanie konkurować z zagranicznymi firmami. Wystarczy wspomnieć, że każdy z 10 największych dostawców półprzewodników sprzedał w 2005 roku w samych tylko Chinach swoje układy o wartości ponad miliarda dolarów. W tym samym czasie największy chiński producent układów scalonych osiągnął obrony mniejsze niż 200 milionów USD.
  17. Dzięki opracowanej właśnie metodzie uzyskiwania cienkiej warstwy krzemu możliwe będzie tworzenie zaawansowanych układów scalonych niemal na każdej powierzchni. Uczeni z University of Wisconsin udowodnili, że rozciągnięty krzem, stosowany od kilku lat przez Intela, może zostać wyprodukowany w tak cienkiej warstwie, iż staje się elastyczny. Obecnie stosowane elastyczne układy scalone wykonuje się z polimerów. Materiały te nie zapewniają jednak tak dużej wydajności jak krzem. Rozciągnięty krzem uzyskuje się poprzez jego fizyczne rozciągnięcie bądź domieszkowanie germanem. Takie zabiegi powodują, że odległości pomiędzy poszczególnymi atomami materiału stają się większe, ułatwiając przepływ elektronów, co pozwala na budowę bardziej wydajnych układów. Dotychczas wykorzystuje się warstwy rozciągniętego krzemu, których grubość liczy się w mikrometrach (milionowych częściach metra). Zespół profesora Maxa Lagallyego opracował metodę, która pozwala na wykonanie warstwy takiego krzemu o grubości kilkuset nanometrów (miliardowa część metra) oraz przeniesienie jej na inną powierzchnię. Aby uzyskać odpowiednio cienką warstwę rozciągniętego krzemu, Lagelly wraz ze współpracownikami nałożyli na gotowy krzemowy plaster warstwę tlenku krzemu, a na nią kolejną warstwę krzemu. Na krzem został nałożony następnie krzem z domieszką germanu, czyli rozciągnięty krzem. Jego atomy musiały jednak dostosować swoje położenie do leżących poniżej wielu warstw krzemu (warstwa dodatkowa + warstwy pod tlenkiem krzemu) i uległy ścieśnieniu. Na taką ściśniętą warstwę nałożono kolejną, znowu samego krzemu. W ten sposób powstał rodzaj "kanapki" o grubości 250 nanometrów. "Kanapka" wykazywała jednak właściwości zwykłego krzemu, gdyż, jak wspomniano, warstwa krzemu domieszkowanego germanem uległa ścieśnieniu. Aby ją "uwolnić", całość zanurzono w kwasie fluorowodorowym, który rozpuścił warstwę tlenku krzemu, mocującą całość do plastra. W ten sposób od całości oddzielone zostały trzy połączone ze sobą warstwy o łącznej grubości 250 nanometrów: krzem-krzem z germanem-krzem. Znajdujący się w środku domieszkowany krzem zaczął się rozprężać, rozciągając jednocześnie warstwy nad i pod nim. Uzyskano dzięki temu cienki elastyczny plaster rozciągniętego krzemu, który można było przenieść na elastyczną powierzchnię. Lagally uważa, że pierwsze produkty wykonane za pomocą jego technologii trafią na rynek w ciągu najbliższych lat. Początkowo będą nimi najprawdopodobniej elastyczne systemy prezentacji obrazu i wyświetlacze wysokiej jakości.
  18. HP poinformowało o wyprodukowaniu tak małego układu scalonego służącego do nawiązywania łączności bezprzewodowej, że zmieści on się do niemal każdego urządzenia. Obecnie nie istnieje równie mały chip, który charakteryzowałby się równie dużą pojemnością pamięci i byłby w stanie równie szybko odbierać i wysyłać dane. Wśród potencjalnych zastosowań układu wymienia się noszone na nadgarstku urządzenie, które przechowywałyby dane medyczne pacjentów w szpitalach. Układ przydatny też będzie w walce z podrabianiem medykamentów, posłuży do lepszego zabezpieczenia dowodów osobistych czy paszportów, umożliwi umieszczenie dodatkowych informacji w drukowanych dokumentach, czy też, dołączany do kartki lub fotografii z wakacji, posłuży do przekazywania zawartości audiowizualnej. Eksperymentalny układ, nazwany "Memory Spot", zbudowany został w oparciu o technologię CMOS. Jego wymiary, wraz z wbudowaną anteną, wynoszą 2x4 milimetry. Niewykluczone, że w sprzedaży znajdzie się m.in. w formie samoprzylepnych naklejek, które można będzie umieścić na każdej powierzchni. Memory Spot uwalnia cyfrową zawartość od pecetów i Internetu i pozwala wykorzystywać ją w każdej sytuacji – mówi, Ed McDonnell z HP Labs. Prędkość transferu danych, którą można osiągnąć wykorzystując Memory Spot wynosi... 10 megabitów na sekundę. Pojemność pamięci działających prototypów wahała się od 256 kilobitów do 4 megabitów. Może więc przechowywać krótkie klipy wideo, zdjęcia czy dziesiątki stron tekstu. W przyszłości pojemność układu ma wzrosnąć. Informacje można zapisywać i odczytywać za pomocą urządzenia, które może zostać w budowane w telefon komórkowy, palmtopa, aparat fotograficzny, drukarkę czy jakiekolwiek inne urządzenie. Memory Spot jest całkowicie samodzielnym urządzeniem, nie wymaga też żadnego stałego źródła energii. Zasilane jest indukcyjnie poprzez urządzenie zapisująco-odczytujące w czasie pobierania lub zachowywania informacji w chipie.
×
×
  • Dodaj nową pozycję...