Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'IBM' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 150 wyników

  1. IBM we współpracy z dwoma uniwersytetami pracuje nad opensource’owymi technologiami dla osób starszych. W prace zaangażowane jest T.J. Watson Research Center oraz profesorowie Peter Gregor z University of Dundee (Wielka Brytania) i Sara Czaja z University of Miami (USA). Ich celem jest opracowania oprogramowania, które będzie uwzględniało potrzeby pracowników w zaawansowanym wieku. W krajach rozwijających się spada liczba urodzeń, a co za tym idzie, spada liczba młodych osób wchodzących na rynek pracy. Starsi pracownicy zyskują więc na znaczeniu. Specjaliści uważają, że jeśli tylko otrzymają odpowiednie narzędzia, to będą w stanie poradzić sobie na współczesnych stanowiskach pracy, wymagających znajomości nowoczesnych technologii. Narzędzia, które powstaną w wyniku współpracy Błękitnego Giganta z uniwersytetami mają być udostępniane za darmo. IBM ma duże doświadczenie w podobnych projektach. Firma od lat rozwija oprogramowanie, które uczynią witryny WWW bardziej przyjaznymi dla starszych użytkowników.
  2. Na liście 500 najpotężniejszych superkomputerów świata znalazła się jedna polska maszyna. To komputer BladeCenter HS21 Cluster autorstwa IBM-a. Zbudowany został przy użyciu 3-gigahercowych procesorów Xeon 51xx i osiąga wydajność 6,35 teraflopsa. Maszyna należy do jednej z firm telekomunikacyjnych i zajmuje 428. pozycję na liście. Poza tym na 30., jubileuszowej, liście zaszły znaczące zmiany. W pierwszej dziesiątce znalazło się aż pięć nowych maszyn, a jedna ze „starych” została znacząco zmodyfikowana. Tym zmodyfikowanym komputerem jest BlueGene/L IBM-a, który już od trzech lat zajmuje 1. pozycję. Po rozbudowie osiągnął on w teście Linpack wydajność rzędu 478,2 TFlops (478,2 biliona operacji zmiennoprzecinkowych na sekundę). Jeszcze pół roku temu jego wydajność wynosiła 280,6 TFlops. Na drugim miejscu znajdziemy kolejną maszynę zbudowaną przez Błękitnego Giganta. To debiutant, system BlueGene/P, zwany Jugene. Superkomputer zainstalowany jest w niemieckim Forschungszentrum Juelich i osiąga wydajność rzędu 167,3 TFlops. Trzecie miejsce przypadło kolejnemu debiutantowi, komputerowi SGI Altix ICE 8200 z właśnie tworzonego centrum superkomputerowego w Nowym Meksyku. Jego wydajność to 126,9 teraflopsów. Czwartą pozycję na liście po raz pierwszy w historii zajął komputer z Indii. Maszyna HP Cluster Platform 3000 BL460c jest w stanie wykonać 117,9 biliona operacji zmiennoprzecinkowych w ciągu sekundy. Na piątym miejscu uplasował się kolejny debiutant – superkomputer HP Cluster Platform BL460c o wydajności 102,8 teraflopsa. Należy on do jednej ze szwedzkich agend rządowych. Ostatnim debiutantem wśród 10 rekordzistów jest Cray XT4. Znalazł się on na dziewiątym miejscu, a jego wydajność to 85,4 teraflopsa. Największymi producentami superkomputerów są IBM i HP. Pierwszy z wymienionych koncernów zbudował 232 (46,4%) maszyn z listy TOP500, a drugi jest autorem 166 (33,2%) systemów. Obecnie, by dostać się na listę TOP500 superkomputer musi charakteryzować się wydajnością co najmniej 5,9 TFlops. Jeszcze pół roku temu wystarczyło 4,0 teraflopsów. System, który obecnie znajduje się na ostatnim miejscu, jeszcze pół roku temu zajmowałby 255. pozycję na liście. Obecny przyrost mocy jest większy od średniego. Moc obliczeniowa wszystkich komputerów na liście wynosi w sumie 6,97 petaflopsów. Jeszcze pół roku temu było to 4,92 PFlops, a przed rokiem niemal dwukrotnie mniej – 3,54 PFlops. Większość superkomputerów używa procesorów wielordzeniowych. Najbardziej imponującym wzrostem zainteresowania mogą poszczycić się intelowskie czterordzeniowce z rodziny Clovertown. Przed pół roku wykorzystywało je 19 superkomputerów, teraz znajdują się w 102 maszynach. Aż 354 superkomputery (70,8%) korzystają z procesorów Intela. Jeszcze nigdy w historii udział tej firmy w liście TOP500 nie był tak duży. Pół roku temu były one stosowane w 289 systemach (57,8%). Drugie miejsce zajmują układy AMD, które zainstalowano w 78 komputerach (15,6%). Oznacza to spadek w porównaniu z listą sprzed 6 miesięcy, kiedy to CPU AMD były obecne w 105 superkomputerach (21%). Trzecie miejsce należy do IBM-a. Procesory Power wykorzystano w 61 systemach (pół roku temu było to 85 superkomputerów). Największym krajem pod względem liczby zainstalowanych superkomputerów pozostają Stany Zjednoczone. Na ich terenie stoją 284 maszyny z listy TOP500. Drugie miejsce zajmują kraje europejskie (149 systemów), a trzecie Azja (58 superkomputerów). W Europie najwięcej tego typu maszyn jest używanych w Wielkiej Brytanii (48) i Niemczech (31). Najpopularniejszą rodziną systemów operacyjnych jest Linux. Korzysta z niego aż 426 superkomputerów. Drugie pod względem popularności są systemy mieszane (34 maszyny) oraz Unix (30 komputerów). Warto też zauważyć, że rośnie udział systemów Microsoftu. Koncern z Redmond poważnie zainteresował się rynkiem HPC i w chwili obecnej system Windows Compute Cluster Server 2003 zainstalowano na 6 superkomputerach. Jeszcze pół roku temu był on zainstalowany na 2 maszynach, a przed rokiem na żadnej.
  3. Lenovo ogłosiło, że porzuci markę IBM wcześniej, niż planowało. Jeszcze przed Igrzyskami Olimpijskimi w Pekinie ze sklepowych półek zaczną znikać komputery sygnowane przez Lenovo/IBM. Chińska firma przed trzema laty kupiła od IBM-a oddział zajmujący się produkcją pecetów i notebooków. Od początku planowała porzucenie logo IBM. Nastąpi to jednak wcześniej, niż przewidywano, gdyż rynek bardzo dobrze przyjął komputery Lenovo. Obecnie Lenovo jest czwartym na świecie producentem komputerów. W ubiegłym kwartale firma odnotowała przychody w wysokości 4,4 miliarda USD, czyli o 20% więcej, niż przed rokiem. W tym czasie dochody firmy wzrosły o 300 procent i wynoszą 105 milionów dolarów.
  4. IBM opracował sposób na wykorzystanie wadliwych plastrów krzemowych w roli ogniw słonecznych. Każdego dnia w fabrykach produkujących układy scalone do kosza wędruje wiele plastrów, na których pojawiły się błędy. Plastry takie były wyrzucane na wysypisko. Można było również usunąć z nich nadrukowane obwody i odsprzedać. Naukowcy IBM-a wymyślili specjalny proces, który umożliwia sprzedaż wadliwych plastrów producentom paneli słonecznych, którzy mogą je wykorzystać. Musimy pamiętać, że wadliwie wyprodukowanego plastra nie można po prostu odsprzedać każdemu chętnemu, gdyż konkurencja, mając w ręku taki gotowy plaster, mogłaby ukraść producentowi jego własność intelektualną. Opracowany przez IBM-a proces pozwala na szybkie usunięcie przez producenta tych elementów, które chce chronić przed wścibskim okiem. IBM na razie nie zdradza szczegółów swojego procesu. Zapewnia jednak, że udostępni wszelkie niezbędne informacje producentom paneli słonecznych. Prace Błękitnego Giganta już zostały nagrodzone prestiżową 2007 Most Valuable Pollution Prevention Award przyznawaną przez Narodową Radę Zapobiegania Zanieczyszczeniom (The National Pollution Prevention Roundtable – NPPR). Dzięki wynalazkowi IBM-a z jednej strony zmniejszy się liczba odpadów, gdyż plastry nie będą trafiały na wysypisko, a jednocześnie powinna spaść cena ogniw słonecznych. Trzeba bowiem pamiętać, że producenci tych ogniw również korzystają z krzemu i konkurują o ten materiał z producentami elektroniki. Wyższy popyt oznacza zwykle wyższą cenę. Teraz, gdy możliwe stało się produkowanie ogniw słonecznych z materiału odpadowego, jakim są wadliwe plastry krzemowe, cena ogniw powinna spaść. Dzięki temu ich zakup stanie się bardziej opłacalny, technologia pozyskiwania energii ze Słońca się rozpowszechni, co z kolei spowoduje zmniejszenie emisji zanieczyszczeń.
  5. Sukces iPhone’a spowodował, że w ostatnim kwartale akcje Apple’a zyskały 7 procent i rynkowa wartość firmy przekroczyła wartość IBM-a czy Intela. Koncern Jobsa znalazł się na czwartym miejscu najbardziej wartościowych przedsiębiorstw z branży IT. Pierwsze miejsce zajmuje Microsoft, którego rynkowa wartość to 290 miliardów dolarów. Drugie jest Google (208 mld USD), a trzecie Cisco (189 miliardów). Firma Jobsa wyceniona została przez rynek na 162 miliard dolarów. To więcej niż Intel (156 miliardów), IBM (155 mld) czy Nokia (150 mld).
  6. IBM i MediaTek ogłosiły rozpoczęcie wspólnych prac nad technologią, która zapewni błyskawiczny bezprzewodowy transfer obrazu w wysokiej rozdzielczności pomiędzy komputerem, urządzeniem przenośnym czy telewizorem. Technologia wykorzystania fal radiowych o długości liczonej w milimetrach (mmWave) ma umożliwić transfer z prędkością co najmniej 100-krotnie większą, niż przewidują to obecnie wykorzystywane standardy dla łączności Wi-Fi. W ten sposób można przesłać 10 gigabajtów danych w ciągu zaledwie 5 sekund. IBM prowadzi prace nad technologią mmWave od czterech lat. Biorą w nim udział laboratoria z USA i Japonii.
  7. Naukowcom z IBM-owskiego T.J. Watson Research Center udało się wyprodukować grafenowy tranzystor polowy. Dokonali tego za pomocą pojedynczej warstwy atomów węgla umieszczonych na krzemie. Sukces uczonych nie oznacza, że wkrótce do sklepów trafią układy scalone wykorzystujące tego typu tranzystory. Przed naukowcami jeszcze 10 lat badań. Jednak już teraz pracują oni nad wdrożeniem tej technologii do urządzeń konstruowanych przez DARPA (Agencja Badawcza Zaawansowanych Projektów Obronnych). Chcieliśmy porównać prace nad tranzystorami z nanorurek węglowych z tranzystorami grafenowymi. Co prawda tranzystory grafenowe nie są tak wydajne jak te z nanorurek, jednak w grafenie elektrony poruszają się co najmniej 10-krotnie szybciej, niż w krzemie – mówi Phaedon Avouris z IBM-a. Doktor Marcin Sadowski z LCMI CNRS w Grenoble tak opisuje grafen na stronie Wydziału Fizyki Uniwersytetu Warszawskiego: Jednym z bardziej obiecujących nowych materiałów, które się ostatnio pojawiły, jest grafen - dwuwymiarowa warstwa atomów węgla, ułożonych w heksagonalną sieć. Wyjątkowa struktura elektroniczna grafenu powoduje niespotykane dotąd właściwości fizyczne, a prostota tego materiału oraz metod jego otrzymywania pobudzają wyobraźnię i zainteresowanie licznych badaczy na świecie. Elektrony zachowujące się jak relatywistyczne cząstki o zerowej masie spoczynkowej powodują, że z grafenem wiązane są nadzieje na ciekawą nową fizykę w ciele stałym z jednej strony, oraz na nowe zastosowania - w elektronice i nie tylko - z drugiej. Naukowcom IBM-a udało się stworzyć w grafenie „tunel’. Wykorzystali do tego cienką „nanowstążkę” grafenu o średnicy zaledwie 20 nanometrów. W ten sposób powstał rodzaj grafenowego przewodu, którym mogły płynąć elektrony. Co ważne, skonstruowany w ten sposób tranzystor został zbudowany dzięki stosowanym obecnie technikom litograficznym. Obecnie pracuje on w bardzo niskich temperaturach. Nanorurki i grafen to tak naprawdę to samo, jednak nanorurki mają dobrze określone brzegi. Tymczasem precyzyjne pocięcie grafenu na nanowstążki jest bardzo trudne – mówi Avouris. Jednak za pomocą konwencjonalnych technik mamy nadzieję, że zmniejszymy średnicę nanowstążki i otrzymamy w ten sposób grafenowy tranzystor polowy, pracujący w temperaturze pokojowej – dodaje. Na potrzeby DARPA uczeni chcą zmniejszyć średnicę przewodu do zaledwie 2 nanometrów.
  8. Naukowcy pracujący w szwajcarskim oddziale IBM-a w Zurychu stworzyli oprogramowanie pozwalające na uzyskanie trójwymiarowych awatarów pacjentów. Dane z tradycyjnych kartotek medycznych przechowywanych w formie cyfrowej są powiązane z trójwymiarową wirtualną postacią. ASME (Anatomic and Symbolic Mapper Engine) pozwala medykowi kliknąć myszką na wybranej części ciała awatara i zdobyć potrzebne informacje. To jak Google Earth, ale dla ciała. Mając nadzieję na przyspieszenie zwrotu w kierunku elektronicznego zapisu danych medycznych, chcieliśmy sprawić, by były one łatwo osiągalne dla pracowników służby zdrowia. Dlatego połączyliśmy dane medyczne z reprezentacją wizualną. Wyszliśmy z założenia, że jak najprostszy sposób manipulowania nimi może poprawić jakość opieki nad pacjentem - wyjaśnia nadzorujący przebieg projektu Andre Elisseeff. Lekarz, przeglądając konkretny obszar ciała pacjenta, będzie jednocześnie widział wszelkie wyniki badań (w tym zdjęcia wykonane różnymi technikami obrazowania medycznego). ASME korzysta również z SNOMEDU, usystematyzowanego słownika terminologii medycznej, który zawiera około 300 000 pojęć. Znakomicie poprawia on interakcje i łączy dane tradycyjne z obrazem 3D. Teraz naukowcy pracują nad zaimplementowaniem w ASME technologii mowy.
  9. Pracownicy włoskiego oddziału IBM-a planują pikietę przed.... wirtualną siedzibą firmy w Second Life. Zatrudnieni w Błękitnym Gigancie skarżą się, że olbrzymie zyski, jakie osiąga ich przedsiębiorstwo nie przekładają się na ich zarobki. Od wielu miesięcy negocjujemy, by IBM podniósł zarobki o 60 euro, zainwestował więcej w opiekę zdrowotną, ubezpieczenia i tak dalej – mówi Davide Barillari, przedstawiciel związków zawodowych. IBM proponuje podwyżkę o 6 euro oraz ograniczenie praw nowych pracowników. Ale to nie wszystko. Strajk jest związany z tym, że firma postanowiła ograniczyć premie, co oznacza, że każdy z pracowników straci w ciągu roku średnio 1000 euro – dodaje. Organizatorzy wirtualnego strajku informują, że odbędzie się on pomiędzy 25 a 30 września. Weźmie w nim udział około 500 awatarów reprezentujących pracowaników z 18 krajów. W Second Life znajduje się około 50 obiektów IBM-a. Barillari dodaje, że strajk to część większej akcji o nazwie „Unions 2.0”. Jej celem jest powołanie wirtualnych związków zawodowych.
  10. Niektórzy analitycy przewidują, że w ciągu najbliższych czterech lat aż 80% internautów będzie korzystało z wirtualnych światów. Grupa studentów pracuje w Irlandzkich biurach IBM-a nad technologią, która pozwoli na korzystanie z tych światów osobom niewidomym. Studenci opracowali dźwiękowy odpowiednik wirtualnego świata, wykorzystując dźwięk przestrzenny do oddania przestrzeni. Ich prace to część IBM-owskiej inicjatywy Extreme Blue, w ramach której grupy studentów współpracują przez 12 tygodni nad zadaniami, postawionymi przez badaczy Błękitnego Giganta. Projekt dla niewidomych, zwany jest Accessibility In Virtual Worlds (Ułatwienia dostępu w światach wirtualnych). IBM mówi, że na razie jest to praca koncepcyjna, ale projekt nie zostanie odłożony na półkę. Jego dalszym rozwojem zajmie się IBM-owskie Human Ability and Accessibility Center (Centrum ludzkich zdolności i ułatwień dostępu) w Teksasie. W swojej pracy studenci wykorzystują Active World, a nie popularny Second Life. Ten pierwszy zapewnia bowiem większą elastyczność. Active World to duży zestaw wirtualnych światów tworzonych przez użytkowników, którzy mogą je odwiedzać dzięki odpowiedniej wtyczce w przeglądarce. Colm O’Brien, jeden z członków zespołu pracującego nad Accessibility In Virtual Worlds wyjaśnia, że każdemu elementowi można przypisać dźwięk. Jeśli np. w pobliżu użytkownika znajdzie się drzewo, usłyszy on szum liści. Wirtualne postaci mogą również zostać wyposażone w sonar, który poinformuje je w jakim kierunku się poruszają oraz jaka odległość dzieli je od innych obiektów. W ramach projektu przygotowano też narzędzie zmieniające tekst na mowę, dzięki czemu niewidomi mogą kontaktować się z innymi mieszkańcami wirtualnego świata.
  11. IBM poinformował, że zaoferuje darmowe oprogramowanie dla biur. To kolejna firma, która chce rzucić wyzwanie Microsoftowi i uszczknąć mu nieco rynku pakietów biurowych. Z MS Office’m konkuruje w tej chwili nie tylko OpenOffice czy StarOffice. Także Google przygotował i rozszerza swój online’owy pakiet o nazwie Google Apps. IBM zaoferuje darmową wersję swojego Lotusa. Będzie ona nosiła nazwę Lotus Symphony. Błękitny Gigant nie poinformował, kiedy pakiet zostanie udostępniony.
  12. Badacze IBM-a i ETH Zurich (Eidgenössische Technische Hochschule Zürich – szwajcarski federalny instytut technologiczny) zademonstrowali technologię bardzo precyzyjnego nanodruku. Technika dokładnego nanoszenia miniaturowych cząsteczek pozwoli na łatwe produkowanie bioczujników, miniaturowych soczewek umieszczanych w układach scalonych czy nanokabli, które w przyszłości trafią do komputerów. Nowa technologia może zrewolucjonizować produkcję w skali nano. Obecnie nanocząsteczki uzyskuje się zwykle poprzez wycinanie ich z większych kawałków materiału. Opracowana właśnie technologia drukowania nie tylko ułatwia uzyskanie nanocząsteczki, ale umożliwia też proste łączenie różnych materiałów, takich jak metale, polimery, półprzewodniki i tlenki. Po raz pierwszy w historii naukowcom udało się nadrukować cząstki wielkości 60 nanometrów. Są więc one 100-krotnie mniejsze od czerwonej krwinki. Przekładając to osiągnięcie na język dostępnych do domowego użytku drukarek, rozdzielczość druku w nowej technologii wynosi 100 000 punktów na cal (dpi). Domowe drukarki pracują zwykle z rozdzielczością 600-1200 dpi. Pracownicy IBM-a i ETH Zurich, chcąc zademonstrować możliwości swojej techniki, wykorzystali 17-wieczny rysunek Roberta Fludda. Przedstawia on słońce, alchemiczny symbol złota. Naukowcy wydrukowali kopię dzieła Fludda, używając do tego celu 20 000 nanocząsteczek złota o średnicy 60 nanometrów każda. Uczeni wymieniają zalety swojej technologii. Dzięki niej możliwe będzie zadrukowywanie dużych powierzchni czujnikami, które posłużą do wykrywania i identyfikowania komórek czy markerów u pacjenta. Pozwolą na szybkie wykrycie komórek nowotworowych. Nanocząsteczki reagują ze światłem więc nowa technika pozwoli na drukowanie materiałów optoelektronicznych. Co więcej, możliwe będzie stworzenie soczewek tak małych, jak długość danej fali światła. Takie soczewki miałyby, jak zapewnia IBM, „niezwykłe właściwości”. Wynalazek można wykorzystać również do „hodowli” półprzewodzących nanokabli, które przydadzą się w układach scalonych przyszłości. Twórcy nowej technologii chcą ją rozwijać. Planują zwiększenie precyzji druku i mają nadzieję, iż uda im się nadrukowywać jeszcze mniejsze cząstki niż obecnie.
  13. IBM poinformował o dokonaniu dwóch przełomowych odkryć na polu nanotechnologii. Dzięki nim w przyszłości możliwe stanie się tworzenie urządzeń z podzespołów zbudowanych w skali atomowej. Pierwsze z odkryć to technologia umożliwiające zmierzenie magnetycznej anizotropii pojedynczego atomu. Skoro możemy ją zmierzyć, możemy też wykorzystać atom do przechowywania informacji. Dotychczas nikt nie potrafił zrobić tego w odniesieniu do pojedynczego atomu. Anizotropia to, jak wyjaśnia słownik Kopalińskiego występowanie różnych własności fizycznych danego ośrodka w różnych kierunkach (np. inna wytrzymałość drewna na rozerwanie wzdłuż, a inna w poprzek włókna). Dzięki możliwości jej mierzenia wiemy, czy dany atom może utrzymać specyficzną orientację. Jeśli tak, to może on być przełączany pomiędzy stanami reprezentującymi „0” i „1”. Tym samym możliwe stało się, przynajmniej teoretycznie, zbudowanie komórki pamięci składającej się z pojedynczego atomu. W przyszłości możliwe będzie wykorzystanie niewielkich atomowych matryc lub pojedynczych atomów do składowania danych. Naukowcy IBM-a wyliczają, że dzięki ich odkryciu urządzenie wielkości iPoda byłoby w stanie przechowywać całą zawartość serwisu YouTube czy też 30 000 pełnometrażowych filmów. Miniaturowe urządzenie przechowujące olbrzymie ilości danych znajdą mogłyby znaleźć zastosowania na nieznanych nam jeszcze polach. Drugie z osiągnięć IBM-a to stworzenie pierwszego w historii przełącznika składającego się z pojedynczej molekuły, którego przełączenie nie powoduje zmiany kształtu samej molekuły. Naukowcy zatrudnieni prze IBM-a pokazali, jak manipulować dwoma atomami wodoru w naftalocyjaninie, by przełączać je pomiędzy stanami „0” i „1”. Taki przełącznik to podstawowy element przyszłych miniaturowych układów scalonych, które byłyby mniejsze, szybsze i zużywałyby mniej energii niż obecnie wykorzystywane układy scalone. Co prawda już wcześniej naukowcy z IBM-a i innych firm pokazywali przełączniki zbudowane z pojedynczej molekuły, jednak ich przełączaniu towarzyszyła zmiana kształtu, co czyniło przełącznik nieprzydatnym do budowy układów scalonych. Dotychczasowe przełączniki molekularne (których pokazano zaledwie kilka), są złożonymi trójwymiarowymi strukturami. Fakt, że podczas przełączania zmieniają kształt powoduje, iż jest niezwykle trudno umieścić je na stałym podłożu. Tym razem, częściowo dzięki temu, iż zmiana kształtu nie zachodziła, udało się wykorzystać atomy wewnątrz jednej molekuły do przełączenia atomów w drugiej molekule. W ten sposób uzyskano podstawowy element logiczny. IBM podkreśla, że do zastosowania powyższych odkryć w praktyce jest jeszcze długa droga.
  14. IBM i TDK wspólnie pracują nad nowym rodzajem pamięci nieulotnej o nazwie spin torque transfer RAM (STT-RAM). Jednocześnie IBM przyznał, że nie widzi przyszłości przed technologią MRAM, nad którą dotychczas pracował. W układach STT-RAM prąd elektryczny przykładany jest do magnesu i zmienia kierunek pola magnetycznego. To z kolei decyduje o zmianie oporności, a różne poziomy oporności są interpretowane jako 1 lub 0. IBM i TDK obiecują, że w ciągu najbliższych 4 lat stworzą prototypowy układ STT-RAM wykonany w technologii 65 nanometrów. Nad pamięciami STT-RAM pracuje też firma Grandis, która chce zacząć ich sprzedaż już pod koniec przyszłego roku. IBM pracował dotychczas nad pamięciami magnetorezystywnymi (MRAM) jednak okazało się, że wyprodukowanie tego typu układów w technologiach posługujących się wielkościami bramki mniejszymi niż 65 nanometrów jest bardzo trudne. Błękitny Gigant nie zaoferował się na rynku układów MRAM, a firma Freescale Semiconductor, która ma w swojej ofercie kości MRAM nie sądzi, by technologia ta przetrwała długo. Obecnie prace nad pamięciami RAM przyszłej generacji idą więc w dwóch kierunkach. Jeden to STT-RAM, a drugi to układy zmiennofazowe. Ta druga technologia polega na podgrzewaniu do kilkuset stopni Celsjusza poszczególnych komórek pamięci. Materiał, z których są one zbudowane, zmienia wówczas swoją strukturę z krystalicznej na amorficzną. Struktura krystaliczna jest interpretowana jako 1, a amorficzna jako 0. Obie technologie, STT-RAM i pamięci zmiennofazowe, mają swoje plusy. STT-RAM pracują szybciej, a zmiennofazowe są bardziej gęste, pozwalają więc zapisać więcej informacji. Zaawansowane prace nad pamięciami zmiennofazowymi prowadzą Intel i STMicroelectronics, które powołały do życia firmę Numonyx. Z nieoficjalnych informacji wynika, że pierwsze układy zmiennofazowe mają wkrótce trafić na rynek.
  15. Sun i IBM, wieloletni rywale, podpisały umowę dotyczącą systemów operacyjnych. Żadna z firm nie chce ujawnić szczegółów tajemniczej umowy. Sun ma swój własny system operacyjny – Solaris. Firma próbuje go promować jako otwartą alternatywę dla Linuksa, jednak jej starania nie przynoszą spodziewanych rezultatów. Tym bardziej, że główni sprzedawcy serwerów, IBM, HP i Dell, nie są zainteresowani zaoferowaniem Solarisa swoim klientom. Oficjalnie o podpisaniu umowy poinformowali Jonathan Schwartz, prezes Suna, i Bill Zeitler, dyrektor IBM-owskiej grupy zajmującej się sprzętem. Może to oznaczać, iż w ramach umowy IBM zacznie sprzedawać serwery z Solarisem. Trudno w tej chwili osądzać, co może to oznaczać. Dotychczas głównym systemem używanym przez IBM-a jest Linux. Błękitny Gigant zaczął jednak rozprowadzać swoje produkty z systemem Windows. Teraz w jego ofercie może znaleźć się Solaris.
  16. Opublikowano kolejną edycję listy TOP500, czyli zestawienia 500 najpotężniejszych superkomputerów świata. W bieżącej edycji nie znalazł się jeszcze, co zrozumiałe, Blue Gene/P, o którym pisaliśmy wczoraj. Numerem 1. wciąż więc jest Blue Gene/L. Na liście zaszły znaczne zmiany, szczególnie w czołówce. Swoją pozycję umocniła firma Cray, której superkomputery zajęły 2. i 3. miejsce. Jedną z ciekawych zmian jest fakt, że w czołowej 500 znalazły się dwie maszyny wykorzystujące Windows Compute Cluster Server 2003. Dotychczas na superkomputerach spotykane były pojedyncze instalacje systemów Windows 2000 czy Windows Server 2003. Nie cieszyły się one zbytnią popularnością o czym świadczy chociażby fakt, że na liście z października 2006 nie było już żadnego superkomputera z systemem Microsoftu. Windows Compute Cluster Server 2003 to pierwszy system z Redmond, który powstał z myślą o najbardziej wydajnych maszynach. Najbliższe edycje listy (publikowana jest ona co pół roku), powinny pokazać nam, czy Microsoft ma szanse na zaistnienie na rynku superkomputerów. Niekwestionowanym liderem zestawienia systemów operacyjnych dla superkomputerów jest jednak Linux, który zainstalowano na 77,8% maszyn z TOP500. Drugie miejsce zajmuje Unix (12%). Maszyna, aby zostać wpisaną na obecną listę musi charakteryzować się wydajnością co najmniej 4,005 teraflopsa. Jeszcze pół roku temu wystarczyło 2,737 TFlops. Co więcej, komputer, który obecnie znajduje się na miejscu 500. przed sześcioma miesiącami zająłby 216. pozycję. To największy skok w 15-letniej historii projektu TOP500. Bardzo dobrze świadczy to ogromnym zapotrzebowaniu na moce obliczeniowe i przyspieszeniu prac nad superkomputerami. Łączna moc obliczeniowa 500 maszyn z listy wyniosła 4,92 petaflopsa. To dużo więcej niż 3,54 PFlops sprzed pół roku. Jednocześnie pokazuje nam jak olbrzymią mocą charakteryzuje się najnowszy superkomputer IBM-a – Blue Gene/P. Najpopularniejszymi procesorami wykorzystywanymi do budowy superkomputerów są układy Intela. Zastosowano je na 289 maszynach (57,9%). Pół roku temu do Intela „należało” 261 superkomputerów (52,5%). Rynek straciło zarówno AMD (105 systemów czyli 21% obecnie, a 113 systemów i 22,6% przed pół roku) oraz IBM (teraz 85 superkomputerów i 17-procentowy udział, wcześniej 93 maszyny i 18,6% rynku). Rynek superkomputerów zdominowały procesory dwurdzeniowe. Olbrzymim sukcesem mogą pochwalić się Woodcresty Intela. Jeszcze sześć miesięcy temu wykorzystano je jedynie w 31 maszynach, teraz są obecne w 205 systemach. Wzrosły też udziały dwurdzniowych Opteronów AMD, z 75 do 90 komputerów. Największym producentem pod względem liczby maszyn na TOP500 jest HP. Na liście znajdują się 202 (40,4%) komputerów tego wytwórcy. Drugie miejsce, ze 192 (38,4%) systemami zajął IBM. Inni producenci, jak Dell (23 maszyny), SGI (19) czy Cray (11) nie przekroczyli 5%. Z kolei liderem listy ułożonej pod względem wydajności zainstalowanych maszyn pozostaje IBM. W sumie wszystkie superkomputery tego producenta dostarczają 41,9% (pół roku temu było to 49,5%) mocy wszystkich 500 maszyn. Drugie miejsce (24,5% mocy, wzrost z 16,5%) zajął HP. Najwięcej superkomputerów znajduje się w USA. Stoi tam 281 najpotężniejszych maszyn na świecie. Na drugim miejscu z 42 maszynami uplasowała się Wielka Brytania, a na trzecim Niemcy, które posiadają 24 komputery z listy TOP500. Po jednym superkomputerze mają Indonezja, Nowa Zelandia, Filipiny, RPA, Turcja, Zjednoczone Emiraty Arabskie i Wietnam. Żaden z polskich superkomputerów nie dostał się na listę. Poniżej przedstawiamy 10 najpotężniejszych maszyn z TOP500: LP Właściciel komputera i kraj Nazwa i producent Procesory Wydajność (GFlops) Wydajność szczytowa (GFlops) 1 Lawrence Livermoore National Laboratory USA Blue Gene/L IBM 131072 280600 367000 2 Oak Ridge National Laboratory USA Jaguar Cray 23016 101700 119350 3 Sandia National Laboratories USA Red Storm Cray 36544 101400 127411 4 IBM Thomas J. Watson Research Center USA BGW IBM 40960 91290 114688 5 New York Center for Computational Sciences USA New York Blue IBM 36864 82161 103219 6 Lawrence Livermoore National Laboratory USA ASC Purple IBM 12208 75760 92781 7 Rensselaer Polytechnic Institute USA eServer Blue Gene Solution IBM 32768 73032 91750 8 NCSA USA Abe Dell 9600 62680 89587 9 Centro Nacional de Supercomputación Hiszpania Mare Nostrum IBM 10240 62630 94208 10 Leibniz Rechenzentrum Niemcy HLRB II SGI 9728 56520 62259 1 GFlops = 1 miliard operacji zmiennoprzecinkowych na sekundę.
  17. IBM poinformował o powstaniu pierwszego w historii petaflopsowego komputera. Blue Gene/P to następca maszyny Blue Gene/L, obecnie numeru 1. na liście 500 najpotężniejszych superkomputerów na świecie. Blue Gene/P jest pierwszym superkomputerem, który osiągnął wydajność 1 petaflopsa, czyli jest w stanie wykonać biliard operacji zmiennoprzecinkowych w ciągu sekundy. Jest on około 3-krotnie szybszy od Blue Gene/L i 100 000 razy bardziej wydajny od przeciętnego peceta. Co więcej, po odpowiednim skonfigurowaniu wydajność Blue Gene/P może wzrosnąć do 3 PFLOPS. Kilka instytucji złożyło już zamówienia na system Blue Gene/P. Pierwszy tego typu komputer stanie w Argonne National Laboratory należącym do Departamentu Energii USA. Blue Gene/P korzysta z 294.912 rdzeni procesora IBM PowerPC 450, z których każdy jest taktowany zegarem o częstotliwości 850 MHz. Cztery rdzenie tworzą jeden procesor. Procesory montowane są na płytach, a każda płyta zawiera 32 układy. Płyty zamocowane są w szafach typu rack. W jednej mieszczą się 32 płyty. Nowego Blue Gene’a tworzą 72 takie szafy. Superkomputer można rozbudować do 216 szaf, czyli 884.736 rdzeni i wówczas osiąga on wydajność 3 petaflopsów. Pomiędzy komputerami Blue Gene/L i Blue Gene/P istnieje kilka zasadniczych różnic. W systemie P zastosowano czterordzeniowe procesory (w L były dwurdzeniowe), które są taktowane szybszym zegarem (850 MHz zamiast 700 MHz). Blue Gene/P korzysta też z większej pamięci operacyjnej oraz wykorzystuje tryb SMP (symmetric multiprocessing – przetwarzanie symetryczne), dzięki czemu można go programować podobnie jak programuje się komercyjnie dostępne klastry komputerowe. System operacyjny komputera Blue Gene/P bazuje na Linuksie, a aplikacje można tworzyć w standardowych językach programowania, takich jak Fortran, C czy C++. Nowy superkomputer jest kompatybilny z oprogramowaniem dla Blue Gene’a/L.
  18. IBM-owski zespół X-Force informuje o gwałtownym wzroście liczby witryn zajmujących się phishingiem, czyli wyłudzaniem informacji. Pomiędzy 12 a 18 czerwca znaleziono 114 013 nowych witryn tego typu. Aż 85% ataków było skierowanych przeciwko bankowi Regions. Działający na południu i środkowym zachodzie USA bank zarządza aktywami wartości 140 miliardów dolarów. Specjaliści IBM-a znaleźli też dowody na to, że wśród cyberprzestępców bardzo popularne są automatyczne narzędzia do tworzenia szkodliwych witryn. Aż 99% stron phishingowych zostało stworzonych przy pomocy komercyjnie dostępnych zestawów takich narzędzi. X-Force uważa, że za atakami stoi stosunkowo niewielka grupa ludzi. Wszystkie 114 tysięcy witryn znajdowało się w zaledwie 111 domenach. Połowa z nich byłą hostowana w Chinach i na Tajwanie.
  19. Podczas 2007 Technology Management Conference and Expo, William Zeitler, wiceprezes odpowiedzialny za IBM-owską Grupę Systemów i Technologii zaprezentował prototyp Systemu S, nowej strumieniowej technologii przetwarzania danych. Wybór nowojorskiej konferencji nie był przypadkowy – firmy z Wall Street należą do najbardziej wymagających klientów na rynku systemów przetwarzania informacji. Zatrudnieni przez IBM-a naukowcy przez cztery lata pracowali nad Systemem S, który, wedle zapewnień firmy, ma całkowicie zmienić sposób przetwarzania danych na potrzeby procesu podejmowania decyzji. System S jest w stanie rekonfigurować w locie wykorzystywane aplikacje w zależności od rodzaju danych, które należy przetworzyć. Zaawansowane środowiko, nowe algorytmy i filtry pozwalają na maksymalne wykorzystanie zasobów sprzętowych komputera, na którym uruchomiony został System S. IBM twierdzi, że może on działać niemal na każdym sprzęcie. Można go uruchomić zarówno pod kontrolą procesora Cell, jak i na superkomputerach z rodziny Blue Gene. System S pozwala na analizowanie danych w różnych formatach. Radzi sobie z tekstem, przekazem audio i wideo, informacjami z czytników RFID, urządzeń GPS i wieloma innymi danymi. System skupia się na problemie, który został przed nim postawiony i potrafi ocenić, których danych potrzebuje oraz jak należy wykorzystać dostępny sprzęt. Technologia IBM-a jest na tyle uniwersalna, że, chociaż powstała z myślą o dokonywaniu przede wszystkim analizy finansowej, można ją przystosować do przetwarzania danych potrzebnych astronomom czy też do nadzorowania pracy czujników monitorujących np. stan rzeki czy powietrza. IBM podkreśla, że System S to całkowicie nowa jakość. Obecnie używany model przetwarzania danych liczy sobie już 50 lat i jest, zdaniem Błękitnego Giganta, przestarzały. Takie firmy jak Google rozwinęły go do granic możliwości i bardziej udoskonalić go już nie można. IBM zwraca uwagę, że model przetwarzania transakcji bazuje na „starych” danych, czyli analizuje dane zgromadzone już wcześniej. Nie potrafi natomiast przetwarzać na bieżąco napływających danych. System S został zaprojektowany tak, że jest w stanie przetwarzać analizować i przetwarzać informacje strumieniowo, w miarę ich napływania. I, co ważne, korzysta przy tym z wielu źródeł i wielu formatów danych. Pozwala więc na ciągłe udoskonalanie wyników w miarę napływania nowych informacji. Strumieniowe przetwarzanie danych może wkrótce stać się standardem. Pracuje nad nim bowiem nie tylko IBM. Niedawno Google nabyło firmę PeakStream, która też zajmuje się tym problemem. IBM prowadzi najbardziej zaawansowane badania, jest pierwszą firmą, która pokazała tak kompletne rozwiązanie jak System S, a obecnie szuka partnerów, który będą tworzyli aplikacje do strumieniowego przetwarzania danych.
  20. IBM ogłosił powstanie nowej rodziny serwerów p570. Korzystają one z procesorów Power6 i są pierwszymi serwerami w historii, które pokonały konkurencję we wszystkich czterech standardowych testach. Ross Mauri poinformował, że porównanie p570 z serwerami innych firm wykazało, że najnowszy produkt IBM-a jest najlepszy pod względem liczby przeprowadzanych transakcji, wydajności ogólnej, liczby operacji zmiennoprzecinkowych i obsługi apletów Javy. Zdaniem Mauriego pojedynczy układ Power6, który pracuje z zegarem o częstotliwości 4,7 gigaherca, jest trzykrotnie bardziej wydajny niż sławny (i niezwykle drogi) system Deep Blue z 1997 roku. Serwery p570 obsługują od 4 do 16 rdzeni procesorów i pozwalają na przypisanie każdemu z nich 48 gigabajtów pamięci RAM. Cały system może więc korzystać nawet z 768 GB RAM. IBM stwierdził, że kluczem do sukcesu p570 jest równowaga pomiędzy przepustowością magistrali danych a pamięcią cache. Każdy z 65-nanometrowych Power6 ma do dyspozycji 8 megabajtów pamięci cache na rdzeń. To czterokrotnie więcej, niż poprzednia generacja procesorów IBM-a – Power5. Jednocześnie układy Power6 są niezwykle energooszczędne. Wymagają napięcia 200 miliwoltów, a ich pobór mocy wyrażony emisją cieplną (TDP) wynosi od 100 do 160 watów. Ross Mauri postanowił porównać wprost najnowszy produkt IBM-a i przywołał przykład serwera SunFire V890s. Jego zdaniem jeden p570 pracując na 60% swojej wydajności może zasymulować działanie 30 serwerów Suna pracujących z 20-procentową wydajnością. Wykorzystanie p570 oznacza w tym przypadku oszczędność 90% miejsca, energii i do 90% kosztów oprogramowania w przeliczeniu na rdzeń. Zdaniem Mauriego oznacza to oszczędności rzędu 100 000 dolarów. IBM ogłosił jednocześnie, że w drugiej połowie bieżącego roku na rynek trafi kolejna edycja jego systemu operacyjnego – AIX v6. W lipcu zostanie udostępniona wersja beta. Serwery p570 będzie można kupić w ciągu najbliższych dwóch tygodni. Na pełne wykorzystanie ich możliwości trzeba będzie jednak poczekać do listopadowej premiery AIX v6.
  21. Międzynarodowy zespół fizyków dokonał przełomowego eksperymentu, który w przyszłości może posłużyć do zbudowania urządzeń mających zastąpić współczesne dyski twarde. Guido Meier z uniwersytetu w Hamburgu i jego współpracownicy użyli nanosekundowych impulsów elektrycznych do przesuwania domen magnetycznych z prędkością 110 metrów na sekundę. Dotychczas domeny udawało się przesyłać tysiąckrotnie wolniej. Do przeprowadzenia eksperymentu wykorzystano nanokable ułożone w kształcie litery U i umieszczone na krzemie. Za pomocą spolaryzowanego prądu elektrycznego przesuwano wzdłuż nich domeny magnetyczne, a ich zawartość była odczytywana przez czujniki umieszczone na tym samym kawałku krzemu. Same domeny magnetyczne były tworzone dzięki włączaniu i wyłączaniu silnego pola magnetycznego. W ten sposób w permaloju (stop żelaza i niklu, wykorzystywany m.in. do budowy dysków twardych) powstawały domeny o szerokości mniejszej niż mikron. Pomiędzy ścianami domen zamknięte były liczne atomy ustawione w tym samym kierunku. Odczyt danych odbywał się przed i po poddaniu domeny działaniu prądu elektrycznego. Wykorzystanie prądu do przesuwania domen magnetycznych nie jest nowym pomysłem. Z takim rozwiązaniem eksperymentował już w 2004 roku Stuart Parkin z IBM Almaden Research Center, który nazywał tą technologię „Racetrack” (tor wyścigowy). Otrzymane wyniki były jednak zniechęcające, gdyż domeny poruszały się zbyt wolno, by móc je wykorzystać w praktyce. Meier wyjaśnia, że prędkości domen nie da się do końca przewidzieć, gdyż ograniczają ją niedoskonałości w budowie kryształu krzemu. Prawdopodobnie to one spowodowały, iż eksperymenty IBM-a się nie udały. Obecnie osiągnięto odpowiednią prędkość. Ruch domen magnetycznych jest na tyle szybki, że wykorzystujące go urządzenie pamięci masowej działałoby bardziej wydajnie, niż obecnie stosowane dyski twarde. Ponadto taki „tor wyścigowy” nie wykorzystuje żadnych części mechanicznych, dzięki czemu byłby lżejszy, mniejszy i znacznie mniej podatny na uszkodzenia czy zużycie niż dyski twarde. Zanim jednak nowa technika zostanie w praktyce wykorzystana, naukowcy muszą poradzić sobie z niedoskonałościami krzemu. Muszą albo nauczyć się produkować doskonałe kryształy, ale być w stanie kontrolować ich niedoskonałości.
  22. Naukowcy IBM-a wykorzystali naturalne procesy formowania się płatków śniegu, muszli i zębów do stworzenia układów scalonych przyszłej generacji. To, co podpatrzyli w naturze, pozwoliło im zbudować układ scalony, w którym poszczególne połączenia są odizolowane od siebie za pomocą próżni. Obecnie ścieżki w układach scalonych tworzy się z miedzi, która otoczona jest izolatorem. Cały proces jest dość skomplikowany i wymaga stworzenia odpowiedniej przesłony (tzw. maski), w której wycięty jest wzór rozmieszczenia ścieżek i otworów. Promień lasera, przechodząc przez maskę, rysuje ten wzór na krzemie. Następnie krzem poddaje się jeszcze odpowiedniej obróbce chemicznej. Wynalazek IBM-a pozwala zrezygnować z maski i wytrawiania krzemu światłem. Naukowcy Błękitnego Giganta opracowali odpowiednią mieszaninę składników, którą pokrywa się odpowiednio przygotowany krzem, a następnie całość poddaje wypiekaniu. Podczas tego procesu powstaje wzór, który tym różni się od naturalnego (np. z płatków śniegu), że jest powtarzalny. Technika IBM-a pozwala na stworzenie miliardów identycznych otworów o średnicy 20 nanometrów. Gdy otwory już powstały usunięto z nich szkło węglowo-krzemianowe, tworząc w ten sposób próżnię pomiędzy ścieżkami miedzi. Działa ona jak izolator, a dzięki niej sygnały elektryczne biegną o 35% szybciej niż w analogicznych układach stworzonych za pomocą tradycyjnych metod. Przy tej samej prędkości przepływu sygnałów układ wymaga natomiast o 15% mniej energii. Cały proces można zastosować na standardowych liniach produkcyjnych CMOS i nie wymaga on ani ich przebudowy, ani inwestowania w nowe urządzenia.
  23. Amerykańscy naukowcy z Almaden Research Lab IBM-a oraz University of Nevada odtworzyli na superkomputerze BlueGene/L działanie mysiego mózgu. Zgodnie z danymi BBC, połowa mózgu gryzonia to ok. 8 milionów neuronów, a każdy tworzy do 8 tys. synaps. Maszyna zdolna do symulacji niezwykle złożonych procesów żywej kory gryzonia musiała zawierać 4096 procesorów, z których każdy dysponował 32 megabajtami pamięci. W ten sposób wirtualny mózg składał się z 8 tysięcy komórek nerwowych, a każda z nich tworzyła do 6.300 synaps. Eksperyment był tak skomplikowany, że mógł trwać tylko 10 sekund, zaś tempo dokonywania operacji nawet przeciętna mysz uznałaby za niskie (był to odpowiednik 1 sekundy czasu rzeczywistego). James Frye, Rajagopal Ananthanarayanan i Dharmendra S. Modha podsumowali uzyskane wyniki w publikacji pt. "Towards Real-Time, Mouse-Scale Cortical Simulations" (W kierunku przebiegającej w czasie rzeczywistym symulacji korowej mysiego mózgu). Oprócz "dużej" symulacji przeprowadzono także kilka pomniejszych. Udało się uzyskać "biologicznie spójne właściwości dynamiczne" w postaci impulsów nerwowych widocznych w obrębie sztucznej kory mózgowej. Wzorce rozchodzenia się pobudzenia przypominały te istniejące w naturze (były m.in. skoordynowane). W dodatku neurony zaczęły spontanicznie łączyć się w grupy. Odtworzono procesy, ale już nie strukturę mózgu myszy. Naukowcy nie ustają jednak w wysiłkach i pracują nad przyspieszeniem technologii, zwiększeniem jej wiarygodności neurobiologicznej, uszczegółowieniem reakcji neuronów i synaps oraz odtworzeniem anatomii mózgu, czyli struktur spotykanych w przyrodzie.
  24. IBM ogłosił, że ma zastosować procesory Cell BE, które stanowią mózg konsoli PlayStation3, w swoich komputerach typu mainframe. Zadaniem takich maszyn byłaby obsługa światów wirtualnych przyszłości. Komputery miałyby korzystać z wszystkich zalet specjalistycznego procesora i odznaczać się wyjątkowo szybkimi łączami ze światem zewnętrznym. W tej chwili trudno powiedzieć, czym są te "światy wirtualne” i "Internet 3D”, o których wspomina IBM. Pewną wskazówką może być jednak fakt, że projekt jest prowadzony wspólnie z Hoplon Infotainment, brazylijskim producentem gier komputerowych. To oprogramowanie Hoplona służy do testowania wydajności tworzonych maszyn i środowisk wirtualnych. Można się więc domyślać, że w najbliższym czasie głównymi odbiorcami maszyn IBM-a mają stać się firmy tworzące i obsługujące coraz bardziej popularne gry sieciowe takie jak "World of Warcraft” czy "Second Life”. Hoplon pracuje też nad oprogramowaniem bitVerse, które posłuży do tworzenia światów wirtualnych przydatnych w przemyśle.
  25. IBM ma zamiar na masową skalę wykorzystywać nową technologię łączenia układów scalonych i ich części. Dzięki temu Błękitny Gigant chce poprawić ich wydajność i jednocześnie zmniejszyć pobór mocy. Technologia TSV (through-silicon vias) pozwala na łączenie zarówno procesora i pamięci, jak i rdzeni procesora ze sobą. Połączenie jest realizowane przez tysiące niewielkich przewodów, którymi wędrują dane. Obecnie zadania te spoczywają na urządzeniach zwanych szynami, które jednak często ulegają przeciążeniu. TSV pozwala na przesłanie większej ilości danych w ciągu sekundy, a pobór mocy jest przy tym niższy niż w przypadku szyn. IBM nie jest pierwszą firmą, która chce wykorzystać TSV. Wspominał już o tym Intel przy okazji swojego 80-rdzeniowego procesora. IBM ma natomiast zamiar zastosować nową technologię na masową skalę. Pierwsze próbki układów z TSV trafią do klientów jeszcze w bieżącym roku, a w 2008 zacznie się ich masowa produkcja. IBM ocenia, że w układach wykonanych z krzemu domieszkowanego germanem (tzw. rozciągnięty krzem) uda się zaoszczędzić nawet 40% energii. W układach z technologią TSV zostaną nawiercone mikroskopijne otwory, przez które zostanie przeciągnięte okablowanie z wolframu. Badacze IBM-a mają nadzieję, że w ciągu 3-5 lat dzięki TSV uda się połączyć pamięć bezpośrednio z procesorem, bez konieczności stosowania kontrolera pamięci. Powinno to zwiększyć wydajność o dalsze 10%, a pobór mocy zmniejszyć o 20%. Błękitny Gigant pokłada tak wielką nadzieję w nowej technologii, że planuje zastosowanie jest w swoich superkomputerach BlueGene. TSV pozwoli też na zmianę architektury płyt głównych. Obecnie niektóre firmy budują je w ten sposób, że łączą układają kości jedną na drugiej. Pozwala to zaoszczędzić miejsca, ale układy łączą się ze sobą za pośrednictwem szyn, więc nie ma zysku wydajności. TSV pozwoli pozbyć się szyn, a tym samym zwiększyć wydajność. Ponadto, dzięki likwidacji szyn możliwe będą dalsze oszczędności miejsca (układy będą połączone za pomocą poprowadzonych w środku kabli). Rozpowszechnienie się TSV doprowadzić może do zmiany sposobu sprzedaży układów producentom płyt głównych. Będą oni mogli kupić od takich firm jak IBM czy Intel gotowe połączone ze sobą zestawy, składające się z procesora, chipsetu i pamięci. To jedna z możliwych metod zwiększenia wydajności systemów komputerowych. Wśród innych warto wymienić technologię produkcji trójwymiarowych układów pamięci opracowaną przez Matrix Semiconductor czy technologię rozwijaną przez Sun Microsystems, która umożliwia przesyłanie danych pomiędzy odpowiednio blisko znajdującymi się układami. Interesująca jest również technologia Loki, firmy Rambus, która zapewnia przesył danych z prędkością 6,25 gigabita na sekundę przy poborze mocy rzędu 2,2 miliwata na gigabit. Niedawno Rambus pokazał prototypowy system Loki, który przez 40 godzin był w stanie pracować na dwóch bateriach AA i przesłał w tym czasie 3,6 petabita (3,6 miliona gigabitów) danych. Wracając do TSV warto wspomnieć, że Intel rozwija tą technologię od 2005 roku. Firma nie jest jednak jeszcze gotowa do jej wykorzystania na masową skalę. Inżynierowie Intela chcą użyć TSV do połączenia w jednej obudowie procesora i pamięci operacyjnej, to jednak rodzi poważne kłopoty związane z wydzielaniem ciepła. Wszystko więc wskazuje na to, że na rynek TSV trafi po raz pierwszy dzięki IBM-owi.
×
×
  • Dodaj nową pozycję...