Jump to content
Forum Kopalni Wiedzy

Search the Community

Showing results for tags 'IBM'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Found 147 results

  1. IBM uruchomił w Nowym Jorku Quantum Computation Center, w którym znalazł się największy na świecie zbiór komputerów kwantowych. Wkrótce dołączy do nich nich 53-kubitowy system, a wszystkie maszyny są dostępne dla osób i instytucji z zewnątrz w celach komercyjnych i naukowych. Quantum Computation Center ma w tej chwili ponad 150 000 zarejestrowanych użytkowników oraz niemal 80 klientów komercyjnych, akademickich i badawczych. Od czasu, gdy w 2016 roku IBM udostępnił w chmurze pierwszy komputer kwantowy, wykonano na nim 14 milionów eksperymentów, których skutkiem było powstanie ponad 200 publikacji naukowych. W związku z rosnącym zainteresowaniem obliczeniami kwantowymi, Błękity Gigant udostępnił teraz 10 systemów kwantowych, w tym pięć 20-kubitowych, jeden 14-kubitowy i cztery 5-kubitowe. IBM zapowiada, że w ciągu miesiąca liczba dostępnych systemów kwantowych wzrośnie do 14. Znajdzie się wśród nich komputer 53-kubitowy, największy uniwersalny system kwantowy udostępniony osobom trzecim. Nasza strategia, od czasu gdy w 2016 roku udostępniliśmy pierwszy komputer kwantowy, polega na wyprowadzeniu obliczeń kwantowych z laboratoriów, gdzie mogły z nich skorzystać nieliczne organizacje, do chmur i oddanie ich w ręce dziesiątków tysięcy użytkowników, mówi Dario Gil, dyrektor IBM Research. Chcemy wspomóc rodzącą się społeczność badaczy, edukatorów i deweloperów oprogramowania komputerów kwantowych, którzy dzielą z nami chęć zrewolucjonizowania informatyki, stworzyliśmy różne generacje procesorów kwantowych, które zintegrowaliśmy w udostępnione przez nas systemy kwantowe. Dotychczas komputery kwantowe IBM-a zostały wykorzystane m.in. podczas współpracy z bankiem J.P. Morgan Chase, kiedy to na potrzeby operacji finansowych opracowano nowe algorytmy przyspieszające pracę o całe rzędy wielkości. Pozwoliły one na przykład na osiągnięcie tych samych wyników dzięki dostępowi do kilku tysięcy przykładów, podczas gdy komputery klasyczne wykorzystujące metody Monte Carlo potrzebują milionów próbek. Dzięki temu analizy finansowe mogą być wykonywane niemal w czasie rzeczywistym. Z kolei we współpracy z Mitsubishi Chemical i Keio University symulowano początkowe etapy reakcji pomiędzy litem a tlenem w akumulatorach litowo-powietrznych. « powrót do artykułu
  2. Badacze IBM-a postawili sobie ambitny cel. Chcą co roku dwukrotnie zwiększać wydajność komputerów kwantowych tak, by w końcu były one szybsze lub bardziej wydajne niż komputery klasyczne. Podczas tegorocznych targów CES IBM pokazał przełomowe urządzenie: IBM Q System One, pierwszy komputer kwantowy, który ma być gotowy do komercyjnego użytku. Celem IBM-a jest coś, co nazywają „Quantum Advantage” (Kwantowa przewaga). Zgodnie z tym założeniem komputery kwantowe mają zyskać „znaczną” przewagę nad komputerami klasycznymi. Przez „znaczną” rozumie się tutaj system, który albo będzie setki lub tysiące razy szybszy od komputerów kwantowych, albo będzie wykorzystywał niewielki ułamek pamięci potrzebny maszynom kwantowym lub też będzie w stanie wykonać zadania, jakich klasyczne komputery wykonać nie są. Wydajność komputera kwantowego można opisać albo za pomocą tego, jak sprawują się poszczególne kubity (kwantowe bity), albo też jako ogólną wydajność całego systemu. IBM poinformował, że Q System One może pochwalić się jednym z najniższych odsetków błędów, jakie kiedykolwiek zmierzono. Średni odsetek błędów na dwukubitowej bramce logicznej wynosi mniej niż 2%, a najlepszy zmierzony wynik to mniej niż 1%. Ponadto system ten jest bliski fizycznemu limitowi czasów koherencji, który w w przypadku Q System One wyniósł średnio 73 ms.To oznacza, że błędy wprowadzane przez działanie urządzenia są dość małe i zbliżamy się do osiągnięcia minimalnego możliwego odsetka błędów, oświadczyli badacze IBM-a. Błękitny Gigant stworzył też Quantum Volume, system pomiaru wydajności komputera kwantowego jako całości. Bierze on pod uwagę zarówno błędy na bramkach, błędyh pomiarów czy wydajność kompilatora. Jeśli chcemy osiągnąć Quantum Advantage w latach 20. XXI wieku, to każdego roku wartość Quantum Volume musi się co najmniej podwajać, stwierdzili badacze. Na razie udaje im się osiągnąć cel. Wydajność pięciokubitowego systemu Tenerife z 2017 roku wynosiła 4. W 2018 roku 20-kubitowy system IBM Q osiągnął w teście Quantum Volume wynik 8. Najnowszy zaś Q System One nieco przekroczył 16. Sądzimy, że obecnie przyszłość komputerów to przyszłość komputerów kwantowych, mówią specjaliści z IBM-a. « powrót do artykułu
  3. IBM poinformował o podpisaniu porozumienia, w ramach którego Błękitny Gigant przejmie znanego producenta jednej z dystrybucji Linuksa, firmę Red Hat. Transakcja będzie warta 34 miliardy dolarów. Jeśli do niej dojdzie będzie to trzecia największa w historii akwizycja na rynku IT. Umowa przewiduje, że IBM wykupi akcje Red Hata, płacąc za każdą z nich 190 dolarów. Na zamknięciu ostatniej sesji giełdowej przed ogłoszeniem transakcji akcje Red Hata kosztowały 116,68 USD. Przejęcie Red Hata zmieni zasady gry. Całkowicie zmieni rynek chmur obliczeniowych, mówi szef IBM-a Ginni Rometty. "IBM stanie się największym na świecie dostawcą dla hybrydowych chmur i zaoferuje przedsiębiorcom jedyną otwartą architekturę chmur, dzięki której klient będzie mógł uzyskać z niej maksimum korzyści", dodał. Zdaniem menedżera obenie większość firm wstrzymuje się z rozwojem własnych chmur ze względu na zamknięte architektury takich rozwiązań. Jeszcze przed kilku laty IBM zajmował się głównie produkcją sprzętu komputerowego. W ostatnim czasie firma zdecydowanie weszła na takie rynki jak analityczny czy bezpieczeństwa. Teraz ma zamiar konkurować z Microsoftem, Amazonem czy Google'em na rynku chmur obliczeniowych. Po przejęciu Red Hat będzie niezależną jednostką zarządzaną przez obecnego szefa Jima Whitehursta i obecny zespół menedżerów. To ważny dzień dla świata open source. Doszło do największej transakcji w historii rynku oprogramowania i bierze w tym udział firma zajmująca się otwartym oprogramowaniem. Tworzymy historię, dodał Paul Cormier, wiceprezes Red Hata. Obecnie Red Hat ma siedziby w 35 krajach, zatrudnia około 12 000 osób je jest jednym z największych oraz najbardziej znanych graczy na rynku open source. W roku 2018 zysk firmy wyniósł 259 milionów dolarów czy przychodach rzędu 2,9 miliarda USD. Dla porównania, w 2017 roku przychody IBM-a zamknęły się kwotą 79 miliardów dolarów, a zysk to 5,8 miliarda USD. Na przejęcie muszą się jeszcze zgodzić akcjonariusze Red Hata oraz odpowiednie urzędy antymonopolowe. « powrót do artykułu
  4. IBM pokazał najszybszy grafenowy tranzystor. Błękitny Gigant pobił tym samym swój własny rekord sprzed roku, kiedy to zaprezentowano tranzystor pracujący z prędkością 100 GHz. Najnowsze działo IBM-a jest taktowane zegarem o częstotliwości 155 GHz. Yu-Ming Lin z IBM-a powiedział, że badania nad nowym grafenowym tranzystorem dowiodły, iż możliwe jest produkowanie tanich urządzeń tego typu za pomocą standardowych technologii wykorzystywany przy produkcji półprzewodników. To z kolei oznacza, że komercyjna produkcja grafenowej elektroniki może rozpocząć się w stosunkowo niedługim czasie.
  5. W laboratoriach IBM-a w Zurichu trwają prace nad układem scalonym, który wykorzystuje płyn do pracy oraz chłodzenia. Ludzki mózg jest 10 000 razy gęściej upakowany i wydajny niż jakikolwiek współczesny komputer. Jest to możliwe dzięki temu, iż wykorzystuje jedną, niezwykle efektywną, sieć połączeń kapilarnych i krwionośnych, które jednocześnie odbierają ciepło i transportują energię - mówi Bruno Michel, który kieruje pracami zespołu badawczego. Jeśli IBM-owi uda się osiągnąć założony cel to pewnego dnia takie maszyny jak superkomputer Watson uda się zamknąć w kieszonkowym urządzeniu przenośnym. Michel i jego zespół chcą zbudować trójwymiarowy układ scalony składający się z tysięcy kości ułożonych jedna na drugiej. Pomiędzy każdymi dwoma kośćmi ma znaleźć się para struktur wypełnionych płynem. Jedna z tych sieci będzie zawierała naładowany płyn, zapewniający układowi zasilanie, druga zaś będzie odpowiedzialna za odprowadzanie tego płynu gdy już przekaże on swój ładunek i odbierze ciepło z układu. Wykorzystanie płynów do chłodzenia układów 3D nie jest niczym nowym. Niezwykłym pomysłem badaczy z IBM-a jest użycie tego samego płynu do zasilania układów. Do zwiększenia wydajności maszyn HPC (high performance computing) koniecznie jest umieszczanie układów bliżej siebie. Ale zasilanie ich za pomocą płynu to niebadany dotychczas obszar. Nie wykracza to całkowicie poza wyobraźnię. Nie widzę powodów, dla których nie miałoby to działać, ale nikt nigdy czegoś takiego nie próbował - mówi Mark Zwolinski z University of Southampton. Superkomputer Watson wymaga do pracy 85 kilowatów i jest 10-krotnie większy od dużej lodówki. Michel uważa, że wykorzystanie płynu do chłodzenia i zasilania pozwoli na znaczące zredukowanie poboru mocy i zmniejszenie wielkości urządzenia. Uczeni z IBM-a chcą pokazać prototyp swojego układu już w 2014 roku. Jeśli im się to uda, Watson zagości w naszych kieszeniach.
  6. Specjaliści z laboratoriów IBM Research w Almaden udowodnili, że na nośnikach magnetycznych jeden bit informacji można zapisać już za pomocą 12 atomów. Obecnie do zapisania pojedynczego bitu np. na dysku twardym wykorzystuje się około miliona atomów. Zademonstrowana przez IBM możliwość manipulowania materiałem w skali pojedynczych atomów umożliwi powstanie znacznie mniejszych, szybciej działających i energooszczędnych urządzeń. Podczas swoich eksperymentów uczeni pokazali, że dane na nośnikach magnetycznych mogą być nawet 100-krotnie gęściej upakowane niż obecnie. Przechowywanie informacji na nośnikach magnetycznych wiąże się z pewnym poważnym ograniczeniem. Pola magnetyczne sąsiadujących ze sobą domen mogą na siebie wpływać, zmieniając wartość zapisu. Z tego też powodu niemożliwe dotychczas było zbyt duże ich upakowanie. Uczeni z IBM-a pokazali, że można je zbliżyć do siebie bez ryzyka wystąpienia zakłóceń. Eksperci użyli skanningowego mikroskopu tunelowego za pomocą którego atom po atomie ułożyli domeny składające się z tuzina atomów każda. Antyferromagnetycznie splątane atomy były w stanie całymi godzinami w niskiej temperaturze przechowywać zapisane informacje. Bardzo blisko umiejscowione domeny nie wpływały na siebie, co dowodzi możliwości zwiększenia gęstości zapisu.
  7. IBM pokaże dzisiaj prototypowy optyczny układ scalony „Holey Optochip“. To pierwszy równoległy optyczny nadajnik-odbiornik pracujący z prędkością terabita na sekundę. Urządzenie działa zatem ośmiokrotnie szybciej niż inne tego typu kości. Układ pozwala na tak szybki transfer danych, że mógłby obsłużyć jednocześnie 100 000 typowych użytkowników internetu. Za jego pomocą można by w ciągu około godziny przesłać zawartość Biblioteki Kongresu USA, największej biblioteki świata. Holey Optochip powstał dzięki wywierceniu 48 otworów w standardowym układzie CMOS. Dało to dostęp do 24 optycznych nadajników i 24 optycznych odbiorników. Przy tworzeniu kości zwrócono też uwagę na pobór mocy. Jest on jednym z najbardziej energooszczędnych układów pod względem ilości energii potrzebnej do przesłania jednego bita informacji. Holey Optochip potrzebuje do pracy zaledwie 5 watów. Cały układ mierzy zaledwie 5,2x5,8 mm. Odbiornikami sygnału są fotodiody, a nadajnikami standardowe lasery półprzewodnikowe VCSEL pracujące emitujące światło o długości fali 850 nm.
  8. Podczas odbywającego się właśnie dorocznego spotkania Amerykańskiego Towarzystwa Fizycznego specjaliści z IBM-a poinformowali o dokonaniu trzech przełomowych kroków, dzięki którym zbudowanie komputera kwantowego stanie się możliwe jeszcze za naszego życia. Jednym z najważniejszych wyzwań stojących przed ekspertami zajmującymi się kwantowymi komputerami jest dekoherencja. To wywołana oddziaływaniem czynników zewnętrznych utrata właściwości kwantowych przez kubity - kwantowe bity. Koherencja wprowadza błędy do obliczeń kwantowych. Jednak jeśli udałoby się utrzymać kwantowe bity przez wystarczająco długi czas można by przeprowadzić korektę błędów. Eksperci z IBM-a eksperymentowali ostatnio z „trójwymiarowymi“ nadprzewodzącymi kubitami, które zostały opracowane na Yale University. Ich prace pozwoliły na dokonanie przełomu. Udało się im utrzymać stan kwantowy kubitu przez 100 mikrosekund. To 2 do 4 razy więcej niż poprzednie rekordy. A co najważniejsze, to na tyle długo by przeprowadzić korekcję błędów na kubitach 3D. Drugi z przełomowych kroków to powstrzymanie dekoherencji zwykłego „dwuwymiarowego“ kubitu przez 10 mikrosekund. W przypadku takich kubitów wystarczy to do przeprowadzenia korekcji błędów. Utrzymanie przez tak długi czas kubitu pozwoliło na dokonanie trzeciego z przełomów. Udało się bowiem przeprowadzić na dwóch kubitach operację CNOT (controlled-NOT) z dokładnością 95-98 procent. To niezwykle ważne osiągnięcie, gdyż bramka CNOT w połączeniu z prostszymi bramkami kubitowymi może być skonfigurowana do przeprowadzenia dowolnej operacji logicznej. Od połowy 2009 roku IBM udoskonalił wiele technik związanych z komputerami kwantowymi. Najprzeróżniejsze aspekty związane z takimi maszynami udoskonalono od 100 do 1000 razy. W sumie wszystkie te techniki są bardzo bliskie spełnienia minimalnych wymagań stawianych przed praktycznym komputerem kwantowym.
  9. Według niepotwierdzonych informacji Microsoft zlecił IBM-owi i Globalfoundries produkcję układów scalonych dla następcy Xboksa 360. Podobno koncern z Redmond zamówił wykonanie około dziesięciu tysięcy 300-milimetrowych plastrów krzemowych z układami o nazwie kodowej Oban. Kości mają trafić do twórców oprogramowania, którzy będą pisali gry na konsolę. Podobno Oban zawiera procesor PowerPC i rdzeń graficzny Radeon HD bazujący na architekturze GCN (graphics core next). Wcześniejsze pogłoski mówiły, że Xbox Next będzie korzystał z układu system-on-chip opartego na architekturze ARM zawierającego wiele dedykowanych rdzeni odpowiedzialnych za grafikę, sztuczną inteligencję, dźwięk, szyfrowanie i inne funkcje. Przyszła konsola Microsoft ma podobno wykorzystywać system operacyjny zbudowany wokół jądra Windows 9. Ma być ona też mniejsza i tańsza w produkcji niż Xbox 360. Żadna z wymienionych firm nie chciała skomentować tych doniesień.
  10. Jak informują przedstawiciele należącej do HP Zero-Day Initiative (ZDI), IBM, HP i i Microsoft są tymi producentami oprogramowania, którzy mają najgorsze wyniki w łataniu dziur typu zero-day, czyli niezałatanych dziur aktywnie wykorzystywanych przez przestępców. W bieżącym roku ZDI upubliczniła dane o 29 wciąż niezałatanych lukach typu zero-day, o których istnieniu informowano producentów oprogramowania pół roku wcześniej. W programach IBM-a było 10 takich dziur, w oprogramowaniu HP znaleziono ich sześć, a w programach Microsoftu - pięć. TippingPoint, wydział HP prowadzący ZDI, jest znany z organizowania hakerskich zawodów Pwn2Own. Kupuje on informacje o lukach od niezależnych badaczy i informuje o nich producentów dziurawego oprogramowania. HP wykorzystuje tak uzyskane informacje do udoskonalania swoich programów zabezpieczających. W ubiegłym roku TippingPoint poinformował, że jeśli producent nie załata oprogramowania w ciągu pół roku po otrzymaniu informacji, ujawni ograniczoną ilość danych o dziurze. Osoby pracujące przy ZDI twierdzą, że takie działanie wywiera pewien pozytywny nacisk na producentów. Po raz pierwszy informacje takie ujawniono 7 lutego 2011 roku, a już w kwietniu Microsoft załatał wszystkie pięć luk w MS Office, o których został poinformowany w połowie 2010 roku. Nie wszyscy reagują jednak tak samo. IBM i HP wciąż nie załatały swoich 16 dziur, mimo, że o istnieniu niektórych wiedzą od trzech lat.
  11. Podczas IEEE International Electron Devices Meeting IBM zaprezentował pamięć typu racetrack. Została ona wykonana za pomocą standardowych metod produkcyjnych. To niezwykle ważny czynnik, gdyż koszty wdrażania nowych technologii i budowy nowych linii produkcyjnych mogłyby uczynić racetrack nieopłacalną. Istotą technologii racetrack jest przesuwanie domen magnetycznych, w których zapisane są dane, wzdłuż wyznaczonych tras. Nad wykorzystaniem prądu do przesuwania domen eksperymentował w 2004 roku Stuart Parkin z IBM Almaden Research Center. Wówczas domeny przesuwały się zbyt wolno, by wykorzystać to zjawisko w praktyce. Na szczęście Parkin nie zniechęcił się i kontynuował badania. W 2008 roku IBM poinformował, że ma zamiar zbudować pamięci typu racetrack (racetrack memory - RM). Od trzech lat prowadzono bardzo intensywne badania i tworzono kolejne eksperymentalne układy. W końcu w ubiegłym roku IBM poinformował, że pokonano ostatnią przeszkodę na drodze do zbudowania RM - nauczono się precyzyjnie sterować ruchem domen magnetycznych. Pamięć racetrack składa się z miliardów nanokabli w kształcie litery U. Są one przytwierdzone do krzemowego podłoża. W każdym nanokablu można przechowywać setki bitów w formie pól magnetycznych rozmieszczonych wzdłuż niego. Pod wpływem napięcia elektrycznego domeny magnetyczne przesuwają się, a znajdująca się na zakończeniu kabli głowica mierzy magnetooporność domen, odczytując ich zawartość. Domeny przesuwają się z prędkością setek kilometrów na godzinę, a że mają do przebycia odległości liczone w nanometrach, błyskawicznie docierają do głowic odczytujących. Racetrack nie ma ruchomych części, więc się nie zużywa. Może przechowywać dane przez dziesięciolecia, używa niezwykle mało prądu i niemal nie wydziela ciepła. Pozwala na przechowywanie na tej samej przestrzeni co najmniej 100-krotnie więcej danych niż obecnie dostępne technologie. RM ma zatem wszystkie zalety pamięci RAM, flash oraz dysków twardych i jest pozbawiona ich wad. Teraz IBM zaprezentował RM wykonany w technologii CMOS. W eksperymentalnej maszynie badawczej, która przez lata służyła do rozwijania RM, nanokable były umieszczone na krzemowym podłożu, a inne podzespoły były podłączone oddzielnie. Wszystkie obwody były oddzielone od układu z nanokablami. Teraz zaprezentowaliśmy zintegrowany układ, którego wszystkie podzespoły znajdują się na jednym kawałku krzemu - mówi Stuart Parkin. Nowe pamięci wykorzystują niklowo-żelazne nanokable o długości 10 mikrometrów, szerokości 150 nanometrów i grubości 20 nanometrów. Na jednym końcu kabla znajduje się połączenie elektryczne, które wysyła impulsy o precyzyjnie kontrolowanym spinie, za pomocą których zapisywane są dane. Na drugim końcu znajduje się głowica odczytująca. Specjaliści z Instytutu Elektroniki Fundamentalnej z francuskiego Orsay, którzy wraz z innymi europejskimi ośrodkami pracują nad własną wersją RM mówią, że osiągnięcia IBM-a są imponujące, ale nie zawierają wszystkich koniecznych elementów. Podkreślają, że Błękitny Gigant umieścił w każdym nanokablu tylko jedną domenę magnetyczną. Stuart Parkin odpowiada, że intencją jego zespołu nie było w tej chwili prezentowanie pojemności RM, ale pokazanie, że układ taki można wyprodukować za pomocą standardowych technologii. Teraz naukowcy z IBM-a prowadzą eksperymenty, mające na celu umieszczenie jak największej liczby domen magnetycznych na pojedynczym nanokablu. Już dowiedzieli się, że zastosowanie innego materiału niż stop niklu i żelaza pozwoli na zwiększenie pojemności RM. Stopu niklu i żelaza (zwanego miękkim materiałem magnetycznym) standardowo używa się podczas badań, gdyż można go łatwo magnetyzować i rozmagnetyzować. Zespół Parkina eksperymentował już także z tzw. twardym materiałem magnetycznym, którego właściwości magnetyczne są związane z jego siatką krystaliczną i nie jest go łatwo rozmagnetyzować. Z badań nad tym materiałem dowiedzieliśmy się, że możemy bardzo szybko przesuwać domeny magnetyczne, które są jednocześnie mniejsze i silniejsze niż w miękkim materiale magnetycznym - mówi Parkin. To z kolei oznacza, że nie tylko będzie można zwiększać pojemność RM, ale że niedoskonałości w strukturze nanokabli nie będą prowadziły do zakłóceń w działaniu pamięci.
  12. IBM chce udowodnić, że rynek mainframe'ów, dużych systemów komputerowych używanych przez wielkie firmy do obsługi krytycznych aplikacji, ma przed sobą przyszłość. Błękitny Gigant oznajmił, że 16 grudnia zadebiutuje zEnterprise z systemem Windows. Dotychczas na mianframe'ach IBM-a, które firma produkuje od 1952 roku, nigdy nie był używany Microsoft Windows. Teraz jednak koncern doszedł do wniosku, że połączenie mainframe'ów z Windows da jego klientom więcej możliwości i umożliwi łączenie infrastruktury różnych centrów bazodanowych. To, jak sądzi IBM, przekona niektóre firmy do porzucenia serwerów x86 na rzecz mainframe'ów Błękitnego Giganta. Przygotowanie zEnterprise pod kątem współpracy z Windows wymagało zastosowania takich zmian, dzięki którym na jednej maszynie można będzie uruchomić Windows, z/OS, Linuksa czy AIX. Decyzja IBM-a nie powinna być dla nikogo zaskoczeniem. Firma już od pewnego czasu konstruuje heterogeniczne systemy, które dają użytkownikowi możliwość elastycznego zarządzania zadaniami w scentralizowany sposób. Mainframe'y były tradycyjnie drogimi systemami, co spowodowało, że wiele przedsiębiorstw rezygnowało z nich na rzecz różnego typu serwerów. W odpowiedzi IBM zaczął pracować nad obniżeniem kosztów mainframe'ów oraz zwiększeniem ich elastyczności. Przed rokiem firma zaproponowała hybrydowe rozwiązanie, w skład którego wchodził mainframe i serwery kasetowy z rodziny System x. Teraz, dodając obsługę Windows, IBM oferuje jeszcze bardziej elastyczne rozwiązanie. Eksperci zauważają, że zastosowanie Windows oznacza, że i sam IBM stał się bardziej elastyczny. Dotychczas wszystkie elementy mainframe'a oraz kolejne udoskonalenia tych maszyn pozostawały pod ścisłą kontrolą Błękitnego Giganta. Windows to wyjątek - IBM nie ma nad nim żadnej kontroli. Specjaliści spodziewają się, że nowa strategia IBM-a zacznie szybko przynosić spodziewane korzyści.
  13. IBM i 3M łączą siły, by wspólnie opracować kleje, które pozwolą na tworzenie "półprzewodnikowych wież". Ich celem jest stworzenie nowej klasy materiałów, umożliwiających warstwowe łączenie nawet do 100 układów scalonych. W ten sposób mogłyby powstać chipy składające się z wielu procesorów i układów pamięci, zamkniętych w pojedynczej obudowie. Miałyby być one nawet 1000-krotnie bardziej wydajne niż obecnie wykorzystywane układy. Dzisiejsze chipy, nawet te korzystające z tzw. tranzystorów 3D to w rzeczywistości układy 2D o bardzo płaskiej strukturze. Nasi naukowcy mają zamiar stworzyć materiały, które pozwolą na umieszczenie olbrzymiej mocy obliczeniowej w nowej obudowie - krzemowym ‚drapaczu chmur' - stwierdził Bernard Meyerson, wiceprezes IBM-a ds. badawczych. Umowa pomiędzy Błękitnym Gigantem a 3M przewiduje, że pierwsza z tych firm będzie odpowiedzialna za stworzenie procesu pakowania półprzewodników, a druga za rozwój i produkcję materiału do ich łączenia. http://www.youtube.com/watch?v=rbj5vrXulD0
  14. IBM pracuje nad najbardziej pojemnym magazynem danych w historii. W laboratoriach w Almaden powstaje 120-petabajtowy system przechowywania danych. Będzie się on składał z 200 000 wspólnie pracujących dysków twardych. W sumie ma on pomieścić biliard plików, a jego twórcy mają nadzieję, że wspomoże symulowanie tak złożonych systemów jak klimat i pogoda. Same informacje dotyczące położenia poszczególnych plików, ich nazw oraz atrybutów zajmą około 2 petabajtów. Magazyn danych powstaje na potrzeby jednego z klientów IBM-a, który zamówił też nowy superkomputer do symulowania procesów zachodzących w przyrodzie. Bruce Hillsberg, dyrektor ds. badań nad systemami przechowywania danych, który odpowiada za powyższy projekt mówi, że doświadczenia zdobyte podczas tworzenia takiego systemu przydadzą się do opracowania podobnych komercyjnych magazynów danych. Jego zdaniem w ciągu najbliższych kilku lat firmy oferujące chmury obliczeniowe zaczną składać zamówienia na podobne systemy przechowywania danych. Inżynierowie IBM-a mają do wykonania bardzo ambitne zadanie. Obecnie największe systemy przechowywania danych liczą sobie około 15 petabajtów. Na potrzeby obecnego zamówienia IBM opracował nowy sprzęt i oprogramowanie. Wiadomo, że całość będzie chłodzona wodą, a inżynierowie zastanawiają się, w jaki sposób umieścić dyski tak, by zajmowały jak najmniej miejsca. Kolejnym poważnym wyzwaniem jest radzenie sobie z nieuniknionymi awariami poszczególnych dysków. Wykorzystano standardową technikę przechowywania licznych kopii danych na różnych urządzeniach, ale jednocześnie udoskonalono ją tak, by mimo awarii poszczególnych dysków całość pracowała z maksymalną wydajnością. Gdy jakiś dysk ulegnie awarii, to po jego wymianie system pobierze dane z innych dysków tak, by stworzyć dokładną kopię zepsutego nośnika. Wgrywanie danych ma odbywać się na tyle wolno, by nie wpływało na wydajność systemu. Jeśli natomiast jednocześnie zepsuje się kilka sąsiednich dysków, tworzenie ich kopii ma przebiegać bardzo szybko, by uniknąć niebezpieczeństwa, że dojdzie do kolejne awarii, która spowoduje całkowitą utratę danych. Hillsberg ocenia, że dzięki takim rozwiązaniom system nie utraci żadnych danych przez około milion lat, a jednocześnie nie wpłynie negatywnie na wydajność superkomputera. Magazyn będzie wykorzystał system plików GPFS, który powstał w Almaden na potrzeby superkomputerów. System ten zapisuje wiele kopii plików na różnych nośnikach, co pozwala na błyskawiczny ich odczyt, ponieważ różne fragmenty pliku mogą być później odczytywane jednocześnie z różnych dysków. Ponadto umożliwia on informacji o dokładnym położeniu każdego pliku, dzięki czemu uniknięto konieczności skanowania dysków w poszukiwaniu potrzebnych plików. W ubiegłym miesiącu, korzystając z systemu GPFS inżynierowe IBM-a zaindeksowali 10 miliardów plików w ciągu zaledwie 43 minut, znacznie poprawiając poprzedni rekord wynoszący miliard plików w trzy godziny.
  15. W laboratoriach IBM-a powstały eksperymentalne układy scalone, których budowa i funkcje mają być wzorowane na budowie i pracy mózgu. Układy neurosynaptyczne odwzorowują procesy zachodzące pomiędzy neuronami i synapsami. Systemy zbudowane w oparciu o takie układy, zwane komputerami poznawczymi, nie będą programowane w tradycyjny sposób. W założeniu mają się one uczyć na podstawie doświadczeń, odnajdować powiązania pomiędzy elementami, tworzyć hipotezy i wyciągać wnioski. Budowa takich komputerów i układów to część programu SyNAPSE, którego celem jest stworzenie systemu, który nie tylko analizuje dane napływające jednocześnie z wielu czujników, ale potrafi też zmieniać układ połączeń. Nasza inicjatywa ma na celu wyjście poza obowiązujący od ponad pół wieku paradygmat von Neumanna, który określa sposób tworzenia architektury komputerów. W przyszłości od komputerów będziemy wymagali coraz więcej rzeczy, których nie da się efektywnie uzyskać za pomocą tradycyjnej architektury. Tego typu układy to kolejny bardzo ważny krok w ewolucji komputerów od kalkulatorów po systemy uczące się. To początek nowej generacji komputerów i ich zastosowania w nauce czy biznesie - mówi Dharmendra Modha, odpowiedzialny za projekt z ramienia IBM Research. Prototypowe układy IBM-a nie zawierają żadnych elementów biologicznych. Głównym materiałem użytym do ich budowy jest krzem. Mimo to w ich obwodach zawarto „rdzeń neurosynaptyczny" zawierający zintegrowaną pamięć (odpowiednich zreplikowanych synaps), układ obliczeniowy (zreplikowane neurony) oraz układ komunikacyjny (zreplikowane aksony). Obecnie IBM posiada dwa tego typu układy scalone. Oba wykonano w 45-nanometrowej technologii SOI-CMOS. „Rdzenie synaptyczne" zawierają 256 neuronów. W jednym z układów umieszczono 262 144 programowalne synapsy, w drugim 65 536 uczących się synaps. Pierwsze udane eksperymenty pokazały, że systemy radzą sobie z nawigacją, systemami wizyjnymi, rozpoznawaniem wzorców, klasyfikowaniem oraz kojarzeniem elementów. Celem IBM-a jest stworzenie systemu układów scalonych, które będą korzystały z 10 miliardów neuronów, setek trylionów synaps, będą zajmowały mniej niż 2 decymetry sześcienne przestrzeni i zużywały około 1 kilowata mocy. W przyszłości taki system wyposażony w odpowiednie czujniki mógłby np. zostać wykorzystany w sklepie, gdzie na podstawie wyglądu, zapachu i temperatury odróżniłby zepsute lub zanieczyszczone towary od dobrych. Wyobraźmy sobie sygnalizację świetlną, która na podstawie obrazu, dźwięku i zapachu rozpozna zagrożenie i tak pokieruje ruchem na skrzyżowaniu, by uniknąć wypadku - mów Modha.
  16. Przed 30 laty, 12 sierpnia 1981 roku IBM zaprezentował pierwszego peceta. Na rynku były dostępne już wówczas inne komputery skierowane do osób indywidualnych, ale to otwarta modułowa architektura PC miała z czasem wygrać walkę o serca klientów. IBM późno zaoferował komputer do użytku domowego. Firma przez całe dziesięciolecia skupiała się na klientach biznesowych. W końcu szefowie Błękitnego Giganta stwierdzili, że istnieje zapotrzebowanie na komputer dla klienta indywidualnego. Dzięki temu powstał IBM 5150. Z czasem on i jego następcy stali się znani jako IBM PC (od Personal Computer). Nad nową maszyną pracował 12-osobowy zespół, na którego czele stał Don Estridge. IBM 5150 Personal Computer korzystał z intelowskiego procesora 8088 taktowanego zegarem o częstotliwości 4,77 MHz, 16 kilobajtów pamięci operacyjnej, portu szeregowego 8250, dwie stacje dyskietek 5,25 oraz monitora CRT wyświetlającego zielone znaki. Maszyna 5150 była sprzedawana do 1987 roku. Przez lata IBM był symbolem na rynku pecetów, a każdy miłośnik komputerów wiedział, że to właśnie Błękitnemu Gigantowi zawdzięczamy istnienie tego typu maszyn. Modułowa, otwarta architektura pozwoliła innym firmom na kopiowanie rozwiązań zastosowanych przez IBM-a, co z jednej strony przyczyniło się do szybkiej popularyzacji pecetów, a z drugiej spowodowało, że IBM nie wytrzymał konkurencji i w 2005 roku pozbył się wydziałów pracujących nad komputerami dla osób indywidualnych.
  17. IBM zrezygnował z uczestnictwa w rozpoczętym w 2006 roku Blue Waters - projekcie, którego celem jest stworzenie superkomputera o wydajności liczonej w petaflopsach. O wycofaniu się Błękitnego Giganta, głównego uczestnika programu, poinformowały wspólnie IBM oraz National Centre of Supercomputing Applications (NCSA). Innowacyjna technologia, którą IBM opracował, była bardziej złożona i wymagała znacznie większych nakładów finansowych oraz technicznych ze strony IBM-a niż początkowo przewidywano. NCSA i IBM starały się wypracować nowe porozumienie dotyczące udziału IBM-a w projekcie, jednak nie udało się go osiągnąć - czytamy w oświadczeniu koncernu. Projekt Blue Waters rozpoczęto w roku 2006 dzięki grantowi w wysokości 208 milionów dolarów, który na ten cel przeznaczyła Narodowa Fundacja Nauki. Rok później wybrano IBM-a na głównego wykonawcę superkomputera. Miał on korzystać z procesorów Power 7. Dotychczas IBM otrzymał ze wspomnianego grantu 30 milionów dolarów. Firma zwróci te pieniądze. John Melchi, dyrektor ds. administracyjnych w NCSA powiedział, że koszty rozwoju nowych technologii opracowanych przez IBM-a okazały się tak wysokie, iż koncern zrezygnował z dalszej współpracy. Teraz NCSA rozgląda się za innym partnerem. Zastrzega przy tym, że kwota grantu pozostaje taka sama i nie będzie waloryzowana o wskaźnik inflacji. Celem projektu Blue Waters jest stworzenie superkomputera o wydajności około 10 petaflopsów, który będzie nadawał się do obliczeń ogólnego przeznaczenia, a który jednocześnie będzie dawał gwarancję, że uruchomiona na nim typowa aplikacja naukowa będzie mogła liczyć na wydajność nie mniejszą niż 1 petaflops. Meichi mówi, że nawet po wycofaniu się IBM-a jest szansa, że Blue Waters rozpocznie prace przed końcem 2012 roku. Obecnie najbardziej wydajnym superkomputerem na świecie jest japoński K, którego maksymalna wydajność wynosi 8,16 PFlops. Warto też przypomnieć, że niedawno Cray ogłosił powstanie architektury XK6, która ma umożliwić zbudowanie nawet 50-petaflopsowego superkomputera.
  18. IBM przekaże The Apache Foundation cały kod Lotus Symphony. The Apache Foundation zajmuje się obecnie rozwojem OpenOffice'a, który został jej niedawno przekazany przez Oracle'a. Tymczasem alternatywnym dla OpenOffice'a projektem - LibreOffice - zajmuje się The Document Foundation, która rozpoczęła prace nad nim, gdyż nie było wiadomo, jakie zamiary wobec OO ma Oracle. The Apache Foundation otrzyma kod źródłowy Lotus Symphony, który składa się z ponad 3 milionów linii. Będzie on rozpowszechniany na licencji Apache 2.0. Do współpracy ze społecznością OpenOffice zostaną też oddelegowani developerzy IBM-a, których zadaniem będzie pomoc we włączeniu wybranych części Symphony do Office'a. Pomoc developerów Błękitnego Giganta będzie niezbędna. Już w chwili gdy Oracle przekazywało OpenOffice przedstawiciele The Document Foundation zwracali uwagę, że Apache Foundation prawdopodobnie nie posiada zasobów, by zająć się kolejnym tak dużym projektem. Rob Weir, odpowiedzialny w IBM-ie za architekturę ODF, zaproponował, by developerzy LibreOffice i OpenOffice połączyli siły. Świat korzysta przede wszystkim z MS Office'a, oprogramowania chronionego prawem autorskim. Jeśli weźmiemy pod uwagę inne tego typu programy, takie jak Corel WordPerfect, Google Docs i Apple iWork to w połączeniu z MS Office mają one ponad 90% rynku. Oprogramowanie opensourceowe ma bardzo małe udziały. Zatem zamiast walczyć o pozostałe 5% powinniśmy pomyśleć o wspólnym zaangażowaniu. To nie musi być scenariusz wygrany/przegrany. OpenOffice i LibreOffice mogą odnieść sukces. OpenOffice, LibreOffice, Calligra Suite, AbiWord czy Gnumeric mogą jednocześnie zdobywać użytkowników. A może się to dziać w tym samym czasie, gdy użytkowników będą zdobywały programy bazujące na OpenOffice, takie jak Lotus Symphony.
  19. W laboratoriach IBM-a dokonano przełomowego postępu na drodze do stworzenia praktycznych pamięci zmiennofazowych (PCM). Ekspertom Błękitnego Giganta udało się przechować przez dłuższy czas wiele bitów informacji w pojedynczej komórce pamięci. To z kolei daje nadzieję, że za około 5 lat PCM zaczną się upowszechniać. Naukowcy z laboratoriów w Zurichu opracowali nową technikę modulacji, która toleruje samoistne zmiany oporności, co w dłuższym czasie prowadzi do błędów odczytu danych. Dotychczas udawało się stabilnie przechowywać tylko pojedynczy bit danych w komórce. W PCM dane przechowywane są dzięki zmianie oporności, do której dochodzi podczas zmiany fazowej materiału z krystalicznej w amorficzną. Materiał umieszczony jest pomiędzy dwiema elektrodami. Przepuszczenie przez nie prądu powoduje podgrzanie materiału i zmianę fazy. Ponadto, w zależności od przyłożonego napięcia można decydować, jaka część materiału przejdzie zmianę, co z kolei bezpośrednio wpływa na oporność poszczególnych komórek pamięci. Właściwość tę wykorzystali naukowcy IBM-a, którzy podczas swoich eksperymentów użyli czterech różnych poziomów oporności do przechowania czterech kombinacji bitów - 00, 01, 10 i 11. Mogli to osiągnąć, dzięki ulepszeniu procesu odczytywania i zapisywania danych. Aby uniknąć niepożądanych różnic w oporności, spowodowanych budową komórki czy niedoskonałościami materiału, opracowali sposób płynnego manipulowania napięciem w zależności od założonego efektu. Przykładamy napięcie bazując na odchyleniach od zakładanego poziomu i wówczas mierzymy oporność. Jeśli wymagany poziom oporności nie został osiągnięty, impuls elektryczny jest wysyłany ponownie i znowu mierzymy oporność. Powtarzamy to tak długo, aż osiągniemy jej wymagany poziom - mówi doktor Haris Pozidis, dyrektor Memory and Probe Technologies w IBM Research. Pomimo używania takiej techniki, największe opóźnienie w zapisie danych wyniosło około 10 mikrosekund, co oznacza, że w najgorszym wypadku zapis danych w PCM jest 100-krotnie szybszy niż w pamięciach flash. Z kolei aby bezbłędnie odczytać dane po dłuższym czasie konieczne było poradzenie sobie ze zmianami oporności, jakie zachodzą w materiale amorficznym. Ze względu na budowę atomową takiego materiału, jego oporność z czasem rośnie, co wywołuje błędy w odczycie danych. Eksperci IBM-a opracowali technikę kodowania odporną na te zmiany. Wykorzystuje ona fakt, że właściwości komórek z danymi nie zmieniają się w czasie względem innych komórek o innej oporności. Dzięki temu byli w stanie odczytać po dłuższym czasie dane z 200 000 komórek pamięci zmiennofazowej wykonanej w technologii 90 nanometrów. Testy trwały pięć miesięcy, dowodząc możliwości długotrwałego wiarygodnego przechowywania danych.
  20. Google płaci swoim pracownikom najlepiej, a osoby zatrudnione w Facebooku są najbardziej zadowolone w porównaniu z pracownikami innych firm IT. Z kolei pracownicy IBM-a są najwierniejsi swojej firmie i spędzają w niej najwięcej lat. Takie informacje przekazała firma PayScale Inc. W swoich badaniach firma uwzględniła Amazona, Apple'a, Della, Facebooka, Google'a, Hewlett-Packarda, IBM-a, Intela i Microsoft. Pracownicy Google'a zarabiają średnio o 23% więcej od osób zatrudnionych w innych firmach na podobnych stanowiskach i spełniających podobne zadania i średnio o 10% więcej od osób z dużych firm IT. Najsłabiej opłacani są pracownicy HP, którzy zarabiają średnio o 5% mniej niż pracownicy innych firm oraz 15% mniej niż pracownicy innych dużych przedsiębiorstw IT. IBM ma najwierniejszych i najstarszych pracowników. Średni czas pracy dla IBM-a wynosi 8 lat, czyli aż o sześć lat dłużej niż średni czas pracy dla innych firm. Przeciętny pracownik IBM-a liczy sobie 44 lata. W innych firmach średnia wynosi 36 lat. Najmłodsi są pracownicy Facebooka, którzy średnio mają 26 lat. Są oni jednocześnie najbardziej usatysfakcjonowani ze swojej pracy. Najmniejszą satysfakcję daje się zauważyć u pracowników HP. Kobiety wciąż stanowią zdecydowaną mniejszość w firmach IT. Jest ich tam średnio 25%, podczas gdy w innych przedsiębiorstwach stanowią ponad 50%. Najbardziej elastyczną firmą pod względem urlopów i czasu pracy jest Microsoft. Przedsiębiorstwa z branży IT pozostają bardzo dobrymi pracodawcami. Wiele dużych firm z rynku nowoczesnych technologii płaci swoim pracownikom kwoty wyrażane sześciocyfrowymi liczbami. To nic dziwnego, biorąc pod uwagę liczbę dobrze opłacanych wysoko wykwalifikowanych inżynierów, których zatrudniają. Ale na tym nie koniec. Wypłacają też premie, które są średnio o 23% wyższe, niż premie otrzymywane przez osoby pracujące na analogicznych stanowiskach w ‚normalnych' firmach - mówi Al Lee, dyrektor ds. analitycznych PayScale.
  21. Dostępne obecnie systemy informacji o sytuacji na drogach mają jedną olbrzymią wadę - pokazują stan aktualny, co na niewiele przyda się kierowcy, który utkwił w korku. IBM we współpracy z kalifornijskim Departamentem Transportu oraz California Center of Innovative Transporation (CCIT) z University of California, Berkeley, tworzy system, który będzie przewidywał przyszłą sytuację na drogach. System ma też proponować alternatywne, trasy, pozwalające na uniknięcie korków, które mogą utworzyć się w przyszłości. Wspomniane na wstępie instytucje sądzą, że aby zbudować system prognozujący ruch na drogach trzeba stworzyć podsystem mierzący ruch, kolejny podsystem, który będzie przewidywał, jak ruch zmienia się w zależności od takich wydarzeń jak np. wypadki oraz system komunikacji z mieszkańcami. Stefan Nusser z IBM Almaden Research Center zauważa, że wszystkie trzy elementy już istnieją. Teraz wystarczy, by dane nt. sytuacji na drogach, które zbiera i przetwarza California Center for Innovative Transportation były wysyłane za pomocą systemów IBM-a do obywateli. Informacje będą docierały do nich tylko wówczas, gdy zdarzy się lub może zdarzyć coś istotnego: wypadek, załamanie pogody, roboty drogowe itp. Pomysłodawcom chodzi o to, by użytkownik otrzymywał alerty rzadko i tylko istotne. Jeśli docierałyby one doń zbyt często, przestałby zwracać na nie uwagę. Grupa ochotników już bierze udział w testach tego swoistego systemu wczesnego ostrzegania. Chętni otrzymali urządzenia mobile z odpowiednim oprogramowaniem. Co ciekawe, aplikacja nie została wyposażona w interfejs użytkownika, gdyż jej celem jest tylko przesyłanie informacji osobom, które dopiero mają zamiar wyruszyć w drogę oraz informacji zwrotnej, która pozwoli na lepszą analizę ruchu.
  22. Amerykańska Komisja Giełd (SEC) wymierzyła IBM-owi grzywnę w wysokości 10 milionów dolarów za korumpowanie urzędników w Korei Południowej i Chinach. SEC uznał za korupcję przypadki opłacania urzędnikom podróży, rozrywki i tym podobnych wydatków. W latach 1998-2003 koncern wydał 207 000 USD na prezenty, podróżne oraz inne przyjemności urzędników w Korei. Wydatki na chińskich urzędników to nieco świeższa historia. Obecnie nie wiadomo, ile pieniędzy wydano w Chinach. Wiadomo natomiast, że pracownicy IBM-a współpracowali z jednym z biur podróży w celu fałszowania faktur. SEC nie zarzuca Błękitnemu Gigantowi prowadzenia celowej polityki przekupowania urzędników. Koncern padł ofiarą własnych pracowników oraz braku odpowiedniego nadzoru i kontroli. Musi teraz zapłacić sporą kwotę za swoje błędy.
  23. IBM i Range Technology wybudują w pobliżu Pekinu olbrzymie centrum bazodanowe. Jego twórcy twierdzą, że będzie to największa azjatycka instalacja tego typu. Centrum o powierzchni 620 000 metrów kwadratowych zostanie uruchomione w 2016 roku. Stworzona tam chmura komputerowa służyć przede wszystkim chińskiemu rządowi, jednak zostanie również udostępnione bankom i przedsiębiorstwom prywatnym. Centrum, które będzie własnością Range Technology, stanie w mieście Langfang, położonym ok. 60 kilometrów na północ od Pekinu i będzie wspierało rozwój tworzonego tam huba informatycznego. Wykonawcą chmury będzie IBM. Błękitny Gigant poinformował, że Range Technology wyda w sumie 1,49 miliarda dolarów na Langfang Range International Information Hub, którego częścią będzie wspomniane centrum. Chiny stają się coraz ważniejszym graczem na rynku centrów bazodanowych i chmur obliczeniowych. W ciągu ostatnich czterech lat obroty samego tylko IBM-a zwiększyły się w Państwie Środka o 400 procent. Od ubiegłego roku jest ono, po USA, najważniejszym rynkiem bazodanowym dla IBM-a.
  24. Naukowcy z IBM-a dokonali ostatniego odkrycia, która umożliwi powstanie pamięci racetrack. Po sześciu latach teoretycznych badań nowy rewolucyjny rodzaj pamięci może w końcu doczekać się pierwszych prototypów. Racetrack memory (RM) wykorzystuje spintronikę, a nazwę zawdzięcza swojej budowie. Składa się z miliardów nanokabli w kształcie litery U, które są przytwierdzone do krzemowego podłoża. Każdy z kabli przechowuje setki bitów danych. Są one przechowane w formie całej serii pól magnetycznych rozmieszczonych wzdłuż nanokabla. W przeciwieństwie do pamięci flash, która z czasem traci zdolności do przechowywania danych, RM w ogóle się nie zużywa. W miejscu, w którym kabel jest przytwierdzony do krzemu znajdują się niewielkie, nieruchome urządzenia odczytujące i zapisujące. Przyłożenie napięcia elektrycznego do nanokaba powoduje przesuwanie się magnetycznych domen, w których zapisane są informacje. Głowica odczytująca mierzy magnetooporność każdej z domen, odczytując w ten sposób zapisane informacje. Podobne, umieszczone obok urządzenie, może zapisywać dane odpowiednio manipulując napięciem elektrycznym. Domeny przesuwają się z prędkością setek kilometrów na godzinę, a że mają do przebycia dystans liczony w nanometrach, błyskawicznie znajdują się przy urządzeniach zapisujących i odczytujących. Racetrack nie ma ruchomych części, więc się nie zużywa. Może przechowywać dane przez całe dziesięciolecia. Do pracy wymaga bardzo mało energii elektrycznej i niemal nie wydziela ciepła, a zapis i odczyt przebiegają niezwykle szybko. Ponadto na tej samej przestrzeni pozwala upakować co najmniej 100-krotnie więcej danych niż obecnie używane pamięci. Ma więc wszystkie zalety pamięci RAM, flash i dysków twardych, a jednocześnie pozbawiony jest ich wad. Najnowsze badania, dokonane przez uczonych z IBM-a, pozwalaja na precyzyjne sterowanie ruchem domen magnetycznych. Naukowcy po raz pierwszy zmierzyli czas i dystans potrzebne do pełnego przyspieszenia ściany domeny w odpowiedzi na przyłożenie napięcia. Odkryliśmy, że ściany domen nie osiągają maksymalnej prędkości natychmiast po włączeniu napięcia oraz, że proces przyspieszania do wartości maksymalnej zajmuje im tyle samo czasu i przebywają wówczas taki sam dystans, co podczas zwalniania i zatrzymania się po wyłączeniu prądu. Dotychczas tego nie wiedzieliśmy, bo nie było jasne, czy ściana domeny ma masę oraz w jaki dokładnie sposób kompensują się procesy przyspieszania i zwalniania. Teraz wiemy, że nawet jeśli ściany domen mają masę, to domeny można precyzyjnie pozycjonować manipulując długością impulsu elektrycznego - powiedział doktor Stuart Parkin, twórca racetrack. Jeśli spełnią się wcześniejsze przewidywania Parkina, to pierwsze pamięci racetrack powinny trafić na rynek w ciągu 3-8 lat.
  25. Zaledwie trzynaście lat temu komputer stworzony przez IBM pobił w tej królewskiej grze ludzkiego arcymistrza: Garrego Kasparowa. W przyszłym roku program o nazwie „Watson" rzuci wyzwanie ludzkim mistrzom teleturnieju Jeopardy! Podobno po przegranym z komputerem turnieju arcymistrz Garry Kasparow miał mówić, że chwilami miał wrażenie, że gra z człowiekiem. Mimo to, od stworzenia programu do skutecznej gry w szachy - grę o wielu kombinacjach ale prostych regułach - do prawdziwej sztucznej inteligencji droga jeszcze daleka. Czy trzynaście lat to wystarczający czas? Być może przekonamy się o tym w lutym przyszłego roku. Wówczas napisany przez IBM program „Watson" (nazwany na cześć twórcy firmy, Thomasa J. Watsona) stanie do walki z ludźmi w popularnym teleturnieju Jeopardy! (ang. ryzyko). W Polsce teleturniej ten znany był pod nazwą Va Banque (prowadził go Kazimierz Kaczor). Sztuka rozumienia zadanego w naturalnym języku pytania i udzielenia odpowiedzi w takimże języku jest już wystarczająco trudna, Jeopardy! stwarza jednak dodatkowe wyzwanie: w tym programie dostaje się odpowiedź i należy ułożyć do niej poprawne pytanie. Rozwiązań może być zatem więcej i mogą one być formułowane w różny sposób, dodatkowo liczy się prędkość, ponieważ nagrodę zgarnia najszybszy gracz. Najlepsi z najlepszych - po obu stronach Do rywalizacji w imieniu ludzkości stają również nie zwykle zjadacze chleba i uczestnicy teleturniejów, ale najwięksi mistrzowie: Ken Jennings, który wygrał aż 74 turnieje pod rząd w sezonie 2004-2005, oraz Brad Rutter, zdobywca największej wygranej (niemal 3,3 miliona dolarów) podczas czterech turniejów. Poza prestiżem i chwałą do wzięcia w pokazowej grze jest okrągły milion dolarów. Niezależnie od wyniku zwycięzcą będą instytucje charytatywne - IBM zobowiązał się do przekazania na cele dobroczynne całej ewentualnej wygranej, Jennings i Rutter - połowę uzyskanej sumy. Mecz Watson kontra Jennings kontra Rutter będzie emitowany w dniach 14-16 lutego 2011. Obok ludzi pojawi się zatem komputerowy awatar. Wiadomo, że rozegrano już pięćdziesiąt próbnych i testowych turniejów pomiędzy sztuczną inteligencją rodem z IBM a ludzkimi zwycięzcami, ale obie strony milczą o ich wyniku. Jednak fakt rzucenia przez zespół programistów rękawicy zdaje się wskazywać, że są oni przekonani o dużych szansach na co najmniej równorzędną rywalizację. O wyniku przekonamy się za dwa miesiące. Znawcy zagadnienia sztucznej inteligencji za probierz siły algorytmicznego myślenia uważają często grę Go - w której rzeczywiście mimo prostych reguł najlepsze programy nie dorównują wyższej klasy zawodnikom. Jednak stworzenie programu potrafiącego nie tylko szybko i sprawnie sięgać do bazy danych, ale rozumieć i komunikować się w naturalnym języku, będzie nie tylko przełomem, ale zaoferuje wiele praktycznych korzyści. A także, nie da się ukryć, będzie wyjątkowo atrakcyjne medialnie. http://www.youtube.com/watch?v=FC3IryWr4c8
×
×
  • Create New...