Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'IBM' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 150 wyników

  1. Podczas odbywającej się właśnie w Portland konferencji SC09, zebrani zastanawiają się nad przyszłością superkomputerów. Na organizowanych przez Departament Energii warsztatach trwają rozmowy o systemach 1000-krotnie bardziej wydajnych niż Jaguar, obecny lider listy TOP500. Mowa zatem o systemach, których wydajność będzie liczona w eksaflopsach, czyli w trylionach operacji zmiennoprzecinkowych na sekundę. Potrzebujemy tak potężnych systemów do tworzenia dokładnych modeli klimatycznych, prac nad wydajnymi bateriami czy pozyskiwaniem energii z fuzji jądrowej. Przedstawiciele Departamentu Energii, który sfinansował wiele najpotężniejszych superkomputerów na świecie, twierdzą, że w latach 2011-2013 powstanie system o wydajności około 10 petaflopsów. Pierwszy komputer, który przekroczył barierę teraflopsa powstał w 1997 roku, a w 2008 pokonano petaflops. Eksaflopsowa maszyna ma pojawić się około 2018 roku. Twórcy takiego systemu będą musieli rozwiązać wiele problemów, a jednym z najpoważniejszych będzie zapewnienie mu odpowiedniej ilości energii. Jaguar potrzebuje do pracy 7 megawatów, a nieco mniej wydajny Roadrunner - 3,9 MW. Zdaniem Dave'a Tureka z IBM-a eksaflopsowa maszyna będzie potrzebowała około 2 gigawatów mocy. Skąd tak olbrzymi pobór? Szacunki mówią, że komputer o wydajności eksaflopsa musi zostać wyposażony w 10-100 milionów rdzeni obliczeniowych. Turek sądzi, że bardziej dokładne są szacunki bliżej górnej granicy. To z kolei rodzi kolejne problemy. Tak olbrzymia liczba rdzeni będzie oznaczała liczne awarie, a więc trzeba skonstruować narzędzia do diagnostyki i naprawy superkomputera. IBM już teraz pracuje nad zapobieżeniem wielu problemom. Błękitny Gigant chce stworzyć eksaflopsowy system, który do pracy będzie potrzebował nie więcej niż 20 megawatów i zmieści się w 70-80 szafach. Rozwiązaniem może być tworzenie systemów hybrydowych, które z jednej strony będą korzystały z procesorów różnych producentów, a z drugiej będą używały do obliczeń nie tylko CPU ale i GPU.
  2. Firma Universum przygotowała listę 50 najbardziej pożądanych pracodawców na świecie [PDF]. Ułożono ją na podstawie ankiety, w której wzięło udział 120 000 studentów z najlepszych światowych uczelni. Odpowiedzi udzielali studenci z USA, Japonii, Chin, Niemiec, Wielkiej Brytanii, Francji, Rosji, Włoch, Hiszpanii, Kanady i Indii. Specjaliści z Universum utworzyli dwie listy atrakcyjności pracodawców. Na jednej umieszczono ich pod kątem odpowiedzi uzyskanych od studentów kierunków biznesowych, na drugiej - technicznych. Na obu listach pierwsze miejsce zajęło Google. Dalej listy już się różnią. Wśród studentów nauk technicznych drugą pozycję zajmuje Microsoft (3. miejsce wśród kierunków biznesowych), trzeci jest IBM (17. na kierunkach biznesowych), 4. BMW (12. - kierunki biznesowe), 5. Intel (30.), 6. GE (20.), 7. Sony (16.), 8. Siemens (37.), 9. Shell (33.) a na 10. pozycji znajdziemy Procter & Gamble (6.). Warto zauważyć, że globalizacja spowodowała, iż wielkie znane marki cieszą się dużym zaufaniem i są bardzo dobrze postrzegane przez kandydatów na pracowników. Mimo to przemysł IT ostrzega, że zaczyna brakować osób o odpowiednich umiejętnościach. Microsoft od dawna apeluje do rządu USA o przyznawanie większej liczby wiz osobom, które mają odpowiednie kwalifikacje techniczne. Problem nie dotyczy tylko Stanów Zjednoczonych. Premier Dolnej Saksonii mówi, że każdego roku jego regionowi brakuje od 10 do 16 tysięcy inżynierów. Z kolei w Indiach w przyszłym roku potrzebnych będzie aż pół miliona osób po studiach technicznych.
  3. Menedżerowie Intela i IBM-a zostali oskarżeni przez amerykańską komisję giełd (SEC) o nielegalne wykorzystywanie poufnych informacji do gry na giełdzie. Dzięki temu różne osoby zarobiły nielegalnie około 25 milionów dolarów. Jednym z oskarżonych jest dyrektor firmy Intel Capital Rajiv Goel, innym, wiceprezes IBM-a Robert Moffat. Oprócz nich oskarżono jeszcze cztery osoby. Goel jest podejrzewany o to, że wykorzystując informacje dotyczące kwartalnych wyników finansowych Intela oraz planowanego połączenia firmy Clearwire zarobił nielegalnie 250 000 dolarów. Z kolei Moffat miał przekazać na zewnątrz informacje na temat firmy Sun Micrososystems, którą IBM uzyskał gdy rozważał zakup tego przedsiębiorstwa, co skutkowało nielegalnymi zarobkami w wysokości miliona USD. Wiadomo też, że w sprawę zamieszany jest Raj Rajaratnam, menedżer z funduszu hedgingowego Galleon Group czy dyrektorzy funduszu New Castle Partners. Do nieprawidłowości dochodziło w latach 2006-2009 i dotyczyły one handlu papierami AMD, Akamai, Clearwire, Google'a, Hiltona, Polycomu, Sun Microsystems i wielu innych firm. Cała sprawa jest dość tajemnicza. Wiele informacji zdobyto dzięki podsłuchom i skrupulatnemu kojarzeniu poszczególnych części układanki. Jednym z licznych pytań, na które będzie trzeba odpowiedzieć są i takie, dlaczego miliarder Raj Rajaratnam miałby ryzykować dla niewielkiej kwoty sięgającej 20 milionów dolarów, i co skłoniło Roberta Moffata, wymienianego wśród kandydatów na prezesa IBM-a, do popełnienia przestępstwa, na którym nie zarobił wielkich pieniędzy.
  4. Skandal z nielegalnymi operacjami giełdowymi, w który zamieszani są menedżerowie IBM-a i Intela, zatacza coraz szersze kręgi. Podejrzenia padły na byłego prezesa AMD, a obecnie szefa Globalfoundries, Hectora Ruiza. Niewykluczone, że zostaną mu przedstawione zarzuty przekazywania poufnych informacji Danielle Chiesi z funduszu hedgingowego New Castle. Z dokumentów, w posiadaniu których jest sąd, wynika, że Ruiz we wrześniu 2008 przekazał Chiesi informacje o planowanym wydzieleniu z AMD firmy Globalfoundries. Oficjalne oświadczenie w tej sprawie wydano w październiku. O udziale Ruiza w całej sprawie poinformowało serwis Bloomberg anonimowe źródło z firmy AMD. W dostępnych dokumentach sądowych jest bowiem mowa o "menedżerze z AMD". Ma nim być, według anonimowego informatora, właśnie Ruiz. Sąd dysponuje nagraniem rozmowy pomiędzy Chiesi a wspomnianym menedżerem. Zapewnia on rozmówczynię, iż istnieje 99% prawdopodobieństwo, że informacja o powstaniu Globalfoundries zostanie podana przed informacją o wynikach finansowych AMD. Tak też się stało. Koncern najpierw (7 października) ogłosił pozyskanie inwestora z Abu Dhabi, który wniósł 8,4 miliarda USD, co pozwoliło na stworzenie Globalfoundries, a później - 16 października - przedstawił raport dotyczący wyników finansowych. Wszystkich zaszokujemy - miał powiedzieć do Chiesi jego rozmówca podczas spotkania, które odbyło się 16 września. Sam Ruiz nie odniósł z tego żadnych korzyści materialnych. Sztuka ta nie udała się też Chiesi i zarządzanemu przez nią funduszowi. Co prawda New Castle kupił następnie dużo akcji AMD, jednak w tym samym czasie zaczął pogłębiać się kryzys finansowy, więc fundusz na zakupach nie zarobił.
  5. IBM i Microsoft nie zaliczą ostatniej doby do najbardziej udanych w swojej historii. Obie firmy zanotowały poważne wpadki, które zachwiały zaufaniem użytkowników. Najpierw media doniosły, że szef firmy Air New Zealand nazwał działanie IBM-a "amatorskim". Rob Fyfe zdenerwował się, gdyż jego firma nie mogła obsługiwać pasażerów wskutek awarii systemu komputerowego, który jest obsługiwany przez IBM-a. Doszło do awarii zasilania w mainframe przetwarzającym rezerwacje, odprawę i telefoniczne centra obsługi. Jakby tego było mało, nie zadziałał system awaryjnego zasilania. IBM już przeprosił swojego klienta i ustalono, że odbędzie się spotkanie, podczas którego cała sytuacja zostanie omówiona. Pecha mieli też klienci T-Mobile oraz należącej do Microsoftu firmy Danger, którzy wykorzystują w smartfonach oprogramowanie Sidekick i jego usługi. Wskutek awarii utracili oni wszystkie dane przechowywane na serwerach Sidekick. Na razie nie wiadomo, jaka była przyczyna utraty danych. Pojawiły się spekulacje, że nie doszło do awarii systemu, ale mieliśmy do czynienia z wyjątkowym niedbalstwem administratorów. Nie wykonali oni kopii zapasowych i przystąpili do rozbudowy sieci SAN (Storage Area Network), podczas której wystąpiły problemy skutkujące utratą danych. Po wstępnej analizie T-Mobile i Microsoft wydały oświadczenie, z którego wynika, że informatycy pracują nad odzyskaniem danych, jednak szansa na powodzenie takiej operacji jest "ekstremalnie mała".
  6. Red Hat, wielki gracz na rynku oprogramowania Open Source, wyraził w opinii dla amerykańskiego Sądu Najwyższego, sprzeciw wobec możliwości patentowania oprogramowania. Firma ma zatem na ten temat inne zdanie niż IBM. Opinia została przygotowana na potrzeby sprawy Bilski, Warsaw przeciwko Biuru Patentowemu. Red Hat wezwał Sąd Najwyższy do postąpienia podobnie jak sąd niższej instancji i zastosowanie testu "machine-or-transformation". Test ten to pojęcie z amerykańskiego prawa patentowego i jest używany od XIX wieku. Pozwala on stwierdzić, czy dany proces kwalifikuje się do przyznania patentu. Musi on bowiem spełniać jeden z dwóch warunków. Albo być zaimplementowany w konkretnej maszynie, przeznaczonej do wykonywania tego procesu, który jednocześnie nie jest konwencjonalny i trywialny lub też musi być procesem zmieniającym produkt z jednego przedmiotu lub stanu, w inny. Specjaliści nie są jednomyślni co do tego, czy test "machine-or-transformation" może być używany samodzielnie do oceny możliwości patentowania. Można bowiem wymyślić hipotetyczny wniosek patentowy (np. na pranie w rzece), który nie przejdzie tego testu, jednak jest jak najbardziej zgodny z prawem patentowym i jako taki powinien zostać przyjęty. Istnieją też rozbieżności, czym jest "konkretna maszyna" i czy może być nią np. kij, którym będziemy uderzać tkaninę praną w rzece. Red Hat uważa, że test "machine-or-transformation" wyklucza z patentowania całe oprogramowanie. Firma argumentuje, że co prawda system patentowy ma za zadanie promować innowacyjność, jednak w przypadku oprogramowania działa wręcz przeciwnie. Program może bowiem zawierać tysiące komponentów, które mogą być opatentowane, a to naraża jego twórcę na ryzyko nieświadomego naruszenia praw innej osoby. Dlatego też Red Hat popiera opinię sądu niższej instancji, że oprogramowanie można opatentować jedynie wówczas, gdy jest ono powiązane z konkretną maszyną lub też, gdy "zmienia produkt z jednego przedmiotu lub stanu w inny". Tymczasem zdecydowana większość oprogramowania nie ma związku z konkretną rzeczą i jest czymś zbyt abstrakcyjnym, by podlegała patentowaniu.
  7. Środowisko Open Source stoi na stanowisku, że patenty są czymś groźnym dla rozwoju i dają pole do popisu trolom patentowym. Generalnie jest ono przeciwne amerykańskiemu systemowi patentowemu. Tym bardziej zaskakująca jest opinia IBM-a, jednej z największych firm wspierających ruch Open Source. Otóż koncern wystąpił ostatnio jako amicus curiae w sprawie Bilski, Warsaw przeciwko Biuru Patentowemu. Sprawa dotyczy odmowy opatentowania przez USPTO metody oceny ryzyka na rynku handlu energią. We wspomnianym dokumencie IBM stwierdza, że ochrona patentowa ułatwia bezpłatną wymianę kodu źródłowego, co z kolei przyczynia się do rozwoju oprogramowania Open Source. Dowiadujemy się z niego także, iż zdaniem Błękitnego Giganta bez korzyści płynących z ochrony patentowej producenci oprogramowania musieliby zachowywać tajemnicę, co ogranicza możliwość zapoznania się z innowacjami w dziedzinie oprogramowania, gdyż wnioski patentowe są ważnym źródłem wiedzy na ten temat. IBM dowodzi, że patentowania oprogramowania jest korzystne z punktu widzenia ekonomicznego, technologicznego i społecznego.
  8. IBM poinformował o stworzeniu najbardziej wydajnego procesora dla układów typu SoC (system-on-chip). Błękitny Gigant, we współpracy z LSI Corporation, stworzył rdzeń PowerPC 476FP. Będzie on używany w przyszłych produktach LSI. Wyprodukowany w technologii 45 nanometrów rdzeń PowerPC 476FP jest taktowany zegarem o częstotliwości do 1,6 GHz, a benchmark Dhrystone wykazał, że wydajność układu na każdy megaherc wynosi 2,5 MIPS. To ponaddwukrotnie więcej, niż obecne na rynku kości SoC IBM-a. Tak wydajny układ może przyczynić się do rozpowszechnienia wysoko zaawansowanych wbudowanych platform przyszłości, jak np. telefonii 4G. Nowy rdzeń pobiera podczas pracy tylko 1,6 wata, co czyni go jednym z najbardziej wydajnych energetycznie urządzeń tego typu. Zajmuje on powierzchnię zaledwie 3,6 milimetra kwadratowego co w połączeniu z niewielkim poborem pozwala na łatwe chłodzenie go powietrzem. PowerPC 476FP wykorzystuje architekturę PLB6, czyli najnowsze rozszerzenie dla szyny CoreConnect, które umożliwia łatwe skalowanie SoC do nawet 16 procesorów.
  9. Specjaliści z IBM-a i California Institute of Technology (Caltech) opracowali technologię umożliwiającą znaczne zmniejszenie rozmiarów i zwiększenie wydajności układów scalonych przy jednoczesnym obniżeniu ich zapotrzebowania na energię i kosztów produkcji. Ekspertom udało się połączyć techniki litografii i samoorganizowania się struktur układu scalonego. Wykorzystali w tym celu DNA, którego nici mogą służyć jako wzorzec dla osadzania węglowych nanorurek, cząstek metali czy nanokabli. Technika polega na przygotowaniu DNA o pożądanym kształcie i właściwościach poprzez umieszczenie w roztworze pojedynczych molekuł, które samoorganizują się dzięki interakcji pomiędzy pojedynczą długą nicią DNA wirusa, a mieszaniną różnych krótkich nici oligonukleotydów. Krótkie nici działają jak rodzaj wzorca, nadając długiej nici pożądanych kształt. Możliwe jest uzyskiwanie różnych kształtów poprzez odpowiednie manipulowanie oligonukleotydami. W ten sposób uzyskuje się strukturę, w której odległości pomiędzy poszczególnymi elementami wynoszą 6 nanometrów. Jej rozpiętość to 100-150 nanometrów, a grubość jest równa grubości DNA. Następnie za pomocą technik litograficznych na podłożu krzemowym tworzona jest matryca z punktami zaczepienia. Przygotowana jest tak, by poszczególne struktury DNA pasowały w konkretne miejsca i tylko w nich się zaczepiały. Dzięki takiemu podejściu możliwe będzie łatwe pokonanie granicy 22 nanometrów w produkcji układów scalonych. Do DNA umieszczonego na krzemie można bowiem mocować inne struktury, takie jak np. węglowe nanorurki, które stworzą obwód logiczny.
  10. Google po raz pierwszy otwarcie konkuruje z IBM-em, próbując wykraść Błękitnemu Gigantowi klientów. Wyszukiwarkowy koncern udostępnił zestaw narzędzi, które ułatwiają klientom biznesowym migrację z Lotus Notes do Google Apps Premier. Firma Page i Brina postanowiła zatem powalczyć o rynek wart wiele miliardów dolarów, na którym już od dawna ścierają się takie potęgi jak Microsoft i IBM. Google informuje, że odnosi już pierwsze sukcesy. Firmy Fairchild Semiconductor, Hamilton Beach, JohnsonDiversey i Valeo dokonały migracji z Lotus Notes do Google Apps, które tym samym zyskały niemal 50 000 nowych użytkowników. Oprócz nich Lotus Notes straciło na rzecz Google Apps ponad 30 innych, mniejszych firm. Przedstawiciele Google'a reklamują swój produkt jako bardziej elastyczny i tańszy niż "stare systemy" konkurencji. Zdaniem analityków firmy Nucleus Research, najbardziej atrakcyjna w ofercie Google'a jest poczta elektroniczna, której utrzymanie rzeczywiście pozwala obniżyć koszty w porównaniu z drogim systemem Lotus Notes. IBM nie martwi się na razie nowym konkurentem. Sean Poulley, przedstawiciel firmy, mówi, że Lotus Notes nigdy nie miało tak silnej pozycji, z gdy jest się rynkowym liderem, to trzeba liczyć się z istnieniem wielu pretendentów do tronu. Zagrożenie jest tak niewielkie, że IBM nie ma zamiaru udostępniać specjalnych narzędzi, które ułatwiałyby migrację z Google Apps do Lotus Notes. Firma skupia się na walce z gigantem z Redmond i stara się zachęcić użytkowników Microsoft Exchange do przejścia na Lotus Notes. Obie firmy oferują narzędzia, które mają ułatwić klientom porzucenie konkurencyjnych rozwiązań.
  11. Specjaliści z IBM-a rozwiązali problem matematyczny, z którym naukowcy borykali się od czasu wynalezienia przed kilkudziesięciu laty publicznych kluczy szyfrujących. Technika nazwana "homomorfizmem prywatności" lub też "pełnym szyfrowaniem homomorficznym" umożliwia przeprowadzenie szczegółowej analizy zaszyfrowanych danych bez konieczności ich odszyfrowywania. Opracowana przez Craiga Gentry'ego formuła korzysta z matematycznego modelu ideału i pozwala na tak głęboką analizę, jaką dotychczas uważano za niemożliwą. Analizowanie zaszyfrowanych danych przyda się wielu przedsiębiorstwom. Dzięki temu pracownicy np. banków będą mogli prowadzić szczegółowe analizy dotyczące zachowań finansowych klientów, a jednocześnie nie będą mieli dostępu np. do informacji osobistych. Z kolei pracownik dużej sieci sklepów odzieżowych będzie mógł przygotować dla szefa zestawienie dotyczące np. jak często, w jakich godzinach i których sklepach mężczyźni płacą kartą kredytową, a jednocześnie nie będzie obawy, że pracownik ten pozna dane z takich kart. Dzięki nowej technice przeprowadzane analizy mogą być tak szczegółowe, jak analizy prowadzone na niezaszyfrowanych danych. Technologia ta może przyczynić się też do udoskonalenia filtrów antyspamowych, lepszej ochrony informacji medycznych przechowywanych w formie elektronicznej czy też skonstruowania doskonalszych wyszukiwarek.
  12. Giganci IT najwyraźniej postanowili zarobić na... energetyce. W lutym Google poinformowało o pracach nad projektem PowerMeter, dzięki któremu użytkownik ma się dowiedzieć, ile energii zużywają poszczególne urządzenia w jego domu. Intel pracuje nad technologią, która umożliwi szczegółowe monitorowanie zużycia energii przez komputery i telewizory, a IBM chce ogrzewać domy ciepłem z centrów bazodanowych i finansuje nowo powstałe firmy tworzące ekologiczne rozwiązania. Do tej trójki właśnie dołączył kolejny gigant - Microsoft. Koncern zaprezentował online'ową aplikację Hohm, która pozwoli na oszacowanie kosztów zużywanej energii i przygotowuje spersonalizowane porady, gdzie można szukać oszczędności. Hohm korzysta z technologii licencjonowanych przez Lawrence Berkeley National Laboratory i Departament Energii. Ma tę przewagę nad konkurencją, że już wkrótce powinien zostać udostępniony. Podczas pracy Hohm bierze pod uwagę informacje wprowadzone przez użytkownika, takie jak np. dane dotyczące używanych w domu sprzętów elektrycznych, informacje na temat korzystania z nich, powierzchnie domu itp. itd. Pomyślano też o użytkownikach, którym nie chce się wpisywać tych danych. W takim przypadku Hohm korzysta z dostępnych w sieci informacji dla całego kraju oraz poszczególnych jego regionów i na tej podstawie przygotowuje porady, które użytkownik może dostosować do swojej sytuacji. Platforma została wyposażona też w mechanizm serwisu społecznościowego. Umożliwia kontakty pomiędzy użytkownikami, dzięki czemu będą się oni mogli dzielić swoimi spostrzeżeniami, czy też dowiedzieć się, gdzie w ich okolicy można np. kupić odpowiednie uszczelki do okien. Hohm korzysta z wyszukiwarki Bing i został zintegrowany z platformą Microsoft Advertising. Koncern z Redmond zapewnił już sobie współpracę z kilkoma producentami i dostawcami energii, dzięki czemu ich klienci będą mogli za pomocą Hohma na bieżąco pobierać dane dotyczące zużywanej przez nich energii, co z kolei przyda się Hohmowi do wydawania bardziej trafnych porad. Co ciekawe, Microsoft współpracuje też z producentami "inteligentnych" liczników energii elektrycznej. Dzięki ich wiedzy i dostępowi do sieci ich liczników Hohm będzie mógł informować użytkowników na bieżąco od lokalnym zużyciu energii, tworzyć prognozy. Osoby korzystające z usługi Microsoftu będą wiedziały np. w jakich porach dnia energia jest najdroższa i dzięki temu będą mogły zaoszczędzić sporo pieniędzy. Hohm może zadebiutować już w przyszłym tygodniu. Jeśli Microsoftowi uda się wyprzedzić konkurencję, to biorąc pod uwagę fakt, iż ma znaną, cieszącą się zaufaniem markę oraz że konsumenci szukają jak najprostszych rozwiązań, może odnieść sukces na nowym polu.
  13. IBM, Samsung, ARM, STMicroelectronics, Globalfoundries i inne firmy ogłosiły, że w drugiej połowie przyszłego roku rozpoczną dostarczanie układów scalonych wykonanych w technologii 28 nanometrów. Kości trafią do urządzeń elektroniki użytkowej. Obecnie przedsiębiorstwa pracują nad stworzeniem odpowiedniego procesu technologicznego. Konsorcjum firm chce konkurować z Intelem, który na początku przyszłego roku rozpocznie sprzedaż 32-nanometrowych układów Westmere. IBM ogłosił, że w porównaniu z obecnymi już na rynku 45-nanometrowymi układami, nowe kości będą o 40% bardziej wydajne, mają zużywać o 20% mniej energii, a ich rozmiar zostanie zredukowany o 50%.
  14. Poniższa informacja to żart primaaprilisowy. Jak doniosło wczorajsze wydanie The Wall Street Journal, niewykluczone, że za kilka lat ostatecznie pożegnamy się z architekturą x86. Z nieoficjalnych doniesień wynika, że Intelowi nie opłacają się dalsze prace nad tą technologią. Obecnie Intel produkuje układy w technologii 32 nanometrów i pracuje nad 22-nanometrowymi kośćmi. Nie od dzisiaj wiadomo, że przekroczenie granicy 22 nanometrów będzie niezwykle trudne. Dziennikarze WSJ dowiedzieli się, że przedstawiciele Intela wyliczyli, iż ich firma musiałaby zainwestować około 35 miliardów dolarów w same prace badawczo-rozwojowe. Przygotowanie fabryk, koszty sprzedaży i marketingu dwukrotnie zwiększą tę kwotę. Trzeba ponadto brać pod uwagę, że przejście na proces mniejszy niż 22 nanometry wymaga wielkich inwestycji w całym przemyśle półprzewodnikowym. Analitycy mówią tutaj o kwotach rzędu 600-800 miliardów dolarów. Specjaliści są sceptyczni jeśli chodzi o opłacalność takiego przedsięwzięcia. By zwrot z inwestycji dokonał się w zwykłym dla tego przemysłu terminie, sprzedaż procesorów wykonanych w technologii mniejszej niż 22 nanometry musiała by być większa o około 70% od obecnego popytu na CPU. Wzrost ten jest niemożliwy także i z tego powodu, że takie procesory byłyby o około 15-20 procent droższe. The Wall Street Journal donosi o nieoficjalnych rozmowach toczonych pomiędzy Intelem a IBM-em. Intel chce podobno odkupić od IBM-a prawa do architektury Power. Jest ona łatwiejsza w skalowaniu, ponadto procesory Power udaje się taktować znacznie szybszym zegarem niż x86. Przedstawiciele Intela uważają, że zakup Power dałby im czas do około 2020 roku na opracowanie nowej architektury. Bardzo możliwe, że IBM sprzeda całość praw do Power. Od kilku lat firma stopniowo wycofuje się z rynku półprzewodników, komputerów oraz klienta indywidualnego i skupia się na rynku usług, oprogramowania i sprzętu dla biznesu. Sprzedaż produkcji procesorów pozwoli jej na znaczą redukcję kosztów operacyjnych oraz uwolni od konieczności finansowania prac badawczo-rozwojowych nad procesorami. Zaoszczędzone pieniądze IBM będzie mógł przeznaczyć na prace R&D na rynku superkomputerów oraz komputerów kwantowych. Nie wiadomo, co stanie się z architekturą x86. Analitycy uważają, że Intel może próbować ją sprzedać AMD. W ten sposób uwolniłby się od oskarżeń o działania monopolistyczne, a jednocześnie "zamknąłby" swojego konkurenta w niszy przestarzałej, odchodzącej do lamusa technologii.
  15. The Wall Street Journal donosi, że IBM prowadzi z Sun Microsystems rozmowy, których celem jest przejęcie tej firmy przez Błękitnego Giganta. Obie firmy sporo łączy - są one zainteresowane przede wszystkim rynkiem klienta korporacyjnego, mają w ofercie własne procesory i systemy operacyjne, więc nie są uzależnione ani od Intela, ani od Microsoftu. Ponadto obie mocno wspierają środowisko opensource'owe. To również oznacza, że są swoimi konkurentami. Nie wiadomo, czy dojdzie do transakcji. Jeśli jednak tak się stanie, to jeszcze w bieżącym tygodniu możemy spodziewać się oficjalnego komunikatu. IBM jest skłonny zapłacić za Suna 6,5 miliarda dolarów. To niemal o 100% więcej niż wynosi rynkowa kapitalizacja tej firmy. Anonimowe źródła poinformowały WSJ, że w ciągu ostatnich miesięcy Sun Microsystems starał się zainteresować sobą kilka dużych firm. Prowadzono ponoć rozmowy m.in. z HP i Dellem w sprawie przejęcia. Jeśli IBM kupi Suna, będzie to największe przejęcie w historii Błękitnego Giganta, które umocni jego pozycję względem największego rywala - HP. Może też sugerować zmianę jego strategii. IBM skupia się bowiem przede wszystkim na oprogramowaniu oraz usługach i stopniowo pozbywa się działów związanych z produkcją sprzętu. IBM osiąga obecnie lepsze wyniki finansowe od większego HP. Zakup przynoszącego straty Suna oraz koszty połączenia obu firm mogą zmienić tę sytuację. Niewykluczone, jak piszą dziennikarze WSJ, że IBM zdał sobie sprawę z faktu, iż musi zacząć konkurować też na rynku sprzętu. Zakup Suna znacząco wzmocni jego pozycję jako producenta serwerów. Obecnie do IBM-a należy 31,4% tego rynku. HP jest w posiadaniu 29,5%, a Dell - 11,6%. Na czwartej pozycji plasuje się Sun z 10,6%. Połączenie obu firm może nie spodobać się urzędom antymonopolowym. Sun i IBM mają razem dominującą pozycję na rynku serwerów z systemami uniksowymi, obie firmy oferują też podobne produkty na rynku oprogramowania i sprzętu do archiwizacji danych na taśmach magnetycznych. Tymczasem wszystko wskazuje na to, że administracja prezydenta Obamy nie będzie prowadziła tak liberalnej polityki antymonopolowej, jak administracja George'a Busha.
  16. Jedna z najważniejszych postaci świata Open Source, Sam Ruby - wicedyrektor Apache Software Foundation - opuszcza IBM i przechodzi do... Microsoftu. Ruby ogłosił to na swoim blogu. Najbardziej jednak może dziwić fakt, że we wpisu wynika, iż Microsoft jeszcze nie złożył wiążącej propozycji. Ruby pisze bowiem, że oczekuje, iż w ciągu tygodnia lub dwóch taka oferta się pojawi. Rozmowy pomiędzy obiema stronami muszą być więc bardzo zaawansowane. Ruby przypuszcza, że będzie współpracował z Omrim Gazittem lub Johnem Shewchukiem. Pierwszy z nich to menedżer zespołu zaawansowanych usług sieciowych, a drugi odpowiada za prace, które mają przystosować platformę .NET do chmur obliczeniowych. Wygląda więc na to, że zadaniem Ruby'ego będzie z jednej strony praca nad przyszłościowymi technologiami związanymi z Internetem, a z drugiej, pomoże Microsoftowi lepiej współpracować z opensource'owymi aplikacjami. Sam Ruby od 1981 roku jest pracownikiem IBM-a. W blogu i komentarzach do uwag czytelników, podkreśla, że jest bardzo zadowolony ze swojej dotychczasowej pracy. Wyjaśnia, że postanowił poinformować o swoim przejściu do Microsoftu możliwie najwcześniej, ponieważ lubi jasno stawiać sprawę i nie chce, by później pojawiły się zarzuty o konflikcie interesów. Rysuje też interesującą paralelę między Microsoftem i Błękitnym Gigantem. Przypomina, że w czasie, gdy rozpoczynał pracę dla IBM-a to właśnie ta firma była postrzegana jako "źródło zła" i to właśnie ona miała poważne problemy z Departamentem Sprawiedliwości. Ruby wniósł znaczący udział w wiele opensource'owych projektów prowadzoncyh przez Apache Software Foundation, przyczynił się - poprzez zaangażowanie w prace nad Atomem - do powstania standardów dla technologii RSS, jest członkiem komitetu technicznego ECMAScript, pracował nad rozwojem standardu HTML5 i od dwóch miesięcy jest współprzewodniczącym należącej do W3C HTML Working Group.
  17. IBM otrzymał rządowe zlecenie na budowę 20-petaflopsowego superkomputera Sequoia. Najbliższe lata będą więc dla Błękitnego Giganta bardzo pracowite, gdyż, jak już informowaliśmy, ma też zbudować ponad 10-petaflopsowy Blue Waters. Jakby jeszcze tego było mało, firmie zlecono stworzenie komputera Dawn o mocy 500 teraflopsów, który będzie wspomagał Sequoię. Wszystkie trzy supermaszyny mają rozpocząć pracę już w 2011 roku. Sequoia powstaje na potrzeby National Nuclear Security Administration, która jest częścią Departamentu Energii. Komputer będzie wykorzystywany do symulowania testów broni jądrowej. Superkomputer stanie w Lawrence Livermoer National Laboratory, a korzystać będą z niego też Laboratoria Narodowe Los Alamos i Sandia. Specyfikacja komputera Sequoia przewiduje wyposażenie go w 16 petabajtów pamięci, 98 304 węzły i 16 milionów rdzeni procesora Power. Dotychczas barierę petaflopsa, czyli biliarda (1 000 000 000 000 000) operacji zmiennoprzecinkowych na sekundę przekroczyły dwa komputery - IBM-owski RoadRunner (1,105 PFlops) oraz Jaguar (1,059 PFlops) firmy Cray. Sequoia będzie od nich 20-krotnie szybszy.
  18. Specjaliści z IBM-owskiego centrum badawczego Thomasa J. Watsona opracowali technologię o skomplikowanej nazwie: "generowanie paralingwistycznych zjawisk poprzez znaczniki w syntezie tekstu w mowę". Kryje się pod nią technika, która do skomputeryzowanych głosów dodaje charakterystyczne dla prawdziwej mowy zawahania, mruknięcia, chrząknięcia. W przyszłości telefoniczna informacja, tekst przekazywany przez samochodowe urządzenie do nawigacji czy wszelkie inne komunikaty głosowe staną się więc mniej sztuczne i monotonne. Andy Aaron, jeden z twórców systemu, mówi: Dźwięki te mogą być niezwykle subtelne, niemal niesłyszalne, ale mają olbrzymie znaczenie psychologiczne. To niezwykle ważne, by głos przyciągał uwagę. Jeśli kontaktujesz się przez telefon z automatycznym serwisem, za pomocą którego chcesz np. zawrzeć ubezpieczenie, to właśnie [te subtelne dźwięki - red.] czyni różnicę pomiędzy zadowolonym klientem, a kimś, kto odłoży słuchawkę i zrezygnuje. Aaron mówi, że opracowana przez jego zespół technologia jest tak doskonała, iż sztuczny głos jest niemal nie do odróżnienia od głosu prawdziwego. Technologia IBM-a potrafi też zachowywać się odpowiednio do sytuacji. Gdy dzwoniący będzie np. mówił zbyt głośno lub przerywał wypowiedź, automat poprosi o przyciszenie głosu lub o umożliwienie mu dokończenia kwestii".
  19. Kryzys ekonomiczny nie zaszkodził jednemu z największych gigantów branży IT - IBM-owi. Firma poinformowała, że w czwartym kwartale bieżącego roku jej dochody zwiększyły się o 12% w porównaniu z analogicznym okresem roku poprzedniego. Kwartalny zysk netto Błękitnego Giganta wyniósł 4,4 miliarda dolarów i to pomimo zanotowanego na całym świecie 6,4-procentowego spadku sprzedaży na rynku serwerów i usług dla firm. W związku z tym IBM zanotował 6-procentowy spadek przychodów, ale firma podkreśla, że jeśli wziąć pod uwagę zmiany w kursie dolara, to spadek przychodów wyniósł około 1%. Do sukcesu IBM-a przyczyniło się też cięcie wydatków. Firma nie przeprowadzała zwolnień, ale zastrzega, że jeśli będzie musiała, to pożegna się z częścią pracowników.
  20. IBM i Apple doszły do porozumienia w sprawie Marka Papermastera. Przez 25 lat pracował on w IBM-ie, a gdy postanowił przejść do Apple'a były pracodawca stwierdził, że może to oznaczać złamanie umowy o zakazie konkurencji. Teraz obie firmy zgodziły się, że od 24 kwietnia Papermaster może rozpocząć pracę w firmie Steve'a Jobsa. Będzie on bezpośrednio podlegał Jobsowi, a do jego zadań ma należeć nadzorowanie prac zespołów pracujących nad iPhone'ami i iPodami. Papermaster rozpocznie więc pracę w Apple'u pół roku po opuszczeniu IBM-a. Przez kolejne pół roku będzie podlegał nadzorowi i w lipcu oraz październiku przeprowadzone zostaną odpowiednie czynności, których celem będzie sprawdzenie, czy nie przekazał swojemu nowemu pracodawcy żadnych tajemnic IBM-a. Papermaster miał roczny zakaz pracy u konkurencji.
  21. Nowy szef Open Solutions Alliance, Anthony Gold, zdradził dziennikarzom serwisu The Register swój niezwykły plan. Gold chce, by do organizacji skupiającej producentów opensource'owego oprogramowania przystąpili światowi giganci. Nowy prezes wymienia tutaj Microsoft, IBM-a i Oracle'a. Plan, zdaniem Golda, ma spore szanse powodzenia, mimo iż w OSA są firmy stanowiące bezpośrednią konkurencję wymienionych koncernów. Nowy prezes ma jednak dobre osobiste stosunki z wieloma pracownikami Microsoft oraz Oracle'a i uważa, że pomogą mu one w przekonaniu tych firm. Najprawdopodobniej Gold poznał ich jako wiceprezes firmy Unisys. Pomysł wydaje się, co prawa, szalony, lecz jest bardzo sensowny. Głównym celem OSA jest zapewnienie kompatybilności pomiędzy różnymi środowiskami. Podobnie jak wielu jego poprzednikom, Goldowi marzy się stworzenie czegoś na kształt Microsoft's Developer Network (MSDN), z tą jednak różnicą, że nie ograniczałoby się to do produktów jednej firmy czy jednego rodzaju architektury. Na korzyść OSA przemawia fakt, że organizacja skupia producentów aplikacji, a nie systemów operacyjnych. Tym samym Microsoft nie powinien postrzegać OSA jako organizacji konkurentów. Ponadto firma z Redmond prowadzi pewne opensource'owe projekty. Z drugiej jednak strony, zajmuje się nimi jednie nieco ponad 100 osób spośród ponad 90 000 pracowników koncernu. Nie wiadomo też, w jaki sposób OSA miałaby przekonać Microsoft, że korzystne dlań będzie przystąpienie do projektu. Jeśli chodzi o Oracle, to przedsiębiorstwo to bierze udział w pracach środowiska linuksowego, ale znane jest z bardzo powolnego procesu podejmowania decyzji. Niełatwo będzie również z IBM-em. Koncern jest mocno zaangażowany w różne prace środowiska opensource'owego, ale z drugiej strony jest też bardzo wrażliwy na konkurencję, nie wiadomo więc, czy będzie chciał współpracować z konkurencyjnymi firmami w ramach OSA.
  22. IBM poinformował, że już po raz 16. z rzędu uzyskał w minionym roku najwięcej patentów na rynku. W 2008 roku Błękitny Gigant otrzymał 4186 patentów. Na drugim miejscu uplasował się Samsung (3515 patentów), następny był Canon (2114), później Microsoft (2030) oraz Intel (1776). IBM oświadczył, że wielu z przyznanych patentów nie będzie chronił, a udostępni je publicznie. Liczba udostępnianych publicznie patentów ma zostać zwiększona o 50%. Warto tutaj wspomnieć, że w ubiegłym tygodniu Międzynarodowy Instytut Inżynierów Elektryków i Elektroników (IEEE) po raz pierwszy w historii ocenił portfolio patentów firm z branży technologicznej. Zdaniem IEEE najlepsze portfolio ma Microsoft. Pod uwagę brano bowiem nie tylko liczbę patentów, ale również zróżnicowanie opatentowanych technologii czy szybkość powiększania się portfolio. Microsoft, który został sklasyfikowany w kategorii Oprogramowanie komputerowe, uzyskał w tym badaniu 3505 punktów. Drugie miejsce zajął Intel z 2796 punktami (kategoria Przemysł półprzewodnikowy), a trzecie IBM, który uzyskał 2747 punktów (kategoria Systemy komputerowe).
  23. Naukowcy z IBM-a i Center for Probing the Nanoscale na Uniwersytecie Stanforda wykorzystali zmodyfikowany rezonans magnetyczny (MRI) do wykonania zdjęcia o rozdzielczości 100 milionów razy większej, niż można uzyskać za pomocą standardowego MRI. Osiągnięcie uczonych umożliwi obserwacje trójwymiarowych struktur w nanoskali. Udoskonalenie opracowanej właśnie techniki pozwoli np. na obserwowanie, w jaki sposób poszczególne białka wchodzą ze sobą w interakcje. Ta technologia zrewolucjonizuje nasze spojrzenie na wirusy, bakterie, białka i inne elementy biologiczne - mówi Mark Dean z IBM-a. Uczeni wykorzystali technikę zwaną mikroskopią sił rezonansu magnetycznego (MRFM). Jej zalety to, przede wszystkim, możliwość zajrzenia pod powierzchnię badanych obiektów oraz całkowita nieszkodliwość dla badanego materiału biologicznego. Wykorzystanie MRFM pozwoliło na obserwację struktur wewnątrz wirusa mozaiki tytoniu. Sam wirus ma wielkość 18 nanometrów, a naukowcy mogli oglądać obiekty wielkości 4 nm. MRI to potężne narzędzie, ale jego przydatność w roli mikroskopu zawsze była ograniczona. Mamy nadzieję, że nano MRI umożliwi nam oglądanie wewnętrznych struktur molekuł białek, co jest kluczowe dla zrozumienia funkcji biologicznych - mówi Dan Rugar, szef zespołu badawczego. Naukowcy umieścili wirusa mozaiki tytoniu na miniaturowej krzemowej dźwigience, a w pobliżu umiejscowiono niewielką magnetyczną igłę. Po włączeniu pola magnetycznego, atomy wodoru w wirusie na przemian odpychały i przyciągały igłę, powodując drgania dźwigni, na której wirus został umieszczony. Drgania te odczytywano za pomocą lasera, jednocześnie skanując igłę. Dane z wibracji dźwigni i oddziaływania atomów wodoru na igłę zostały przeanalizowane i posłużyły do utworzenia trójwymiarowego obrazu o niespotykanej dotąd rozdzielczości. Oczywiście istnieją inne techniki tworzenia podobnych obrazów, jednak mają one poważne ograniczenia. Obrazowanie za pomocą promieni X wymaga wcześniejszego skrystalizowania próbki, co nie zawsze jest możliwe, a rezonans jądrowy nie nadaje się do obserwacji dużych molekuł. Z kolei technika krio-elektronowa prowadzi do zniszczenia materiału i dla osiągnięcia dobrej rozdzielczości wymaga wykonania wielu zdjęć.
  24. Opublikowano kolejną, 32. edycję listy TOP500, na której wymieniono najpotężniejsze superkomputery na świecie. Na pierwszym miejscu uplasował się RoadRunner, pierwszy superkomputer, który przekroczył barierę petaflopsa czyli biliarda (1015) operacji zmiennoprzecinkowych na sekundę. RoadRunner (BladeCenter QS22/LS21 Cluster) korzysta ze 129600 rdzeni procesorów PowerXCell 8i oraz Opteron DC, a jego wydajność to 1,105 PFlops. Minimalnie wyprzedził on maszynę Jaguar (Cray XT5) ze 150152 rdzeniami procesora QC, którego wydajność to 1,059 PFlops. Kolejny na liście superkomputer Pleiades jest już wyraźnie wolniejszy, gdyż wykonuje 0,487 PFlops. Superkomputerowym mocarstwem pozostają Stany Zjednoczone. Aż 9 z 10 najpotężniejszych maszyn znajduje się na terenie tego kraju, z czego 7 jest własnością Departamentu Energii. Na 10. pozycji uplasował się pierwszy z nieamerykańskich superkomputerów. Jest to maszyna Dawning 5000A z Szanghaju. To jednocześnie najpotężnieszy superkomputer korzystający z systemu Windows. W USA znajduje się 291 superkomputerów z TOP500. Przed sześcioma miesiącami było ich 257. Na drugim miejscu znajdziemy Europę ze 151 systemami (to o 33 mniej niż pół roku temu), a na trzecim Azję (47 superkomputerów). Na obecnej liście znajdziemy aż 6 superkomputerów z Polski. Najpotężniejszy z nich to Galera, który uplasował się na 68. pozycji. Kolejne miejsca zajmowane przez polskie maszyny to 221., 311., 337., 373. i 495. Z obecności tylu polskich superkomputerów wypada cieszyć się tym bardziej, że coraz trudniej jest dostać się na listę. Jeszcze w pierwszej połowie roku na liście wymieniana była maszyna o wydajności 9 TFlops. Obecne minimum to 12,64 TFlops. System, który teraz uplasował się na 500. pozycji, w poprzedniej edycji listy zajmował 267. miejsce. Warto też zauważyć, że w ciągu roku wydajność najpotężniejszych systemów wzrosła ponaddwukrotnie. Obecnie łączna wydajność 500 supermaszyn to 16,95 PFlops. Pół roku temu było to 11,7 PFlops, a przed rokiem - 6,97 PFlops. To najlepszy dowód, jak bardzo rośnie zapotrzebowanie na moc obliczeniową. W 379 superkomputerach (75,8%) wykorzystano procesory Intela. Przed sześcioma miesiącami takich maszyn było o cztery mniej. Do budowy 60 maszyn użyto procesorów Power produkcji IBM-a, a 59 systemów korzysta z Opteronów AMD. Najbardziej popularnymi procesorami są układy czterordzeniowe, obecne w 336 systemach. W 153 superkomputerach spotkamy kości dwurdzeniowe, a w 4 - jednordzeniowe. Siedem supermaszyn korzysta z dziewięciordzeniowych procesorów Cell. Największym producentem superkomputerów jest obecnie HP. Firma ta stworzyła 209 maszyn, a jej główny konkurent - IBM - jest autorem 188 maszyn. Jeszcze pół roku temu na TOP500 znajdowało się 210 komputerów IBM-a i 183 maszyny HP. Błękitny Gigant wciąż pozostaje liderem pod względem zainstalowanej mocy obliczeniowej. Dominującym systemem operacyjnym są edycje Linuksa zainstalowane na 439 maszynach. Trzydzieści jeden superkomputerów wykorzystuje różne OS-y, na 23 maszynach znajdziemy Unix, a na 5 - Windows. Z ciekawostek warto też odnotować debiut Nvidii na liście TOP500. Maszyna Tsubame z Tokijskiego Instytutu Technologicznego, która uplasowała się na 29. pozycji korzysta m.in. z układów Nvidia GT200.
  25. IBM poinformował o stworzeniu najbardziej wydajnego grafenowego tranzystora polowego. Urządzenie, które może pracować z najwyższymi notowanymi dotąd częstotliwościami, powstało w ramach finansowanego przez DARPA programu Carbon Electronics for RF Applications (CERA). Jego celem jest opracowanie urządzeń komunikacyjnych przyszłej generacji. Prędkość pracy tranzystora zależy od jego wielkości oraz prędkości przemieszczania się elektronów. Specjaliści IBM-a po raz pierwszy udowodnili, że w grafenie, wraz ze zmniejszaniem urządzenia, można osiągać wyższe częstotliwości pracy. Ostatecznie udało im się stworzyć tranzystor, który pracuje z częstotliwością 26 GHz, a długość jego bramki wynosi 150 nanometrów. Eksperci uważają, że udoskonalając materiał dielektryczny oraz zmniejszając będą w stanie znacznie poprawić wydajność swojego tranzystora. Ich zdaniem, po odpowiednich ulepszeniach i stworzeniu bramki długości 50 nanometrów, uzyskają grafenowy tranzystor pracujący z częstotliwościami liczonymi w terahercach.
×
×
  • Dodaj nową pozycję...