Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'IBM' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 150 wyników

  1. Opublikowano kolejną, 32. edycję listy TOP500, na której wymieniono najpotężniejsze superkomputery na świecie. Na pierwszym miejscu uplasował się RoadRunner, pierwszy superkomputer, który przekroczył barierę petaflopsa czyli biliarda (1015) operacji zmiennoprzecinkowych na sekundę. RoadRunner (BladeCenter QS22/LS21 Cluster) korzysta ze 129600 rdzeni procesorów PowerXCell 8i oraz Opteron DC, a jego wydajność to 1,105 PFlops. Minimalnie wyprzedził on maszynę Jaguar (Cray XT5) ze 150152 rdzeniami procesora QC, którego wydajność to 1,059 PFlops. Kolejny na liście superkomputer Pleiades jest już wyraźnie wolniejszy, gdyż wykonuje 0,487 PFlops. Superkomputerowym mocarstwem pozostają Stany Zjednoczone. Aż 9 z 10 najpotężniejszych maszyn znajduje się na terenie tego kraju, z czego 7 jest własnością Departamentu Energii. Na 10. pozycji uplasował się pierwszy z nieamerykańskich superkomputerów. Jest to maszyna Dawning 5000A z Szanghaju. To jednocześnie najpotężnieszy superkomputer korzystający z systemu Windows. W USA znajduje się 291 superkomputerów z TOP500. Przed sześcioma miesiącami było ich 257. Na drugim miejscu znajdziemy Europę ze 151 systemami (to o 33 mniej niż pół roku temu), a na trzecim Azję (47 superkomputerów). Na obecnej liście znajdziemy aż 6 superkomputerów z Polski. Najpotężniejszy z nich to Galera, który uplasował się na 68. pozycji. Kolejne miejsca zajmowane przez polskie maszyny to 221., 311., 337., 373. i 495. Z obecności tylu polskich superkomputerów wypada cieszyć się tym bardziej, że coraz trudniej jest dostać się na listę. Jeszcze w pierwszej połowie roku na liście wymieniana była maszyna o wydajności 9 TFlops. Obecne minimum to 12,64 TFlops. System, który teraz uplasował się na 500. pozycji, w poprzedniej edycji listy zajmował 267. miejsce. Warto też zauważyć, że w ciągu roku wydajność najpotężniejszych systemów wzrosła ponaddwukrotnie. Obecnie łączna wydajność 500 supermaszyn to 16,95 PFlops. Pół roku temu było to 11,7 PFlops, a przed rokiem - 6,97 PFlops. To najlepszy dowód, jak bardzo rośnie zapotrzebowanie na moc obliczeniową. W 379 superkomputerach (75,8%) wykorzystano procesory Intela. Przed sześcioma miesiącami takich maszyn było o cztery mniej. Do budowy 60 maszyn użyto procesorów Power produkcji IBM-a, a 59 systemów korzysta z Opteronów AMD. Najbardziej popularnymi procesorami są układy czterordzeniowe, obecne w 336 systemach. W 153 superkomputerach spotkamy kości dwurdzeniowe, a w 4 - jednordzeniowe. Siedem supermaszyn korzysta z dziewięciordzeniowych procesorów Cell. Największym producentem superkomputerów jest obecnie HP. Firma ta stworzyła 209 maszyn, a jej główny konkurent - IBM - jest autorem 188 maszyn. Jeszcze pół roku temu na TOP500 znajdowało się 210 komputerów IBM-a i 183 maszyny HP. Błękitny Gigant wciąż pozostaje liderem pod względem zainstalowanej mocy obliczeniowej. Dominującym systemem operacyjnym są edycje Linuksa zainstalowane na 439 maszynach. Trzydzieści jeden superkomputerów wykorzystuje różne OS-y, na 23 maszynach znajdziemy Unix, a na 5 - Windows. Z ciekawostek warto też odnotować debiut Nvidii na liście TOP500. Maszyna Tsubame z Tokijskiego Instytutu Technologicznego, która uplasowała się na 29. pozycji korzysta m.in. z układów Nvidia GT200.
  2. Sąd federalny uznał, że Mark Papermaster, o którego sprawie informowaliśmy przed 10 dniami, ma zaprzestać pracy dla Apple'a. Sędzia Kenneth Karas nakazał mu, by przez jakiś czas nie podejmował pracy w firmie Jobsa. Uzasadnienie wyroku nie zostało jeszcze przygotowane. Sam Papermaster twierdzi, że jego przejście do Apple'a nie narusza umowy o zakazie konkurencji, którą podpisywał jako pracownik IBM-a. O ile wiem, IBM nie projektuje i nie produkuje urządzeń zaliczanych do elektroniki użytkowej. Skupia się na wysokowydajnej infrastrukturze informacyjnej, serwerach, produktach do przechowywania informacji i systemach operacyjnych - napisał Papermaster. Z kolei Apple działa na rynku elektroniki użytkowej i związanych z nią produktami - dodał. Papermaster poinformował też, że nie rozważał rezygnacji z pracy w IBM-ie, aż do momentu, gdy Apple złożyło mu wyjątkowo korzystną ofertę. W ubiegłym tygodniu został wiceprezesem ds. inżynieryjnych. Jego zdaniem jest to "szansa, która zdarza się raz w życiu". IBM obawia się, że Papermaster może pomóc Apple'owi w stworzeni konkurencyjnych układów scalonych i produktów serwerowych. Tym bardziej, że niedawno Apple nabyło firmę PA.Semi, specjalizującą się w projektowaniu układów scalonych w oparciu o IBM-owską architekturę Power. Papermaster twierdzi, że wśród jego obowiązków nie ma współpracy z PA.Semi. IBM z kolei przypomina, że Papermaster podpisał zobowiązanie mówiące o rocznym zakazie konkurencji, co oznacza, że przez 12 miesięcy nie może podjąć pracy w firmie będącej konkurentem dla Błękitnego Giganta.
  3. IBM wystąpił do sądu przeciwko jednemu ze swoich menadżerów i najważniejszych inżynierów, Markowi Papermasterowi. Jeszcze niedawno pełnił on w IBM-ie funkcję wiceprezesa ds. rozwoju technologii mikroprocesorowej, a teraz chce ponoć od listopada rozpocząć pracę w firmie Apple. IBM twierdzi, że w ten sposób złamie warunki swojego kontraktu, który mówi o zakazie pracy u konkurencji. Błękitny Gigant obawia się, że Papermaster może wyjawić Apple'owi szczegóły dotyczące architektury Power oraz tajemnice na temat produktów serwerowych. W pozwie IBM-a czytamy, że jeśli Papermaster rozpocznie pracę w Apple'u to będzie ściśle współpracował ze Steve'em Jobsem zapewniając Apple'owi doradztwo techniczne i strategiczne dotyczące wielu kwestii. Analityk Gordon Haff nie sądzi, by zatrudniając Papermastera Apple chciało wzmocnić swój dział produkujący serwery Xblade. Firma Jobsa przez lata bowiem zmieniała swoją strategię i obecnie działa nie tyle na rynku komputerów, co na rynku elektroniki użytkowej. Wątpliwe więc, uważa Haff, by zależało jej na rozwoju serwerów. Analityk sądzi, że Apple ma zamiar w przyszłości stać się znaczącym graczem na rynku cloud computing (chmur obliczeniowych). Dlatego też chce zatrudnić eksperta, który zna się na serwerach i pomoże firmie stworzyć własną infrastrukturę potrzebną do zaistnienia na rynku chmur. Ponadto Papermaster to jeden z najbardziej szanowanych członków elitarnego klubu zajmującego się projektowaniem układów scalonych. Tymczasem Apple przed kilkoma miesiącami kupiło firmę P.A. Semi, która zajmuje się właśnie tego typu pracami. Papermaster może być nieocenioną pomocą dla zespołu P.A. Semi. Tym bardziej, podobnie jak członkowie tego zespołu, w kręgu jego zainteresowań znajduje się architektura Power, która obecnie stanowi podstawę budowy konsol do gry. Być może więc Apple będzie chciało skonstruować własną konsolę.
  4. Microsoft zaprezentował platformę Windows Azure, znaną dotychczas pod kodową nazwą STRATA. Azure to skalowalne środowisko hostingowe, w którym developerzy będą mogli umieszczać swoje oprogramowanie udostępniane następnie użytkownikom. Platforma ma działać w składającej się z tysięcy serwerów "chmurze" utrzymywanej i zarządzanej przez Microsoft. Główne elementy Azure to usługi Live, Dynamics CRM, .NET, SQL i SharePoint. W microsoftowym środowisku będą mogły pracować też rozwiązania i aplikacje firm trzecich, takie jak Eclipse czy PHP. Zostaną w nim udostępnione liczne narzędzia dla biznesu i developerów. Pomysł jest taki, aby użytkownik mógł z każdego miejsca na świecie skorzystać z mocy obliczeniowej chmury - mówi Bob Muglia, wiceprezes ds. serwerów i narzędzi biznesowych. W przyszłości w ten właśnie sposób Microsoft chce dostarczać firmom swoje wszystkie rozwiązania. Będą więc one mogły korzystać z online'owych narzędzi, dzięki czemu pracownicy zyskają do nich swobodny dostęp. Wszelkie dane firma będzie mogła synchronizować ze swoimi serwerami. Wśród najważniejszych zalet platformy Microsoft wymienia fakt, że developerzy nie będą musieli uczyć się obsługi nowych narzędzi, skorzystają w niej bowiem z tych, które już znają. Ponadto Azure zapewnia bezpieczeństwo zarówno samych aplikacji, które osiągnięto dzięki całej sieci firewalli oraz izolacji hiperwizora, jak i użytkowników. W platformie zastosowano rozwiązania do zarządzania użytkownikami, a więc developerzy nie będą musieli wprowadzać w swoich produktach żadnych tego typu mechanizmów. Azure korzysta z otwartych standardów i współpracuje z rozwiązaniami firm trzecich. Koncern z Redmond zapewnia również, że dostęp do Azure'a będziemy mogli zyskać w każdym momencie, co osiągnięte zostanie dzięki redundancji sprzętu oraz analizie i balansowaniu ruchu. Takie rozwiązanie daje gwarancję, że awaria części komputerów w chmurze nie spowoduje, iż nagle stracimy dostęp do swoich aplikacji. Rynek "chmur obliczeniowych" rozwija się szybkim tempie. Swoje chmury zaprezentowały już Amazon i Google. Teraz Microsoft postanowił użyć potężnej broni, jaką jest Windows. Bez wątpienia oferta z Redmond będzie atrakcyjna dla biznesu, który w większości od lat korzysta właśnie z rozwiązań Microsoftu. Rynek jest na tyle duży, że obecnie mówi się nie tyle o konkurencji pomiędzy Amazonem, Google'em i Microsoftem, a o tym, jaki wpływ pojawienie się chmur będzie miało na producentów sprzętu. Im więcej firm będzie przenosiło swoje centra obliczeniowe i bazodanowe do chmur, tym mniej sprzętu i oprogramowania będą kupowały. Pozostanie mniej kupców, którzy z kolei będą dokonywali większych zakupów. To będzie miało olbrzymi wpływ na takie firmy jak HP, Dell czy IBM. Eksperci już mówią o konsolidacjach, które czekają nas w przyszłości. Obecnie wiadomo, że sprzęt do obsługi Azure zostanie dostarczony przez Della. Na razie jednak pozostaje czekać, aż Microsoft udostępni Azure. Obecnie nie jest ona jeszcze gotowa do rynkowego debiutu. Korzystanie z platformy będzie oczywiście płatne. Ceny będą zależały od mocy obliczeniowych i aplikacji, z jakich klient będzie korzystał.
  5. IBM otrzymał z NASA zamówienie na zbudowanie kolejnego superkomputera dla Agencji. Klaster iDataPlex będzie składał się z 1024 czterordzeniowych procesorów Xeon i zostanie połączony z już istniejącym klastrem Discover, trzykrotnie zwiększając jego moc obliczeniową. Wydajność całego systemu wyniesie 67 teraflopsów. Oznacza to, że maszyna znalazłaby się na 25. miejscu najnowszej listy najpotężniejszych komputerów na świecie. Nowy system powstanie w ramach IBM-owskiej inicjatywy "Big Green". Zgodnie z założeniami koncernu, superkomputery mają zużywać o 40% mniej energii, a jednocześnie zapewniać pięciokrotnie więcej mocy obliczeniowej. Nowy klaster będzie używany głownie do modelowania klimatu. Zajmie się też analizowaniem aktywności Słońca i danych z kosmosu. Jego pierwszym zadaniem będzie zaś stworzenie modeli klimatycznych dla obecnego wieku, ponowna analiza obecnie wykorzystywanych modeli oraz zbadanie wpływu aktywności słonecznej na naszą planetę.
  6. IBM grozi wycofaniem się z prac Międzynarodowej Organizacji Normalizacyjnej (ISO). Działania Błękitnego Giganta mają związek z kontrowersjami wokół głosowania nad OOXML. IBM był jednym z największych krytyków microsoftowego formatu zapisu dokumentów. Firma twierdziła, że świat nie potrzebuje drugiego standardu i wystarczy przyjęty już wcześniej opensource'owy ODF. Podczas procesu przyjęcia OOXML doszło do nieprawidłowości w poszczególnych komitetach krajowych. Cztery państwa złożyły protest i domagały się unieważnienia głosowania. Protest ten został jednak oddalony przez ISO i OOXML przyjęto w tzw. "szybkiej ścieżce" legislacyjnej. IBM poinformował właśnie, że w związku z zaistniałą sytuacją firma zastanowi się nad uczestnictwem w ISO. Musi bowiem przemyśleć jakość procesu normalizacyjnego oraz zasady członkostwa w organizacji. Przedstawiciele koncernu uważają też, że proces legislacyjny musi być "chroniony od nadmiernych wpływów". Firma informuje, że przedyskutowała swoje stanowisko z 70 niezależnymi ekspertami z całego świata.
  7. Inżynierom IBM-a udało się zwiększyć wydajność dysków SSD o 250%. Dzięki połączeniu pamięci Flash i technologii wirtualizacji nowa technologia umożliwia dokonanie ponad miliona operacji I/O w ciągu sekundy i skrócenie czasu odpowiedzi do mniej niż 1 milisekundy. IBM zapewnia, że dzięki Project Quicksilver typowe zadania biznesowe zostaną przyspieszone 2 do 3 razy. Jednocześnie zanotowano 45-procentową oszczędność energii. Technologia Błękitnego Giganta pozwoli więc na znaczne zwiększenie wydajności tych aplikacji, które przetwarzają olbrzymią ilość danych w czasie rzeczywistym. Zwiększy się więc wydajność np. systemów handlu elektronicznego czy rezerwacji.
  8. Grupa byłych inzynierów Google'a i IBM-a uruchomiła swoją własną wyszukiwarkę. Cuil (wymawia się jak cool) ma zaindeksowanych 120 miliardów witryn. Twórcy wyszukiwarki twierdzą, że to trzykrotnie więcej niż zaindeksował Google i 10-krotnie więcej niż Microsoft. Do korzystania z nowej wyszukiwarki trzeba się przyzwyczaić. Nie zwraca ona bowiem rezultatów tak, jak inne tego typu narzędzia. Znalezione strony prezentowane są w dwóch lub trzech kolumnach z obszernymi fragmentami tekstu. Obok niektórych z wyników prezentowane są też niewielkie grafiki. Czasami mogą szokować i rozbawić. Wpisanie nazwiska "Bush" daje liczne odpowiedzi dotyczące obecnego prezydenta USA. Znajdziemy wśród nich odnośnik do definicji w Wikipedii, a obok grafikę przedstawiającą... papier toaletowy z namalowanym nań portretem prezydenta. Co ciekawe, grafiki tej nie ma na stronie Wikipedii. Wyniki wyszukiwań dobrze pasują do zapytań, jednak by swobodnie korzystać z innych języków niż angielski konieczne jest odblokowanie skryptów. Warto też zwrócić uwagę na fakt, iż nie jest to taki gigant jak Google. Firma nie dysponuje tak olbrzymią liczbą serwerów oraz równie pojemnymi łączami. Mogą więc pojawić się czasem problemy z dostępem do Cuila. Wyszukiwarka, po wpisaniu zapytania i przedstawieniu rezultatów, oferuje nad wynikami zakładki, w których znajdziemy odpowiedzi na bardziej szczegółowe zapytanie.. Jej główną zaletą, obok olbrzymiej liczby zaindeksowanych witryn, ma być też bezpieczeństwo oferowane użytkownikom. Twórcy Cuila zapewniają, że w przeciwieństwie do konkurencji, witryna nie zbiera żadnych danych na temat odwiedzających ją internautów. Aktualizacja: Do poprawnego działania Cuil wymaga odblokowania skryptów.
  9. IBM zainwestuje 1,5 miliarda dolarów w zwiększenie swoich możliwości badawczych. Powyższa kwota zostanie przeznaczona na trzy projekty: unowocześnienie fabryki w East Fishkill, rozszerzenie zakresu badań prowadzonych na College of Nanoscale Science and Engineering na University of Albany oraz na stworzenie nowego ośrodka badawczego, który będzie zajmował się pracami nad obudowami do układów scalonych. Inwestycje mają pomóc IBM-owi w opracowaniu i wdrożeniu technologii 32 i 22 nanometrów. Błękitny Gigant pracuje również nad krzemową nanofotoniką. Dzięki niej impulsy elektryczne, niosące dane w układach scalonych, mają zostać zastąpione światłem.
  10. The Register dotarł do dokumentów, z których wynika, że IBM przygotowuje ośmiordzeniowy procesor Power7. Błękitny Gigant będzie sprzedawał je w dwuprocesorowych modułach, a więc klienci będą mogli nabyć co najmniej 16 rdzeni. Wydajność każdego z nich wynosi 32 gigaflopsy, a więc wydajność procesora to 256 GFlops. To dwukrotnie więcej niż wydajność dwurdzeniowego Power6, który taktowany jest zegarem o częstotliwości 5 GHz. Power7 będzie współpracował ze znaczne wolniejszym zegarem. The Register powołuje się na dokumenty, w których czytamy, że Power7 trafi na rynek w 2010 roku, zostanie wykonany w procesie 45 nanometrów i będzie taktowany 4,0 GHz zegarem. Pojedynczy rdzeń będzie wykonywał cztery wątki równocześnie. Serwis twierdzi, że na informację o Power7 natrafił w dokumentach dotyczących superkomputera, który ma powstać na zlecenie National Center for Supercomputing Applications (NCSA). Maszyna "Blue Waters" zostanie dofinansowana kwotą 208 milionów dolarów i w 2011 roku stanie na University of Illinois. Będzie to najpotężniejszy komputer, jaki kiedykolwiek stworzono. Jego wydajność ma przekraczać 10 petaflopsów. "Blue Waters" będzie zbudowany z 38 900 procesorów Power7 i zostanie wyposażony w 620 terabajtów pamięci operacyjnej i 26 petabajtów przestrzeni dyskowej. Ponadto IBM zaoferuje exabajt przestrzeni do archiwizowania danych.
  11. Twórcy Second Life, firma Linden Labs, we współpracy z IBM-em opracowali serię kompatybilnych awatarów, które mogą "żyć" w wirtualnych światach obu firm. Przedsiębiorstwa poinformowały, że udało im się dokonać "teleportacji" wirtualnych postaci z IBM-owskiego świat OpenSim na serwery Second Life Preview. Postaci mogły funkcjonować w obu światach. To ważny krok na drodze do kompatybilności wirtualnych światów obu firm. Linden Labs i IBM chcą dzięki temu rozszerzyć swoją działalność. Zamiarem twórców Second Life'a jest zwiększenie popularności ich gry, a z kolei IBM chce wykorzystywać światy 3D w celach rozpowszechniania swojego oprogramowania dla biznesu. Oba przedsiębiorstwa nie wykluczają stworzenia systemu, który umożliwi przeciętnemu użytkownikowi przenoszenie swojego awatara pomiędzy różnymi wirtualnymi platformami i serwerami.
  12. Badacze z Federalnego Instytutu Technologii w szwajcarskim Zurichu opracowali nową metodę precyzyjnej analizy wytrzymałości tkanki kostnej. Technika, opierająca się na pomiarach gęstości oraz parametrów mechanicznych próbki, ma szansę stać się za kilka lat istotnym elementem diagnostyki osteoporozy. Opracowana procedura działa w oparciu o złożone symulacje generowane przez superkomputer Blue Gene/L firmy IBM, której pracownicy wsparli pracownikow Instytutu. Na podstawie analizy reakcji fragmentu kości na nacisk tworzona jest "mapa" naprężeń powstających w całej objętości próbki. Uzyskane wyniki pozwolą w przyszłości na dobór optymalnego sposobu leczenia osteoporozy, pomogą także w podjęciu decyzji o ewentualnym wszczepieniu metalowych płytek wzmacniających kość w miejscach najbardziej narażonych na pęknięcia. Aby przeprowadzić badanie, wystarcza pobranie próbki kości o wymiarach 5x5 mm. Materiał jest następnie poddawany różnorodnym próbom obciążeniowym, a zebrane z czujników informacje trafiają do komputera. Efektem pojedynczego testu, trwającego około dwudziestu minut, jest wytworzenie około... 90 GB danych. Oczywiście, są one następnie obrabiane do bardziej "przystępnej" formy, pozwalającej na interpretację przez lekarza. Pozornie największą wadą metody jest konieczność użycia komputera klasy Blue Gene/L. Ilość przeprowadzanych obliczeń jest tak wielka, że nawet słynny komputer Deep Blue, znany z pojedynków szachowych z Garri Kasparowem pod koniec XX wieku, potrzebowałby na ich wykonanie niemal tygodnia. Na szczęście, porównanie to pokazuje jednocześnie, jak szybki jest rozwój informatyki. Jak ocenia dr Alessandro Curioni, pracujący dla laboratorium badawczego IBM w Zurichu, za dziesięć lat możliwości dzisiejszych komputerów będą osiągalne przy użyciu zwykłych komputerów biurkowych, dzięki czemu tego typu symulacje wytrzymałości tkanki kostnej staną się rutynową praktyką. Pracujący w Federalnym Instytucie Technologii prof. Peter Arbenz, pomysłodawca nawiązania współpracy z Błękitnym Gigantem, tłumaczy, że najważniejszym wyzwaniem dla jego zespołu było stworzenie nowoczesnych i wydajnych algorytmów zdolnych do przepowadzenia tak złożonych symulacji. Choć dotychczasowe wyniki wydają się być bardzo obiecujące, badacz ocenia to osiągnięcie ostrożnie: Jesteśmy na początku ekscytującej podróży. Ten kierunek badań musi być utrzymany, byśmy mogli osiągnąć nasz cel. Kolejnym celem grupy będzie stworzenie algorytmu zdolnego do symulacji złamania kości u ściśle określonej osoby poddawanej badaniu. Osiągnięcie tego celu pomogłoby bez wątpienia w szybkiej i skutecznej diagnostyce osteoporozy oraz ocenie zagrożeń związanych z osłabieniem kości. Stawka jest niezwykle wysoka, gdyż chorobą jest zagrożonych aż 9 milionów osób w samej tylko Polsce. Wyniki badań zaprezentowano na konferencji IACM/ECCOMAS 2008 w Wenecji.
  13. Na podstawie podpisanej właśnie umowy IBM i Tokyo Ohka Kogyo będą pracowały nad procesem technologicznym, materiałami i narzędziami do produkcji wydajnych i tanich cienkich ogniw słonecznych typu CIGS (miedź-ind-gal-diselen). Obecnie najpopularniejszym materiałem wykorzystywanym do produkcji ogniw słonecznych jest krzem. jednak produkowane z niego ogniwa są grube i ciężkie, co znacznie ograniczna zakres ich użycia. Ogniwa CIGS mogą być nawet 100-razy cieńsze od ogniw krzemowych, dzięki czemu będzie je można umieścić na tanim podłożu szklanym lub nawet na podłożu elastycznym. To z kolei pozwoli pokryć ogniwami dachy, ściany i inne powierzchnie oraz umożliwi wykonanie z nich przyciemnianych okien. Obecnie produkuje się ogniwa CIGS metodą odparowywania odpowiedniego roztworu w próżni. W kwietniu bieżącego roku w należącym do amerykańskiego Departamentu Energii Narodowym Laboratorium Energii Odnawialnej uzyskano tą metodą ogniwa o wydajności 19,9%. To bardzo blisko wynoszącej 20,3% rekordowej wydajności ogniw krzemowych. Problem w tym, że żadna firma nie wdrożyła jeszcze na masową skalę produkcji tanich ogniw CIGS. Obecne na rynku ogniwa tego typu charakteryzuje wydajność rzędu 9-10%. IBM opracował nową technikę produkcji ogniw CIGS. Polega ona na osuszaniu chemikaliów rozpuszczonych w roztworze. Nowa metoda nie wymaga obecności próżni. Cały proces jest mniej energochłonny i przebiega szybciej. Umożliwia ponadto nadrukowywanie ogniwa bezpośrednio na szkło lub elastyczne podłoże. IBM twierdzi,że jest w ten sposób wykonać ogniwa o wydajności przekraczające 15%. IBM przygotował już prototypowe ogniwo. Firmowi specjaliści twierdzą, że po wdrożeniu masowej produkcji uda się osiągnąć długo oczekiwany cel - cena ogniwa spadnie poniżej 1 dolara na każdy wat jego wydajności. Błękitny Gigant i Tokyo Ohka Kogyo nie mają jednak zamiaru samodzielnie produkować ogniw. Chcą opracować technologie, którą będą licencjonować.
  14. IBM pokazał najbardziej wydajny z superkomputerów pracujących zarówno pod kontrolą systemów Linux, jak i Windows. System Akka pracuje w High Performance Computing Center North (HPC2N) na północy Szwecji. Akka to klaster składający się z 672 węzłów. Każdy z nich tworzą dwa energooszczędne czterordzeniowe układy Xeon L5420 oraz 16 gigabajtów pamięci RAM. W sumie Akka korzysta z 5376 rdzeni i 10,7 TB RAM oraz 100 terabajtów przestrzeni dyskowej. Teoretyczna wydajność superkomputera wynosi 53,8 teraflopsa. Podczas testu LINPACK osiągnął on wydajność rzędu 46,04 TFlops, co na obecnie obowiązującej liście superkomputerów TOP500 dałoby mu 23. miejsce na świecie. Jutro (18 czerwca) zostanie opublikowana nowa lista i wówczas przekonamy się, które ostatecznie miejsce zajmie Akka. Fakt, że superkomputer działa też pod kontrolą systemu Windows to wynik ostatnich wysiłków Microsoftu, który postanowił zaistnieć na rynku HPC (High Performance Computing). Koncern z Redmond chce pokazać, że skoro jego system operacyjny dla klastrów (Windows High Performance Computing Server) nadaje się dla superkomputerów, to obsłuży również mniejsze firmowe maszyny tego typu. Co ciekawe, część klastra będzie korzystała też z procesorów Power oraz CellBE. Będą używane one przede wszystkim do prac nad nowymi algorytmami przetwarzania równoległego. Akka zostanie uruchomiony 25 czerwca. Od tego dnia jego użytkownicy będą mogli korzystać z systemu Linux. Windows zostanie zainstalowany i udostępniony jesienią bieżącego roku.
  15. Superkomputer RoadRunner przekroczył barierę petaflopsa. Nowo powstała maszyna wykonuje 1,026 biliarda operacji zmiennoprzecinkowych na sekundę. RoadRunner kosztował 133 miliony dolarów i jest dziełem specjalistów z IBM-a oraz z Los Alamos National Laboratory. Komputer będzie wykorzystywany przede wszystkim do tajnych projektów wojskowych związanych z bronią jądrową. Mo obliczeniowa maszyny zostanie też udostępniona naukowcom zmagającym się z takimi problemami, jak modelowanie zmian klimatycznych. Thomas D'Agostino z National Nuclear Administration mówi, że gdyby wszyscy mieszkańcy Ziemi otrzymali kalkulatory i używaliby ich przez 24 godziny na dobę i 7 dni w tygodniu wykonywałby obliczenia, to przez 46 lat dokonaliby tylu obliczeń, ilu RoadRunner dokonuje w ciągu doby. Superkomputer jest klastrem składającym się z 6912 dwurdzeniowych procesorów Opteron oraz 12 960 procesorów Cell eDP. Procesory Opteron korzystają z 55 terabajtów pamięci operacyjnej, a układy Cell mają do dyspozycji 52 terabajty. Tak więc w sumie RoadRunner dysponuje 107 TB RAM. RoadRunner składa się z 296 szaf i zajmuje powierzchnię 511 metrów kwadratowych. Do osiągnięcia swojej szczytowej teoretycznej wydajności (1,33 PFlops z procesorów Cell + 49,8 TFlops z procesorów Opteron) wymaga 3,9 megawata mocy, co oznacza, że na każdy wat przypada aż 0,35 gigaflopsa. Na RoadRunnerze mogą działać systemy operacyjne RHEL (Red Hat Enterprise Linux) oraz Fedora Linux.
  16. W laboratoriach IBM-a w Zurichu powstała nowa technologia chłodzenia trójwymiarowych układów scalonych. Inżynierowie Błękitnego Giganta, we współpracy z Fraunhofer Institute obniżają temperaturę układów scalonych wykonanych w technologii 3D, tłocząc wodę pomiędzy poszczególne warstwy kości. Przed rokiem IBM ogłosił opracowanie techniki, która umożliwia układanie podzespołów w układzie scalonym w trzech wymiarach. Układy tworzone są po prostu z wielu warstw. Taka architektura pozwala na tysiąckrotne skrócenie drogi sygnału w porównaniu z układami 2D, a jednocześnie zwiększa stukrotnie liczbę połączeń. Technologia taka przyda się np. do zintegrowania pamięci RAM z procesorem czy do tworzenia wielordzeniowych układów, w których rdzenie będą leżały jeden nad drugim. Okazuje się jednak, że w przypadku tak zbudowanych układów tradycyjne metody chłodzenia się nie sprawdzają. Potrzebne było chłodzenie umieszczone pomiędzy poszczególnymi warstwami. Układy 3D charakteryzują się olbrzymim wydzielaniem ciepła. Może ono dochodzić do 1 kilowata na pół centymetra sześciennego. Żadne inne urządzenie stworzone przez człowieka nie nagrzewa się tak bardzo. Co interesujące, gęstość mocy takich układów jest większa, niż gęstość w reaktorach nuklearnych i plazmowych. Zespół Thomasa Brunschwilera użył cienkich rurek o średnicy 50 mikronów każda i pompował wodę pomiędzy poszczególne warstwy układu. Dzięki temu osiągnięto wydajność chłodzenia rzędu 180 watów na centymetr kwadratowy w układzie 3D, którego całkowita powierzchnia wynosiła 4 cm2.
  17. W związku z narastającym problemem głodu na świecie, specjaliści z University of Washington oraz IBM uruchomili wspólny projekt, którego celem jest przygotowanie idealnej odmiany ryżu - ma ona być odporniejsza na szkodniki, dawać większe plony oraz oferować lepszą wartość odżywczą. Opracowany przez IBM superkomputer World Community Grid, dysponujący gigantyczną mocą obliczeniową 167 teraflopsów, wykorzysta część swoich możliwości do badań z biologii molekularnej. Ten spektakularny system, porównywalny pod względem osiągów do pierwszej trójki najsilniejszych maszyn świata, ma posłużyć do badania cząsteczek białek ryżu w celu wyselekcjonowania najlepszych odmian. Na kolejnym etapie eksperymentu do prac mają się włączyć botanicy, których zadaniem będzie uzyskanie drogą krzyżowania optymalnych odmian tej rośliny. Szacuje się, że zastosowanie technologii dostarczonej przez Błękitnego Giganta pozwoli na zakończenie całego projektu w ciągu dwóch lat. Zrealizowanie podobnego planu z użyciem standardowych komputerów zajęłoby około dwóch stuleci. Świat przechodzi obecnie przez trzy rewolucje naraz: rewolucję w dziedzinach biologii molekularnej i genetyki, mocy obliczeniowej i pojemności dyskowej, a także pod względem komunikacji. Ta obliczeniowa rewolucja pozwoli naukowcom z całego świata walczyć z niewyobrażalnie wręcz skomplikowanymi problemami jako społeczeństwo, na dodatek w czasie rzeczywistym, tłumaczy Robert Zieglier, dyrektor Międzynarodowego Instytutu Badań nad Ryżem stworzonego na Filipinach. World Community Grid (WCG) to koordynowany przez IBM projekt, którego celem jest skupianie indywidualnych użytkowników w celu wykorzystania nieużywanej mocy obliczeniowej ich komputerów do rozwiązywania problemów współczesnego świata. W tym celu przedstawiciele amerykańskiej firmy współpracują z naukowcami z całego świata w celu stworzenia odpowiednich algorytmów, których zadaniem jest wykonywanie skomplikowanych obliczeń na potrzeby nauki. Od czasu swojego powstania WCG zajmowała się już m.in. obliczeniami związanymi z walką z nowotworami oraz AIDS, a najnowszym jej celem właśnie badanie białek ryżu. Szczególnie poszukiwane są proteiny, które pomogą poprawić wydajność upraw, zwalczyć szkodniki i choroby czy też wytwarzać większą ilość składników cennych z punktu widzenia diety człowieka. Istotna jest także selekcja odmian odpornych na zmiany klimatu i kaprysy pogody. Problem tkwi w tym, że mamy do przebadania od 30 do 60 tysięcy różnych struktur białkowych, mówi prof. Ram Samudrala, szef naukowców zajmujących się projektem, na codzień pracownik wydziału mikrobiologii na University of Washington. Badacze otrzymali już pierwszy grant badawczy w wysokości 2 milionów dolarów, przyznany przez amerykańską Narodową Fundację Nauki. Nie bez powodu - również Amerykanie mogą osiągnąć bezpośrednie korzyści z przeprowadzonych obliczeń. Wykorzystanie wiedzy na temat budowy roślin na poziomie pojedynczych molekuł może przynieść ogromne korzyści dla rolnictwa, nie tylko w zakresie uprawy ryżu. Przyłączenie się do WCG jest dziecinnie proste. Osoby chętne do użyczenia mocy obliczeniowej swojego komputera powinny wejść na stronę http://www.worldcommunitygrid.org . Można z niej pobrać niewielki, darmowy program, który po uruchomieniu aktywuje się wyłącznie wtedy, gdy użytkownik nie korzysta intensywnie z komputera - dzięki temu jest dla użytkownika wręcz niedostrzegalny. Działanie aplikacji polega na łączeniu się z serwerem i pobieraniu z niego zadań obliczeniowych, które po rozwiązaniu są wysyłane z powrotem do komputerów koordynujących działanie sieci. Obecnie do World Community Grid należy ponad 380 tysięcy użytkowników i około miliona komputerów.
  18. IBM poinformował o dokonaniu przełomu w technologii ogniw fotowoltaicznych. Najnowsze odkrycia firmy powinny znacząco obniżyć koszt produkcji energii ze Słońca. Inżynierowie przyznają, że zainspirowały ich dzieci używające szkła powiększającego do koncentracji promieni słonecznych. Pracownicy Błękitnego giganta stworzyli więc soczewki, które na 1 centymetrze kwadratowym ogniwa skupiały aż 230 watów energii słonecznej. Jest ona zamieniana na 70 watów energii elektrycznej. Nowe ogniwa pozwalają więc uzyskać pięciokrotnie więcej mocy, niż ogniwa obecnie stosowane. Badania IBM-a pozwalają na przykład na 10-krotne zmniejszenie liczby ogniw koniecznych do uzyskania wymaganej ilości mocy. Dzieje się tak dlatego, że obecne ogniwa fotowoltaiczne mają moc 200 "słońc" ("słońce" to jednostka oznaczająca moc dostarczaną przez Słońce w południe, przy bezchmurnym niebie) i dostarczają do ogniwa 20 watów mocy na centymetr kwadratowy. Nowe ogniwa, jak już wspomniano, dostarczają jej 230 watów (ich moc wynosi zatem 2300 słońc). Największym wyzwaniem było schłodzenie ogniw, na które pada tak skoncentrowana wiązka energii. Skoncentrowanie na centymetrze kwadratowym około 2000 słońc powoduje powstanie temperatury powyżej 1600 stopni Celsjusza. To wystarczy do stopienia stali. Naukowcy IBM-a poradzili sobie z tym problemem wykorzystując opracowaną na potrzeby układów komputerowych technologię chłodzenia płynnym metalem. Dzięki niej udało się obniżyć temperaturę z ponad 1600 do zaledwie 85 stopni Celsjusza. System chłodzący wykorzystuje gal oraz ind i najbardziej efektywnym i, co ważne, tanim.
  19. IBM wraz ze swoimi partnerami - Chartered Semiconductor, Freescale, Infineon Technologies, Samsung Electronics, STMicroelectronics i Toshiba - poinformowali o zakończonych sukcesem testach 32-nanometrowej technologii produkcji układów scalonych, przy których wykorzystano materiały o wysokiej stałej dielektrycznej oraz metalowe bramki. Prototypowy układ powstał w fabryce w East Fishkill. Zakład wykorzystuje 300-milimetrowe plastry krzemowe. Testy wykazały, że nowa technologia zapewnia 35-procentowy wzrost wydajności przy tym samym napięciu elektrycznym w porównaniu z układami tworzonymi w procesie 45 nanometrów. Jednocześnie zapotrzebowanie na moc zmniejszyło się, w zależności od napięcia, o 30-50 procent. Badania IBM-a i jego partnerów to pierwsze konkretne informacje, na podstawie których można wyciągać wnioski dotyczące wydajności 32-nanometrowych procesorów oraz ich zapotrzebowania na energię. Pierwsze tego typu procesory powinny pojawić się na rynku już w przyszłym roku.
  20. Badacze z IBM-owskiego Almaden Research Centre poinformowali o opracowaniu nowego rodzaju pamięci, dzięki któremu w ciągu dekady mogą powstać np. odtwarzacze MP3 zdolne do przechowywania setek tysięcy plików. Racetrack memory (RM) wykorzystuje spintronikę, a nazwę zawdzięcza swojej budowie. Składa się z miliardów nanokabli w kształcie litery U, które są przytwierdzone do krzemowego podłoża. Każdy z kabli przechowuje setki bitów danych. Są one przechowane w formie całej serii pól magnetycznych rozmieszczonych wzdłuż nanokabla. W przeciwieństwie do pamięci flash, która z czasem traci zdolności do przechowywania danych, RM w ogóle się nie zużywa. W miejscu, w którym kabel jest przytwierdzony do krzemu znajduje się niewielkie, nieruchome urządzenie odczytujące. Przyłożenie napięcia elektrycznego do nanokabli powoduje przesuwanie się magnetycznych domen. Głowica odczytująca mierzy magnetooporność każdej z domen, odczytując w ten sposób zapisane informacje. Podobne, umieszczone obok urządzenie, może zapisywać dane odpowiednio manipulując napięciem elektrycznym. Możliwe jest umieszczanie nanokabli zarówno w pionie jak i w poziomie. Racetrack nie ma ruchomych części, więc się nie zużywa. Może przechowywać dane przez całe dziesięciolecia. Do pracy wymaga bardzo mało energii elektrycznej i niemal nie wydziela ciepła, a zapis i odczyt przebiegają bardzo szybko. Ponadto pozwala przechować olbrzymią ilość danych na niewielkiej przestrzeni. Ma więc wszystkie zalety pamięci RAM, flash i dysków twardych, a jednocześnie pozbawiony jest ich wad. Stuart Parkin, szef zespołu, który opracował RM, mówi, że nowe pamięci powinny trafić na rynek w ciągu najbliższych 5-10 lat. Inżynierowie pokonali już główne przeszkody i myślą o zastosowaniu w przyszłości trójwymiarowych struktur do budowy układów RM. Parkin stwierdził: perspektywy, które otwiera przed nami pamięć racetrack - na przykład możliwość przenoszenia w kieszeni olbrzymich ilości danych - są tak olbrzymie, że powstaną urządzenia i aplikacje, jakich obecnie nie jesteśmy w stanie sobie wyobrazić.
  21. Pierwsze systemy z czterordzeniową Barceloną firmy AMD trafią na rynek w kwietniu. Kevin Knox, wiceprezes AMD, powiedział, że kilku dużych producentów serwerów - HP, IBM, Sun Microsystems i Dell - rozpocznie sprzedaż maszyn z Barceloną jeszcze przed końcem II kwartału bieżącego roku. Szczególnie ambitne plany ma HP, które ogłosiło, że w maju będzie można kupić ośmioprocesorowy ProLiant DL785. Oznacza to, że na rynek trafi maszyna wykorzystująca 32 rdzenie. Będzie to największy komercyjny serwer x86. Knox zapowiedział również, że w drugiej połowie bieżącego roku pojawi się Opteron o nazwie kodowej Shanghai. Będzie to pierwszy procesor AMD wykonany w technologii 45 nanometrów.
  22. AMD i IBM poinformowały o wyprodukowaniu pierwszego układu scalonego, który powstał przy użyciu litografii w dalekim ultrafiolecie (extreme ultra-violet – EUV). Technologia ta będzie wykorzystywana za około 8 lat do produkcji układów w procesie technologicznym 22 nanometrów. Testowa kość najpierw przeszła proces 193-nanometrowej litografii zanurzeniowej w należącej do AMD drezdeńskiej Fab 36. Jest to najbardziej zaawansowany proces technologiczny wykorzystywany obecnie przy masowej produkcji układów scalonych. Następnie krzemowy plaster dostarczono do centrum badawczego IBM-a w Albany. Tam użyto wspomnianego skanera litograficznego firmy ASML. Za jego pomocą stworzono pierwszą warstwę połączeń pomiędzy tranzystorami naniesionymi w Dreźnie na krzem. Po ich połączeniu chip poddano teston elektrycznym. Wykazały one, że prace zakończyły się powodzeniem. Teraz plastry wrócą do Niemiec, gdzie zyskają kolejną warstwę połączeń. Powstanie ona przy użyciu standardowych narzędzi dostępnych w Fab 36 i pozwoli na umieszczenie na chipie pamięci cache. Oczywiście litografię w dalekim ultrafiolecie wypróbowano już wcześniej, jednak dotychczas tworzono za jej pomocą część obwodów, nigdy zaś nie powstał cały układ. Kolejnym krokiem będzie stworzenie całego układu scalonego tylko i wyłącznie za pomocą EUV. Nowa technologia musi być gotowa do rozpoczęcia masowej produkcji najpóźniej do końca 2015 roku. International Technology Roadmap for Semiconductor przewiduje bowiem, że w 2016 roku będzie wdrażany 22-nanometrowy proces technologiczny. EUV wykorzystuje fale światła o długości 13,5 nanometra. To olbrzymia różnica w porównaniu z obecnie wykorzystywanymi 193-nanometrowymi falami.
  23. IBM zapowiedział, że kolejna wersja procesora Cell zostanie wyprodukowana w technologii 45 nanometrów, a sam układ będzie taktowany nawet 6-gigahercowym zegarem. Jednocześnie nowy procesor będzie wymagał do pracy mniej energii niż jego obecna wersja. Porównując nową kość z obecną, przedstawiciele IBM-a stwierdzili, że będzie ona zużywała około 40% mniej energii, a powierzchnia samego procesora zmniejszy się o 34%. Jeśli zainstalujemy nowy procesor w konsoli PlayStation 3 i porównamy go z obecnym układem, przy czym obie kości będą taktowane zegarem o częstotliwości 3,2 GHz, to przekonamy się, że układ potrzebuje do pracy 38% mniej energii. A że jest mniejszy, spadną też koszty produkcji samej konsoli. IBM testuje obecnie 6-gigahercową wersję nowego Cella, którą chce wykorzystać w swoich serwerach.
  24. Chyba każdy, kto interesuje się IT słyszał o walce formatów OOXML i ODF. Słyszał też, że jednym z największych przeciwników microsoftowego OOXML jest wspierająca forma ODF firma IBM. Okazuje się jednak, że Błękitny Gigant jest firmą pragmatyczną, która w niektórych swoich produktach... wspiera format Microsoftu. Bob Sutor, wiceprezes IBM-a ds. standardów i Open Source, pisał przed rokiem na swoim blogu: sądzę, że jest wiele powodów, dla których microsoftowa specyfikacja XML-a dla Office’a, OOXML, przegra na rynku. Sutor wymienił szereg argumentów, wielokrotnie wspominanych w dyskusji pomiędzy zwolennikami a przeciwnikami OOXML-a. Tymczasem, jak poinformował na firmowym blogu Dough Mahugh, pracownik Microsoftu, IBM wspiera OOXML w kilku produktach. Są nimi Lotus Quickr, DB2 Content Manager v8.4 i DB2 9 pureXML. Pozornie nie ma w tym nic dziwnego, IBM liczy się po prostu z rynkowymi realiami i przygotowuje się na każdy rozwój sytuacji. Z drugiej jednak strony sprzeciw wobec standaryzacji OOXML-a ma na celu osłabienie rynkowej pozycji Microsoftu. Implementowanie w swoich produktach obsługi OOXML pozycji tej bynajmniej nie osłabia. IBM nie jest jedynym krytykiem OOXML-a, który jednocześnie wspiera go w swoich produktach. Podobnie czynią Google, które pod koniec ubiegłego roku zapowiedziało, że może dodać obsługę OOXML do Google Apps czy Apple, które już ją dodało do iWork ‘08.
  25. Badacze IBM-a uważają, że w przyszłości możliwe będzie stworzenie superkomputera wielkości laptopa. Koncern uważa, że do komunikacji pomiędzy rdzeniami procesora można wykorzystać światło zamiast elektryczności, a to stukrotnie zwiększyłoby prędkość przesyłu danych. IBM pracuje nad technologią zwaną krzemową nanofotoniką. Ma ona pozwolić na zastąpienie miniaturowymi światłowodami przynajmniej części tradycyjnych połączeń w układzie scalonym. Jak zapewnia Will Green, jeden z badaczy IBM-a, takie rozwiązanie powoduje, że dane przesyłane są 100-krotnie szybciej, a do ich przekazania potrzeba 10-krotnie mniej energii. To z kolei niezwykle ważny czynnik, gdyż koszty związane z użytkowaniem superkomputerów są bardzo duże. Green dodaje, że podstawowe założenia krzemowej nanofotoniki są podobne do tych, na podstawie których stworzono kable optyczne wykorzystywane w Internecie. Różnica jest taka, że tutaj informacje przesyłane są na odległość liczoną w centymetrach. Zdaniem IBM-owskiego badacza dzięki nowej technologii laptopy i komputery biurkowe osiągną moc dzisiejszych superkomputerów. „Będziemy mogli w jednym układzie scalonym umieścić setki czy tysiące rdzeni” – mówi Green. Dodaje, że pierwsze układy korzystające z krzemowej nanofotoniki mogą powstać za 10-12 lat. Obwody elektryczne nie nadają się do budowania tak potężnych procesorów, o których wspomina Green. Wydzielają zbyt dużo ciepła, zbyt wolno przekazują dane, a sygnał elektryczny może w nich wędrować pomiędzy rdzeniami na odległość najwyżej kilku milimetrów. IBM-owskie badania nad krzemową nanofotoniką są współfinansowane przez DARPA.
×
×
  • Dodaj nową pozycję...