Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'IBM' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 150 wyników

  1. IBM ma zamiar na masową skalę wykorzystywać nową technologię łączenia układów scalonych i ich części. Dzięki temu Błękitny Gigant chce poprawić ich wydajność i jednocześnie zmniejszyć pobór mocy. Technologia TSV (through-silicon vias) pozwala na łączenie zarówno procesora i pamięci, jak i rdzeni procesora ze sobą. Połączenie jest realizowane przez tysiące niewielkich przewodów, którymi wędrują dane. Obecnie zadania te spoczywają na urządzeniach zwanych szynami, które jednak często ulegają przeciążeniu. TSV pozwala na przesłanie większej ilości danych w ciągu sekundy, a pobór mocy jest przy tym niższy niż w przypadku szyn. IBM nie jest pierwszą firmą, która chce wykorzystać TSV. Wspominał już o tym Intel przy okazji swojego 80-rdzeniowego procesora. IBM ma natomiast zamiar zastosować nową technologię na masową skalę. Pierwsze próbki układów z TSV trafią do klientów jeszcze w bieżącym roku, a w 2008 zacznie się ich masowa produkcja. IBM ocenia, że w układach wykonanych z krzemu domieszkowanego germanem (tzw. rozciągnięty krzem) uda się zaoszczędzić nawet 40% energii. W układach z technologią TSV zostaną nawiercone mikroskopijne otwory, przez które zostanie przeciągnięte okablowanie z wolframu. Badacze IBM-a mają nadzieję, że w ciągu 3-5 lat dzięki TSV uda się połączyć pamięć bezpośrednio z procesorem, bez konieczności stosowania kontrolera pamięci. Powinno to zwiększyć wydajność o dalsze 10%, a pobór mocy zmniejszyć o 20%. Błękitny Gigant pokłada tak wielką nadzieję w nowej technologii, że planuje zastosowanie jest w swoich superkomputerach BlueGene. TSV pozwoli też na zmianę architektury płyt głównych. Obecnie niektóre firmy budują je w ten sposób, że łączą układają kości jedną na drugiej. Pozwala to zaoszczędzić miejsca, ale układy łączą się ze sobą za pośrednictwem szyn, więc nie ma zysku wydajności. TSV pozwoli pozbyć się szyn, a tym samym zwiększyć wydajność. Ponadto, dzięki likwidacji szyn możliwe będą dalsze oszczędności miejsca (układy będą połączone za pomocą poprowadzonych w środku kabli). Rozpowszechnienie się TSV doprowadzić może do zmiany sposobu sprzedaży układów producentom płyt głównych. Będą oni mogli kupić od takich firm jak IBM czy Intel gotowe połączone ze sobą zestawy, składające się z procesora, chipsetu i pamięci. To jedna z możliwych metod zwiększenia wydajności systemów komputerowych. Wśród innych warto wymienić technologię produkcji trójwymiarowych układów pamięci opracowaną przez Matrix Semiconductor czy technologię rozwijaną przez Sun Microsystems, która umożliwia przesyłanie danych pomiędzy odpowiednio blisko znajdującymi się układami. Interesująca jest również technologia Loki, firmy Rambus, która zapewnia przesył danych z prędkością 6,25 gigabita na sekundę przy poborze mocy rzędu 2,2 miliwata na gigabit. Niedawno Rambus pokazał prototypowy system Loki, który przez 40 godzin był w stanie pracować na dwóch bateriach AA i przesłał w tym czasie 3,6 petabita (3,6 miliona gigabitów) danych. Wracając do TSV warto wspomnieć, że Intel rozwija tą technologię od 2005 roku. Firma nie jest jednak jeszcze gotowa do jej wykorzystania na masową skalę. Inżynierowie Intela chcą użyć TSV do połączenia w jednej obudowie procesora i pamięci operacyjnej, to jednak rodzi poważne kłopoty związane z wydzielaniem ciepła. Wszystko więc wskazuje na to, że na rynek TSV trafi po raz pierwszy dzięki IBM-owi.
  2. IBM jest autorem najszybszego optycznego układu nadawczo-odbiorczego. Pracuje on co najmniej ośmiokrotnie szybciej, niż inne urządzenia optyczne. Urządzenie jest na tyle szybkie, że może ono skrócić czas pobierania z sieci filmu HD z typowych kilkudziesięciu minut (oczywiście w wypadku korzystania z kilkumegabitowego łącza internetowego) do kilku sekund. Odbiornik-nadajnik IBM-a jest w stanie przesyłać dane z prędkością 160 gigabitów na sekundę. Co więcej jest ono proste i tanie w produkcji, dzięki czemu szybko powinno zostać zastosowane w praktyce. Zastosowana przez Błękitnego Giganta technologia pozwala na integrowanie urządzenia ze współcześnie sykorzystywanymi układami scalonymi. Szczegóły na temat nowego odbiornika zostaną przedstawione przez IBM-a 29 marca podczas Optical Fiber Conference w Anaheim.
  3. IBM postanowił zastosować inną niż Intel i AMD strategię rozwojową swoich najnowszych procesorów. Zamiast zwiększać liczbę rdzeni (co robią wymienione firmy), Błękitny Gigant zwiększy taktowanie swojego dwurdzeniowego CPU. Przyszły Power6 będzie taktowany zegarem o częstotliwości od 4 do 5 gigaherców. Producent wyposaży go w 8-megabajtową pamięć podręczną drugiego poziomu, a dane będą wysyłane do pamięci z prędkością 75 gigabitów na sekundę. Tym samym IBM znacząco zwiększy osiągi Power6 w porównaniu z Power5, nie zwiększając przy tym poboru mocy ani nie wydłużając potoku wykonawczego. Było to możliwe dzięki nowemu sposobowi projektowania obwodów i zastosowaniu nowej technologii produkcji. Power6 będzie 65-nanometrowym układem, zbudowanym przy wykorzystaniu rozciągniętego krzemu. Do pracy z pełną mocą będzie potrzebował napięcia rzędu 0,8 wolta. Ponadto, po raz pierwszy w historii, IBM połączył swój procesor z linii Power, z zewnętrznym kontrolerem, który będzie monitorował i zarządzał napięciem oraz wydajnością układu.
  4. IBM informuje o rozpoczęciu produkcji układów Cell BE w technologii 65 nanometrów. Kości powstają w fabryce w East Fishkill w stanie Nowy Jork. Układ Cell to wspólne dzieło IBM-a, Toshiby i Sony. Ze względu na dużą wydajność jest czasem nazywany superkomputerem w układzie scalonym. Obecnie stosowany jest w konsoli PlayStation 3 oraz IBM-owskich serwerach z serii BladeCenter. Znajduje też zastosowanie w obrazowaniu medycznym czy projektowaniu inżynieryjnym. Zastąpienie obecnie wykorzystywanego 90-nanometrowego procesu produkcyjnego technologią 65 nm. pozwala na zmniejszenie powierzchni układu o 40% procent i obniżenie kosztów jego produkcji. Można więc się spodziewać, że spadną ceny wykorzystującej go konsoli PS3.
  5. Wojna cenowa z Intelem oraz zakup ATI znacząco odbiły się na finansach AMD. Kłopoty finansowe tej firmy spowodowały, że pojawiły się plotki o jej możliwym przejęciu przez duże grupy finansowe czy inne koncerny, jak IBM. Przez kilka ostatnich lat AMD odbierało Intelowi kolejne fragmenty rynku. Obecnie należy do niej ponad 25% rynku procesorów x86, a firma zapowiada, że ma zamiar zdobyć kolejne 5 procent. W roku 2006 Intel przeszedł do ofensywy: pokazał znakomitą mikroarchitekturę Core 2 oraz znacząco obniżył ceny swoich procesorów. Rozpoczęła się wojna cenowa, którą odczuły obie firmy. Jednak jej przebieg jest szczególnie dramatyczny w przypadku AMD. Akcje tego przedsiębiorstwa straciły w ciągu roku aż 60% wartości. Inwestorzy obawiają się bowiem, że dalsza rywalizacja na ceny będzie się odbywała kosztem zmniejszenia marginesu zysków. Boją się też, że AMD, próbując dotrzymać kroku Intelowi, wydaje zbyt dużo jak na swoje możliwości. Obawy te wydaje się potwierdzać Stephen Kleynhans, wiceprezes ds. badań firmy analitycznej Gartner: AMD jako firma ma wystarczająco silną pozycję, by przetrwać. Sądzę jednak, że czeka ją kilka ciężkich lat. Mają dobre technologie, ale to rzecz bardzo ulotna. W dzisiejszych czasach przewaga technologiczna może zostać zniwelowana w ciągu kilku kwartałów – mówi Kleynhans. Z kolei obaw o kondycję firmy nie mają najwyraźniej posiadacze akcji Intela. Te w 2006 roku straciły na wartości jedynie 4%. Układy z serii Core 2 pozwoliły na zahamowanie postępów AMD, które wciąż zyskuje na rynku procesorów dla notebooków i desktopów, ale znacznie wolniej, niż dotychczas. Za to na bardzo opłacalnym rynku dla serwerów ofensywa AMD została całkowicie powstrzymana. Dużym zwycięstwem AMD była umowa z Dellem, który do niedawna wykorzystywał tylko i wyłącznie procesory Intela. Na ten sukces Intel odpowiedział podpisaniem umowy z producentem serwerów, firmą Sun Microsystems, która dotychczas korzystała jedynie z CPU produkowane przez siebie i AMD. Zauważyć przy tym należy, że Sun zaczyna znowu liczyć się na rynku, a Dell – dotychczasowy lider – ma coraz większe kłopoty z utrzymaniem wiodącej pozycji. Mario Rivas, wiceprezes AMD ds. produktów obliczeniowych mówi, że pięć lata temu w ogóle nie istnieliśmy na rynku serwerów, a teraz jesteśmy liczącym się graczem, jednak analitycy nie są takimi optymistami. W 2006 roku firma zanotowała stratę w wysokości 166 milionów dolarów i nie potrafiła zarysować przekonującej strategii na przyszłość, która pozwoliłaby wyróżnić jej produkty na tle oferty Intela. Przed kilkoma dniami AMD poinformowało, że nie osiągnie zakładanych na bieżący kwartał wpływów w wysokości 1,6-1,7 miliarda USD. O kondycji firmy świadczy podsumowanie ubiegłego roku. Na koniec grudnia koncern miał 1,5 miliarda USD w gotówce i 3,8 miliarda dolarów długu, w tym 2,2 miliarda związanego z przejęciem ATI. Rok 2005 AMD zamykało z 1,8 miliarda USD w gotówce i długiem w wysokości 1,4 mld. W związku z wysokim długiem AMD może mieć problem z uzyskaniem pożyczek i nie będzie miało jak sfinansować wydatków kapitałowych w wysokości 2,5 miliarda dolarów zaplanowanych na rok bieżący. Główny konkurent AMD, Intel, zakończył ubiegły rok w znacznie lepszej kondycji. Ma 10 miliardów dolarów gotówki i 2 miliardy długu. Zyski firmy spadły co prawda o 42%, ale spadek spowodowany był m.in. budową nowych fabryk, a inwestycje te szybko zaczną przynosić dochód. Znaczące są też inwestycje obu firm w prace badawczo-rozwojowe. Intel na badania wydaje 5,9 miliarda dolarów (w 2005 roku było to 5,1 mld), czyli 17% swoich dochodów. AMD wydało 1,2 miliarda, czyli 21% dochodów.
  6. Z badań firmy IDC wynika, że w 2006 roku producenci serwerów sprzedali maszyny o wartości 52,3 miliarda dolarów. To rekordowy wynik od czasu gorączki w 2000 roku. Analitycy zauważyli jednak znaczącą różnicę w zachowaniu klientów. O ile przed siedmioma laty, w czasie tzw. dotkomowej gorączki, kupowano przede wszystkim najtańsze serwery, to teraz po raz pierwszy od 10 lat liczba średnio- i wysokowydajnych serwerów przewyższyła liczbę tych najsłabszych. Zdaniem Matthew Eastwooda za taki stan rzeczy odpowiada rozwój technologii wirtualizacji. Firmy chcą mieć możliwość budowy prostych sieci, które umożliwią uruchomienie wielu systemów operacyjnych. W 2006 roku największa część rynku należała do IBM-a. Błękitny Gigant sprzedał 32,8% wszystkich serwerów, które trafiły na rynek. Na drugim miejscu, z wynikiem 27,2% uplasowało się HP, trzecie zajął Sun (10,8%), a czwarte Dell (10,3%). Trzeba przy tym zwrócić uwagę na pozycję Suna, który jeszcze niedawno przeżywał ogromne kłopoty i groziło mu wypadnięcie z rynku. Obecnie, dzięki własnemu nowemu procesorowi Niagara oraz układom x86, zaczyna on odzyskiwać dawną pozycję, a roczny wzrost wpływów Suna wyniósł aż 15,4%. Na rynku zyskały wszystkie architektury, ale szczególnym sukcesem może pochwalić się intelowska Itanium. Po raz pierwszy w historii kwartalna wartość sprzedaży procesorów z tej rodziny przekroczyła miliard dolarów, a roczny wzrost sprzedaży wyniósł 71,5 procenta. Analitycy zauważyli także wzrost zainteresowania klientów serwerami typu blade. W 2006 roku sprzedano ich o 18,2% więcej, niż rok wcześniej. Na rynku tego typu serwerów HP zaczyna deptać po piętach IBM-owi. Do HP należy już 37,4% rynku tych serwerów, a do IBM-a – 40%. Zauważy jednak trzeba, że w czwartym kwartale HP zdołało sprzedac o 13,2% więcej takich maszyn, niż IBM. Przyczyny tego stanu rzeczy należy upatrywać w wypuszczeniu przez HP na rynek trzeciej generacji serwerów. IBM wciąż sprzedaje maszyny drugiej generacji.
  7. Podczas International Solid State Circuits Conference (ISSCC) IBM pokazał najszybszą w historii kość pamięci. Dzięki zastosowaniu nowej technologii układ eDRAM (Embedded Dynamic Random Access Memory) Błękitnego Giganta charakteryzuje się nie tylko najkrótszym czasem dostępu do danych, ale również ponadtrzykrotnie większą pojemnością niż analogiczne produkty konkurencji. W sprzedaży nowa kość znajdzie się już w przyszłym roku. Układ wykonany jest w technologii Silicon-on-Insulator (SOI). Wielkość komórki pamięci układu wynosi 0,126 mikrometra kwadratowego, a opóźnienie to zaledwie 1,5 ns. Przedstawiciele IBM-a stwierdzili, że jej zastosowanie pozwoli na podwojenie wydajności firmowych procesorów. Takiego przyrostu mocy nie można uzyskać, jak zapewnił doktor Subramanian Iyer z IBM-a, za pomocą zwykłego przejścia na kolejny proces technologiczny. IBM jest bardzo innowacyjną firmą na polu mikroelektroniki. Dokonała przełomowych badań nad materiałami o wysokiej stałej dielektrycznej (high-k), wielordzeniowymi procesorami, wykorzystaniem miedzi w układach scalonych. Jej dziełem jest też technologia budowy tranzystorów krzemowo-germanowych, technologia eFUSE, która pozwala układowi scalonemu na automatyczne dostosowywanie się do zmiennych warunków pracy. Za 40-letni wkład w rozwój mikroelektroniki IBM został odznaczony przez Biały Dom Narodowym Medalem Technologicznym.
  8. Firma Harris Interactive po raz kolejny opublikowała wyniki swoich badań RQ („iloraz reputacji”), za pomocą których co roku układana jest lista najbardziej szanowanych firm w Stanach Zjednoczonych. Podczas badań branych jest 20 czynników, zgrupowanych w sześciu działach: produkty i usługi, środowisko w miejscu pracy, wyniki finansowe, odpowiedzialność społeczna, wizjonerstwo i przywództwo, zdolność do odwoływania się do emocji. Tegorocznym zwycięzcą okazał się Microsoft, który awansował na początek stawki z siódmego miejsca. Koncern zdobył 80,74 punktu na 100 możliwych. Przed rokiem jego wynik wyniósł 78,11. Drugie miejsce zajął, z wynikiem 80,44 pkt. ubiegłoroczny zwycięzca, firma Johnson&Johnson, a na trzecim znalazł się koncern 3M. Google zajęło 4. miejsce, Sony uplasowało się na 8., Amazon na 11., a Intel na 16. Microsoft znacznie wyprzedził swoich największych konkurentów Apple’a (22.) i IBM-a (26.). Badania Harris Interactive podzielone są na dwa etapy. W pierwszym z nich, etapie nominacji, przepytano 7886 osób. Każdy z respondentów miał wskazać dwie firmy o najlepszej i dwie o najgorszej reputacji. Spośród wszystkich wymienionych w tym badaniu firm i marek (pod uwagę brano też wymienione najbardziej rozpoznawane nazwy czy znaki firmowe, respondenci nie musieli wiedzieć, do jakiej firmy należą) wybrano 60 najczęściej wspominanych. Podczas drugiego etapu przepytano 22 480 osób (również próba reprezentatywna). Każda z nich mogła wybrać z listy 60 jedną lub dwie firmy, z którą była w jakikolwiek sposób zaznajomiona. Następnie wypełniała szczegółową ankietę, która obejmowała 20 wspomnianych cech. Każda z 60 firm została oceniona przez co najmniej 279 osób, średnia wynosiła 596 osób. Na podstawie otrzymanych odpowiedzi wyliczono następnie wynik dla każdej z firm.
  9. Amerykański Urząd Badań Atmosfery i Oceanów (National Oceanic & Atmospheric Administration) poinformował o uruchomieniu swoich dwóch najnowszych superkomputerów. Maszyny zbudowano w ubiegłym roku i znalazły się na 36. oraz 37. miejscu listy TOP500, prezentującej 500 najpotężniejszych superkomputerów na świecie. Każda z maszyn NOAA jest w stanie wykonać 14 bilionów operacji zmiennoprzecinkowych w ciągu sekundy (14 teraflopsów), natomiast ich najwyższa zmierzona wydajność to 18 bilionów operacji na sekundę (18 TFlops). Każdego dnia obie maszyny przetworzą dane z 240 milionów obserwacji pogodowych pochodzących z całego globu. Zbierają też informacje pochodzące z Constellation Observing System for Meteorology, Ionosphere and Climate (COSMIC) – sieci 6 satelitów pogodowych wystrzelonych przez NOAA w ubiegłym roku. Każdy z superkomputerów składa się ze 160 serwerów System p575 firmy IBM, z których każdy wykorzystuje 16 procesorów Power5+ pracujących z częstotliwością 1,9 GHz. Tak więc oba komputery używają w sumie 5120 procesorów. Każdy z nich ma też do dyspozycji macierz dyskową DS4800 o pojemności 160 terabajtów.
  10. W Sieci pojawiła się informacja jakoby firma Chartered Semiconductor miała zamiar opóźnić produkcję 65-nanometrowych procesorów dla konsoli Xbox 360. Jeśli to prawda, może się okazać, że w najbliższym czasie Microsoft nie będzie w stanie obniżyć kosztów produkcji konsoli. Rozpoczęcie masowej produkcji nowych CPU dla Xboksa planowane jest na pierwszy kwartał 2007 roku. Z nieoficjalnych informacji wynika jednak, że pierwsze 65-nanometrowe procesory powstaną w połowie przyszłego roku. Obecnie zarówno Chartered jak i IBM tworzą procesory Power w 90-nanometrowym procesie produkcyjnym. Przejście na 65-nanometrową technologię oznacza, że z pojedynczego plastra krzemu będzie powstawało więcej procesorów, a więc koszty ich wytworzenia będą niższe. W ostatnim czasie Microsoftowi i tak udało się znacznie obniżyć cenę produkcji konsoli. O ile przed rokiem wyprodukowanie bogatszej wersji Xboksa 360 szacowano na 525 dolarów, to obecnie specjaliści oceniają, że koszt ten zmniejszono do 323,3 USD. Konsola od początku sprzedawana jest w cenie 399 dolarów. Mimo tak znacznej obniżki kosztów wciąż nie wiadomo, czy Microsoft zarabia na sprzedaży urządzenia. Należy bowiem pamiętać, że koncern musi się dzielić pieniędzmi ze sklepami i hurtownikami.
  11. Naukowcy z IBM-a udostępnili dokumenty, które omawiają technologię pozwalającą na spowalnianie sygnałów optycznych – w tym wypadku fotonów – w mikroprocesorze. To kluczowa technika, które pozwoli na skonstruowanie układów przesyłających dane za pomocą łączy optycznych. IBM, Intel i wiele innych firm od dawna prowadzą badania nad zastąpieniem łączami optycznymi metali, wykorzystywanych do przesyłania sygnałów w układach scalonych. Pobierają one znacznie mniej energii, nie generują ciepła i przesyłają sygnały szybciej niż łącza metalowe. Oczywiście łącza takie powinny być zintegrowane na krzemie, ponieważ znacznie obniżyłoby to koszty produkcji układów. Intelowi udało się np. skonstruować krzemowy laser, jednak urządzenie nie znalazło jeszcze komercyjnego zastosowania. IBM-owi właśnie udało się spowolnić przekazywanie sygnałów optycznych, co pozwoli na kontrolowanie i zsynchronizowanie przepływu danych przekazywanych za pomocą fotonu. Błękitny Gigant dokonał tego za pomocą prostej pozornie sztuczki. Wykorzystano w tym celu "mikrorezonator pierścieniowy”. To rodzaj pętli, w której sygnał krąży przez jakiś czas, zanim może udać się w dalszą drogę. W ten sposób wydłużono czas wędrówki sygnału pomiędzy dwoma punktami w układzie. Technika ta ma i taką zaletę, że "mikrorezonator” ma kształt okręgu, a więc całość jest dostatecznie mała, by zmieścić się w układzie scalonym. W ten sposób 10 bitów informacji może jednocześnie "podróżować” na powierzchni 0,03 milimetra kwadratowego.
  12. DARPA, amerykańska Agencja ds. Badań nad Zaawansowanymi Projektami Obronnymi, przyznała firmom IBM i Cray 494 miliony dolarów, które mają być przeznaczone na rozwój superkomputerów. W ramach czteroletniego projektu oba koncerny mają opracować maszynę, która będzie 100-krotnie bardziej wydajna od współczesnych superkomputerów. Ma również być łatwiejsza w programowaniu, administrowaniu i użyciu. Zgodnie z założeniami projektu High Productivity Computing Systems (HPCS) w jego trzeciej fazie firmy mają zbudować superkomputer o wydajności 1 petaflopsa, czyli maszynę, zdolną do wykonania biliarda (1 000 000 000 000 000) operacji zmiennoprzecinkowych na sekundę. Obecnie najbardziej wydajny superkomputer wykonuje ich 260 bilionów w ciągu sekundy. Celem programu HPCS jest wybudowanie 2-petaflopowej maszyny, którą będzie można w przyszłości rozbudować tak, by osiągnęła wydajność 4 Pflops. IBM otrzymał 244 miliony, które przeznaczy na rozwój procesorów Power7, prace nad systemem operacyjnym AIX, systemem plików GPFS (General Parallel File System – równoległy system plików, który zapewnia dużą niezawodność i wydajny dostęp do danych użytkowanych przez klaster), środowiska Parellel Environment (PE – to środowisko projektowe i wykonawcze dla aplikacji z przetwarzaniem równoległym, zapewnia obsługę pamięci rozproszonej i komunikacji pomiędzy aplikacjami na wielu węzłach). Z kolei Cray wyda swoje 250 milionów USD na rozwój programu Cascade, nowej hybrydowej architektury, która łączy technologie wieloprocesorowe, wydajną sieć oraz oprogramowanie w jeden zintegrowany system. Cray będzie rozwijał technologie zastosowane przez AMD w procesorach Opteron, zajmie się też technologią HyperTransport.
  13. Opublikowano 28. już wydanie listy TOP500, na której wymieniono 500 najpotężniejszych superkomputerów na świecie. Na czele listy wciąż znajduje się komputer BlueGene/L produkcji IBM’a, który pracuje w Lawrence Livermore National Labolatory w USA. Jego maksymalna zmierzona moc obliczeniowa wynosi 280,6 teraflopsa, czyli 280,6 biliona operacji na sekundę. Teoretycznie jednak może on osiągnąć wydajność rzędu 367 teraflopsów. Na drugim miejscu nastąpiła zmiana. Obecnie znajduje się na nim maszyna Red Storm zbudowana przez Craya. Stojący w Sandia National Laboratories superkomputer osiągnął wydajność 101,4 biliona operacji na sekundę. Trzecie miejsce, po spadku z drugiego, należy do kolejnego produktu IBM’a o nazwie eServer Blue Gene Solution, który powstał na potrzeby Thomas J. Watson Research Center. Jego wydajność to 91,2 teraflopsów. Czwarte miejsce przypadło kolejnemu komputerowi z USA – ASC Purple, produkcji IBM’a. Znalazł się tam dzięki osiągnięciu 75,76 biliona operacji w ciągu sekundy. Dopiero na 5. miejscu napotykamy najpotężniejszy europejski komputer – MareNostrum z Barcelony. Maszyna autorstwa inżynierów z IBM’a potrafi wykonać 62 biliony 630 miliardów operacji w ciągu sekundy. Najpotężniejszy superkomputer na świecie wykorzystuje 131 072 procesory z rodziny PowerPC IBM’a. Podobnie jest w innych maszynach autorstwa Błękitnego Giganta. Blue Gene Solution to 40 960 procesorów, ASC Purple korzysta z 12 208, a MareNostrum z 10 240 CPU. W pierwszej piątce tylko Red Storm wykorzystuje inne procesory. Są to 2,4-gigahercowe dwurdzeniowe Opterony. W superkomputerze mieści się ich 26 544. Największym producentem superkomputerów na świecie jest IBM. Zbudował on 236 (czyli 47,2%) maszyn z listy TOP500. Na drugim miejscu znajduje się Hewlett-Packard ze 158 (31,6%) komputerami, następnie SGI, które stworzyło 20 superkomputerów, później zaś Dell (18) oraz Cray (15). Najczęściej w superkomputerach wykorzystywane są układy Intela. Przede wszystkim kości zbudowane w oparciu o architekturę IA-32. Na świecie znajduje się 120 superkomputerów z listy TOP500 korzystających z tych procesorów. Drugą pod względem popularności jest architektura AMD x86_64, którą znajdziemy w 113 maszynach. Kolejne miejsce należy znowu do Intela. Procesory EM64T zostały zastosowane w 108 maszynach. Na kolejnych miejscach znalazły się IBM-owskie procesory Power (91 superkomputerów) oraz IA-64 Intela (35 maszyn). Skoro już o procesorach mowa, to warto wspomnieć, że większość superkomputerów z listy wykorzystuje od 513 do 1024 procesorów. Takich maszyn jest 192. W niewielu mniej, bo 185, znajdziemy od 1025 do 2048 CPU. Na liście znajdują się natomiast jedynie 4 komputery korzystające z 32 do 64 procesorów. Natomiast jeśli chodzi o największą liczbę jednostek centralnych to wszelkie rekordy bije BlueGene/L, który jest jedynym komputerem w przedziale od 64 000 do 128 000 CPU. Mimo to jego maksymalna wydajność jest jedynie dwuipółkrotnie mniejsza, niż wydajność wszystkich 192 maszyn z przedziału 513-1024 procesory. Najwięcej, bo aż 285 superkomputerów, nie ma przydzielonego stałego zadania. Oznacza to, że wykorzystywane są w wielu różnych celach, w tym wojskowych, gdzie służą m.in. do symulacji wybuchów jądrowych. Równie dobrze jednak używane są do badania oddziaływania różnych leków czy innych związków chemicznych na białka. Przemysł półprzewodnikowy wykorzystuje 50 superkomputerów, a do zadań typowo akademickich zaprzęgnięto 46 maszyn. Finansami zajmuje się 29 tego typu maszyn, 17 służy geofizykom, a kolejne 17 wykorzystywane jest do badań nad klimatem. Superkomputery korzystają przede wszystkim z różnych odmian systemu Linux. Takich maszyn jest aż 376. Z czołowej pięćsetki 86 komputerów wykorzystuje systemy uniksowe, a 32 – mieszane. Pod kontrolą systemów z rodziny BSD pracują 3 superkomputery, tyle samo co pod kontrolą Mac OS. Najwięcej superkomputerów znajduje się w Stanach Zjednoczonych. Jest ich tam 309. Drugie miejsce w tej klasyfikacji zajmują, ex aequo, Wielka Brytania i Japonia. Biorąc jednak pod uwagę moc obliczeniową, japońskie komputery są potężniejsze. W sumie wykonują one 286,674 biliona operacji na sekundę, podczas gdy brytyjskie "tylko” 186,420 biliona. Na trzecim miejscu znowu jest remis, tym razem pomiędzy Niemcami a Chinami. W obu tych krajach pracuje po 18 superkomputerów. Dwkrotnie bardziej wydajne są jednak te niemieckie (145 teraflopsów wobec 72 Tflops). Na czwartym miejscu uplasowała się Francja z 12 superkomputerami, a na piątym 10 indyjskich maszyn. Na liście TOP500 znalazły się komputery, których wydajność wynosiła co najmniej 2,736 teraflopsa. Nie zmieściła się na niej żadna maszyna z Polski.
  14. W przyszłym tygodniu IBM rozpocznie sprzedaż swoich pierwszych serwerów z czterordzeniowymi procesorami. Maszyny zostaną wyposażone w intelowskie układy Clovertown, czyli Xeony 5300. Błękitny Gigant ogłosił, że zaoferuje pięć dwuprocesorowych modeli. Obiecał przy tym, że ich wydajność będzie znacznie wyższa od serwerów korzystających z dwurdzeniowych Xeonów 5100 „Woodcrest”. Testy przeprowadzone na serwerze x3650 wykazały, że jest on o 64 procent bardziej wydajny, niż jego dwurdzeniowy odpowienik. IBM będzie przyjmował zamówienia od najbliższego wtorku (14 listopada), a pierwsze maszyny dostarczy w grudniu. Będą to modele x3650 i x3550. Trzy pozostałe serwery będą dostarczane od stycznia. Czterordzeniowy Xeon 5300 to dwa dwurdzeniowe Xeony 5100 zamknięte w jednej obudowie. Główny rywal Intela, koncern AMD, zapowiedział, że woli od razu dostarczać „prawdziwe” czterordzeniowce, w których wszystkie rdzenie umieszczone są na jednym kawałku krzemu. Jednak pierwszy czterordzeniowy Opteron o nazwie kodowej Barcelona ukaże się najwcześniej w połowie przyszłego roku.
  15. Projekt The Beer Living Lab ma na celu zbadanie, jak szybko piwo z Europy dociera do USA. Tematyka dość zabawna, jednak wyniki uzyskane w wyniku badań mogą przynieść poważne oszczędności. Zaangażowane firmy uważają, że można dostarczać piwo szybciej, taniej i prościej. W projekt zaangażował się holenderski producent piwa Heineken, międzynarodowa firma transportowa Safmarine, Vrije Universiteit z Amsterdamu, IBM oraz urzędy celne USA, Wielkiej Brytanii i Holandii. Podróż złocistego napoju będzie śledzona za pomocą satelitów i sieci telefonii komórkowej. Na potrzeby badań IBM dostarczy swoją platformę WebSphere, która będzie połączona z technologią Secure Trade Lane, umożliwiającą śledzenie ruchu towarów w czasie rzeczywistym. Zamiast budować olbrzymią bazę danych, do której miałyby dostęp wszystkie strony zaangażowane w transport, postanowiono dostarczać im dane na bieżąco. W ramach badań Safmarine dostarczy 10 kontenerów z piwem z Holandii i Wielkiej Brytanii do centrum dystrybucji Heinekena w USA. Dzięki Beer Living Lab może powstać elektroniczny urząd celny przyszłej generacji – mówi doktor Yao-Hua Tan, profesor specjalizujący się w elektronicznej ekonomii na Vrije Universiteit. Z danych OECD wynika, że obecnie do każdego kontenera przekraczającego granice dołączanych jest ponad 30 różnych dokumentów. Dzięki śledzeniu przesyłek w czasie rzeczywistym można będzie uprościć procedury związane z transportem międzynarodowym, obniżyć związane z tym koszty oraz, co nie jest bez znaczenia, zaoszczędzić olbrzymie ilości papieru.
  16. Amerykańska armia w Iraku otrzymała oprogramowanie, które tłumaczy język angielski na arabski i arabski na angielski. System Mastor (Mutltilingual Automatic Speech-to-Speech Translator) to dzieło IBM-a. Na razie zainstalowany został na 35 laptopach będących w posiadaniu Korpusu Medycznego Armii, Dowództwa Operacji Specjalnych i Korpusu Marines. Tym, co wyróżnia Mastora od komercyjnych systemów tłumaczących jest fakt, iż te drugie potrafią tłumaczyć zaprogramowane wcześniej frazy. Mastor radzi sobie bez ich znajomości. Celem naukowców, którzy nad nim pracują, jest stworzenie systemu, który będzie w stanie przetłumaczyć znacznie wypowiadanych zdań nawet, jeśli w informacjach docierających do oprogramowania znajdą się niewielkie błędy popełnione przez mówiącego czy system rozpoznawania mowy. Gdy użytkownik systemu mówi do mikrofonu, oprogramowanie rozpoznaje i tłumaczy mowę na język docelowy. Zachowuje także wypowiedzi w formie tekstowej.
  17. IBM postanowił podobno zrezygnować z produkcji swoich własnych płyt głównych dla procesorów RISC. Błękitny Gigant chce, by procesory z rodziny Power 7 i kolejne współpracowały z nieco zmodyfikowanymi płytami głównymi dla Opteronów. IBM oszczędzi dzięki temu pieniądze, a AMD zyska ważnego klienta. Żadna z wymienionych firm nie potwierdziła oficjalnie tych doniesień, jednak liczne źródła informują, że oba koncerny podpisały już stosowną umowę. Z nieoficjalnych informacji wiadomo również, że płyty główne dla Opteronów chce podobno wykorzystać Sun Microsystems, który montowałby w nich procesory UltraSPARC i UltraSPARC T1. Przed kilkoma dniami AMD wystąpiło z inicjatywą budowy platformy, która pozwalałaby różnym producentom procesorów na montowanie ich CPU w gniazdach Opteronów. Nie wiadomo, co prawda, na ile wydajne będą płyty główne dla procesorów x86, które zostaną zastosowane wraz z układami RISC na rynku wysoko wydajnych serwerów. Eksperci uważają jednak, że do roku 2009, kiedy to na rynek trafi Power 7, AMD znajdzie jakieś rozwiązanie tego problemu.
  18. IBM poinformował o rozpoczęciu sprzedaży na masową skalę pierwszego w historii serwera z procesorem Cell. BladeCenter QS20 skierowany jest przede wszystkim do firm. Maszyna jest przystosowana do pracy z wymagającymi aplikacjami graficznymi. Powinna znaleźć zastosowanie a obrazowaniu medycznymi, przemyśle kosmicznym, obronnym, filmowym, telekomunikacyjnym oraz wydobywczym. IBM uważa, że dzięki jego nowemu produktowi w wymienionych gałęziach przemysłu może dojść do poważnych zmian. Wersje beta BladeCenter QS20 już od pewnego czasu pracują w USA, Wielkiej Brytanii, Hiszpanii, Niemczech, Francji, Japonii i Korei. Korzystają z nich, m.in. University of Manchester, Fraunhofer Institute czy firma RapidMind. BladeCenter QS20 został wyposażony w dwa standardowe 3,2-gigaherowe procesory Cell. Pamięć wewnętrzna procesora to 512 kilobajtów pamięci cache drugiego poziomu dla układu PPE (Power Processing Element - pozwala on Cellowi pracować jak "zwykły" procesor) i po 256 kilobajtów dla każdego z ośmiu SPE (Synergistic Processing Element - to specjalistyczne układy wektorowe). Serwer wyposażono w 1 gigabajt pamięci RAM (po 512 MB na procesor) oraz 40-gigabajtowy dysk twardy z interfejsem IDE. Korzysta też on z Dual Gigabit Ethernet oraz z jednego lub dwóch adapterów InfinBand połączonych za pomocą PCI Express. Producent preinstalował w BladeCentre QS20 system operacyjny bazujący na Fedora Core 5. IBM nie podaje ceny swojego najnowszego komputera.
  19. Dyski twarde radykalnie zmieniły sposób organizacji danych w pamięciach masowych. Te zasłużone w przemyśle IT urządzenia obchodzą swój 50. jubileusz. Pierwszą firmą, która zdecydowała się zainstalować maszynę RAMAC (Random Access Method of Accounting and Control) autorstwa IBM był producent papieru, Crown Zellebrach. Komputer RAMAC oferowany był z nowinką techniczną zwaną dyskiem twardym. RAMAC został oficjalnie zaprezentowany 13 września 1956 roku. Maszyna ważyła tonę i mogła przechować do 5 MB danych zapisanych na 50 talerzach, z którego każdy miał średnicę 61 cm. Jim Porter, który pracował wtedy z Crownie, wspomina. Za każdym razem, gdy odwiedzał nas jakiś gość w interesach, chciał zobaczyć to urządzenie. Trzeba go było prowadzić trzy poziomy niżej do serwerowni. Maszyna prezentowała się okazale - było widać głowice poruszające się nad powierzchniami dysków - dodaje. Od tamtego czasu wiele się zmieniło - producenci oferują znacznie mniejsze urządzenia potrafiące zapisać nawet 750 GB danych - a więc 150 tysięcy razy więcej, aniżeli był w stanie zachować RAMAC. Postęp technologiczny posuwa się w niewiarygodnym tempie - pod koniec tego roku, lub na początku przyszłego pojawią się napędy zdolne do zapisania terabajta danych. Gęstość zapisu danych w przypadku obecnie oferowanych pamięciach magnetycznych jest w porównaniu z tą, jaką prezentował RAMAC, 65 milionów razy większa, a wiemy, że jeszcze nie dotarliśmy do granic możliwości - opowiada Mark Kryder, dyrektor działu technicznego korporacji Seagate.
  20. Firma analityczna IDC doniosła, że Sun Microsystems, który od lat traci rynek na rzecz konkurencji, był w drugim kwartale 2006 roku jedynym producentem serwerów spośród "Wielkiej Czwórki", którego dochody z tytułu sprzedaży serwerów zwiększyły się. Dochody te wzrosły w drugim kwartale w przypadku Suna o 15,5% i wyniosły 1,59 miliarda dolarów. W tym samym czasie światowy rynek serwerów wzrósł zaledwie o 0,6%, do 12,29 miliarda USD. Szybszy wzrost zanotowano jedynie wśród serwerów x86, serwerów kasetowych (blade server) i systemów kosztujących mniej niż 25 000 dolarów. Trzej główni rywale Suna zanotowali spadek dochodów. W przypadku IBM-a spadek wyniósł 2,2% (do 3,42 miliarda USD), HP straciło 1,7% i jego dochody ze sprzedaży serwerów wyniosły 3,4 miliarda dolarów. Dochody Della zmniejszyły się natomiast o 1,3% (1,27 miliarda USD). Sun od dłuższego już czasu starał się powstrzymać spadek zainteresowania swoimi produktami. Ostatnio wprowadził na rynek serwery "Galaxy" korzystające z procesorów Opteron firmy AMD oraz zaprezentował serwery z układem UltraSparc T1 "Niagara". Do sukcesu Suna przyczynił się jednak w największym stopniu duży popyt na jego serwery z procesorami UltraSparc IV+.
  21. Przed 25 laty, 12 sierpnia 1981 roku firma IBM wypuściła na rynek pierwszy w historii komputer osobisty (Personal Computer – PC). Rozpoczęła się era pecetów. Od tamtej pory na całym świecie sprzedano 1,6 miliarda tego typu urządzeń. Powstał przemysł, którego roczne obroty przekraczają obecnie 200 miliardów dolarów. PC odniósł sukces dzięki otwartej platformie, której konfigurację każdy mógł zmieniać i rozbudowywać. Dzięki temu można było używany sprzęt przystosować do nowych rozwiązań. Pojawienie się peceta przyczyniło się do rozwoju rynku oprogramowania. Później tego typu komputery były pierwszymi urządzeniami za pomocą których możliwe było połączenie się z Internetem. Pierwszy pecet został wyprodukowany przez firmę Xerox. Powstał on już w 1972 roku, jednak nigdy nie trafił na rynek. Maszyna ta zainspirowała jednak podobno Apple'a i Sun Microsystems do stworzenia swoich komputerów. Pecet IBM-a oznaczony był symbolem 5150 i został wyceniony na 1565 dolarów. Jego sercem był procesor 8088 Intela taktowany zegarem o częstotliwości 4,77 MHz. W komputerze instalowano nie więcej niż 640 kilobajtów pamięci operacyjnej, a działał on pod kontrolą microsoftowego systemu MS-DOS 1.0. Jego otwarta architektura pozwoliła innym firmom na skopiowanie rozwiązań IBM-a. Z jednej strony umożliwiło to szybki rozwój tego segmentu rynku, z drugiej doprowadziło do odebrania Błękitnemu Gigantowi rynku przez inne firmy. W ubiegłym roku podjęta została historyczna decyzja. IBM pozbył się swojego oddziału produkującego pecety. Obecnie wielu analityków uważa, że jesteśmy świadkami powolnego końca dominacji pecetów w świecie IT. Są one, ich zdaniem, stopniowo zastępowane przez notebooki i inne urządzenia przenośne.
  22. Badacze IBM-a zaprezentowali z Zurychu przełącznik składający się z pojedynczej molekuły. Jego ustawienia można zmieniać pomiędzy stanami "włączony" i "wyłączony" za pomocą impulsów elektrycznych. Oba stany są stabilne, a odczyt danych nie prowadzi do zmiany stanu przełącznika. Podczas pokazu badacze IBM-a Heike Riel i Emanuel Lörtscher zmienili stan przełącznika ponad 500 razy. Wykorzystana molekuła organiczna ma średnicę 1,5 nanometra, jest więc około stukrotnie mniejsza niż elementy obecnie wykorzystywane do tych zamych zadań. Molekułę wyprodukował zespół profesora Jamesa M. Toura z Rice University w Houston. Technologia CMOS, którą wykorzystują obecne komputery, osiągnie granicę swych fizycznych możliwości za 10 do 15 lat. Najmniejsze stosowane obecnie struktury w układach scalonych mają wielkość około 40 nanometrów. Ich dalsze zmniejszanie jest koniecznością, jeśli Prawo Moore'a ma zachować ważność. Zakłada ono, że gęstość upakowania tranzystorów w półprzewodniku zwiększa się dwukrotnie co 18 miesięcy. Naukowcy przewidują, że po przekroczeniu granicy 20 nanometrów pojawią się poważne, trudne do przezwyciężenia przeszkody. Poniżej 10 nanometrów technologia CMOS osiągnie swe fizyczne granice. Badania IBM-a dają nadzieję na to, że w przyszłości molekuły organiczne posłużą do budowanie układów pamięci i obwodów logicznych. Elektronika molekularna, korzystająca z molekuł o średnicy jednego nanometra (jedna milionowa milimetra) pozwoli na dalszą, daleko bardziej posuniętą miniaturyzację niż jest to możliwe przy wykorzystaniu współczesnych technik.
  23. Na rynek trafił dzisiaj komputer ThinkCentre A60 firmy Lenovo/IBM. To pierwsza w historii maszyna z tej serii, w której zastosowano procesor AMD. Komputer powstał z myślą o klientach biznesowych. A60 ma być przydatny zarówno dla osób zajmujących się grafiką komputerową, jak i w pracach statystycznych czy obrazowaniu medycznym. Maszyna obsługuje złącza SATA, osiem portów USB, Gigabit Ethernet, można ją wyposażyć w dwa dyski twarde po 500 GB każdy, układy pamięci DDR2. Korzysta z układu graficznego Nvidia GeForce 6100. Użytkownik może wybrać pomiędzy procesorami Athlon 64 X2 i Athlon 64 oraz pomiędzy chipsetem z rodziny Intel Express lub C51G Nvidii. Do wyboru jest również opcjonalna karta graficzna. Można zamówić komputer z systemem operacyjnym Windows XP Professional lub bez systemu. Obecnie komputer można kupić w Singapurze oraz przez stronę internetową Lenovo. Ceny ThinkCentre A60 rozpoczynają się od 750 USD.
  24. IBM poszerzył swoją ofertę o dwa highendowe uniksowe serwery. Jeden z nich to, jak twierdzi producent, najpotężniejsza tego typu maszyna na świecie. System p5-595 to, według IBM-a, 64-rdzeniowy demon prędkości zdolny do przeprowadzenia rekordowej liczby milionów transakcji na minutę. Nowe serwery zbudowane są z 16-rdzeniowych modułów, z których każdy wykorzystuje z kolei dwa moduły 8-rdzeniowe stworzone z czterech dwurdzeniowych układów Power5+. W 64-rdzeniowym serwerze p5-595 procesory taktowane są zegarami o częstotliwości 2,3 lub 2,1 GHz, a w 32-rdzeniowych maszynach p5-590 zegar pracuje z częstotliwością 2,1 GHz. Każdy z procesorów wykorzystuje 1,9 MB pamięci cache drugiego poziomu oraz zintegrowany kontroler pamięci. IBM wraz z serwerem p5-595 dostarcza serwer bazy danych DB2 9 oraz system operacyjny AIX 5L. Wraz z IBM System Storage DS4800 przetwarza nieco ponad 4 miliony transakcji w ciągu minuty.
  25. Advanced Micro Devices i International Business Machines ogłoszą wkrótce, że podpisały umowę, zgodnie z którą mainstreamowe serwery IBM-a zostaną wyposażone w układy AMD. Umowa ta powinna jeszcze bardziej zwiększyć sprzedaż procesorów Opteron i poprawić pozycję AMD na rynku serwerów. Jej podpisanie oznacza także, że Intel będzie musiał podjąć zdecydowane kroki by obronić swój udział w tym rynku. IBM jest pierwszym dużym producentem serwerów, który zaczął wykorzystywać procesory Opteron. Sprzedawał je jednak dotychczas wyłącznie w najbardziej wydajnych maszynach, a rynek takich komputerów jest znacznie mniejszy, niż rynek mniej wydajnych serwerów. Sytuacja ta ma ulec zmianie 1 sierpnia, kiedy to, jak donosi prasa, oba koncerny rozpoczną rozmowy o współpracy. Analityk Richard Doherty z Envisioneering Group uważa, że podpisanie umowy to dobry ruch ze strony IBM-a. Jego zdaniem Błękitny Gigant zwlekał z zawarciem takiego porozumienia, ponieważ obawiał się, że wpłynie to negatywnie na jego stosunki z Intelem. Tymczasem AMD zaplanowało podobno na połowę sierpnia premierę dwurdzeniowych Opteronów, które korzystają z kontrolera pamięci DDR2 oraz technologii wirtualizacji.
×
×
  • Dodaj nową pozycję...