Jump to content
Forum Kopalni Wiedzy

Search the Community

Showing results for tags 'serwer'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Found 46 results

  1. Taniec pszczół zainspirował naukowców z Georgia Institute of Technology do zwiększenia... wydajności serwerów internetowych. Uczonych zainteresowało, w jaki sposób pszczoły, dysponując ograniczonymi zasobami i nie posiadając jednego centralnego ośrodka, który organizuje ich pracę, są w stanie tak efektywnie zebrać duże ilości nektaru. Akademicy, badając ich taniec, opracowali nowy system komunikacyjny dla serwerów. Umożliwia on serwerom, które zostały skonfigurowane do pojedynczego zadania, przełączanie się w miarę potrzeb pomiędzy różnymi zadaniami bez ryzyka przeciążenia i odcięcia od swoich zasobów użytkowników. Przeprowadzone testy wykazały już, że zastosowanie „pszczelego algorytmu” zwiększyło wydajność serwerów bankowych od 4 do 25 procent. Rezultaty badań zostały opisane w piśmie „Bioinspiracja i biomimetyka” (Bioinspiration and Biomimetics). Profesor Craig Tovey zauważył, że pszczoły i serwery muszą borykać się z podobnymi ograniczeniami, jeśli chodzi o wydajność. Od lat badam pszczoły i zastanawiałem się, jak wykorzystać moją wiedzę w praktyce. Jeśli pracujesz nad biomimetyką musisz szukać ścisłych analogii pomiędzy dwoma systemami, a nie patrzeć, który jest doskonalszy. A tu zachodzi taka właśnie analogia – mówi Tovey. Swoje spostrzeżenia przedyskutował z Sunilem Narkanim z University of Oxford. Obaj stwierdzili, że strategie, jakie pszczoły przyjmując radząc sobie z zarządzaniem ograniczonymi zasobami w nieprzewidywalnym i ciągle zmieniającym się środowisku, można zastosować do serwerów pracujących w Internecie. Ograniczona liczba pszczół musi polecieć do kwiatów, zebrać nektar, wrócić z nim do ula i powtarzać te czynności tak długo, jak w danym miejscu można nektar znaleźć. Czasami trzeba zebrać więcej nektaru, czasami mniej. Tymczasem środowisko, w którym pracują, ciągle się zmienia. Różne kwiaty kwitną o różnych porach i dają różne ilości nektaru. Bardzo dużo zależy też od warunków pogodowych. Podobnie działają serwery. Muszą obsłużyć klienta, który się z nimi łączy i odpowiedzieć na wszystkie jego zapytania. I podobne działania przeprowadzają w przypadku każdego z klientów. Liczba klientów zmienia się w zależności od pory dnia lub pewnych wydarzeń (np. po przeprowadzeniu przez firmę kampanii reklamowej, serwery muszą zwykle obsłużyć znacznie więcej klientów). Pszczoły radzą sobie w następujący sposób: zwiadowca poszukuje nektaru, a gdy go znajdzie, wraca do ula i za pomocą tańca (taniec pszczół to jedyny, oprócz języka ludzi, znany nam dwuklasowy system znaków) informują inne pszczoły o lokalizacji nektaru, jego ilości i właściwościach. Wtedy do źródła leci odpowiednia liczba pszczół. Jeśli nie zbiorą wszystkiego, to po powrocie do ula nadal wykonują swój taniec. Pokazują go aż do wyczerpania zasobów nektaru, albo do czasu, gdy inny zwiadowca wróci z informacją, że w innym miejscu znalazł jeszcze lepszy nektar. Dzięki takiemu systemowi pszczoły otrzymują na bieżące aktualizowane informacje o źródłach nektaru i mogą kierować się tam, gdzie zbiorą najwięcej najlepszego pożywienia. A wszystko to odbywa się bez centralnego sterowania, które tylko opóźniałoby proces przekazywania informacji. Serwery internetowe zwykle skonfigurowane są tak, by dobrze sprawowały się w normalnych warunkach pracy. Do obsługi dużych witryn zwykle przypisanych jest wiele maszyn. Gdy nagle pojawia się olbrzymia liczba klientów, mogą mieć one problem z ich obsłużeniem, jednak gdy liczba klientów jest niższa od przeciętnej, serwery pozostają bezczynne. W tym czasie serwery, które obsługują inne części tej samej witryny mogą mieć problemy z nadążeniem z odpowiedzią na zapytania przesyłane przez podłączone do Sieci komputery. Tovey i Nakrani opracowali rodzaj „sali tanecznej” dla serwerów. Gdy któryś z nich otrzymuje zapytanie od użytkownika, umieszcza w „sali tanecznej” zaproszenie do współpracy dla innych maszyn. Na zaproszenie odpowiadają serwery, które akurat mają mniej pracy. Im żądanie klienta jest bardziej skomplikowane, a korzyści osiągnięte z jego obsłużenia większe, tym dłużej ważne jest zaproszenie. A im dłużej zaproszenie jest ważne, tym więcej serwerów przyłącza się do jego obsługi. Dzięki takiemu rozwiązaniu można efektywnie zarządzać mocą dostępnych serwerów i tak nimi kierować, by te, które akurat mają mniej pracy, wspomogły te najbardziej zapracowane.
  2. Sun Microsystems i Microsoft, wieloletni rywale, zostali partnerami. Na podstawie podpisanej umowy Sun zaoferuje na swoich serwerach system operacyjny koncernu Gatesa. Oczywiście, firma nie rezygnuje z rozprowadzania własnego OS-u, Solarisa. Klienci Suna będą mogli nabyć maszyny m.in. z takimi aplikacjami jak Microsoft Virtual Server, Microsoft SQL Server, Microsoft Exchange Server i Microsoft Internet Protocol Television Edition. Sun obiecał, że w ciągu 90 dni na rynek trafią pierwsze serwery Sun x64 z systemem Windows Server 2003. Maszyny zostaną wyposażone w mechanizmy wirtualizacji tak, że na jednym serwerze będzie można uruchomić zarówno Windows jak i Solaris. Sun i Microsoft będą też współpracowały nad rozwojem telewizji internetowej (IPTV), by w przyszłości zaoferować platformę Microsoft Mediaroom.
  3. Z danych firmy UBS, która przeprowadziła badania „CIO Pulse” wynika, że spada tempo przyrostu liczby linuksowych serwerów w firmach. Na podstawie wywiadów przeprowadzonych wśród osób odpowiedzialnych za inwestycje w przedsiębiorstwach można stwierdzić, że w przyszłym roku do firm trafi mniej linuksowych serwerów niż w roku obecnym. Ponad 90% przepytanych stwierdziło, że nie planuje instalowania linuksowych serwerów w ciągu najbliższego roku. Jeszcze w styczniu 2007 odsetek ten wynosił 87%. W roku 2006 jedynie 60% ankietowanych powiedziało, że nie planuje wykorzystywania serwerów spod znaku pingwina. Sądzimy, że tempo przyrostu linuksowych serwerów spadnie w porównaniu z dobrymi dla niego poprzednimi latami – mówi Heather Bellini, analityk UBS. Jeszcze niedawno przedsiębiorstwa bardzo chętnie rezygnowały z systemów Windows i Unix na rzecz Linuksa. Obecnie trend ten wyraźnie zwolnił. Biorąc jednak pod uwagę fakt, że jedynie około 8% firmowych serwerów korzysta z której z dystrybucji Linuksa, analitycy mówią, że na rynku wciąż jest sporo miejsca dla tego systemu. Niewykluczone więc, że w przyszłości jego popularność wzrośnie. Specjaliści uważają, że kluczowym elementem dla postępów tego systemu będzie wirtualizacja, która umożliwia instalowanie na jednym komputerze wielu OS-ów. Rynek wciąż zdominowany jest przez oprogramowanie Microsoftu. Cztery na pięć serwerów w firmach to oprogramowanie giganta z Redmond. Jeszcze w styczniu do koncernu należało 62% rynku. Duże straty odnotował Unix, którego udziały spadły z 28 do 13 procent. Wiele firm porzuciło ten system na rzecz Linuksa. Firmy oferujące Linuksa nie rezygnują z walki o rynek. Red Hat udostępni w bieżącym miesiącu Global Desktop Linux OS, który ma być tanią alternatywą dla Windows Visty. Novell ogłosił, że w porównaniu z ubiegłym rokiem sprzedaż dystrybucji SuSE przyniosła mu o 77% wyższe przychody. UBS przeprowadziło swoje ankiety wśród nieco ponad 60 menedżerów z branż finansowej, energetycznej, technologicznej i opieki zdrowotnej.
  4. Intel rozpoczął sprzedaż nowej czterordzeniowej platformy dla wieloprocesorowych serwerów. W skład platformy Caneland wchodzi procesor Xeon 7300 (nazwa kodowa Tigerton) i chipset Clarksboro 7300. Układy przeznaczone są dla serwerów wykorzystujących od 4 do 32 procesorów, czyli od 16 do 128 rdzeni. Układ Tigerton wykonany został w technologii 65 nonometrów i jest, jak zapewnia Intel, ponaddwukrotnie bardziej wydajny i charakteryzuje się ponadtrzykrotnie większą wydajnością na wat w porównaniu z poprzednią generacją dwurdzeniowych układów serwerowych Intela. Adesh Gupta, menedżer Server Platform Group w Intel Asia-Pacific, porównując układy Xeon 7100 i Xeon 7300, stwierdził, że m.in. dzięki optymalizacji przepływu danych uzyskano 2,5-krotne zwiększenie wydajności podczas wykorzystywania technik wirtualizacji. Nowy procesor potrafi obsłużyć czterokrotnie więcej pamięci niż jego poprzednik. Xeon 7100 mógł współpracować z 64 gigabajtami RAM. Xeon 7300 współpracuje z 256 gigabajtami. W tej chwili najbardziej wydajnym procesorem z rodziny 7300 jest układ taktowany zegarem o częstotliwości 2,93 GHz. Jego TDP wynosi 130 watów. W ofercie są też kości 80- i 50-watowe. Gupta podkreślił, że platforma Caneland została przygotowana z myślą o przyszłych produktach Intela. Jest ona bowiem kompatybilna z 45-nanometrowym procesorem o nazwie kodowej Dunnington, który trafi na rynek w 2008 roku. Moment premiery Tigertona należy wiązać z zapowiedzianą na 10 września premierą Barcelony – czterordzeniowego procesora AMD dla serwerów. W najbliższym czasie powinniśmy też spodziewać się premiery intelowskiego Penryna – rodziny dwu- i czterordzeniowych procesorów dla notebooków i pecetów. Penryn to układ wykonany w technologii 45 nanometrów, który korzysta z 820 milionów tranzystorów. Następcą Penryna będzie rodzina Nehalem, a w 2009 roku Intel ma zamiar rozpocząć produkcję pierwszych procesorów wykonanych w technologii 32 nanometrów.
  5. Firma Neal Nelson & Associates przeprowadziła badania z których wynika, że serwerowe procesory AMD są bardziej energooszczędne, niż odpowiadające im układny Intela. AMD wygrało w 36 na 57 testów badających zużycie energii serwerów korzystających z Opteronów i Xeonów. Testy przeprowadzono na maszynach wyposażonych w 2, 4, 6 i 8 gigabajtów pamięci. Okazało się, że w niektórych zastosowaniach układy Intela są o 2,4-11,7 procent bardziej energooszczędne, ale w większości przeważają układy AMD z wynikiem lepszym od 9,2 do 23,1 procenta. Najważniejszym jednak wynikiem jest stwierdzenie, że gdy procesor oczekuje na instrukcje i nie wykonuje żadnej pracy, to kości AMD zużywają o 30,4-53,1 procenta energii mniej, niż CPU Intela. To o tyle ważne, że w olbrzymia część serwerów przez większość czasu czeka na przydzielenie im zadań. Okazało się również, że wraz ze wzrostem pamięci operacyjnej procesory Intela zużywają więcej energii, a procesory AMD – mniej. Intel nie zgadza się z takimi wynikami. Nie testowano naszych najnowszych układów serwerowych. Mamy w ofercie 2-gigahercowe czterordzeniowce, które potrzebują 50 watów, co oznacza, że na każdy rdzeń zużywają jedynie 12,5 W. Podczas testów nie brano też pod uwagę wydajności procesorów. Układy Intela są bardziej wydajne, a więc potrzeba ich mniej do wykonania tej samej pracy, wskutek czego potrzeba jest mniej energii – napisał w mailu Nick Knupffer z Intela. Nadal podtrzymujemy nasze stwierdzenia, iż procesory Intela są bardziej energooszczędne. Tym menedżerom IT, którzy nie przeprowadzają własnych testów, polecamy, by zapoznali się z setkami bardziej wiarygodnych badań, które dotychczas zostały przeprowadzone – dodał.
  6. Sun i IBM, wieloletni rywale, podpisały umowę dotyczącą systemów operacyjnych. Żadna z firm nie chce ujawnić szczegółów tajemniczej umowy. Sun ma swój własny system operacyjny – Solaris. Firma próbuje go promować jako otwartą alternatywę dla Linuksa, jednak jej starania nie przynoszą spodziewanych rezultatów. Tym bardziej, że główni sprzedawcy serwerów, IBM, HP i Dell, nie są zainteresowani zaoferowaniem Solarisa swoim klientom. Oficjalnie o podpisaniu umowy poinformowali Jonathan Schwartz, prezes Suna, i Bill Zeitler, dyrektor IBM-owskiej grupy zajmującej się sprzętem. Może to oznaczać, iż w ramach umowy IBM zacznie sprzedawać serwery z Solarisem. Trudno w tej chwili osądzać, co może to oznaczać. Dotychczas głównym systemem używanym przez IBM-a jest Linux. Błękitny Gigant zaczął jednak rozprowadzać swoje produkty z systemem Windows. Teraz w jego ofercie może znaleźć się Solaris.
  7. Intel przygotowuje kolejną edycję serwerowych procesorów Itanium 2. Nowe kości z rdzeniem Montvale mają zastąpić obecnie wykorzystywane układy z rdzeniem Montecito. Procesory Montvale nie przynoszą zbyt wielu zmian w porównaniu ze swoimi poprzednikami. Systemy korzystające z nowych CPU mogą być łatwo skalowalne w zakresie od 2 do 512 podstawek procesora, czyli od 4 do 1024 rdzeni. Układy Montvale zyskują nowe oznaczenia. O ile kości Montecito były oznaczane jako seria 9000, to Montvale będą 9100. Nowe procesory wykorzystują technologię Demand Based Switching (DBS), dzięki której w okresach bezczynności wchodzą w tryb oszczędzania energii. DBS znalazła zastosowanie w bardziej wydajnych Montvale, oznaczonych numerami 9140N, 9140M, 9150N i 9150M. Pobór mocy nowych układów wyrażony wydzielaniem ciepła (TDP) wynosi, mimo zastosowania DBS, 104 waty. Itanium 2 z serii 9100 będą produkowane, podobnie jak procesory Montecito, w 90-nanometrowym procesie. Największą różnicą pomiędzy kośćmi 9000 a 9100 będzie zmiana prędkości pracy magistrali systemowej. Układy 9100 oznaczone literą M współpracują z magistralą taktowaną zegarem o częstotliwości 667 MHz. Te z literą N działają z 400- i 533-megahercową magistralą. Wszystkie dwurdzeniowe Itanium, z wyjątkiem modelu 9130M są w stanie przetwarzać jednocześnie do czterech wątków. W rodzinie Montvale znalazła się też kość jednordzeniowa. To układ 9110N. Jego TDP wynosi 75 watów. Intel nie przygotował nowego chipsetu dla nowych procesorów. Współpracują one z kością 8870, która obsługuje 400-megahercową FSB. Klienci, którzy chcieliby skorzystać z procesorów Itanium 2 i szybszej magistrali systemowej, muszą kupić płytę główną wyposażoną w chipset innego producenta. Debiut procesorów Montvale przewidziany jest na przyszły kwartał. Ich następca trafi na rynek nie wcześniej niż w drugiej połowie przyszłego roku. Oznaczenie procesora Częstotliwość zegara FSB Cache L3 Cena 9150M 1,66 GHz 667 MHz 24 MB 3692 USD 9150N 1,60 GHz 533/400 MHz 24 MB 3692 USD 9140M 1,66 GHz 667 MHz 18 MB 1980 USD 9140N 1,60 GHz 533/400 MHz 18 MB 1980 USD 9130M 1,66 GHz 667 MHz 8 MB 1552 USD 9120N 1,42 GHz 533/400 MHz 12 MB 910 USD
  8. Intel, Google i kilka innych firm oznajmiło, że mają zamiar pracować nad poprawieniem wykorzystania energii przez komputery.Celem wspomnianych przedsiębiorstw jest promowanie takiego zasilacza dopecetów i serwerów, który charakteryzowałby się ponad 90-procentowąwydajnością. Urządzenia takie pozwoliłoby zaoszczędzić energię i zredukować temperaturę pracy komputera. Obecnie, jak poinformował Urs Hölzle z Google’a, połowa energii dostarczanej do pecetów jest marnowana. Zamienia się ona w bezużyteczne ciepło lub jest tracona podczas konwersji z prądu zmiennego na stały. Nieco lepszą wydajnością mogą poszczycić się serwery. W ich przypadku marnowane jest „tylko” 30% energii. Lepiej skonstruowane zasilacze i podzespoły pozwoliłyby na wykorzystanie co najmniej 90% pobranej energii. Google ma na tym polu spore osiągnięcia. Firma twierdzi, że jej serwery wykorzystują od 90 do 93 procent dostarczanej im energii. To nie jest problem technologiczny. Już w tej chwili wykorzystujemy zasilacze, których skuteczność wynosi 90 procent – mówi Hölzle. Głównym problemem jest cena. Przeciętny pecet, w którym zastosowano by lepiej wykorzystujące energię komponenty, zdrożeje o 20 dolarów. W przypadku serwera cena wzrośnie o 30 dolarów. Koszty można by obniżyć, jeśli wspomniane komponenty produkowane byłyby na skalę masową. Ponadto pomóc też może odpowiednia polityka koncernów energetycznych. Kalifornijska firma Pacific Gas and Electric udziela swoim klientom zniżki na dostarczaną energię, jeśli używają oni energooszczędnych komputerów.
  9. IBM ogłosił powstanie nowej rodziny serwerów p570. Korzystają one z procesorów Power6 i są pierwszymi serwerami w historii, które pokonały konkurencję we wszystkich czterech standardowych testach. Ross Mauri poinformował, że porównanie p570 z serwerami innych firm wykazało, że najnowszy produkt IBM-a jest najlepszy pod względem liczby przeprowadzanych transakcji, wydajności ogólnej, liczby operacji zmiennoprzecinkowych i obsługi apletów Javy. Zdaniem Mauriego pojedynczy układ Power6, który pracuje z zegarem o częstotliwości 4,7 gigaherca, jest trzykrotnie bardziej wydajny niż sławny (i niezwykle drogi) system Deep Blue z 1997 roku. Serwery p570 obsługują od 4 do 16 rdzeni procesorów i pozwalają na przypisanie każdemu z nich 48 gigabajtów pamięci RAM. Cały system może więc korzystać nawet z 768 GB RAM. IBM stwierdził, że kluczem do sukcesu p570 jest równowaga pomiędzy przepustowością magistrali danych a pamięcią cache. Każdy z 65-nanometrowych Power6 ma do dyspozycji 8 megabajtów pamięci cache na rdzeń. To czterokrotnie więcej, niż poprzednia generacja procesorów IBM-a – Power5. Jednocześnie układy Power6 są niezwykle energooszczędne. Wymagają napięcia 200 miliwoltów, a ich pobór mocy wyrażony emisją cieplną (TDP) wynosi od 100 do 160 watów. Ross Mauri postanowił porównać wprost najnowszy produkt IBM-a i przywołał przykład serwera SunFire V890s. Jego zdaniem jeden p570 pracując na 60% swojej wydajności może zasymulować działanie 30 serwerów Suna pracujących z 20-procentową wydajnością. Wykorzystanie p570 oznacza w tym przypadku oszczędność 90% miejsca, energii i do 90% kosztów oprogramowania w przeliczeniu na rdzeń. Zdaniem Mauriego oznacza to oszczędności rzędu 100 000 dolarów. IBM ogłosił jednocześnie, że w drugiej połowie bieżącego roku na rynek trafi kolejna edycja jego systemu operacyjnego – AIX v6. W lipcu zostanie udostępniona wersja beta. Serwery p570 będzie można kupić w ciągu najbliższych dwóch tygodni. Na pełne wykorzystanie ich możliwości trzeba będzie jednak poczekać do listopadowej premiery AIX v6.
  10. Niewielka firma Lightfleet zapowiada, że w lipcu rozpocznie sprzedaż serwerów wyposażonych w łącza optyczne, które pozwolą na szybszą transmisję danych wewnątrz maszyny. W serwerze Beacon światło będzie przekazywało dane pomiędzy wieloma procesorami Xeon. Lightfleet już w ubiegłym roku pokazało swoją technologię Corowave, która zapewniała łączność pomiędzy 16 węzłami prototypowego serwera. Beacon zostanie początkowo wyposażony w 32 nadajniki optyczne. Będą one pracowały równolegle, a każdy z nich jest w stanie przesłać w ciągu sekundy 2,5 gigabita danych. Obecnie, by połączyć 32 węzły w serwerze, trzeba zastosować 996 portów komunikacyjnych i 498 kabli. Opracowana przez Lightfleet i zastosowana w Corowave technologia pozwala wiązkom światła krzyżować się ze sobą, a jednocześnie nie dopuszcza do interferencji pomiędzy nimi. Dzięki temu wiele różnych wiązek można wysyłać jednocześnie w tym samym przewodzie, zamiast wysyłać je w wielu różnych kablach lub kolejno w jednym. Co ciekawe, można w ten sposób łączyć ze sobą wszystkie części systemu, a więc Corowave działa podobnie jak magistrala HyperTransport, która łączy procesor z pozostałymi podzespołami komputera (np. kontrolerami USB czy PCI Express). Wykorzystanie technologii Corowave pozwala na usunięcie z serwerów olbrzymiej liczby kabli. Co równie ważne, jako że wszystkie nadajniki "widzą się” ze wszystkimi odbiornikami, łatwo jest wyeliminować wszelkie błędy w przepływie danych. Jak zapewnia Lightfleet, współczynnik błędu utrzymuje się na poziomie 10-12. System proponowany przez Lightfleet ma być szczególnie wydajny w zadaniach wymagających przetwarzania równoległego. Czy rzeczywiście Beacon będzie miał przewagę nad konkurencją? To się okaże w najbliższym czasie. Lightfleet nie zaprezentowała bowiem żadnych wyników testów, potwierdzających jej słowa.
  11. Z badań firmy IDC wynika, że w 2006 roku producenci serwerów sprzedali maszyny o wartości 52,3 miliarda dolarów. To rekordowy wynik od czasu gorączki w 2000 roku. Analitycy zauważyli jednak znaczącą różnicę w zachowaniu klientów. O ile przed siedmioma laty, w czasie tzw. dotkomowej gorączki, kupowano przede wszystkim najtańsze serwery, to teraz po raz pierwszy od 10 lat liczba średnio- i wysokowydajnych serwerów przewyższyła liczbę tych najsłabszych. Zdaniem Matthew Eastwooda za taki stan rzeczy odpowiada rozwój technologii wirtualizacji. Firmy chcą mieć możliwość budowy prostych sieci, które umożliwią uruchomienie wielu systemów operacyjnych. W 2006 roku największa część rynku należała do IBM-a. Błękitny Gigant sprzedał 32,8% wszystkich serwerów, które trafiły na rynek. Na drugim miejscu, z wynikiem 27,2% uplasowało się HP, trzecie zajął Sun (10,8%), a czwarte Dell (10,3%). Trzeba przy tym zwrócić uwagę na pozycję Suna, który jeszcze niedawno przeżywał ogromne kłopoty i groziło mu wypadnięcie z rynku. Obecnie, dzięki własnemu nowemu procesorowi Niagara oraz układom x86, zaczyna on odzyskiwać dawną pozycję, a roczny wzrost wpływów Suna wyniósł aż 15,4%. Na rynku zyskały wszystkie architektury, ale szczególnym sukcesem może pochwalić się intelowska Itanium. Po raz pierwszy w historii kwartalna wartość sprzedaży procesorów z tej rodziny przekroczyła miliard dolarów, a roczny wzrost sprzedaży wyniósł 71,5 procenta. Analitycy zauważyli także wzrost zainteresowania klientów serwerami typu blade. W 2006 roku sprzedano ich o 18,2% więcej, niż rok wcześniej. Na rynku tego typu serwerów HP zaczyna deptać po piętach IBM-owi. Do HP należy już 37,4% rynku tych serwerów, a do IBM-a – 40%. Zauważy jednak trzeba, że w czwartym kwartale HP zdołało sprzedac o 13,2% więcej takich maszyn, niż IBM. Przyczyny tego stanu rzeczy należy upatrywać w wypuszczeniu przez HP na rynek trzeciej generacji serwerów. IBM wciąż sprzedaje maszyny drugiej generacji.
  12. Podczas LinuxWorld OpenSolutions Summit wiceprezes ds. stacji roboczych i serwerów w firmie AMD, Randy Allen, przedstawił wyniki zamówionych przez jego firmę badań. Wynika z nich, że w 2005 roku w samych tylko Stanach Zjednoczonych centra bazodanowe i związana z nimi infrastruktura zużyły 5 milionów kilowatów energii. To roczna produkcja pięciu dużych elektrowni, która wystarczyłaby do zasilenia 4 milionów gospodarstw domowych. Całkowity koszt energii zużywanej przez amerykańskie centra baz danych wynosi 2,7 miliarda dolarów rocznie. W USA wydaje się więc 37,5% z ogólnej kwoty 7,2 miliardów dolarów, które świat przeznacza na dostarczenie energii tego typu placówkom. Przedstawiciele AMD mają nadzieję, że zaprezentowane przez nich dane przekonają przedsiębiorców i polityków, iż należy zwrócić uwagę na szersze wykorzystanie energooszczędnych serwerów.
  13. Sun Microsytems ogłosił, że będzie wykorzystywał w swoich serwerach procesory Intela. To zła wiadomość dla głównego rywala Intela – firmy AMD. Obecnie Sun oferuje serwery z produkowanymi przez AMD kośćmi Opteron oraz z własnymi procesorami. Teraz w firmowej ofercie znajdą się również intelowskie Xeony. Intel będzie też pracował z Sunem nad zoptymalizowaniem systemu operacyjnego Solaris pod kątem współpracy z układami Intela. Umowa pomiędzy Sunem a Intelem oznacza, że największy na świecie producent procesorów nabiera wiatru w żagle i zamierza odzyskać udziały w rynku, które stracił na rzecz AMD w ciągu ostatnich dwóch lat. Rynek serwerów jest znacznie bardziej zyskowny, niż rynek komputerów osobistych, tak więc producentom CPU bardzo na nim zależy.
  14. W przyszłym tygodniu IBM rozpocznie sprzedaż swoich pierwszych serwerów z czterordzeniowymi procesorami. Maszyny zostaną wyposażone w intelowskie układy Clovertown, czyli Xeony 5300. Błękitny Gigant ogłosił, że zaoferuje pięć dwuprocesorowych modeli. Obiecał przy tym, że ich wydajność będzie znacznie wyższa od serwerów korzystających z dwurdzeniowych Xeonów 5100 „Woodcrest”. Testy przeprowadzone na serwerze x3650 wykazały, że jest on o 64 procent bardziej wydajny, niż jego dwurdzeniowy odpowienik. IBM będzie przyjmował zamówienia od najbliższego wtorku (14 listopada), a pierwsze maszyny dostarczy w grudniu. Będą to modele x3650 i x3550. Trzy pozostałe serwery będą dostarczane od stycznia. Czterordzeniowy Xeon 5300 to dwa dwurdzeniowe Xeony 5100 zamknięte w jednej obudowie. Główny rywal Intela, koncern AMD, zapowiedział, że woli od razu dostarczać „prawdziwe” czterordzeniowce, w których wszystkie rdzenie umieszczone są na jednym kawałku krzemu. Jednak pierwszy czterordzeniowy Opteron o nazwie kodowej Barcelona ukaże się najwcześniej w połowie przyszłego roku.
  15. IBM poinformował o rozpoczęciu sprzedaży na masową skalę pierwszego w historii serwera z procesorem Cell. BladeCenter QS20 skierowany jest przede wszystkim do firm. Maszyna jest przystosowana do pracy z wymagającymi aplikacjami graficznymi. Powinna znaleźć zastosowanie a obrazowaniu medycznymi, przemyśle kosmicznym, obronnym, filmowym, telekomunikacyjnym oraz wydobywczym. IBM uważa, że dzięki jego nowemu produktowi w wymienionych gałęziach przemysłu może dojść do poważnych zmian. Wersje beta BladeCenter QS20 już od pewnego czasu pracują w USA, Wielkiej Brytanii, Hiszpanii, Niemczech, Francji, Japonii i Korei. Korzystają z nich, m.in. University of Manchester, Fraunhofer Institute czy firma RapidMind. BladeCenter QS20 został wyposażony w dwa standardowe 3,2-gigaherowe procesory Cell. Pamięć wewnętrzna procesora to 512 kilobajtów pamięci cache drugiego poziomu dla układu PPE (Power Processing Element - pozwala on Cellowi pracować jak "zwykły" procesor) i po 256 kilobajtów dla każdego z ośmiu SPE (Synergistic Processing Element - to specjalistyczne układy wektorowe). Serwer wyposażono w 1 gigabajt pamięci RAM (po 512 MB na procesor) oraz 40-gigabajtowy dysk twardy z interfejsem IDE. Korzysta też on z Dual Gigabit Ethernet oraz z jednego lub dwóch adapterów InfinBand połączonych za pomocą PCI Express. Producent preinstalował w BladeCentre QS20 system operacyjny bazujący na Fedora Core 5. IBM nie podaje ceny swojego najnowszego komputera.
  16. Intel zaprezentował swój najnowszy dwurdzeniowy procesor dla wysoko wydajnych serwerów wykorzystujących co najmniej cztery CPU. Układy z serii Xeon 7100 (znane wcześniej pod nazwą kodową Tulsa) to ostatnie procesory zbudowane w oparciu o architekturę NetBurst. Odznaczają się one typowym współczynnikiem TDP (thermal design power – współczynnik poboru mocy wyrażony emisją cieplną), który wynosi 150Wdla układów taktowanych zegarem wyższym niż 3,00 GHz i 95 W dla pracujących z częstotliwością niższą lub równą trzem gigahercom. Układ wykonano w technologii 65-nanometrów i odznacza się on znacznie większą wydajnością, niż jego 90-nanometrowi poprzednicy: Potomac i Paxville. Testy TPC-C wykazały, że o ile Potomac wykonywał 115 000 transakcji na minutę, a Paxville 188 000, to Tulsa wykonuje ich 320 000. Ten ostatni procesor wyposażono aż w 16 megabajtów pamięci cache trzeciego poziomu. Więcej ma jej jedynie Montecito (intelowski procesor z rodziny Itanium), który może pochwalić się 24-megabajtowym cache’em L3. W związku z tym, że Tulsa jest większa od swoich poprzedników (424 milimetry kwadratowe powierzchni w porównaniu z 354 milimetrami Paxville’a), z pojedynczego plastra krzemu można wyprodukować mniej procesorów, co podnosi ich koszty. By utrzymać je w rozsądnym przedziale Intel zmniejszył ilość szybszej od L3 pamięci poziomu drugiego (L2). Każdy z rdzeni ma do dyspozycji nie 2 a 1 megabajt L2. To zły kierunek zmian, ale wydaje się, że nie wpłynęło to na ogólną wydajność platformy - powiedział Jeffrey Gilbert, jeden z inżynierów pracujących nad procesorem. CPU Zegar L1 L2 L3 Szyna Cena za 1000 sztuk 7110N 2,50 GHz 16 KB 2x1 MB 4 MB 667 MHz 856 USD 7110M 2,60 GHz 16 KB 2x1 MB 4 MB 800 MHz 856 USD 7120N 3,00 GHz 16 KB 2x1 MB 4 MB 667 MHz 1177 USD 7120M 3,00 GHz 16 KB 2x1 MB 4 MB 800 MHz 1177 USD 7130N 3,16 GHz 16 KB 2x1 MB 8 MB 667 MHz 1391 USD 7130M 3,20 GHz 16 KB 2x1 MB 8 MB 800 MHz 1391 USD 7140N 3,33 GHz 16 KB 2x1 MB 16 MB 667 MHz 1980 USD 7140M 3,40 GHz 16 KB 2x1 MB 16 MB 800 MHz 1980 USD
  17. Firma analityczna IDC doniosła, że Sun Microsystems, który od lat traci rynek na rzecz konkurencji, był w drugim kwartale 2006 roku jedynym producentem serwerów spośród "Wielkiej Czwórki", którego dochody z tytułu sprzedaży serwerów zwiększyły się. Dochody te wzrosły w drugim kwartale w przypadku Suna o 15,5% i wyniosły 1,59 miliarda dolarów. W tym samym czasie światowy rynek serwerów wzrósł zaledwie o 0,6%, do 12,29 miliarda USD. Szybszy wzrost zanotowano jedynie wśród serwerów x86, serwerów kasetowych (blade server) i systemów kosztujących mniej niż 25 000 dolarów. Trzej główni rywale Suna zanotowali spadek dochodów. W przypadku IBM-a spadek wyniósł 2,2% (do 3,42 miliarda USD), HP straciło 1,7% i jego dochody ze sprzedaży serwerów wyniosły 3,4 miliarda dolarów. Dochody Della zmniejszyły się natomiast o 1,3% (1,27 miliarda USD). Sun od dłuższego już czasu starał się powstrzymać spadek zainteresowania swoimi produktami. Ostatnio wprowadził na rynek serwery "Galaxy" korzystające z procesorów Opteron firmy AMD oraz zaprezentował serwery z układem UltraSparc T1 "Niagara". Do sukcesu Suna przyczynił się jednak w największym stopniu duży popyt na jego serwery z procesorami UltraSparc IV+.
  18. HP ma zamiar uruchomić własną pomoc techniczną dla dystrybucji Debian. Firma będzie pierwszym dużym producentem sprzętu, który tak mocno zwiąże się z niekomercyjnym projektem linuksowym. Debian trafi do serwerów ProLiant i HP BladeSystems oraz do HP t5725 Thin Client. Jeffrey Wade, odpowiedzialny z HP za projekty opensource'owe, powiedział, że jego firma dostarczy wspomniany system dla firm telekomunikacyjnych i klientów wymagających wysokiej mocy obliczeniowej, dlatego też postanowiła uruchomić na ich potrzeby dział pomocy technicznej, gdzie można będzie zadzwonić i na bieżąco uzyskać pomoc w rozwiązaniu problemu. Wade zauważył przy tym, że część firm zaczyna stosować Debiana, ponieważ nie chce wydawać pieniędzy na komercyjne dystrybucje, takie jak produkty Red Hata czy Novella. Debian to opensource'owy, darmowy system operacyjny, który powstał internetowej współpracy około 1000 osób. W grudniu ukaże się kolejna wersja systemu Debian GNU/Linux 4.0. Przy okazji ogłoszenia swojej decyzji HP poinformowało, że w ciągu 12 miesięcy jakie upłynęły od maja 2005, sprzedało 1,5 miliona serwerów z preinstalowanym Linuksem, co przyniosło firmie 6,2 miliarda dolarów przychodów.
  19. IBM poszerzył swoją ofertę o dwa highendowe uniksowe serwery. Jeden z nich to, jak twierdzi producent, najpotężniejsza tego typu maszyna na świecie. System p5-595 to, według IBM-a, 64-rdzeniowy demon prędkości zdolny do przeprowadzenia rekordowej liczby milionów transakcji na minutę. Nowe serwery zbudowane są z 16-rdzeniowych modułów, z których każdy wykorzystuje z kolei dwa moduły 8-rdzeniowe stworzone z czterech dwurdzeniowych układów Power5+. W 64-rdzeniowym serwerze p5-595 procesory taktowane są zegarami o częstotliwości 2,3 lub 2,1 GHz, a w 32-rdzeniowych maszynach p5-590 zegar pracuje z częstotliwością 2,1 GHz. Każdy z procesorów wykorzystuje 1,9 MB pamięci cache drugiego poziomu oraz zintegrowany kontroler pamięci. IBM wraz z serwerem p5-595 dostarcza serwer bazy danych DB2 9 oraz system operacyjny AIX 5L. Wraz z IBM System Storage DS4800 przetwarza nieco ponad 4 miliony transakcji w ciągu minuty.
  20. Advanced Micro Devices i International Business Machines ogłoszą wkrótce, że podpisały umowę, zgodnie z którą mainstreamowe serwery IBM-a zostaną wyposażone w układy AMD. Umowa ta powinna jeszcze bardziej zwiększyć sprzedaż procesorów Opteron i poprawić pozycję AMD na rynku serwerów. Jej podpisanie oznacza także, że Intel będzie musiał podjąć zdecydowane kroki by obronić swój udział w tym rynku. IBM jest pierwszym dużym producentem serwerów, który zaczął wykorzystywać procesory Opteron. Sprzedawał je jednak dotychczas wyłącznie w najbardziej wydajnych maszynach, a rynek takich komputerów jest znacznie mniejszy, niż rynek mniej wydajnych serwerów. Sytuacja ta ma ulec zmianie 1 sierpnia, kiedy to, jak donosi prasa, oba koncerny rozpoczną rozmowy o współpracy. Analityk Richard Doherty z Envisioneering Group uważa, że podpisanie umowy to dobry ruch ze strony IBM-a. Jego zdaniem Błękitny Gigant zwlekał z zawarciem takiego porozumienia, ponieważ obawiał się, że wpłynie to negatywnie na jego stosunki z Intelem. Tymczasem AMD zaplanowało podobno na połowę sierpnia premierę dwurdzeniowych Opteronów, które korzystają z kontrolera pamięci DDR2 oraz technologii wirtualizacji.
  21. Wczoraj miała miejsce oficjalna premiera układu Montecito firmy Intel. To pierwszy dwurdzeniowy procesor z serwerowej rodziny Itanium. Jest to też, jak twierdzi Intel, pierwszy procesor, który składa się z ponad miliarda tranzystorów (zawiera ich 1,7 mld). Jego premiera oznacza pojawienie się na rynku rodziny Itanium 2. Poprzednicy Montecito, procesory Itanium przysporzyły Intelowi sporo problemów, co spowodowało, że gigant stracił na rynku serwerów. Kolejna generacja tych procesorów ma pomóc Intelowi w rywalizacji z układami Sparc Suna oraz Power IBM-a na rynku najbardziej wydajnych serwerów. Nie oznacza to jednak, że przy Itanium 2 Intelowi udało się uniknąć problemów. Wręcz przeciwnie. Pierwotnie kości te miały ukazać się w ubiegłym roku. Ponadto firma została zmuszona do zmniejszenia o 200 megaherców częstotliwości taktowania zegara najbardziej wydajnego Montecito. Zrezygnowała też z funkcji Foxton, która automatycznie miała zwiększać taktowanie o kolejne 200 MHz, jeśli tylko procesor byłby dobrze chłodzony. Obecnie rodzina Itanium 2 składa się z pięciu dwurdzeniowych i jednego jednordzeniowego procesora. Wszystkie one korzystają z 533-megahercowej FSB, z wyjątkiem układu 9015 wykorzystującego magistralę systemową o częstotliwości 400 megaherców. Jednordzeniowy procesor 9010 taktowany jest zegarem o częstotliwości 1,6 GHz, wykorzystuje 6 megabajtów pamięci cache i kosztuje 696 dolarów. Wspomniany już 9015 używa dwóch rdzeni, 12 MB cache'u i zegara o częstotliwości 1,4 GHz. Producent wycenil go na 749 dolarów. Kolejnym przedstawicielem tej rodziny jest układ oznaczony symbolem 9020. Ten dwurdzeniowy GPU taktowany jest zegarem 1,42 GHz i ma do dyspozycji 12 megabajtów pamięci podręcznej. Można go kupić za 910 USD. W grupie najbardziej wydajnych Itanium 2 znalazły się procesory oznaczone numerami 9030 (1,6 GHz, 8 MB cache'u, cena 1552 USD), 9040 (1,6 GHz, 18 MB cache'u, 1980 dolarów) oraz 9050 (1,6 GHz, 24 MB pamięci podręcznej) sprzedawany za 3692 dolary. Interesująco wygląda porównanie poboru mocy wyrażonej emisją cieplną (TDP). Współczynnik ten dla procesora Itanium 2 9050 wynosi 104 waty, podczas gdy Sun UltraSparc IV+ zużywa 125 watów, Sun UltraSparc T1 – 70 W, a AMD Opteron 885 – 95 W. Największym odbiorcą procesorów Itanium jest HP, jedyny z czwórki wielkich producentów serwerów, który stosuje te układy. Dell i IBM zrezygnowały z planów wykorzystywania procesorów Intela, a Sun nigdy ich nie wykorzystywał. Intel może liczyć też na mniejszych producentów, takich jak NEC, Hitachi, Silicon Graphics, Bull, Fujitsu czy Unisys. Obecnie Intel sprzedaje mniej niż 100 000 procesorów Itanium w ciągu kwartału. Jak informuje firma Mercury Research, liczba ta rośnie. Pierwsze serwery z układami Montecito mają trafić na rynek we wrześniu.
×
×
  • Create New...