Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Firma analityczna IDC doniosła, że Sun Microsystems, który od lat traci rynek na rzecz konkurencji, był w drugim kwartale 2006 roku jedynym producentem serwerów spośród "Wielkiej Czwórki", którego dochody z tytułu sprzedaży serwerów zwiększyły się.

Dochody te wzrosły w drugim kwartale w przypadku Suna o 15,5% i wyniosły 1,59 miliarda dolarów. W tym samym czasie światowy rynek serwerów wzrósł zaledwie o 0,6%, do 12,29 miliarda USD. Szybszy wzrost zanotowano jedynie wśród serwerów x86, serwerów kasetowych (blade server) i systemów kosztujących mniej niż 25 000 dolarów.

Trzej główni rywale Suna zanotowali spadek dochodów. W przypadku IBM-a spadek wyniósł 2,2% (do 3,42 miliarda USD), HP straciło 1,7% i jego dochody ze sprzedaży serwerów wyniosły 3,4 miliarda dolarów. Dochody Della zmniejszyły się natomiast o 1,3% (1,27 miliarda USD).

Sun od dłuższego już czasu starał się powstrzymać spadek zainteresowania swoimi produktami. Ostatnio wprowadził na rynek serwery "Galaxy" korzystające z procesorów Opteron firmy AMD oraz zaprezentował serwery z układem UltraSparc T1 "Niagara". Do sukcesu Suna przyczynił się jednak w największym stopniu duży popyt na jego serwery z procesorami UltraSparc IV+.

 

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Badacze IBM-a postawili sobie ambitny cel. Chcą co roku dwukrotnie zwiększać wydajność komputerów kwantowych tak, by w końcu były one szybsze lub bardziej wydajne niż komputery klasyczne. Podczas tegorocznych targów CES IBM pokazał przełomowe urządzenie: IBM Q System One, pierwszy komputer kwantowy, który ma być gotowy do komercyjnego użytku.
      Celem IBM-a jest coś, co nazywają „Quantum Advantage” (Kwantowa przewaga). Zgodnie z tym założeniem komputery kwantowe mają zyskać „znaczną” przewagę nad komputerami klasycznymi. Przez „znaczną” rozumie się tutaj system, który albo będzie setki lub tysiące razy szybszy od komputerów kwantowych, albo będzie wykorzystywał niewielki ułamek pamięci potrzebny maszynom kwantowym lub też będzie w stanie wykonać zadania, jakich klasyczne komputery wykonać nie są.
      Wydajność komputera kwantowego można opisać albo za pomocą tego, jak sprawują się poszczególne kubity (kwantowe bity), albo też jako ogólną wydajność całego systemu.
      IBM poinformował, że Q System One może pochwalić się jednym z najniższych odsetków błędów, jakie kiedykolwiek zmierzono. Średni odsetek błędów na dwukubitowej bramce logicznej wynosi mniej niż 2%, a najlepszy zmierzony wynik to mniej niż 1%. Ponadto system ten jest bliski fizycznemu limitowi czasów koherencji, który w w przypadku Q System One wyniósł średnio 73 ms.To oznacza, że błędy wprowadzane przez działanie urządzenia są dość małe i zbliżamy się do osiągnięcia minimalnego możliwego odsetka błędów, oświadczyli badacze IBM-a.
      Błękitny Gigant stworzył też Quantum Volume, system pomiaru wydajności komputera kwantowego jako całości. Bierze on pod uwagę zarówno błędy na bramkach, błędyh pomiarów czy wydajność kompilatora. Jeśli chcemy osiągnąć Quantum Advantage w latach 20. XXI wieku, to każdego roku wartość Quantum Volume musi się co najmniej podwajać, stwierdzili badacze. Na razie udaje im się osiągnąć cel. Wydajność pięciokubitowego systemu Tenerife z 2017 roku wynosiła 4. W 2018 roku 20-kubitowy system IBM Q osiągnął w teście Quantum Volume wynik 8. Najnowszy zaś Q System One nieco przekroczył 16.
      Sądzimy, że obecnie przyszłość komputerów to przyszłość komputerów kwantowych, mówią specjaliści z IBM-a.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      IBM poinformował o podpisaniu porozumienia, w ramach którego Błękitny Gigant przejmie znanego producenta jednej z dystrybucji Linuksa, firmę Red Hat. Transakcja będzie warta 34 miliardy dolarów. Jeśli do niej dojdzie będzie to trzecia największa w historii akwizycja na rynku IT.
      Umowa przewiduje, że IBM wykupi akcje Red Hata, płacąc za każdą z nich 190 dolarów. Na zamknięciu ostatniej sesji giełdowej przed ogłoszeniem transakcji akcje Red Hata kosztowały 116,68 USD.
      Przejęcie Red Hata zmieni zasady gry. Całkowicie zmieni rynek chmur obliczeniowych, mówi szef IBM-a Ginni Rometty. "IBM stanie się największym na świecie dostawcą dla hybrydowych chmur i zaoferuje przedsiębiorcom jedyną otwartą architekturę chmur, dzięki której klient będzie mógł uzyskać z niej maksimum korzyści", dodał. Zdaniem menedżera obenie większość firm wstrzymuje się z rozwojem własnych chmur ze względu na zamknięte architektury takich rozwiązań.
      Jeszcze przed kilku laty IBM zajmował się głównie produkcją sprzętu komputerowego. W ostatnim czasie firma zdecydowanie weszła na takie rynki jak analityczny czy bezpieczeństwa. Teraz ma zamiar konkurować z Microsoftem, Amazonem czy Google'em na rynku chmur obliczeniowych.
      Po przejęciu Red Hat będzie niezależną jednostką zarządzaną przez obecnego szefa Jima Whitehursta i obecny zespół menedżerów. To ważny dzień dla świata open source. Doszło do największej transakcji w historii rynku oprogramowania i bierze w tym udział firma zajmująca się otwartym oprogramowaniem. Tworzymy historię, dodał Paul Cormier, wiceprezes Red Hata.
      Obecnie Red Hat ma siedziby w 35 krajach, zatrudnia około 12 000 osób je jest jednym z największych oraz najbardziej znanych graczy na rynku open source. W roku 2018 zysk firmy wyniósł 259 milionów dolarów czy przychodach rzędu 2,9 miliarda USD. Dla porównania, w 2017 roku przychody IBM-a zamknęły się kwotą 79 miliardów dolarów, a zysk to 5,8 miliarda USD.
      Na przejęcie muszą się jeszcze zgodzić akcjonariusze Red Hata oraz odpowiednie urzędy antymonopolowe.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Dell Technologies, największa na świecie prywatna firma technologiczna, ma zamiar ponownie stać się firmą publiczną. Przedstawiciele koncernu ogłosili, że po pięciu latach chcą wrócić na giełdę.
      Firma wróci na giełdę wykupując swoje akcje oznaczone (tracking stock), DVMT, za kwotę 21,7 miliarda USD. Akcje te, warte w piątek 17 miliardów dolarów, to akcje VMware, w którym Dell ma większościowe udziały. Ich posiadaczom zaoferowano gotówkę i akcje wracającego na giełdę Della. W ramach umowy VMware wypłaci udziałowcom 11 miliardów dolarów w ramach specjalnej dywidendy, a Dell dołoży własne akcje, lub gotówkę, by pokryć różnicę pozostającą do 21,7 miliarda dolarów.
      Przed pięciu laty założyciel firmy, Michael Dell, oraz fundusz inwestycyjny Silver Lake Management, wycofali firmę z giełdy, m.in. po to, by uniezależnić się od udziałowców w czasach, w których rynek pecetów przeżywał kryzys. Mogli też w spokoju zmienić profil firmy, rozszerzając wydziały odpowiedzialne za usługi i produkcję oprogramowania.
      Akcje oznaczone zostały wyemitowane w 2016 roku, by zdobyć pieniądze na warte 67 miliardów dolarów przejęcie firmy EMC Corp. Wówczas było to największe przejęcie w dziejach IT, a operacja ta trzykrotnie zwiększyła zadłużenie Della. EMC miało większościowe udziały w VMware, które zostały przejęte przez Della. Pozostała część VMware była przedmiotem obrotu giełdowego, podobnie jak akcje oznaczone DVMT.
      Dell, który niegdyś zajmował się produkcją pecetów, znacznie powiększył swoją ofertę. Firma wytwarza serwery, sprzęt do pamięci masowej, sprzęt sieciowy, a dzięki akwizycji EMC ma też bogatą ofertę software'ową.
      Firma jest wciąż zadłużona na około 50 miliardów dolarów.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Rozpoczął się wyścig o to, kto pierwszy dostarczy na rynek tablet z systemem Windows 8. Przedstawiciele Lenovo twierdzą, że będą pierwszą firmą, która zaoferuje taki produkt. Podobną obietnicę złożył jednak też Dell. Swój własny tablet przygotowuje też Nokia, która jednak nie sygnalizuje ambicji, by wyprzedzić konkurencję.
      Z nieoficjalnych informacji wynika, że Lenovo chce wyposażyć w Windows 8 pokazany podczas CES 2012 tablet IdeaPad Yoga, który korzysta z 13,3-calowego wyświetlacza i posiada dołączoną fizyczną klawiaturę, zatem można go wykorzystywać jak tradycyjny notebook. Z kolei Nokia ma jakoby pracować nad 10-calowym tabletem.
      Wiadomo również, że podobne urządzenia powstają studiach projektowych HP i Acera.
      Pełna wersja Windows 8 prawdopodobnie pojawi się przed świętami, dzięki czemu producenci tabletów i smartfonów mogliby rozpocząć sprzedaż swoich najnowszych urządzeń w okresie wzmożonych zakupów.
    • By KopalniaWiedzy.pl
      HP ma zamiar stworzyć do 2017 roku 256-rdzeniowy procesor Corona, którego rdzenie będą komunikowały się ze sobą za pomocą łączy optycznych. Taka kość miałaby wykonywać 10 biliardów operacji zmiennoprzecinkowych na sekundę, zatem wydajność pięciu układów dorównywałaby wydajności współczesnych superkomputerów. Poszczególne rdzenie wymieniałyby dane z prędkością 20 terabitów na sekundę, a komunikacja między procesorem a pamięcią odbywałaby się z prędkością 10 Tb/s. Co więcej Corona zużywałaby znacznie mniej energii niż współczesne układy, dzięki czemu superkomputerom łatwiej będzie pokonać barierę eksaflopsa (1018 operacji zmiennoprzecinkowych na sekundę).
      Obecnie istnieją dwa główne problemy, które znacznie utrudniają zwiększanie wydajności układów scalonych w dotychczasowym tempie. Im więcej rdzeni w procesorze, tym trudniej jest koordynować ich pracę i komunikować je ze sobą. Bardzo trudno jest uzyskać układ posiadający więcej niż 16 rdzeni, który pracowałby jak procesor równoległy. Drugi poważny problem to olbrzymi pobór mocy, który ma miejsce podczas przesyłania danych od i do układów pamięci.
      Obie te przeszkody można rozwiązać za pomocą zintegrowanej fotoniki, czyli laserów i łączy optycznych wbudowanych w układ scalony. Przykładem takiej kości może być zaprezentowany właśnie przez IBM-a Holey Optochip. Nad podobnymi rozwiązaniami pracują też Intel (projekt Runnemede), Nvidia (Echelon), Sandia National Laboratory (X-calibur) czy MIT (Angstrom).
      Najważniejszą jednak rolę odgrywa zintegrowana fotonika w projekcie Corona. Problem w tym, że część potrzebnej technologii wciąż jeszcze nie została opracowana. Jednak co się powoli zmienia. Od dłuższego już czasu informujemy o postępach na tym polu. Przez ostatnie lata wiele firm pracowało nad poszczególnymi podzespołami, teraz zaczęto łączyć je w układy. To jak przejście od tranzystora do układu scalonego - stwierdził Marco Fiorentino z HP Labs.
      HP ma zamiar w każdy rdzeń Corony wbudować laser, który będzie wysyłał informacje do wszystkich innych rdzeni. Jak obliczają specjaliści wykorzystanie elektroniki do stworzenia 10-terabitowego kanału przesyłu danych pomiędzy CPU a pamięcią wymagałoby 160 watów mocy. Zdaniem HP, jeśli zastąpimy elektronikę zintegrowaną fotoniką, pobór mocy spadnie do 6,4 wata.
      Zmniejszenie poboru mocy to dla superkomputerów niezwykle istotna sprawa. Najpotężniejsza maszyna na świecie, japoński K Computer, potrzebuje obecnie do pracy 12,6 MW. Jego wydajność wynosi 10,5 PFlops, trzeba by ją zatem zwiększyć niemal 100-krotnie by osiągnąć barierę eksaflopsa.
      Zintegrowana fotonika przyczyni się również do obniżenia poboru mocy przez serwery i urządzenia telekomunikacyjne, co odgrywa olbrzymią rolę w internecie, którym przesyłamy coraz większą ilość danych. Z czasem lasery i łącza optyczne mogą trafić też do urządzeń przenośnych, pozwalający na ich dłuższą pracę bez potrzeby ładowania baterii. Również, co niezwykle istotne, w fotonice nie występuje problem interferencji elektromagnetycznej, zatem jej stosowanie np. w samochodach czy samolotach będzie bezpieczniejsze niż stosowanie urządzeń elektronicznych.
      Problemem jest też stworzenie miniaturowych laserów, które można będzie budować za pomocą dostępnych technologii. Jako, że z krzemu nie można generować światła, specjaliści badają inne materiały, przede wszystkim arsenek galu i fosforek indu. Ostatnio MIT zainteresował się też germanem.
      Trwają również intensywne prace nad rozwojem technologii TSV (through silicon vias). Pozwoli się ona pozbyć szyn, za pomocą których łączą się ze sobą poszczególne układy. Szyny stanowią dla danych wąskie gardło i zużywają sporo energii. TSV pozwala układać na sobie układy scalone (powstają w ten sposób układy 3D) i łączyć je kablami poprowadzonymi wewnątrz takiego stosu układów, co zwiększa przepustowość, a jednocześnie zmniejsza zużycie prądu i pozwala na zaoszczędzenie miejsca na płycie głównej.
      W projekcie Corona HP chce połączyć obie technologie - 3D i zintegrowaną fotonikę. Dzięki temu ma powstać 256-rdzeniowy procesor zbudowany z 64-rdzeniowych klastrów. Całość zostanie wykonana w procesie 16 nanometrów i będzie połączona łączami optycznymi.
×
×
  • Create New...