Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Western Digital przejmie Hitachi GST

Rekomendowane odpowiedzi

Western Digital poinformował o podpisaniu z Hitachi umowy, na podstawie której przejmie Hitachi Global Storage Technologies (HGST), spółkę-córkę japońskiej firmy, zajmującą się produkcją dysków twardych. Transakcja będzie miała wartość około 4,3 miliarda USD.

WD zapłaci Hitachi 3,5 miliarda dolarów w gotówce oraz przekaże 25 milionów swoich akcji. Po transakcji do Hitachi będzie należało około 10% akcji WD, ponadto dwóch przedstawicieli Hitachi otrzyma miejsce w zarządzie WD.

Obie firmy mają nadzieję, że transakcję uda się zamknąć w trzecim kwartale bieżącego roku.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Producenci dysków twardych, Seagate i Western Digital, zapowiadają, że w pierwszym kwartale przyszłego roku zaczną  uzupełniać braki rynkowe spowodowane zalaniem fabryk przez powodzie w Tajlandii. Obecna produkcja HDD wynosi 110-120 milionów sztuk kwartalnie. Pomiędzy styczniem a końcem marca na rynek ma zaś trafić około 140 milionów dysków twardych. Kwartalny popyt na tego typu urządzenia wynosi obecnie około 170 milionów sztuk.
      Oświadczenie największych producentów dysków twardych oznacza, że są oni w stanie przywrócić produkcję szybciej niż sądzono. Także japoński producent silników do dysków twardych, Nidec, stara się jak najszybciej przywrócić produkcje. Firma informuje, że już teraz osiągnęła poziom 80% produkcji sprzed powodzi.
    • przez KopalniaWiedzy.pl
      Producenci dysków twardych, Seagate i Western Digital, zapowiadają, że w pierwszym kwartale przyszłego roku zaczną  uzupełniać braki rynkowe spowodowane zalaniem fabryk przez powodzie w Tajlandii. Obecna produkcja HDD wynosi 110-120 milionów sztuk kwartalnie. Pomiędzy styczniem a końcem marca na rynek ma zaś trafić około 140 milionów dysków twardych. Kwartalny popyt na tego typu urządzenia wynosi obecnie około 170 milionów sztuk.
      Oświadczenie największych producentów dysków twardych oznacza, że są oni w stanie przywrócić produkcję szybciej niż sądzono. Także japoński producent silników do dysków twardych, Nidec, stara się jak najszybciej przywrócić produkcje. Firma informuje, że już teraz osiągnęła poziom 80% produkcji sprzed powodzi.
    • przez KopalniaWiedzy.pl
      Komisja Europejska zezwoliła firmie Western Digital na przejęcie Hitachi Global Storage Technologies (HGST). Postawiono jednak przy tym warunek, że WD musi sprzedać fabrykę 3,5-calowych dysków. Komisja stwierdziła, że po zakupie HGST jedynym konkurentem Western Digital będzie Seagate, który odkupił od Samsunga wydział zajmujący się produkcją HDD. To, zdaniem KE, jest niekorzystne dla konsumenta, gdyż może prowadzić do wzrostu cen. Komisja postawiła więc warunek, że WD musi pozbyć się części swoich mocy produkcyjnych, sprzedając fabrykę.
      Ceny dysków twardych i tak rosną, w związku z powodziami, które nawiedziły Tajlandię.
      Obecnie największym na świecie producentem dysków twardych jest Seagate. WD zajmuje drugie miejsce, a na trzecim plasuje się Toshiba.
    • przez KopalniaWiedzy.pl
      IBM pracuje nad najbardziej pojemnym magazynem danych w historii. W laboratoriach w Almaden powstaje 120-petabajtowy system przechowywania danych. Będzie się on składał z 200 000 wspólnie pracujących dysków twardych. W sumie ma on pomieścić biliard plików, a jego twórcy mają nadzieję, że wspomoże symulowanie tak złożonych systemów jak klimat i pogoda. Same informacje dotyczące położenia poszczególnych plików, ich nazw oraz atrybutów zajmą około 2 petabajtów.
      Magazyn danych powstaje na potrzeby jednego z klientów IBM-a, który zamówił też nowy superkomputer do symulowania procesów zachodzących w przyrodzie. Bruce Hillsberg, dyrektor ds. badań nad systemami przechowywania danych, który odpowiada za powyższy projekt mówi, że doświadczenia zdobyte podczas tworzenia takiego systemu przydadzą się do opracowania podobnych komercyjnych magazynów danych. Jego zdaniem w ciągu najbliższych kilku lat firmy oferujące chmury obliczeniowe zaczną składać zamówienia na podobne systemy przechowywania danych.
      Inżynierowie IBM-a mają do wykonania bardzo ambitne zadanie. Obecnie największe systemy przechowywania danych liczą sobie około 15 petabajtów.
      Na potrzeby obecnego zamówienia IBM opracował nowy sprzęt i oprogramowanie. Wiadomo, że całość będzie chłodzona wodą, a inżynierowie zastanawiają się, w jaki sposób umieścić dyski tak, by zajmowały jak najmniej miejsca. Kolejnym poważnym wyzwaniem jest radzenie sobie z nieuniknionymi awariami poszczególnych dysków. Wykorzystano standardową technikę przechowywania licznych kopii danych na różnych urządzeniach, ale jednocześnie udoskonalono ją tak, by mimo awarii poszczególnych dysków całość pracowała z maksymalną wydajnością.
      Gdy jakiś dysk ulegnie awarii, to po jego wymianie system pobierze dane z innych dysków tak, by stworzyć dokładną kopię zepsutego nośnika. Wgrywanie danych ma odbywać się na tyle wolno, by nie wpływało na wydajność systemu. Jeśli natomiast jednocześnie zepsuje się kilka sąsiednich dysków, tworzenie ich kopii ma przebiegać bardzo szybko, by uniknąć niebezpieczeństwa, że dojdzie do kolejne awarii, która spowoduje całkowitą utratę danych. Hillsberg ocenia, że dzięki takim rozwiązaniom system nie utraci żadnych danych przez około milion lat, a jednocześnie nie wpłynie negatywnie na wydajność superkomputera.
      Magazyn będzie wykorzystał system plików GPFS, który powstał w Almaden na potrzeby superkomputerów. System ten zapisuje wiele kopii plików na różnych nośnikach, co pozwala na błyskawiczny ich odczyt, ponieważ różne fragmenty pliku mogą być później odczytywane jednocześnie z różnych dysków. Ponadto umożliwia on informacji o dokładnym położeniu każdego pliku, dzięki czemu uniknięto konieczności skanowania dysków w poszukiwaniu potrzebnych plików. W ubiegłym miesiącu, korzystając z systemu GPFS inżynierowe IBM-a zaindeksowali 10 miliardów plików w ciągu zaledwie 43 minut, znacznie poprawiając poprzedni rekord wynoszący miliard plików w trzy godziny.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...