Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

IBM przejmie Red Hata

Recommended Posts

IBM poinformował o podpisaniu porozumienia, w ramach którego Błękitny Gigant przejmie znanego producenta jednej z dystrybucji Linuksa, firmę Red Hat. Transakcja będzie warta 34 miliardy dolarów. Jeśli do niej dojdzie będzie to trzecia największa w historii akwizycja na rynku IT.

Umowa przewiduje, że IBM wykupi akcje Red Hata, płacąc za każdą z nich 190 dolarów. Na zamknięciu ostatniej sesji giełdowej przed ogłoszeniem transakcji akcje Red Hata kosztowały 116,68 USD.

Przejęcie Red Hata zmieni zasady gry. Całkowicie zmieni rynek chmur obliczeniowych, mówi szef IBM-a Ginni Rometty. "IBM stanie się największym na świecie dostawcą dla hybrydowych chmur i zaoferuje przedsiębiorcom jedyną otwartą architekturę chmur, dzięki której klient będzie mógł uzyskać z niej maksimum korzyści", dodał. Zdaniem menedżera obenie większość firm wstrzymuje się z rozwojem własnych chmur ze względu na zamknięte architektury takich rozwiązań.

Jeszcze przed kilku laty IBM zajmował się głównie produkcją sprzętu komputerowego. W ostatnim czasie firma zdecydowanie weszła na takie rynki jak analityczny czy bezpieczeństwa. Teraz ma zamiar konkurować z Microsoftem, Amazonem czy Google'em na rynku chmur obliczeniowych.

Po przejęciu Red Hat będzie niezależną jednostką zarządzaną przez obecnego szefa Jima Whitehursta i obecny zespół menedżerów. To ważny dzień dla świata open source. Doszło do największej transakcji w historii rynku oprogramowania i bierze w tym udział firma zajmująca się otwartym oprogramowaniem. Tworzymy historię, dodał Paul Cormier, wiceprezes Red Hata.

Obecnie Red Hat ma siedziby w 35 krajach, zatrudnia około 12 000 osób je jest jednym z największych oraz najbardziej znanych graczy na rynku open source. W roku 2018 zysk firmy wyniósł 259 milionów dolarów czy przychodach rzędu 2,9 miliarda USD. Dla porównania, w 2017 roku przychody IBM-a zamknęły się kwotą 79 miliardów dolarów, a zysk to 5,8 miliarda USD.
Na przejęcie muszą się jeszcze zgodzić akcjonariusze Red Hata oraz odpowiednie urzędy antymonopolowe.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      W laboratorium IBM-a w Zurichu zaprezentowano rekordowo pojemny napęd taśmowy. Pojedynczy kartridż pozwala na przechowanie aż... 580 terabajtów danych. To aż 29-krotnie więcej niż oferowany obecnie przez IBM-a kartridż o pojemności 20 TB. Błękitny Gigant jest tutaj rynkowym liderem. Najnowszy standard przemysłowy LTO-Ultrium (Linear Tape-Open, version 9) mówi o kartridżach o pojemności 18 TB.
      Mark Lantz, menedżer CloudFPGA odpowiedzialny w IBM Zurich za technologie taśmowe mówi, że w ostatnich latach taśmy magnetyczne przeżywają swój renesans. Ma to związek z jednej strony z wykładniczym wzrostem ilości wytwarzanych danych, które trzeba gdzieś archiwizować oraz z jednoczesnym spowolnieniem przyrostu gęstości zapisu na dyskach twardych. Jak zauważa Lantz, w ciągu ostatnich kilkunastu lat składane roczne tempo wzrostu gęstości zapisu na HDD spadło do poniżej 8%. Jednocześnie świat produkuje coraz więcej danych. Roczny wzrost wytwarzania informacji wynosi aż 61%. Eksperci mówią, że do roku 2025 wytworzymy 175 zetabajtów danych.
      Jako, że gęstość zapisu HDD niemal stanęła w miejscu, dramatycznie wzrosła cena każdego gigabajta dysnku twardego. Już w tej chwili 1 bit HDD jest czterokrotnie droższy niż 1 bit taśmy magnetycznej. Ta wielka nierównowaga pojawiła się w bardzo niekorzystnym momencie, gdy ilość wytwarzanych danych zaczęła gwałtownie rosnąć. Centra bazodanowe mają coraz większy problem. Na szczęście zdecydowana większość danych to informacje, które są rzadko potrzebne. To zaś oznacza, że w ich przypadku szybkość odczytu danych nie jest rzeczą zbyt istotną. Mogą być więc przechowywane na taśmach magnetycznych.
      Taśmy mają wiele zalet w porównaniu z dyskami twardymi. Są bardziej odporne na ataki cyberprzestępców, do działania potrzebują mniej energii, są trwałe i znacznie tańsze w przeliczeniu na gigabajt. Zalety te spowodowały, że – jak ocenia IBM – już 345 000 eksabajtów danych przechowywanych jest właśnie na taśmach.
      Najnowszy napęd taśmowy to wynik 15-letniej współpracy IBM-a i Fujifilm. Od roku 2006 firmy pobiły sześć kolejnych rekordów dotyczących napędów taśmowych. Ostatnie osiągnięcie było możliwe dzięki udoskonaleniu samej taśmy, głowicy odczytującej oraz serwomechanizmu odpowiadającego za precyzję pozycjonowania głowicy. Firma Fujifilm odeszła tutaj od przemysłowego standardu jakim jest ferryt baru i pokryła taśmę mniejszymi cząstkami ferrytu strontu. Inżynierowie IBM-a, mając do dyspozycji nową taśmę, opracowali nową technologię głowicy odczytująco-zapisującej, która współpracuje z tak gładką taśmą.
      O tym jak wielkie postępy zostały dokonane w ciągu kilkunastoletniej współpracy Fujifilm i IBM-a najlepiej świadczą liczby. W roku 2006 obie firmy zaprezentowały taśmę pozwalającą na zapisanie 6,67 miliarda bitów na calu kwadratowym. Najnowsza taśma pozwala na zapis 317 miliardów bitów na cal. Kartridż z roku 2006 miał pojemność 8 TB, obecnie jest to 580 TB. Szerokość ścieżki zapisu wynosiła przed 14 laty 1,5 mikrometra (1500 nanometrów), teraz to zaledwie 56,2 nanometra. Liniowa gęstość zapisu w roku 2006 sięgała 400 000 bitów na cal taśmy. Na najnowszej taśmie na każdym calu można zapisać 702 000 bitów. Zmniejszyła się też – z 6,1 mikrometra do 4,3 mikrometra – grubość taśmy, wzrosła za to jej długość. W pojedynczym kartridżu mieści się obecnie 1255 metrów taśmy, a przed 14 laty było to 890 metrów.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Podczas niedawnej konferencji Ignite 2020 Microsoft ogłosił rozpoczęciu Project HSD (Holographic Storage Device). Biorą nim udział specjaliści z laboratorium sztucznej inteligencji w Cambridge oraz inżynierowie z chmury Azure. Celem projektu jest stworzenie holograficznego systemu przechowywania informacji na potrzeby chmur.
      Zapotrzebowanie na długoterminowe przechowywanie danych w chmurach sięgnęło niespotykanego poziomu i rośnie w zetabajtach. Istniejące obecnie technologie nie pozwalają na ekonomiczne długotrwałe przechowywanie danych. Operowanie danymi w skali chmur obliczeniowych wymaga przemyślenia samych podstaw budowy wielkoskalowych systemów przechowywania informacji oraz technologii, z których są one tworzone, stwierdzili przedstawiciele Microsoftu.
      Firmowi eksperci zauważają, że obecnie używane technologie nie rozwijają się w dostatecznie szybkim tempie, by zaspokoić zapotrzebowanie. Ponadto mają problemy z wiarygodnością i stabilnością spowodowane albo obecnością mechanicznych podzespołów albo degradującymi się z czasem komórkami pamięci.
      Dlatego też w 2017 roku Microsoft rozpoczął Project Silica, w ramach którego pracuje nad holograficznym zapisem danych w szkle. Holograficzny zapis danych nie jest ograniczony do dwuwymiarowej powierzchni, pozwala wykorzystać całość nośnika.
      Hologram zajmuje niewielką część kryształu. W jednym krysztale można zaś zapisać wiele hologramów, wyjaśniają przedstawiciele koncernu z Redmond. Najnowsze osiągnięcia z dziedziny sztucznej inteligencji czy optyki pozwalają na znaczne udoskonalenie tego, co robiono dotychczas w ramach Project Silica, na którym bazuje Project HDS. Na razie, jak informuje dział Microsoft Research, udało się niemal dwukrotnie zwiększyć gęstość zapisu w hologramach. W najbliższych miesiącach powinniśmy zaś zobaczyć poprawioną kompresję i szybsze czasy dostępu.
      Przed niemal rokiem informowaliśmy, że w ramach Project Silica Microsoft stworzył prototypowy system do przechowywania informacji w szkle. We współpracy z firmą Warner Bros. koncern zapisał oryginalny firm Superman z 1978 roku na kawałku szkła o wymiarach 75x75x2 milimetry. Pisaliśmy wówczas, że firma wykorzystuje femtosekundowe lasery pracujące w podczerwieni do zapisu danych na „wokselach”, trójwymiarowych pikselach. Każdy z wokseli ma kształt odwróconej kropli, a zapis dokonywany jest poprzez nadawanie mi różnych wielkości i różnej orientacji. Na szkle o grubości 2 milimetrów można zapisać ponad 100 warstw wokseli. Odczyt odbywa się za pomocą kontrolowanego przez komputer mikroskopu, który wykorzystuje różne długości światła laserowego. Światło zostaje odbite od wokseli i jest przechwytywane przez kamerę. W zależności od orientacji wokseli, ich wielkości oraz warstwy do której należą, odczytywane są dane.
      Przy Project HSD pracują fizycy, optycy, specjaliści od maszynowego uczenia się i systemów przechowywania danych. Jest on prowadzony przez grupę Optics for the Cloud w Microsoft Resarch Cambridge.
       


      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Amazon poinformował, że jego chmura obliczeniowa AWS odparła jeden z najpotężniejszych ataków DDoS w historii. Do ataku doszło w lutym. W szczytowym momencie napastnicy wygenerowali ruch dochodzących do 2,3 terabitów na sekundę. Poprzedni najpotężniejszy atak w szczytowym momencie generował 1,7 Tbit/s.
      Lutowy atak był o 44% potężniejszy niż jakikolwiek wcześniej doświadczony przez Amazon Web Srvices. Chmura Amazona obsługuje wiele witryn internetowych. Nie zdradzono jednak, która z nich była celem ataku.
      Przedstawiciele Amazona poinformowali, że przez 3 dni po ataku w AWS obowiązywał stan podwyższonego alertu. Jak dowiadujemy się z oświadczenia prasowego, mieliśmy do czynienia z atakiem, który Amazon określił mianem „CLDAP reflection”. Najprawdopodobniej, chociaż Amazon nie mówi tego wprost, napastnik wykorzystał błędy konfiguracyjne w protokole CLDAP w serwerze strony trzeciej, który pozwolił mu na zwiększenie siły ataku.
      Ataki DDoS i związane z tym zakłócenia pracy infrastruktury informatycznej, mogą być bardzo kosztowne dla ofiary. Specjaliści oceniają, że sama tylko Wielka Brytania może tracić na takich atakach około 1 miliarda funtów rocznie. Dużym problemem jest fakt, że tego typu ataku są łatwe i tanie do przeprowadzenia.
      Firma Kaspersky informuje, że w I kwartale bieżącego roku doszło do znaczącego wzrostu liczby i jakości ataków DDoS. Nie tylko jest ich obecnie dwukrotnie więcej niż przed rokiem, ale 80% z nich trwa dłużej.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W Sandia National Laboratories powstało urządzenie, które generuje użyteczne ilości energii elektrycznej ze źródeł ciepła o umiarkowanej temperaturze. Może ono znaleźć zastosowanie w elektrowniach atomowych, sondach kosmicznych czy fabrykach chemicznych, gdzie pozwoli na odzyskanie sporej części marnowanej dotychczas energii.
      Nowe urządzenie generuje 27–67 µW/cm2 ze źródeł ciepła o temperaturze 250–400 stopni Celsjusza.
      Standardowe urządzenia fotowoltaiczne dobrze działają we współpracy ze światłem w zakresie widzialnym. Takim, jak wytwarzane przez Słońce, którego temperatura efektywna (temperatura ciała doskonale czarnego) wynosi ok. 5500 stopni Celsjusza. Tymczasem obiekty o temperaturze 100–400 stopni Celsjusza emitują głównie promieniowanie podczerwone w zakresie 7–12 µm. W temperaturze tej przebiega wiele procesów przemysłowych i promieniowanie to jest marnowane. Wykorzystanie nawet niewielkiej jego części przyniosłoby olbrzymie korzyści.
      Problem w tym, że gdy energia fotonów spada i zbliża się do energii termicznej konwertera, standardowa fotowoltaika staje się coraz bardziej nieefektywna. Dlatego Paul Davids, który stał na czele grupy badawczej z Sandia Labs, postanowił poszukać alternatywnej metody wykorzystania energii z chłodniejszych źródeł.
      W naszym urządzeniu fotoprąd wytwarzany przez parę elektron-dziura pochodzi nie z absorpcji fotonu – jak ma to miejsce w standardowej fotowoltaice – ale z tunelowania, wyjaśnia uczony.
      Tunelowanie odbywa się w specjalnej barierze zbudowanej z warstwy dwutlenku krzemu o grubości 3–4 nm. To rodzaj jednokierunkowej autostrady oddzielającej elektrony od dziur, umożliwiającej efektywną konwersję promieniowania podczerwonego w prąd elektryczny.
      Urządzenie opracowane przez zespół Davidsa może być produkowane w standardowej technologii CMOS, co oznacza, że już teraz można je masowo wytwarzać w fabrykach. Jego twórcy mówią, że w najbliższym czasie chcieliby wykorzystać je sondach pracujących w odległych miejscach Układu Słonecznego, gdzie do zasilania nie można użyć energii Słońca, gdyż pojazd znajduje się zbyt daleko od niego. Nowe urządzenie może być też podstawowym lub uzupełniającym źródeł energii w standardowych systemach termoelektrycznych.
      Inny obszar zastosowania to chmury obliczeniowe, które emitują olbrzymie ilości ciepła. Jeśli będziemy w stanie odzyskać część energii z tego ciepła, to poprawimy efektywność energetyczną tego szybko rosnącego rynku konsumpcji energii, mówi Davids.
      W tej chwili naukowcy pracują nad zwiększeniem efektywności swojego urządzenia i uproszczeniem procesu jego produkcji. Dzięki temu możliwe będzie zastosowanie go na wielu innych obszarach. Ponadto ostatnie dokonania naukowe na polu pasywnego chłodzenia fotonicznego i źródeł światła w połączeniu z naszą technologią może otworzyć całkowicie nowe obszary zastosowań dla produkcji i odzyskiwania energii, cieszy się Davids.
      Szczegółowy opis urządzenia znajdziemy w piśmie Science.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      JEDI, wart 10 miliardów kontrakt z Pentagonem, został przyznany Microsoftowi. To spore zaskoczenie dla wielu specjalistów, którzy uważali, że pewnym zwycięzcą przetargu na Joint Enterprise Defense Infrastructure, jest Amazon. Przekonanie to opierało się na opinii, że Amazon jest tak naprawdę jedyną firmą, która spełnia warunki konkursu, gdyż posiada największą chmurę, która osiągnęła najwyższy poziom bezpieczeństwa, znany jako Impact Level 6.
      Kontrowersje trapiły JEDI od samego początku. Na czele grupy niezadowolonych stało Oracle, które zwracało uwagę, że postawione przez Pentagon warunki faworyzują Amazona kosztem mniejszych dostawców chmur obliczeniowych. Kontestujący dotarli nawet do prezydenta Trumpa, o którym wiadomo, że nie lubi Jeffa Bezosa, założyciela i dyrektora Amazona. Podobno prezydent Trump powiedział ówczesnemu sekretarzowi obrony, Mattisowi, by wyrzucił ofertę Amazona. W lipcu Trump zaczął publicznie kwestionować zasady konkursu, a wkrótce potem nowy sekretarz obrony, Mark Esper wstrzymał program i zarządził jego przegląd. Niedawno Esper niespodziewanie oświadczył, że wycofuje się z grona osób podejmujących decyzję, gdyż jego syn pracuje dla IBM-a, który został wyeliminowany na wczesnym etapie konkursu.
      Po rozstrzygnięciu JEDI przedstawiciele Amazona wyrazili swoje zaskoczenie. W końcu ich chmura obliczeniowa, AWS, jest jedynym dostawcą usług w chmurze dla służb wywiadowczych USA, które od niemal sześciu lat przechowują w niej tajne dane. Jesteśmy zaskoczeni decyzją. AWS to oczywisty lider na rynku chmur obliczeniowych, a szczegółowa analiza założeń kontraktu w oczywisty sposób skłania do podjęcia innej decyzji niż ta, która zapadła, oświadczył rzecznik prasowy AWS.
      Na korzyść Microsoftu mogły przemówić jego związki z Pentagonem. W ubiegłym roku US Army podpisała z Microsoftem wart pół miliarda dolarów kontrakt na dostawę HoloLens, które posłużą żołnierzom zarówno do treningów jak i misji bojowych. Ponadto firma dostarcza też MS Office 365 milionom użytkowników z sektora wojskowego. Koncern nie musi nawet starać się samodzielnie o kontrakty w ramach projektu Defense Enterprise Office Solutions (DEOS). Każda firma, która chce w ramach swoich usług zaoferować wojsku również rozbudowane narzędzia biurowe do pracy grupowej, proponuje właśnie produkt Microsoftu.
      Celem programu JEDI jest dostarczenie Pentagonowi podobnych narzędzi i możliwości działania w chmurze, jaką dysponują wielkie firmy. Obecnie wojskowi korzystają z różnych chmur i sieci, co negatywnie wpływa na przepływ danych i wydajność. JEDI ma to zmienić i zunifikować wszystko, co robi amerykański Departament Obrony, od działań pojedynczego żołnierza, po lotniskowiec, w ramach jednego zbioru danych. Zdaniem wojskowych, taka unifikacja jest niezbędna na wypadek konfliktu z wysoko zaawansowanym technologicznie przeciwnikiem, jak np. Chiny.
      Wyobraźmy sobie tempo operacji na Pacyfiku, gdy nie masz czasu zastanawiać się, jak wydobyć dane, oczyścić je i przesunąc z punktu A do punktu B. Gdy prowadzę wojnę, potrzebuję maksymalnie dużo informacji, których obróbką i sortowaniem niech zajmą się algorytmy. Bardzo trudno to zrobić bez chmury, mówi generał Jack Shanahan, dowódca Joint Artificial Intelligence Center.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...