Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Windows trafi na... mainframe'y IBM-a

Rekomendowane odpowiedzi

IBM chce udowodnić, że rynek mainframe'ów, dużych systemów komputerowych używanych przez wielkie firmy do obsługi krytycznych aplikacji, ma przed sobą przyszłość. Błękitny Gigant oznajmił, że 16 grudnia zadebiutuje zEnterprise z systemem Windows.

Dotychczas na mianframe'ach IBM-a, które firma produkuje od 1952 roku, nigdy nie był używany Microsoft Windows. Teraz jednak koncern doszedł do wniosku, że połączenie mainframe'ów z Windows da jego klientom więcej możliwości i umożliwi łączenie infrastruktury różnych centrów bazodanowych. To, jak sądzi IBM, przekona niektóre firmy do porzucenia serwerów x86 na rzecz mainframe'ów Błękitnego Giganta.
Przygotowanie zEnterprise pod kątem współpracy z Windows wymagało zastosowania takich zmian, dzięki którym na jednej maszynie można będzie uruchomić Windows, z/OS, Linuksa czy AIX.

Decyzja IBM-a nie powinna być dla nikogo zaskoczeniem. Firma już od pewnego czasu konstruuje heterogeniczne systemy, które dają użytkownikowi możliwość elastycznego zarządzania zadaniami w scentralizowany sposób.

Mainframe'y były tradycyjnie drogimi systemami, co spowodowało, że wiele przedsiębiorstw rezygnowało z nich na rzecz różnego typu serwerów. W odpowiedzi IBM zaczął pracować nad obniżeniem kosztów mainframe'ów oraz zwiększeniem ich elastyczności. Przed rokiem firma zaproponowała hybrydowe rozwiązanie, w skład którego wchodził mainframe i serwery kasetowy z rodziny System x. Teraz, dodając obsługę Windows, IBM oferuje jeszcze bardziej elastyczne rozwiązanie.

Eksperci zauważają, że zastosowanie Windows oznacza, że i sam IBM stał się bardziej elastyczny. Dotychczas wszystkie elementy mainframe'a oraz kolejne udoskonalenia tych maszyn pozostawały pod ścisłą kontrolą Błękitnego Giganta. Windows to wyjątek - IBM nie ma nad nim żadnej kontroli.

Specjaliści spodziewają się, że nowa strategia IBM-a zacznie szybko przynosić spodziewane korzyści.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

O taaaak ... z pewnoscia takie rozwiazanie przyniesie nowe korzysci, w szczegolnosci zas drastyczne obnizenie bezpieczenstwa systemow mainframe'owych, wieksza liczbe kradziezy baz danych duzych korporacji i problemy ze stabilnoscia i utrzymaniem systemu, a takze jego nieuchronna degradacja z czasem. Ot, takie sa systemy Windows.

 

Mniejsze problemy istnialyby wtedy, gdyby zastosowano tam systemy dla CPU ARM/Itanium/inne wynalazki, ale Microsoft posiada chyba wylacznie wersje dla Itanium, a wiec bedzie PIEKLO.

Jakze niespelna rozumu trzeba byc, by w dobie zagrozen zwiazanych z malware skoncentrowanym w 98% na systemach Windows uzywac serwerow z tym systemem? to jest absolutnie poza mna.

Ludzie i korporacje dostali juz nauczke ze SCADA, dostaja ja na co dzien na systemach korporacyjnych i domowych, a jednak wciaz brna w ten zywy absird ...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

O taaaak ... z pewnoscia takie rozwiazanie przyniesie nowe korzysci, w szczegolnosci zas drastyczne obnizenie bezpieczenstwa systemow mainframe'owych, wieksza liczbe kradziezy baz danych duzych korporacji i problemy ze stabilnoscia i utrzymaniem systemu, a takze jego nieuchronna degradacja z czasem. Ot, takie sa systemy Windows.

 

No popatrz, niemal wszystkie obecne ATM-y chodzą głównie na XP, a jakoś jeszcze żaden nie wypłacił mi miliona. :(

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No popatrz, niemal wszystkie obecne ATM-y chodzą głównie na XP, a jakoś jeszcze żaden nie wypłacił mi miliona. :(

Widzisz, drogi Wilku, o ile mi wiadomo ATMy nie sa podpiete pod internet, stad byc moze brak wlaman. Ponadto: sa czesto nadzorowane przez ekipe techniczna, bo nie mozna sobie pozwolic na opisana przez ciebie - hipotetyczna - sytuacje. Warto jednak zauwazyc, ze bardzo czesto bankomaty sa popsute, wyswietlaja info o tym, ze sa nieczynne, a do tego zdarza im sie nie wyplacac pieniedzy, co jest znacznie gorsze, niz wyplata miliona ...

Zapewne nie sa ci znane przypadki reklamacji do bankow w zwiazku z nieprawidlowymi wyplatami pieniedzy z bankomatu?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeżeli bankomat wypłaca pieniądze nieprawidłowo, to nie jest to wina Windowsa, tylko albo aplikacji obsługującej sam bankomat, urządzeń (np. liczarki ustalającej liczbę wydawanych banknotów albo rolki, która powinna pobrać z pliku zawsze tylko jeden banknot), albo (co zdarza się najczęściej - informacja z pierwszej ręki) błędów obsługi, która umieści banknoty w złych przegródkach.

 

Jeśli chodzi o mainframe'y, nie jestem ekspertem, ale o ile mi wiadomo, wszelkie usługi zarządzania najważniejszymi tego typu maszynami nie są dostępne z Internetu i wymagają np. fizycznego dostępu za pomocą kabla. Trudno jest tymczasem zaszkodzić systemowi, do którego de facto nie ma się dostępu, więc argument o dostępnie do Internetu nie jest szczególnie trafny. Inna sprawa, że ATM-y jak najbardziej są w kontakcie z bankami (inaczej środki nie byłyby blokowane na koncie natychmiast po wypłacie), a mimo to włamań jakoś się nie stwierdza.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Co do mainframe'ów to się mylisz. Możliwe jest zdalne zarządzanie mainframem. Solidność mainframe'a polega na tym, że w przeciwieństwie do windowsa czy linuxa admin może niewiele. Może komuś utworzyć maszynę wirtualną, nadać jakieś prawa, ale sam nie ma praw Boga w systemie i nie może wszystkiego jak root. Ponadto taki admin może mieć nałożone ograniczenia na godziny logowań, ich ilość itp. Dostęp do zasobów jest kontrolowany na poziomie sprzętowym i jeśli Windows będzie się odwoływał do jakiegoś pliku czy rekordu w bazie danych, to odpowiedni moduł sprawdzi prawa dostępu. A to, że na mainframie będzie Windows nie oznacza od razu, że będzie on zarządzał całym mainframem. W system operacyjny mainframe'a jak się nie mylę jest wbudowane jądro unixowe, czy tak samo będzie z Windowsem - wątpię, kod źródłowy jest zamknięty. Prędzej bym się spodziewał, że IBM stworzy jakiś pakiet narzędzi, który umożliwi bardziej intuicyjne dla użytkowników Windows zarządzanie różnymi częściami systemu. Inną alternatywą jest coś a'la WINE od IBM dla ich systemu.

 

PS. Pozdrowienia dla Politechniki Rzeszowskiej, obecnie jedynego miejsca w Polsce, gdzie można się nauczyć czegoś o mainframe'ach.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zapewne nie sa ci znane przypadki reklamacji do bankow w zwiazku z nieprawidlowymi wyplatami pieniedzy z bankomatu?

 

No i dalej używany jest ten superniebezpieczny system… Równie dobrze możesz podpiąć się do serwisowego USB. A Data Center są pozbawione nadzoru? Oczywiście, że nie.

 

Gwoli wyjaśnienia – nie rozprawiam tutaj o wadach lub zaletach zastosowania tego czy innego systemu, a jedynie krytykuję typowy atak przeciwnika tego systemu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A ja myślę, że użytkownicy mainframe'ów lepiej niż ktokolwiek inny potrafią stwierdzić, czy dane rozwiązanie im odpowiada. Jeśli więc pomysł IBM-a chwyci, to będzie znaczyło, że umieszczenie Windy na mainframe to świetny pomysł.

Ponadto nie wydaje mi się, by w tym przypadku była jakakolwiek różnica w bezpieczeństwie. Jesli ktoś przeprowadzi atak na mainframe'a to będzie to atak kierowany, na konkretną firmę, konkretną maszynę, konkretnych ludzi. A podczas tego typu ataków używany system operacyjny nie ma znaczenia. Ważne są umiejętności atakującego oraz zachowanie ludzi, którzy będą wykorzystywani podczas ataku.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przeciez on bedzie scisle zwirtualizowany w zVM wiec nie widze powodu dlaczego mialby byc tak bardzo niebezpieczny.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Dyrektor wykonawczy IBM-a Arvind Krishna poinformował, że jego firma przestanie rekrutować ludzi na stanowiska, na których w najbliższych latach mogą być oni zastąpieni przez sztuczną inteligencję. W wywiadzie dla Bloomberga menedżer stwierdził, że rekrutacja na stanowiska biurowe, na przykład w dziale HR, może zostać znacznie spowolniona lub całkowicie wstrzymana. Obecnie na tego typu stanowiskach – gdzie nie ma kontaktu z klientem – IBM zatrudnia 26 000 osób.
      Zdaniem Krishny, w ciągu najbliższych 5 lat sztuczna inteligencja może zastąpić 30% z nich. To oznacza, że w samym tylko IBM-ie maszyny zastąpią 7800 osób. Stąd też pomysł na spowolnienie lub wstrzymanie rekrutacji, dzięki czemu uniknie się zwalniania ludzi.
      Krishna mówi, że takie zadania, jak pisanie listów referencyjnych czy przesuwanie pracowników pomiędzy poszczególnymi wydziałami, prawdopodobnie zostaną całkowicie zautomatyzowane. Inne zaś, takie jak analizy produktywności czy struktury zatrudnienia, ludzie będą wykonywali jeszcze przez kolejną dekadę.
      Błękitny Gigant zatrudnia obecnie około 260 000 osób i wciąż zwiększa zatrudnienie. Potrzebuje pracowników przede wszystkim do rozwoju oprogramowania oraz osób pracujących z klientem. Na początku bieżącego roku firma ogłosiła, że planuje zwolnienia, które w sumie obejmą 5000 osób, ale jednocześnie w I kwartale zatrudniła 7000 osób.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Prace międzynarodowej grupy badawczej, na czele której stali specjaliści ze Skołkowskiego Instytutu Nauki i Technologii (Skoltech) w Moskwie oraz IBM-a zaowocowały powstaniem energooszczędnego superszybkiego przełącznika optycznego. Urządzenie nie wymaga chłodzenia, a jednocześnie jest ponad 100-krotnie szybsze od najszybszych współczesnych tranzystorów.
      Tym, co czyni to urządzenie tak bardzo energooszczędnym jest fakt, że do przełączenia stanu potrzebuje zaledwie kilku fotonów, mówi główny autor badań Anton Zasiedatieliew. W laboratorium udało się nam go przełączać za pomocą pojedynczego fotonu. I to w temperaturze pokojowej. Jednak minie sporo czasu, zanim taka technologia będzie mogła trafić do procesorów optycznych, dodaje profesor Pawlos Lagudakis.
      Możliwość przełączania za pomocą pojedynczego fotonu oznacza, że układ jest niezwykle energooszczędny i zostało niewiele miejsca na jego dalsze udoskonalenie. Oczywiście musimy przy tym pamiętać, że obecnie działa to jedynie w wyspecjalizowanym laboratorium. Jednak tak właśnie zaczyna się wielu historia technologii, które w końcu trafiają do codziennego użytku. Większość współczesnych tranzystorów elektrycznych potrzebuje dziesiątki razy więcej energii, by się przełączyć, a te, którym wystarczy pojedynczy elektron, działają znacznie wolniej niż zademonstrowany właśnie przełącznik optyczny.
      Jednak szybkość i energooszczędność to nie jedyne zalety nowej technologii. Równie ważny jest fakt, że przełącznik działa w temperaturze pokojowej i nie wymaga chłodzenia. Tymczasem systemy chłodzenia potrzebne współczesnym komputerom nie tylko wpływają na koszty samego sprzętu, ale też znacząco zwiększają zużycie energii koniecznej do ich zasilania.
      Urządzenie składa się z dwóch laserów. Bardzo słaby promień lasera kontrolnego jest używany do przełączania stanu drugiego jaśniejszego z laserów. Do przełączenia wystarczy kilka fotonów, stąd wynika wysoka efektywność całości. Przełączanie odbywa się wewnątrz mikrownęki. To 35-nanometrowej grubości organiczny polimer półprzewodzący zamknięty pomiędzy dwiema nieorganicznymi warstwami o wysokim współczynniku odbicia. Mikrownęka zbudowana jest w taki sposób, by jak najdłużej więzić nadchodzące światło, prowadząc w ten sposób do jego sprzężenia z materiałem wnęki.
      Oddziaływanie światła z materią to podstawa działania nowego urządzenia. Gdy fotony sprzęgają się z parami dziura-elektron – tworzącymi kwazicząstkę o nazwie ekscyton – pojawiają się kwazicząstki ekscyton-polaryton. Gdy silniejszy z laserów oświetla przełącznik powstają tysiące identycznych krótko żyjących kwazicząstek tworzących kondensat Bosego-Einsteina, w którym kodowany jest stan urządzenia „0” lub „1”.
      Najpierw za pomocą silniejszego lasera we wnęce tworzone są kwazicząstki o energiach większych niż energia podstawowa. Przełącznik znajduje się w stanie „0” Do przełączenia potrzebny jest laser słabszy, za pomocą którego tworzona jest grupa kwazicząstek o energii podstawowej. Ich pojawienie się wywołuje lawinowy proces przełączania się pozostałych kwazicząstek do stanu podstawowego. W ten sposób uzyskujemy stan „1”. Czas przełączania liczony jest w femtosekundach, dzięki czemu przełącznik jest ponad 100-krotnie szybszy od współczesnych tranzystorów.
      Naukowcy użyli kilku sztuczek, by utrzymać zapotrzebowanie na energię na jak najniższym poziomie przy jednoczesnym zmaksymalizowaniu pracy urządzenia. W efektywnym przełączaniu pomagają wibracje molekuł półprzewodzącego polimeru. Konieczne było precyzyjne dopasowanie częstotliwości pracy laserów, stanu kondensatu i energii wibracji molekuł polimeru.
      Przed nami jeszcze sporo pracy. Musimy zmniejszyć całkowite zapotrzebowania urządzenia na energię. Obecnie jest ono zdominowane przez silniejszy z laserów, który utrzymuje przełącznik w gotowości. Prawdopodobnie trzeba będzie wykorzystać tutaj perowskitowego superkryształu, z którym wcześniej eksperymentowaliśmy. Są one doskonałymi kandydatami to zbudowania naszego przełącznika, gdyż zapewniają bardzo silną interakcję światła z materią, stwierdzają autorzy badań.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W laboratorium IBM-a w Zurichu zaprezentowano rekordowo pojemny napęd taśmowy. Pojedynczy kartridż pozwala na przechowanie aż... 580 terabajtów danych. To aż 29-krotnie więcej niż oferowany obecnie przez IBM-a kartridż o pojemności 20 TB. Błękitny Gigant jest tutaj rynkowym liderem. Najnowszy standard przemysłowy LTO-Ultrium (Linear Tape-Open, version 9) mówi o kartridżach o pojemności 18 TB.
      Mark Lantz, menedżer CloudFPGA odpowiedzialny w IBM Zurich za technologie taśmowe mówi, że w ostatnich latach taśmy magnetyczne przeżywają swój renesans. Ma to związek z jednej strony z wykładniczym wzrostem ilości wytwarzanych danych, które trzeba gdzieś archiwizować oraz z jednoczesnym spowolnieniem przyrostu gęstości zapisu na dyskach twardych. Jak zauważa Lantz, w ciągu ostatnich kilkunastu lat składane roczne tempo wzrostu gęstości zapisu na HDD spadło do poniżej 8%. Jednocześnie świat produkuje coraz więcej danych. Roczny wzrost wytwarzania informacji wynosi aż 61%. Eksperci mówią, że do roku 2025 wytworzymy 175 zetabajtów danych.
      Jako, że gęstość zapisu HDD niemal stanęła w miejscu, dramatycznie wzrosła cena każdego gigabajta dysnku twardego. Już w tej chwili 1 bit HDD jest czterokrotnie droższy niż 1 bit taśmy magnetycznej. Ta wielka nierównowaga pojawiła się w bardzo niekorzystnym momencie, gdy ilość wytwarzanych danych zaczęła gwałtownie rosnąć. Centra bazodanowe mają coraz większy problem. Na szczęście zdecydowana większość danych to informacje, które są rzadko potrzebne. To zaś oznacza, że w ich przypadku szybkość odczytu danych nie jest rzeczą zbyt istotną. Mogą być więc przechowywane na taśmach magnetycznych.
      Taśmy mają wiele zalet w porównaniu z dyskami twardymi. Są bardziej odporne na ataki cyberprzestępców, do działania potrzebują mniej energii, są trwałe i znacznie tańsze w przeliczeniu na gigabajt. Zalety te spowodowały, że – jak ocenia IBM – już 345 000 eksabajtów danych przechowywanych jest właśnie na taśmach.
      Najnowszy napęd taśmowy to wynik 15-letniej współpracy IBM-a i Fujifilm. Od roku 2006 firmy pobiły sześć kolejnych rekordów dotyczących napędów taśmowych. Ostatnie osiągnięcie było możliwe dzięki udoskonaleniu samej taśmy, głowicy odczytującej oraz serwomechanizmu odpowiadającego za precyzję pozycjonowania głowicy. Firma Fujifilm odeszła tutaj od przemysłowego standardu jakim jest ferryt baru i pokryła taśmę mniejszymi cząstkami ferrytu strontu. Inżynierowie IBM-a, mając do dyspozycji nową taśmę, opracowali nową technologię głowicy odczytująco-zapisującej, która współpracuje z tak gładką taśmą.
      O tym jak wielkie postępy zostały dokonane w ciągu kilkunastoletniej współpracy Fujifilm i IBM-a najlepiej świadczą liczby. W roku 2006 obie firmy zaprezentowały taśmę pozwalającą na zapisanie 6,67 miliarda bitów na calu kwadratowym. Najnowsza taśma pozwala na zapis 317 miliardów bitów na cal. Kartridż z roku 2006 miał pojemność 8 TB, obecnie jest to 580 TB. Szerokość ścieżki zapisu wynosiła przed 14 laty 1,5 mikrometra (1500 nanometrów), teraz to zaledwie 56,2 nanometra. Liniowa gęstość zapisu w roku 2006 sięgała 400 000 bitów na cal taśmy. Na najnowszej taśmie na każdym calu można zapisać 702 000 bitów. Zmniejszyła się też – z 6,1 mikrometra do 4,3 mikrometra – grubość taśmy, wzrosła za to jej długość. W pojedynczym kartridżu mieści się obecnie 1255 metrów taśmy, a przed 14 laty było to 890 metrów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      IBM uruchomił w Nowym Jorku Quantum Computation Center, w którym znalazł się największy na świecie zbiór komputerów kwantowych. Wkrótce dołączy do nich nich 53-kubitowy system, a wszystkie maszyny są dostępne dla osób i instytucji z zewnątrz w celach komercyjnych i naukowych.
      Quantum Computation Center ma w tej chwili ponad 150 000 zarejestrowanych użytkowników oraz niemal 80 klientów komercyjnych, akademickich i badawczych. Od czasu, gdy w 2016 roku IBM udostępnił w chmurze pierwszy komputer kwantowy, wykonano na nim 14 milionów eksperymentów, których skutkiem było powstanie ponad 200 publikacji naukowych. W związku z rosnącym zainteresowaniem obliczeniami kwantowymi, Błękity Gigant udostępnił teraz 10 systemów kwantowych, w tym pięć 20-kubitowych, jeden 14-kubitowy i cztery 5-kubitowe. IBM zapowiada, że w ciągu miesiąca liczba dostępnych systemów kwantowych wzrośnie do 14. Znajdzie się wśród nich komputer 53-kubitowy, największy uniwersalny system kwantowy udostępniony osobom trzecim.
      Nasza strategia, od czasu gdy w 2016 roku udostępniliśmy pierwszy komputer kwantowy, polega na wyprowadzeniu obliczeń kwantowych z laboratoriów, gdzie mogły z nich skorzystać nieliczne organizacje, do chmur i oddanie ich w ręce dziesiątków tysięcy użytkowników, mówi Dario Gil, dyrektor IBM Research. Chcemy wspomóc rodzącą się społeczność badaczy, edukatorów i deweloperów oprogramowania komputerów kwantowych, którzy dzielą z nami chęć zrewolucjonizowania informatyki, stworzyliśmy różne generacje procesorów kwantowych, które zintegrowaliśmy w udostępnione przez nas systemy kwantowe.
      Dotychczas komputery kwantowe IBM-a zostały wykorzystane m.in. podczas współpracy z bankiem J.P. Morgan Chase, kiedy to na potrzeby operacji finansowych opracowano nowe algorytmy przyspieszające pracę o całe rzędy wielkości. Pozwoliły one na przykład na osiągnięcie tych samych wyników dzięki dostępowi do kilku tysięcy przykładów, podczas gdy komputery klasyczne wykorzystujące metody Monte Carlo potrzebują milionów próbek. Dzięki temu analizy finansowe mogą być wykonywane niemal w czasie rzeczywistym. Z kolei we współpracy z Mitsubishi Chemical i Keio University symulowano początkowe etapy reakcji pomiędzy litem a tlenem w akumulatorach litowo-powietrznych.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Amerykańska NSA (Narodowa Agencja Bezpieczeństwa) dołączyła do Microsoftu zachęcając użytkowników systemu Windows, by pilnie zaktualizowali swój system operacyjny. W Remote Desktop Services for Windows odkryto bowiem dziurę, która podobna jest do luki, którą w 2017 roku wykorzystało ransomware WannaCry, powodując wielomiliardowe straty na całym świecie.
      Dziura, nazwana „BlueKeep”, może też istnieć w starszych systemach operacyjnych z rodziny Windows, jak Windows 7, Windows XP, Windows Server 2003 oraz Server 2008. Stanowi ona poważne zagrożenie, gdyż szkodliwy kod może rozprzestrzeniać się i zarażać bez interakcji ze strony użytkownika.
      Microsoft poinformował o istnieniu dziury wraz z publikacją w ubiegłym miesiącu odpowiedniej poprawki. Wówczas firma nie zdradziła zbyt wielu informacji. Poinformowano jedynie, że na atak może być narażonych około 7 milionów urządzeń na całym świecie. Później dokładniej przyjrzano się zagrożeniu i liczbę narażonych urządzeń zmniejszono do 1 miliona.
      „BlueKeep”, oficjalnie skatalogowana jako CVE-2017-0708, to krytyczna luka pozwalająca napastnikowi na uruchomienie dowolnego kodu, który kradnie dane i szpieguje użytkowników. Na blogu NSA czytamy: to typ luki, jaką cyberprzestępcy często wykorzystują. Można jej użyć na przykład do przeprowadzenia ataku DoS. Ukazanie się i rozpowszechnienie szkodliwego kodu atakującą tę lukę jest prawdopodobnie kwestią czasu.
      Niektóre firmy zajmujące się cyberbezpieczeństwem już stworzyły prototypowy szkodliwy kod, by móc na tej podstawie stworzyć mechanizmy zabezpieczające. Microsoft i NSA wzywają do pilnego zainstalowania opublikowanej łaty.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...