Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Microsoft ostrzega przed własną poprawką

Rekomendowane odpowiedzi

Microsoft ostrzega przed niedawno wydaną przez siebie poprawką. Opublikowana 15 października opcjonalna niezwiązana z bezpieczeństwem KB45200062 może bowiem zaburzyć działanie usługi Windows Defender Advanced Threat Protection (ATP).
Koncern z Redmond informuje, że po zainstalowaniu poprawki ATP może przestać działać i wysyłać raporty. Ponadto w podglądzie zdarzeń (Event Viewer) może zostać zarejestrowany błąd 0xc0000409.

Błąd nie dotknie wszystkich użytkowników Windows, jednak jego występowanie to zła wiadomość dla wieru firm, które korzystają z Windows Defender ATP i zainstalowały KB4520062. Poprawka ta poprawia działanie modułów zarządzania energią, Bluetootha i wielu innych. Informacja, że może ona spowodować, iż firmowe komputery staną się mniej bezpieczne z pewnością nie ucieszy przedsiębiorców.

Windows Defender ATP ma za zadanie chronić sieci firmowe przed zaawansowanymi atakami, wykrywać je, umożliwiać ich analizę i reakcję na nie. Mechanizm ten korzysta z narzędzi analitycznych i dla wielu firm jest istotnym elementem systemu bezpieczeństwa.
Poprawka sprawia problemy w wersjach Windows 10 build 1809, Windows 10 Enterprise LTSC 2019, Windows Server build 1809 oraz Windows Server 2019. Jako, że jest to poprawka opcjonalna, niezwiązana z bezpieczeństwem bez większego problemu można z niej zrezygnować.

Microsoft obiecuje udostępnienie pozbawionej błędów wersji poprawki około połowy listopada.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Komputery kwantowe mogą, przynajmniej teoretycznie, przeprowadzać obliczenia, które są poza zasięgiem tradycyjnych maszyn. Ich kluczowym elementem są splątane kwantowe bity, kubity. Splątanie jest jednak stanem niezwykle delikatnym, bardzo wrażliwym na wpływ czynników zewnętrznych, na przykład promieniowania kosmicznego. Powoduje ono, że średnio co 10 sekund dochodzi do katastrofalnego błędu i kwantowe układy scalone tracą dane. Może ono za jednym razem usunąć wszelkie dane z procesora nawet najbardziej zaawansowanej maszyny kwantowej.
      Fizyk Quian Xu z University of Chicago i jego koledzy poinformowali o opracowaniu metody, która aż o 440 000 razy wydłuża czas pomiędzy błędami powodowanymi przez promieniowanie kosmiczne. Zatem mają one miejsce raz na 51 dni.
      Badacze zaproponowali komputer kwantowy składający się z wielu układów scalonych z danymi, z których każdy posiada liczne nadprzewodzące kubity. Wszystkie te układy są połączone z układem pomocniczym, który zawiera dodatkowe kubity monitorujące dane. Wszystkie chipy korzystałyby ze standardowych metod korekcji błędów oraz dodatkowej korekcji błędów powodowanych przez promieniowanie kosmiczne. Dzięki temu, że dane są rozdzielone na różne układy, zniszczenia powodowane przez promieniowanie kosmiczne są ograniczane. Gdy już do nich dojdzie, układ pomocniczy, we współpracy z układami, których dane nie zostały uszkodzone przez promieniowanie, przystępuje do korekty i odzyskania utraconych danych. Komputer nie musi rozpoczynać pracy na nowo, gdy tylko niektóre układy utracą dane, Xu. Co więcej, metoda ta wykrywa i koryguje dane pojawiające się w układzie pomocniczym.
      Autorzy badań twierdzą, że ich metoda wymaga zaangażowania mniejszej ilości zasobów oraz żadnych lub niewielkich modyfikacji sprzętowych w porównaniu z dotychczasowymi próbami ochrony komputerów kwantowych przed promieniowaniem kosmicznym. W przyszłości chcieliby ją przetestować na chmurze kwantowej IBM-a lub procesorze Sycamore Google'a.
      Ze szczegółowym opisem metody można zapoznać się na łamach arXiv.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Inżynierowie z NASA naprawili sondę Voyager 1. Jak informowaliśmy w maju, sonda, znajdująca się w odległości ponad 23 miliardów kilometrów od Ziemi, zaczęła przysyłać nieprawidłowe dane. Były one wysyłane z systemu AACS, do którego od 45 lat należy kontrola nad prawidłową orientacją pojazdu. Jednym z jego zadań jest dopilnowanie, by antena Voyagera była skierowana dokładnie na Ziemię. Wszystko działało prawidłowo, jednak odczyty z AACS nie oddawały tego, co rzeczywiście dzieje się z sondą.
      Sygnał z Voyagera 1 nie tracił mocy, co wskazywało, że antena jest precyzyjnie ustawiona w stronę Ziemi. Dane przysyłane z AACS czasem wyglądały na generowane losowo, innymi razy nie oddawały żadnego stanu, w jakim urządzenie mogło się znaleźć. Jakby tego było mało, błąd w AACS nie uruchomił żadnego z zabezpieczeń Voyagera. Po miesiącach pracy inżynierowie w końcu znaleźli źródło problemu. Okazało się, że AACS zaczął przesyłać dane za pośrednictwem komputera, który przestał pracować wiele lat temu. I to ten komputer uszkadzał dane.
      NASA nie zna natomiast samej przyczyny błędy. Nie wiadomo, dlaczego AACS zaczął przesyłać dane tą drogą. Susanne Dodd, odpowiedzialna za Voyagera, podejrzewa, że stało się tak w momencie, gdy centrum kontroli nakazało Voyagerowi przesyłanie danych przez jeden z dobrze działających komputerów. Niewykluczone, że komenda ta została zniekształcona przez komputer, który przekierował dane z AACS do wadliwej maszyny. Jeśli tak, to oznacza, że któryś ze znajdujących się na pokładzie Voyagera elementów wygenerował błąd. A inżynierowie nie wiedzą jeszcze, który to element. Specjaliści nie ustają w poszukiwaniu źródła problemów, jednak w tej chwili wygląda na to, że misja Voyagera nie jest zagrożona.
      Jesteśmy szczęśliwi, że telemetria wróciła. Dokonamy teraz pełnego przeglądu układów pamięci AACS i przeanalizujemy wszystko, co system ten robił. To powinno tam pomóc w odnalezieniu przyczyny problemu. Jesteśmy optymistami, chociaż przed nami jeszcze dużo pracy, dodaje Dodd.
      Voyager 1 i Voyager 2 pracują już przez 45 lat. To znacznie dłużej niż pierwotnie planowano. Oba pojazdy znajdują się już w przestrzeni międzygwiezdnej.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Microsoft zatrudnił byłego projektanta układów scalonych Apple'a, , który wcześniej pracował też w firmach Arm i Intel,  trafił do grupy kierowanej przez Raniego Borkara, zajmującej się rozwojem chmury Azure. Zatrudnienie Filippo wskazuje, że Microsoft chce przyspieszyć prace nad własnymi układami scalonymi dla serwerów tworzących oferowaną przez firmę chmurę. Koncern idzie zatem w ślady swoich największych rywali – Google'a i Amazona.
      Obecnie procesory do serwerów dla Azure są dostarczane przez Intela i AMD. Zatrudnienie Filippo już odbiło się na akcjach tych firm. Papiery Intela straciły 2% wartości, a AMD potaniały o 1,1%.
      Filippo rozpoczął pracę w Apple'u w 2019 roku. Wcześniej przez 10 lat był głównym projektantem układów w firmie ARM. A jeszcze wcześniej przez 5 lat pracował dla Intela. To niezwykle doświadczony inżynier. Właśnie jemu przypisuje się wzmocnienie pozycji układów ARM na rynku telefonów i innych urządzeń.
      Od niemal 2 lat wiadomo, że Microsoft pracuje nad własnymi procesorami dla serwerów i, być może, urządzeń Surface.
      Giganci IT coraz częściej starają się projektować własne układy scalone dla swoich urządzeń, a związane z pandemią problemy z podzespołami tylko przyspieszyły ten trend.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Przed dwoma laty Microsoft rozpoczął interesujący eksperyment. Firma zatopiła u wybrzeża Orkadów centrum bazodanowe. Teraz wydobyto je z dna, a eksperci przystąpili do badań dotyczących jego wydajności i zużycia energii. Już pierwsze oceny przyniosły bardzo dobre wiadomości. W upakowanym serwerami stalowym cylindrze dochodzi do mniejszej liczby awarii niż w konwencjonalnym centrum bazodanowym.
      Okazało się, że od maja 2018 roku zawiodło jedynie 8 a 855 serwerów znajdujących się w cylindrze. Liczba awarii w podwodnym centrum bazodanowym jest 8-krotnie mniejsza niż w standardowym centrum na lądzie, mówi Ben Cutler, który stał na czele eksperymentu nazwanego Project Natick. Eksperci spekulują, że znacznie mniejszy odsetek awarii wynika z faktu, że ludzie nie mieli bezpośredniego dostępu do serwerów, a w cylindrze znajdował się azot, a nie tlen, jak ma to miejsce w lądowych centrach bazodanowych. Myślimy, że chodzi tutaj o atmosferę z azotu, która zmniejsza korozję i jest chłodna oraz o to, że nie ma tam grzebiących w sprzęcie ludzi, mówi Cutler.
      Celem Project Natic było z jednej strony sprawdzenie, czy komercyjnie uzasadnione byłoby tworzenie niewielkich podwodnych centrów bazodanowych, która miałyby pracować niezbyt długo. Z drugiej strony chciano sprawdzić kwestie efektywności energetycznej chmur obliczeniowych. Centra bazodanowe i chmury obliczeniowe stają się coraz większe i zużywają coraz więcej energii. Zużycie to jest kolosalne. Dość wspomnieć, że miliard odtworzeń klipu do utworu „Despacito” wiązało się ze zużyciem przez oglądających takiej ilości energii, jaką w ciągu roku zużywa 40 000 amerykańskich gospodarstw domowych. W skali całego świata sieci komputerowe i centra bazodanowe zużywają kolosalne ilości energii.
      Na Orkadach energia elektryczna pochodzi z wiatru i energii słonecznej. Dlatego to właśnie je Microsoft wybrał jako miejsce eksperymentu. Mimo tego, podwodne centrum bazodanowe nie miało żadnych problemów z zasilaniem. Wszystko działało bardzo dobrze korzystając ze źródeł energii, które w przypadku centrów bazodanowych na lądzie uważane są za niestabilne, mówi jeden z techników Project Natick, Spencer Fowers. Mamy nadzieję, że gdy wszystko przeanalizujemy, okaże się, że nie potrzebujemy obudowywać centrów bazodanowych całą potężną infrastrukturą, której celem jest zapewnienie stabilnych dostaw energii.
      Umieszczanie centrów bazodanowych pod wodą może mieć liczne zalety. Oprócz już wspomnianych, takie centra mogą być interesującą alternatywą dla firm, które narażone są na katastrofy naturalne czy ataki terrorystyczne. Możesz mieć centrum bazodanowe w bardziej bezpiecznym miejscu bez potrzeby inwestowania w całą infrastrukturę czy budynki. To rozwiązanie elastyczne i tanie, mówi konsultant projektu, David Ross. A Ben Cutler dodaje: Sądzimy, że wyszliśmy poza etap eksperymentu naukowego. Teraz pozostaje proste pytanie, czy budujemy pod wodą mniejsze czy większe centrum bazodanowe.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Microsoft ponownie będzie dostarczał użytkownikom Windows 10 poprawki niezwiązane z bezpieczeństwem. Jak wcześniej informowaliśmy, w związku z pandemią koronawirusa koncern zmienił sposób pracy i od maja dostarczał wyłącznie poprawki związane z bezpieczeństwem.
      Chris Morrissey z Microsoftu ogłosił na firmowym blogu, że od lipca dostarczane będą wszystkie poprawki dla Windows 10 oraz Windows Server dla wersji 1809 i nowszych. Kalendarz ich publikacji będzie taki, jak wcześniej, zatem dostęp do nich zyskamy w Update Tuesday. Koncern zapowiada też pewne zmiany, które mają na celu uproszczenie procesu aktualizacji.
      Zmiany takie obejmą nazewnictwo poprawek oraz sposób dostarczania poprawek do testów dla firm i organizacji. Zmian mogą się też spodziewać osoby i organizacja biorące udział w Windows Insider Program oraz Windows Insider Program for Business.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...