Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Vista bezpieczniejsza od XP

Rekomendowane odpowiedzi

Opublikowany przez Microsoft raport wskazuje, że Windows Vista jest znacznie bardziej bezpieczna niż Windows XP. Z zebranych przez koncern statystyk wynika, że odsetek infekcji Visty z SP1 był aż o 61,9% niższy niż XP z SP3.

Najpoważniejsze problemy z bezpieczeństwem wynikają z błędów w przeglądarkach. W przypadku Windows XP aż 90% dziur w przeglądarkach występowało w produktach Microsoftu. Znacznie lepiej sytuacja wygląda w przypadku Visty, gdzie błędy w Explorerze stanowią tylko 10% wszystkich dziur z przeglądarek.

Przestępcy chętnie z tych luk korzystają. Z podanych informacji wynika, że za 56,4% skutecznych ataków na XP, podczas których wykorzystano błędy w browserach, odpowiadały luki w IE. W przypadku Visty odsetek tan stanowi już 15,5%.

Przeglądarki internetowe pozostaną ulubionym celem ataku cyberprzestępców. Pocieszający jest fakt, że bezpieczeństwo systemu operacyjnego można od ręki zwiększyć, rezygnując z używania Internet Explorera 6. Nieważne, czy korzystasz z IE7, IE8, Firefoksa, Chrome'a czy Opery. Wszystko jest lepsze niż IE6 i nie wymaga to przechodzenia na Windows 7 - stwierdził Neil MacDonald, wiceprezes firmy Gartner.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A ja zacytuje pana Mitnicka jako odpowiedz na ten artykul: "Łamałem ludzi, nie hasła"...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

hhhehe nie Vista bezpieczniejszy tylko domyślnie zainstalowana w niem przeglądarka jest bezpieczniejszy od domyślnej z XP

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

jak to ktoś powiedział:

"IE6 pomaga Ci w przeglądaniu internetu i na odwrót"

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ciekawe jak się ma do tego 7, o ile na testy nie jest jeszcze za wcześnie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To może tytuł ze slaszdota: In Test, Windows 7 Vulnerable To 8 Out of 10 Viruses

 

Tyle, że ten raport zrobił Sophos, a nie MS.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Microsoft zatrudnił byłego projektanta układów scalonych Apple'a, , który wcześniej pracował też w firmach Arm i Intel,  trafił do grupy kierowanej przez Raniego Borkara, zajmującej się rozwojem chmury Azure. Zatrudnienie Filippo wskazuje, że Microsoft chce przyspieszyć prace nad własnymi układami scalonymi dla serwerów tworzących oferowaną przez firmę chmurę. Koncern idzie zatem w ślady swoich największych rywali – Google'a i Amazona.
      Obecnie procesory do serwerów dla Azure są dostarczane przez Intela i AMD. Zatrudnienie Filippo już odbiło się na akcjach tych firm. Papiery Intela straciły 2% wartości, a AMD potaniały o 1,1%.
      Filippo rozpoczął pracę w Apple'u w 2019 roku. Wcześniej przez 10 lat był głównym projektantem układów w firmie ARM. A jeszcze wcześniej przez 5 lat pracował dla Intela. To niezwykle doświadczony inżynier. Właśnie jemu przypisuje się wzmocnienie pozycji układów ARM na rynku telefonów i innych urządzeń.
      Od niemal 2 lat wiadomo, że Microsoft pracuje nad własnymi procesorami dla serwerów i, być może, urządzeń Surface.
      Giganci IT coraz częściej starają się projektować własne układy scalone dla swoich urządzeń, a związane z pandemią problemy z podzespołami tylko przyspieszyły ten trend.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Nowy raport IPCC to „czerwony alarm dla ludzkości", stwierdził Sekretarz Generalny ONZ Antonio Guterres. Opublikowana właśnie część raportu to pierwsze od 2013 roku duże opracowanie podsumowujące stan wiedzy na temat zmian klimatycznych. Jeśli połączymy siły, możemy jeszcze uniknąć katastrofy. Ale, jak pokazuje raport, nie ma już czasu na zwłokę, nie ma też wymówek. Raport opublikowano na trzy miesiące przed szczytem klimatycznym w Glasgow.
      Autorzy raportu mówią, że od roku 1970 temperatury na powierzchni Ziemi rosną szybciej niż w jakimkolwiek 50-letnim okresie w ciągu ostatnich 2000 lat. Używając terminologii sportowej, atmosfera jest na dopingu, co oznacza, że coraz częściej obserwujemy ekstremalne zjawiska, mówi Peteri Taalas, sekretarz generalny Światowej Organizacji Meteorologicznej.
      Główne wnioski z raportu to:
      – w dekadzie 2011–2020 średnia globalna temperatura była o 1,09 stopnia Celsjusza wyższa niż w latach 1850–1900, a ostatnich pięć lat było najgorętszych od roku 1850;
      – tempo wzrostu poziomu oceanów jest obecnie niemal trzykrotnie szybsze niż w latach 1901–1971;
      – z 90-procentową pewnością można stwierdzić, że wpływ człowieka jest głównym powodem wycofywania się lodowców i spadku pokrywy lodu morskiego w Arktyce obserwowanych od lat 90. XX w.
      – jest pewne, że gorące ekstrema, w tym fale upałów, stają się od lat 50. XX w. częstsze i bardziej intensywne, a fale mrozów rzadsze i mniej poważne.
      W raporcie czytamy również, że już teraz globalne ocieplenie spowodowało zmiany w wielu systemach podtrzymywania życia na planecie. Systemy te mogą powrócić do stanu sprzed zmian dopiero w perspektywie setek bądź tysięcy lat. Oceany będą się ocieplały i zwiększały kwasowość, a lodowce będą wycofywały się jeszcze przed dekady lub wieki. Autorzy ostrzegają, że każdy dodatkowy ułamek stopnia, o który ogrzejemy planetę, będzie tylko pogarszał sytuację.
      W chwili obecnej nie można też wykluczyć – choć jest to mało prawdopodobne – wzrostu poziomu oceanów o 2 metry do roku 2100 i o 5 metrów do roku 2150. To zaś oznacza, że w najbliższych dekadach miliony osób mieszkających na wybrzeżach będą musiały uciekać przed powodziami i podtopieniami.
      W Porozumieniu Paryskim z 2015 roku założono, że wzrost średnich temperatur na Ziemi zostanie powstrzymany poniżej 2 stopni Celsjusza w porównaniu z epoką przedprzemysłową, a celem jest utrzymanie go na poziomie poniżej 1,5 stopnia. Z najnowszego raportu wynika, że obecnie jedynym sposobem, by dotrzymać tych ustaleń jest szybkie i bardzo poważne zmniejszenie emisji węgla do atmosfery. Wszelkie inne scenariusze rozważane w raporcie nie dają szansy na utrzymanie temperatur w zaplanowanych widełkach. To zaś oznacza, że w krótkim czasie średnie temperatury na powierzchni Ziemi mogą wzrosnąć do takich, jakich planeta nie doświadczyła od setek tysięcy lub nawet milionów lat. To temperatury, z którymi nigdy się nie zetknęliśmy.
      Obecnie ludzkość emituje około 40 miliardów ton CO2 rocznie, tymczasem naukowcy ostrzegają, że jeśli wyemitujemy dodatkowo 500 miliardów ton, to szansa, że globalne ocieplenie zatrzyma się przed poziomem 1,5 stopnia Celsjusza wynosi 50:50.
      W raporcie czytamy, że wzrost temperatur o 1,5 stopnia Celsjusza powyżej epoki przedprzemysłowej nastąpi do roku 2040. Pod warunkiem jednak, że w ciągu najbliższych kilku lat dojdzie do znaczącej redukcji emisji. Jeśli tak się nie stanie, te 1,5 stopnia osiągniemy szybciej.
      Autorzy raportu przygotowali 5 różnych scenariuszy emisji dwutlenku węgla. Tylko 2 z nich dają szansę, na powstrzymanie globalnego ocieplenia przed poziomem 2 stopni Celsjusza. Najbardziej ambitny, który zakłada, że do połowy wieku emisja spadnie do poziomu 0 netto, pozwala przypuszczać, że globalne ocieplenie uda się zatrzymać nieco powyżej poziomu 1,5 stopnia Celsjusza w porównaniu z epoką przedprzemysłową.
      W związku z opublikowaniem raportu Antonio Guterres wezwał wszystkie kraje, by zrezygnowały z planów budowy nowych elektrowni węglowych oraz planów rozwoju i eksploracji paliw kopalnych. Raport ten musi być dzwonem pogrzebowym dla węgla i paliw kopalnych, zanim zniszczą one naszą planetę, stwierdził.
      Dzisiaj zaprezentowano pierwszą część, podsumowanie, raportu. Liczy sobie ono 41 stron. Dostępny jest też cały raport [PDF] o objętości niemal 4000 stron, jednak pozostałe strony oznaczono jako Wersja zaakceptowana. Może zostać poddana ostatecznej edycji.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Przed dwoma laty Microsoft rozpoczął interesujący eksperyment. Firma zatopiła u wybrzeża Orkadów centrum bazodanowe. Teraz wydobyto je z dna, a eksperci przystąpili do badań dotyczących jego wydajności i zużycia energii. Już pierwsze oceny przyniosły bardzo dobre wiadomości. W upakowanym serwerami stalowym cylindrze dochodzi do mniejszej liczby awarii niż w konwencjonalnym centrum bazodanowym.
      Okazało się, że od maja 2018 roku zawiodło jedynie 8 a 855 serwerów znajdujących się w cylindrze. Liczba awarii w podwodnym centrum bazodanowym jest 8-krotnie mniejsza niż w standardowym centrum na lądzie, mówi Ben Cutler, który stał na czele eksperymentu nazwanego Project Natick. Eksperci spekulują, że znacznie mniejszy odsetek awarii wynika z faktu, że ludzie nie mieli bezpośredniego dostępu do serwerów, a w cylindrze znajdował się azot, a nie tlen, jak ma to miejsce w lądowych centrach bazodanowych. Myślimy, że chodzi tutaj o atmosferę z azotu, która zmniejsza korozję i jest chłodna oraz o to, że nie ma tam grzebiących w sprzęcie ludzi, mówi Cutler.
      Celem Project Natic było z jednej strony sprawdzenie, czy komercyjnie uzasadnione byłoby tworzenie niewielkich podwodnych centrów bazodanowych, która miałyby pracować niezbyt długo. Z drugiej strony chciano sprawdzić kwestie efektywności energetycznej chmur obliczeniowych. Centra bazodanowe i chmury obliczeniowe stają się coraz większe i zużywają coraz więcej energii. Zużycie to jest kolosalne. Dość wspomnieć, że miliard odtworzeń klipu do utworu „Despacito” wiązało się ze zużyciem przez oglądających takiej ilości energii, jaką w ciągu roku zużywa 40 000 amerykańskich gospodarstw domowych. W skali całego świata sieci komputerowe i centra bazodanowe zużywają kolosalne ilości energii.
      Na Orkadach energia elektryczna pochodzi z wiatru i energii słonecznej. Dlatego to właśnie je Microsoft wybrał jako miejsce eksperymentu. Mimo tego, podwodne centrum bazodanowe nie miało żadnych problemów z zasilaniem. Wszystko działało bardzo dobrze korzystając ze źródeł energii, które w przypadku centrów bazodanowych na lądzie uważane są za niestabilne, mówi jeden z techników Project Natick, Spencer Fowers. Mamy nadzieję, że gdy wszystko przeanalizujemy, okaże się, że nie potrzebujemy obudowywać centrów bazodanowych całą potężną infrastrukturą, której celem jest zapewnienie stabilnych dostaw energii.
      Umieszczanie centrów bazodanowych pod wodą może mieć liczne zalety. Oprócz już wspomnianych, takie centra mogą być interesującą alternatywą dla firm, które narażone są na katastrofy naturalne czy ataki terrorystyczne. Możesz mieć centrum bazodanowe w bardziej bezpiecznym miejscu bez potrzeby inwestowania w całą infrastrukturę czy budynki. To rozwiązanie elastyczne i tanie, mówi konsultant projektu, David Ross. A Ben Cutler dodaje: Sądzimy, że wyszliśmy poza etap eksperymentu naukowego. Teraz pozostaje proste pytanie, czy budujemy pod wodą mniejsze czy większe centrum bazodanowe.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Microsoft ponownie będzie dostarczał użytkownikom Windows 10 poprawki niezwiązane z bezpieczeństwem. Jak wcześniej informowaliśmy, w związku z pandemią koronawirusa koncern zmienił sposób pracy i od maja dostarczał wyłącznie poprawki związane z bezpieczeństwem.
      Chris Morrissey z Microsoftu ogłosił na firmowym blogu, że od lipca dostarczane będą wszystkie poprawki dla Windows 10 oraz Windows Server dla wersji 1809 i nowszych. Kalendarz ich publikacji będzie taki, jak wcześniej, zatem dostęp do nich zyskamy w Update Tuesday. Koncern zapowiada też pewne zmiany, które mają na celu uproszczenie procesu aktualizacji.
      Zmiany takie obejmą nazewnictwo poprawek oraz sposób dostarczania poprawek do testów dla firm i organizacji. Zmian mogą się też spodziewać osoby i organizacja biorące udział w Windows Insider Program oraz Windows Insider Program for Business.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Grupa hakerska Shiny Hunters włamała się na GitHub-owe konto Microsoftu, skąd ukradła 500 gigabajtów danych z prywatnych repozytoriów technologicznego giganta. Dane te zostały następnie upublicznione na jednym z hakerskich forów. Nic nie wskazuje na to, by zawierały one jakieś poufne czy krytyczne informacje.
      Ataku dokonali ci sami przestępcy, którzy niedawno ukradli dane 91 milionów użytkowników największej indonezyjskiej platformy e-commerce Tokopedii i sprzedali je za 5000 USD. Jak mówią eksperci, Shiny Hunters zmienili w ostatnim czasie taktykę.
      Na dowód dokonania ataku na konto Microsoftu hakerzy dostarczyli dziennikarzom zrzut ekranowy, na którym widzimy listę prywatnych plików developerów Microsoftu. Początkowo przestępcy planowali sprzedać te dane, ale w końcu zdecydowali się udostępnić je publicznie.
      Jako, że w ukradzionych danych znajduje się m.in. tekst i komentarze w języku chińskim, niektórzy powątpiewają, czy rzeczywiście są to pliki ukradzione Microsoftowi. Jednak, jak zapewniają redaktorzy witryny Hack Read, ukradziono rzeczywiście pliki giganta z Redmond. Przedstawiciele Shiny Hunters informują, że nie mają już dostępu do konta, które okradli. Microsoft może zatem przeprowadzić śledztwo i poinformować swoich klientów o ewentualnych konsekwencjach ataku. Sama firma nie odniosła się jeszcze do informacji o włamaniu.
      GitHub to niezwykle popularna platforma developerska używana do kontroli wersji, z której korzysta 40 milionów programistów z całego świata. W październiku 2018 roku została ona zakupiona przez Microsoft za kwotę 7,5 miliarda dolarów.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...