Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Jednym z powszechnych przekonań dotyczących bezpieczeństwa danych jest liczący sobie wiele lat pogląd, iż do skutecznego usunięcia informacji na dysku twardym konieczne jest ich wielokrotne nadpisanie. Ekspert sądowy Craig Wright twierdzi, że udało mu się obalić to przekonanie. Wraz z grupą specjalistów sprawdził, jaka jest szansa na odzyskanie danych po ich jednokrotnym celowym nadpisaniu za pomocą zer. Podczas eksperymentów wykorzystano zarówno starsze 1-gigabajtowe dyski, jak i współczesne HDD oraz mikroskop sił magnetycznych, którym po nadpisaniu badano powierzchnię dysków.

Eksperci dowiedli, że jeśli jednokrotnie nadpiszemy dysk zerami, to praktycznie nie ma szans, by odczytać dane. Z ich badań wynika, że mamy 56-procentową szansę na odzyskanie danych z pojedynczego bitu, którego lokalizację dokładnie znamy. By odczytać bajt musimy ośmiokrotnie bardzo precyzyjnie wypozycjonować głowicę zapisująco-odczytującą HDD. Szansa, że nam się to uda wynosi 0,97%. Odzyskanie czegokolwiek poza pojedynczym bajtem jest jeszcze mniej prawdopodobne.

Tymczasem firmy oferujące oprogramowanie do usuwania danych z dysku, proponują software, który nadpisuje HDD aż 35-krotnie. Zdaniem Wrighta to tylko i wyłącznie strata czasu. Wielokrotne nadpisywanie danych było standardem przed laty przy zabezpieczaniu dyskietek.

Niezwykle ważne jednak jest, by, jeśli chcemy na trwałe wyczyścić dysk twardy, nadpisać go całego, sektor po sektorze, a nie tylko te fragmenty, na których znajdują się pliki, które chcemy usunąć. Podczas pracy systemy operacyjne tworzą bowiem wiele różnych kopii tego samego pliku i przechowują je niewidoczne w różnych miejscach.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wszytko ok ale :

Jeśli mamy szanse na odczytanie pojedynczego bita równą 56%, a za chwile żeby go odzyskać musimy 8 razy pozycjonować głowice i szansa nagle spada do 0,97% to coś jest nie tak :). Jak mniemam prawdopodobieństwo odzyskania jednego bita to 0,56 % natomiast prawdopodobieństwo poprawnego odczytania jednego BAJTU czyli 8 bitów to iloczyn prawdopodobieństw odczytania ośmiu pojedynczych bitów co da nam 0,97% (w zaokrągleniu).

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A ja myślę, że chodzi o co innego. Osiem prób odczytania jednego bita daje niemal stuprocentową (99,9%) gwarancję, że wreszcie się uda (1 - prawdopodobieństwo błędu do potęgi 8 ). A 0,97% oznacza prawdopodobieństwo, że głowica trafi dokładnie w to miejsce, w którym jest przechowywany ładunek przenoszący informację (i prawdopodobieństwo to jest czymś zupełnie osobnym od prawdopodobieństwa, że po ustawieniu głowicy poprawnie odczytasz dane). Tak przynajmniej ja to interpretuję.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Łeee, a taka ładna interpretacja była, i nawet liczbowo się zgadzała :'(

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Hmm, DoD jednak widzi cel w zapisywaniu patternami... Zaś obecnie wymogiem przy pozbywaniu się najbardziej poufnych informacji jest niszczenie fizyczne lub degaussowanie dysku.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
degaussowanie dysku.

Co to?

Faktycznie chcesz usunąć dobitnie to zniszcz, ale to się wiąże z kosztami.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Co to?

Faktycznie chcesz usunąć dobitnie to zniszcz, ale to się wiąże z kosztami.

 

Np. to:

 

http://www.forensictools.pl/index.php?option=com_virtuemart&page=shop.product_details&flypage=shop.flypage_tp&category_id=7&product_id=65&Itemid=26&vmcchk=1&Itemid=26

 

Oczywiście po czymś takim możesz już robić zawody w rzucaniu dyskiem na odległość lub sprawdzić co ma w środku. :)

 

Co do fizycznego niszczenia:

 

http://www.forensictools.pl/index.php?page=shop.product_details&flypage=shop.flypage_tp&product_id=87&category_id=7&manufacturer_id=0&option=com_virtuemart&Itemid=26&vmcchk=1&Itemid=26

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dzięki za info.

Ja jednak bym wolał ręcznie zniszczyć dysk. Taniej wyjdzie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

->wilk

Wydaje mi się ze Departament Obrony  widział sens jakiś czas temu teraz nawet jeśli go nie widzi to rekomendowanie słabszych zabezpieczeń było by niedorzeczne.

Kwestia niszczenia fizycznego to wymóg formalny i mnie nie przekonuje jako argument w sprawie skuteczności  zamazywania danych szczególnie ze nie znam żadnej polskiej regulacji (może jestem niedoinformowany, nie wykluczam tego) która by w jakiś sposób normowała kwestie utylizacji danych poprzez nadpisywanie i może dla tego dyski należy niszczyć fizycznie.

 

Hm degaussowanie straszy mnie bardziej niż dekapitacja. Nie wiem w ogóle z skąd to się wzięło i po co. Nie jestem fanem "dwumlasków", ale nie przesadzajmy, kineskopów nie trzeba deagaussować starczy rozmagnesować.

 

->mikroos

w Twoim rozumowaniu jest błąd przynajmniej według mojej jego interpretacji :). W dużym uproszczeniu jeśli odczytasz bit 8 razy to +/- 4,58 razy odczytasz informacje dobrą a 3,52 zła, jeśli odczytasz bit 100 razy to podchodząc do sprawy czysto matematycznie 56 razy odczytasz prawidłową wartość bitu a 44 nieprawidłową, jeśli wplątamy w to statystykę to nawet nie do końca będzie wiadomo która jest prawidłowa. Wiec żeby w ogóle móc ocenić prawdopodobieństwo odczytania informacji nadpisanej trzeba wiedzieć co tam wcześniej było 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Widzisz, ja to zinterpretowałem jeszcze inaczej :) Dla mnie te 56% to było prawdopodobieństwo szansy, że w ogóle coś odczytasz (czyli że uzyskasz sygnał na tyle silny w stosunku do szumu, że będziesz mógł go uznać za 0 albo 1), a nie prawdopodobieństwo, że odczytasz dobrze. Ale nie wnikajmy - skoro pierwotnie błąd był zupełnie gdzie indziej, to nie ma sensu o tym gadać ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

DoD jak i inne instytucje, którym zależy na bezpieczeństwie danych mogą sobie pozwolić na niszczenie dysków, lub zabawę nawet z milionem nadpisań. koszty tych operacji będą i tak niższe niż konsekwencje wycieku informacji i stracenie wiarygodności - a wiele gorszych rzeczy mogłoby się zdarzyć jeszcze :)

Poza tym - 56% szans na odczytanie pojedynczego bitu to i tak sporo. Zawsze istnieje ryzyko że każdy bit trafi do zbioru tych 56% - i co wtedy ?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Poza tym - 56% szans na odczytanie pojedynczego bitu to i tak sporo. Zawsze istnieje ryzyko że każdy bit trafi do zbioru tych 56% - i co wtedy ?

To teraz policz sobie prawdopodobieństwo odczytania prawidłowo choćby jednego bajta. Jeszcze mało? Policz dla jednego kilobajta :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To teraz policz sobie prawdopodobieństwo odczytania prawidłowo choćby jednego bajta. Jeszcze mało? Policz dla jednego kilobajta ;)

Ja nie mówię że to jest dużo - ale zawsze wyjdzie powyżej zera :) Teoretycznie (jeśli rachunek prawdopodobieństwa dla tego zdarzenia ułoży się wręcz nieprawdopodobnie) będzie możliwe odczytanie całego dysku bez żadnego błędu. Dlatego warto takie ryzyko minimalizować - oczywiście jeśli koszt takiej operacji nie będzie wyższy niż koszt wycieknięcia danych...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Jeden niepozorny błąd - źle wpisany adres e-mail, przypadkowo udostępniony plik w chmurze czy dokument pozostawiony w biurowej drukarce - może kosztować firmę naprawdę wiele. W dzisiejszym świecie dane to jeden z najcenniejszych zasobów, a ich ochrona staje się równie ważna jak zabezpieczenie pieniędzy czy sprzętu. Co istotne, zagrożenia nie zawsze przychodzą z zewnątrz - często wynikają z codziennej, rutynowej komunikacji. Dlatego zapobieganie utracie firmowych danych to temat, którego nie można odkładać na później. Jak robić to skutecznie? Odpowiadamy.


      Kanały ryzyka Do wycieku danych wcale nie potrzeba zaawansowanego ataku - często wystarczy zwykła codzienna pomyłka. Mail z poufnym załącznikiem trafiający do złego odbiorcy, wydruk pozostawiony w biurowej drukarce, pendrive zgubiony w drodze na spotkanie, czy plik udostępniony w chmurze bez właściwych uprawnień - to scenariusze, które zdarzają się częściej, niż mogłoby się wydawać. Do tego dochodzą rozmowy na komunikatorach i wideokonferencjach, gdzie łatwo pokazać zbyt wiele. Każdy z tych kanałów wygląda niepozornie, ale to właśnie tam najczęściej kryją się wektory wycieku, dlatego tak ważne jest stosowanie różnych mechanizmów ochrony, dopasowanych do konkretnego sposobu pracy.
       
      Podstawowe mechanizmy DLP Nowoczesne systemy DLP działają trochę jak inteligentny strażnik - potrafią rozpoznać, które pliki zawierają wrażliwe informacje, nadać im odpowiednie „etykiety” i pilnować, co dalej się z nimi dzieje. Jeśli ktoś spróbuje wysłać taki dokument na zewnątrz, system może go zablokować, poprosić o dodatkowe potwierdzenie albo przynajmniej ostrzec, że coś jest nie tak.
      Uzupełnieniem tej ochrony jest IRM, czyli zarządzanie prawami do informacji. To rozwiązanie działa bezpośrednio na samym pliku - można ustawić, kto ma prawo go otworzyć, edytować czy wydrukować. Dzięki temu nawet jeśli dokument przypadkiem trafi w niepowołane ręce, jego zawartość nadal pozostaje zabezpieczona.
       
      Kopie zapasowe i audyt Sama technologia DLP to ważny element układanki, ale nie rozwiązuje problemu w stu procentach. Nawet najlepiej skonfigurowany system nie pomoże, jeśli firma nie zadba o coś tak podstawowego jak regularne kopie zapasowe. To one pozwalają szybko wrócić do pracy po awarii, ataku ransomware czy zwykłej pomyłce pracownika. Ważne jest nie tylko ich wykonywanie, ale też sprawdzanie, czy faktycznie da się z nich odtworzyć dane - wielu organizacjom zdarzało się boleśnie odkryć, że kopie były, ale bezużyteczne.

      Drugim filarem jest audyt. To nic innego jak szczegółowe „mapowanie” danych w firmie - sprawdzenie, gdzie dokładnie się znajdują, kto ma do nich dostęp i jakimi kanałami są przesyłane. Bez takiej wiedzy trudno ustawić skuteczne zabezpieczenia. Audyt pomaga też wychwycić miejsca, w których ryzyko wycieku jest największe, na przykład dział, który korzysta z wielu zewnętrznych narzędzi czy wymienia dużo informacji z partnerami. Dzięki temu można lepiej dopasować polityki bezpieczeństwa do realnych potrzeb, zamiast wprowadzać ogólne zasady, które albo są zbyt luźne, albo nadmiernie utrudniają pracę.
       
      Architektura ochrony Najlepsze rozwiązania w zakresie ochrony informacji opierają się na wielu warstwach, bo tylko takie podejście daje realne efekty. Na poziomie komputerów i urządzeń mobilnych kontrolowane są działania użytkowników, w sieci monitorowany jest ruch wychodzący, a w aplikacjach i chmurze zabezpieczane są pliki współdzielone na co dzień. To właśnie dzięki takiej wielopoziomowej architekturze zapobieganie utracie danych staje się skuteczne - bo nawet jeśli jedno zabezpieczenie zawiedzie, kolejne wciąż stanowią barierę przed wyciekiem.
       
      Proces wdrożenia Wdrożenie systemu zapobiegania utracie danych to proces etapowy. Najpierw robi się audyt i inwentaryzację, by wiedzieć, jakie informacje firma posiada i gdzie one są. Potem następuje klasyfikacja i oznaczanie danych - ustalenie, co jest poufne, a co mniej wrażliwe. Kolejny krok to pilotaż w ograniczonym zakresie, który pozwala sprawdzić działanie systemu i reakcje użytkowników. Dopiero później wdraża się rozwiązanie w całej organizacji, a na końcu dba o stałe monitorowanie i dopasowywanie polityk, tak aby były skuteczne, ale nie paraliżowały codziennej pracy.
       
      Ograniczenia i przykłady rozwiązań Żaden system nie gwarantuje stuprocentowej ochrony. Zagrożenia mogą pojawić się w kanałach, które nie zostały objęte kontrolą, a zbyt restrykcyjne reguły mogą paraliżować pracę. Dlatego w praktyce łączy się różne podejścia: DLP, IRM, archiwizację i szkolenia pracowników. Na rynku dostępne są rozwiązania, które integrują te mechanizmy - przykładem jest GTB DLP Suite, oferowane przez iiTD, które umożliwia zarówno analizę treści, jak i kontrolę kanałów komunikacji. To jedno z narzędzi, które pokazuje, jak technologia wspiera organizacje w redukowaniu ryzyka.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Inżynierowie w University of Texas at Austin stworzyli najmniejsze w dziejach urządzenie do przechowywania danych. Profesor Deji Akiwande i jego zespół opierali się na opisywanych już przez nas badaniach, w czasie których powstał atomistor, najcieńsze urządzenie do składowania danych. Teraz naukowcy poczynili krok naprzód zmniejszając przekrój swojego urządzenie do zaledwie 1 nm2.
      Kluczem do dalszej redukcji rozmiarów urządzenia było dobre poznanie właściwości materiałów w tak małej skali i wykorzystanie roli defektów w materiale. Gdy pojedynczy dodatkowy atom metalu wypełnia dziurę, przekazuje materiałowi nieco ze swojego przewodnictwa, co prowadzi do zmiany czyli pojawienia się efektu pamięciowego, mówi Akinwande. Mniejsze układy pamięci pozwolą na stworzenie mniejszych komputerów i telefonów. Układy takie zużywają też mniej energii, pozwalają przechować więcej danych w mniejszej przestrzeni, działają też szybciej.
      Wyniki tych badań przecierają drogę do opracowania przyszłych generacji interesującego Departament Obrony sprzętu takiego jak ultragęste układy pamięci, neuromorficzne systemy komputerowe, systemy komunikacyjne działające w zakresie fal radiowych i inne, mówi Pani Veranasi, menedżer w US Army Research Office, które finansowało najnowsze badaniach.
      Atomristor, na którym oparto najnowsze badania, był już najcieńszym układem pamięci. Jego grubość wynosiła zaledwie 1 atom. Jednak dla zmniejszenia urządzeń ważny jest również ich przekrój poprzeczny. Tym, czego poszukiwaliśmy było spowodowanie by pojedynczy atom kontrolował funkcje pamięci. Udało się nam to osiągnąć, mówi Akinwande.
      Nowe urządzenie należy do kategorii memrystorów, urządzeń zdolnych do modyfikowania oporności pomiędzy dwoma punktami końcowymi bez potrzeby używania bramki w roli pośrednika. Opracowana właśnie odmiana memrystora, którą stworzono dzięki wykorzystaniu zaawansowanych narzędzi z Oak Ridge National Laboratory, daje szanse na osiągnięcie gęstości zapisu rzędu 25 Tb/cm2. To 100 krotnie więcej niż obecnie dostępne komercyjne układ flash.
      Nowy układ pamięci wykorzystuje dwusiarczek molibdenu (MoS2). Jednak jego twórcy zapewniają, że w tej roli można wykorzystać setki innych materiałów o podobnej budowie.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Na internetowych czarnych rynkach pojawiła się oferta sprzedaży danych 92 milionów Brazylijczyków. Jej cena wywoławcza to 15 000 dolarów. Wiadomo, że oferentem jest ktoś zarejestrowany jako X4Crow, a bazę wystawiono na wielu forach, do których dostęp uzyskuje się za zaproszeniem lub poprzez płatną rejestrację.
      Jak twierdzi sprzedający, baza zawiera nazwiska, daty urodzenia oraz identyfikatory podatkowe około 92 milionów Brazylijczyków. Baza w formacie SQL zajmuje 16 gigabajtów, a zaprezentowane fragmenty wskazują, że jest ona podzielona na poszczególne stany.
      Witryna BleepingComputer poinformowała, że otrzymała próbkę bazy danych. Dziennikarze potwierdzili, że dane te są prawdziwe oraz zawierają m.in. informacje o nazwisku matki. Nie wiadomo, co jest źródłem bazy, jednak sprzedający poinformowali dziennikarzy, że pochodzi ona ze źródeł rządowych.
      Sprzedający twierdzą, że dzięki informacjom z tej bazy możliwe jest pozyskanie dodatkowych informacji, jak dane z dowodów osobistych czy praw jazdy. Niewykluczone, że możliwe jest też zdobycie innych danych osobowych, jak numery telefonów, e-maili, informacji o zawodzie, wykształceniu, członkach rodziny, numerach rejestracyjnych pojazdów i wielu innych.
      Próba sprzedaży danych dotyczących milionów obywateli Brazylii to kolejny w ostatnich tygodniach przykład na masowy wyciek danych z instytucji rządowych. We wrześniu wycikeły informacje na temat około 20 milionów obywateli Ekwadoru, a na początku października do sieci trafiły informacje podatkowe dotyczące około 20 milionów obywateli Rosji.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Każde oprogramowanie zawiera błędy, ale jak mogliśmy się dowiedzieć podczas konferencji Black Hat Europe, najwięcej błędów zawiera oprogramowanie tworzone przez instytucje państwowe lub na ich potrzeby.
      Chris Wysopal z firmy Veracode, która specjalizuje się w wyszukiwaniu dziur w programach, poinformował o wynikach badań przeprowadzonych pomiędzy drugą połową roku 2010 a końcem roku 2011.
      W tym czasie jego firma przeanalizowała 9910 różnych aplikacji. Eksperci stwierdzili, że 80% programów nie spełnia wymagań bezpieczeństwa firmy Veracode. Oprogramowanie tworzone dla instytucji państwowych wypadło znacznie gorzej, niż programy komercyjne. Okazało się bowiem, że jedynie 16% stworzonych przez rząd i dla rządu aplikacji sieciowych można było uznać za bezpieczne z punktu widzenia standardów OWASP (Open Web Application Security Project). Dla  sektora finansowego odsetek ten wynosił 24%, a dla innego komercyjnego oprogramowania - 28%.
      Z kolei do wyników badań innych programów niż programy sieciowe posłużono się kryteriami opracowanymi przez SANS Institute. Za bezpieczne uznano 18% oprogramowania rządowego, 28% oprogramowania finansowego i 34% innego oprogramowania komercyjnego.
      Rząd zachowuje się tak, jakby bezpieczeństwo było problemem sektora prywatnego i próbuje go ściśle regulować. Jeśli jednak bliżej się temu przyjrzymy to okazuje się, że sektor prywatny jest zdecydowanie bardziej bezpieczny niż sektor rządowy - mówi Wysopal.
      Aż 40% aplikacji sieciowych wytworzonych dla agend rządowych było podatnych na ataki SQL injection. Dla sektora finansowego odsetek ten wynosił 29%, a dla oprogramowania komercyjnego 30%. Na ataki typu XSS (cross-site scripting) narażonych było 75% rządowych aplikacji sieciowych, 67% aplikacji wytworzonych przez sektor finansowy oraz 55% aplikacji komercyjnych.
      Alan Paller, dyrektor ds. badań w SANS Institute mówi, że przyczyną takiego stanu rzeczy jest to, iż sektor prywatny karze firmy za błędy, a sektor rządowy je nagradza. Jeśli przedsiębiorstwo stworzy komercyjne oprogramowanie zawierające błędy, to ryzykuje utratę klientów oraz dobrego imienia, co wpłynie na jego wyniki finansowe w przyszłości. Jeśli zaś napisze wadliwe oprogramowanie dla sektora rządowego, to zostanie nagrodzone kolejnym kontraktem na poprawienie tego oprogramowania. Nie twierdzę, że nie próbują wykonać swojej pracy właściwie. Ale w ten sposób działa system nagród i zachęt - mówi Paller. To powoduje, że błędy w oprogramowaniu rządowym istnieją nawet wówczas, gdy zanikają w oprogramowaniu komercyjnym. Specjaliści od dwóch lat obserwują spadek odsetka dziur typu SQL injection i XSS w oprogramowaniu komercyjnym. W programach rządowych  nic się w tym zakresie nie zmieniło.
      Wszystkie powyższe dane dotyczą USA.
    • przez KopalniaWiedzy.pl
      Amerykańska Narodowa Agencja Bezpieczeństwa (NSA) poinformowała o zbudowaniu około 100 „ultrabezpiecznych“ smartfonów z systemem Android. Urządzenia Fishbowl powstały w oparciu o standardowe ogólnodostępne podzespoły i są na tyle bezpieczne, że pozwalają agentom na prowadzenie rozmów na tajne tematy.
      Margaret Salter z NSA, przemawiając podczas konferencji RSA powiedziała, że połączenia są prowadzone za pośrednictwem komercyjnej infrastruktury, a mimo to dane pozostają bezpieczne. Przyznała jednocześnie, że napotkano poważne kłopoty podczas budowy urządzeń, a ich główną przyczyną był brak kompatybilności pomiędzy produktami różnych firm. Z tego też powodu wykorzystano np. IPSEC a nie SSL VPN. Zdecydowano się na większą liczbę tego typu kompromisów, jednak ogólne bezpieczeństwo smartfonów nie doznało przez to uszczerbku. Potrzebowaliśmy aplikacji głosowej, która obsługiwałaby DTLS, Suite B oraz SRTP, ale nie mogliśmy takiego kupić. Przemysł bardziej skupia się na Session Description Protocol, więc zdecydowaliśmy się na to rozwiązanie - powiedziała Salter.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...