Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

NSA i GCHQ złamały większość szyfrów

Rekomendowane odpowiedzi

Informacje zdobyte przez dziennikarzy The New York Timesa, Guardiana oraz niedochodowej organizacji ProPublica wskazują, że amerykańska NSA we współpracy z brytyjską agencją wywiadowczą GCHQ złamały większość algorytmów szyfrowania używanych przez przedsiębiorców i użytkowników internetu. W ciągu ostatnich 13 lat NSA zainwestowała miliardy dolarów w technologie, które pozwalają jej poznać niemal wszystkie sekrety obywateli.

Z raportów opublikowanych przez wspomniane gazety dowiadujemy się, że NSA zakupiła potężne superkomputery oraz podpisało umowy z wieloma firmami, które umieściły w swoim oprogramowaniu tylne drzwi pozwalające na szpiegowanie użytkowników. W raportach nie wymieniono nazw firm współpracujących z NSA.

Najnowsze dokumenty ujawnione przez Edwarda Snowdena i omówione w raportach opisują wysiłki NSA skoncentrowane na próbach złamania protokołu SSL. Inny dokument wspomina o tym, że GCHQ przez wiele lat próbowała podsłuchiwać ruch z Google'a, Yahoo!, Microsoftu i Facebooka. Brytyjczycy chwalili się w 2012 roku, że uzyskali "nowe możliwości dostępu" do serwerów Google'a. Nie wiadomo jednak, na czym polega działanie GCHQ, ani jakie dane jest w stanie przechwytywać.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To nie do końca prawda. Algorytmy nie zostały osłabione (choć zdarzały się przypadki grzebania NSA w magic numbers i PRNG), są publiczne i powszechnie studiowane. Problemem są firmy je implementujące, które mają siedziby w USA i na których wymusza się albo nieprawidłową implementację, albo umieszczanie tylnych furtek. Dzięki temu nie trzeba łamać czegoś, co można obejść. ;) Superkomputery są faktem, ale dalej leci to po wybranych hasłach. Z drugiej strony dostęp do CA nie wróży nic dobrego.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wilk ma rację, tytuł tej wiadomości jest mylący. Złamanie dobrego szyfru z prawidłowo wygenerowanymi kluczami nie stało się łatwiejsze. Chyba że... NSA i GCHQ zrobiły postępy w dziedzinie komputerów kwantowych. Gdyby im się udało zbudować komputer kwantowy rozwiązujący zagadnienie faktoryzacji dużych liczb pierwszych, kryptografia z kluczem publicznym stanęłaby przed nimi otworem.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

" Chyba że... NSA i GCHQ zrobiły postępy w dziedzinie komputerów kwantowych. "

 

Komputery kwantowe to nie jedyne rozwiazanie na skuteczone łamanie szyfrow opartych na RSA. Jeśli chodzi o faktoryzacje liczb pierwszych podejrzewam ze zdecydowanie predzej osiagniemy postep w matematyce. I kto wie czy NSA nie ma juz wiedzy na ten temat.

Wielu matematykow juz mowi ze do takiego momentu się zblizamy kiedy opracuja szybka metode faktoryzacji i asymptotyczne tempo wzrostu juz nie bedzie wykladnicze tylko wielomianowe. Przy takiej zlozonosci nikt powazny nie bedzie chcial stosowac tego typu metod. http://eprint.iacr.org/2013/095.pdf A przy dzisiejszym rozwoju teorii liczb to moze sie stac nagle.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Kiedyś czytałem, że faktoryzacja jest problemem bardzo podobnym do... gry w sapera. Kiedyś, kiedyś było w Polsce poszukiwanie słowa za milion (zęzęś) - znowu ten sam sposób szukania rozwiązań i 20-bitowy klucz komuś udało się rozbić na 5 składowych na kartce papieru. Może po prostu zatrudnili stado maniaków od łamigłówek, którzy wspomagani komputerem znajdują te klucze (komputer przydałby się np. do sprzątania powstających w czasie tej zabawy drzewek możliwych cyfr). Albo opracowali algorytm, który naśladuje ludzkie kombinowanie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie ma pewności ze same algorytmy są bezpieczne (ujmując to dość szeroko) z różnych powodów.

Po pierwsze NAS nie raz i nie dwa maczała palce w różnych algorytmach.

Na przykład NSA udostępnia tez gotowe polityki bezpieczeństwa dla Windows

Po drugie nie wiadomo jakie są rzeczywiste możliwości obliczeniowe NSA klucz uważany za bezpieczny w warunkach normalnych dla nsa może być do złamania w rozsądnym czasie. I tu do szczęścia może wystarczyć różnica kilku bitów. Przypominam ze nie kdo konca wiadomo na ile nsa jest do przodu w stosunku do nauki oficjalnej i nie jest to sprawa kosmicznych technologi etc oni muszą utrzymywać zawsze jakąś techniczną technologiczna czy inną wyższość to jest konieczne.

 

Pisałem już tym ale kiedy intel opracowywał procesor 4004 w f14 był już 24 bitowy wielopotokowy. Kryptografia asymetryczna tez powstała za zamkniętymi drzwiami i jeszcze wielu wynalazcom zostanie odebrana plama pierwszeństwa jak różne rzeczy beda odtajniane.

 

Grzegorz Kraszewski

A skąd wiesz ze szyfry są dobre? Dla czego zakładasz ze generatory liczb losowych akurat nie są felerne przecież to i tak z definicji ciągi pseudolosowe te wszystkie generatory są okresowe!!

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Nie ma pewności ze same algorytmy są bezpieczne (ujmując to dość szeroko) z różnych powodów. Po pierwsze NAS nie raz i nie dwa maczała palce w różnych algorytmach. Na przykład NSA udostępnia tez gotowe polityki bezpieczeństwa dla Windows Po drugie nie wiadomo jakie są rzeczywiste możliwości obliczeniowe NSA klucz uważany za bezpieczny w warunkach normalnych dla nsa może być do złamania w rozsądnym czasie. I tu do szczęścia może wystarczyć różnica kilku bitów. Przypominam ze nie kdo konca wiadomo na ile nsa jest do przodu w stosunku do nauki oficjalnej i nie jest to sprawa kosmicznych technologi etc oni muszą utrzymywać zawsze jakąś techniczną technologiczna czy inną wyższość to jest konieczne. Pisałem już tym ale kiedy intel opracowywał procesor 4004 w f14 był już 24 bitowy wielopotokowy. Kryptografia asymetryczna tez powstała za zamkniętymi drzwiami i jeszcze wielu wynalazcom zostanie odebrana plama pierwszeństwa jak różne rzeczy beda odtajniane. Grzegorz Kraszewski A skąd wiesz ze szyfry są dobre? Dla czego zakładasz ze generatory liczb losowych akurat nie są felerne przecież to i tak z definicji ciągi pseudolosowe te wszystkie generatory są okresowe!!

 

Dużo łatwiej zbudować procesor pod konkretne zastosowanie niż dla ludu. Nie trzeba trzymać się standardów wykorzystywanych na rynku, i cena nie jest tak dużym ograniczeniem. Nadal jest ten podział i nie jest to nic nowego. A komputery w arch. superskalarnej były wiele lat przed intel 4004 stosowane.

Po intelu dość długi czas nie była stosowana arch. superskalarna z wielu powodów, chociaż by fakt że aż do teraz stosowany jest sposób wykonywania instrukcji CISC, którego bezpośrednio nie można rozdzielić na parę równolegle wykonujących się operacji.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Pisałem już tym ale kiedy intel opracowywał procesor 4004 w f14 był już 24 bitowy wielopotokowy.

 

To w sumie ciekawe, bo ciągle nie trafiło do 'annałów' (ehm. Wikipedii). Słyszałem jeno pogłoski, że pod koniec lat 60 w myśliwcach latały już mikroprocesory Motoroli, które wyprzedzały 4004 o kilka generacji. Podobno nie da się ich prosto porównać, bo ich budowa nigdy nie została w pełni "powtórzona", w przemyśle cywilnym.

 

Mały zgryz: Intel 4004 to rok 71, a Tomcat to 72 - pytanie jak w czasach opracowywania 4004 mógł latać samolot, który był gotowy dopiero po wyprodukowaniu 4004? Od razu w prototypie był ten 24-bitowy?

 

aż do teraz stosowany jest sposób wykonywania instrukcji CISC, którego bezpośrednio nie można rozdzielić na parę równolegle wykonujących się operacji.

 

Od strony programisty chyba tylko procesory x86 są jeszcze CISC-ami, ale w środku to już jest architektura RISC (zaczęło się jeszcze w czasach układów Cyrix).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To w sumie ciekawe, bo ciągle nie trafiło do 'annałów' (ehm. Wikipedii). Słyszałem jeno pogłoski, że pod koniec lat 60 w myśliwcach latały już mikroprocesory Motoroli, które wyprzedzały 4004 o kilka generacji. Podobno nie da się ich prosto porównać, bo ich budowa nigdy nie została w pełni "powtórzona", w przemyśle cywilnym.

 

Mały zgryz: Intel 4004 to rok 71, a Tomcat to 72 - pytanie jak w czasach opracowywania 4004 mógł latać samolot, który był gotowy dopiero po wyprodukowaniu 4004? Od razu w prototypie był ten 24-bitowy?

 

No jak nie?

 

Design work started in 1968 and was completed in June 1970

 

https://en.wikipedia...flight_controls

https://en.wikipedia.org/wiki/MP944

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Okej, doczytałem. Nie bez powodu piszą o tym 'chip set'. Przetworniki 20-bitowe, dane 20-bitowe, instrukcje zależnie od kości między 4 a 20 bitów. Zrobili pierwszy mikrokontroler, co ciekawe o wiele bardziej zaawansowany niż późniejsze mikrokontrolery. Wolałbym komputery z takim protoplastą niż z kalkulatorem.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

O pokićkało mi sie z bitowością.

Natomiast tutaj nie chodzi o porównywanie bo 4004 to był procesor do kalkulatora. Chodzi o to ze w czasie gdy komercyjni producenci próbowali wystrugać koło z drzewa które okazało się być krokiem milowym już to rok wcześniej spece niejawni budowali rowery na alumach.

To pokazuje potencjalną przepaść która dzieli to co myślimy ze ma nsa od tego co ma w rzeczywistości.

 

Jak by nie koncepcja 4004 to nikt nie przewidział by komputerów domowych bo koncepcja procesora była tu kluczowa (chodzi o ujęcie troszku filozoficzne;) ) starczy ze w kilku miejscach nsa jest o krok do przodu i juz potrafią więcej niz większośc z nas jest sobie w stanie wyobrazić bo brakuje nam szczebelka drabiny w rozumowaniu którego nie przeskoczymy.70 ty rok był ponad 40 lat temu. Potem było jeszcze 20 lat zimniej wojny. Rozwój w sferze cywilnej nawet niezależny od militarnej dla tej drugiej tez stanowi punkt wyjścia

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To pokazuje potencjalną przepaść która dzieli to co myślimy ze ma nsa od tego co ma w rzeczywistości.

 

Dlatego warto zwracać uwagę na to co publicznie rekomenduje NSA jako „bezpieczne”. ;-)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja myślę, że nie tyle chodzi o szukanie jakichś magicznych tajnych technologii, tylko wyobrażenie sobie co jeszcze by można zrobić na bazie tego co już znamy i sprawdzenie symptomów czy któraś z tych rzeczy nie jest aby wykorzystywana. Wot i zajęcie dla analityków wywiadu - sprawdzić czy komuś udało się napisać program samodzielnie grający w sapera. Powodzenia.

 

 

Na przykład w tym procesorze nawigacyjnym F-14 była wbudowana obsługa kodu Graya. Nie czytałem historii MP944, ale ponieważ chipset był projektowany przez ludzi od mainframe'ów, myślę że część kości zaczęła swój żywot jako jakieś narzędzie pomagające w projektowaniu dużych obwodów logicznych. Bo między innymi tam ten kod jest używany (do optymalizacji tabelek prawdy, jak ktoś już musi wiedzieć). Też mogło to być tajne, bo superkomputery to sprzęt wojskowy. Potem ktoś pomyślał, co by jeszcze można no i powstał mały mainframe do samolotu.

 

 

W tym samym czasie po "naszej" stronie komputer w myśliwcu to było bodaj jakieś monstrum ważące tonę, ALE nawet tu kombinowali, bo te komputery potrafiły się sieciować i wykorzystywano to w walce.

 

 

Poza tym wiele technologii zostało zapomnianych (kiedyś wyszły z użycia, bo zmieniła się technologia, a po kilku nawrotach ewolucji znowu stają się przydatne). Nie bez powodu emerytowani pracownicy IBM-a powtarzają, że teraz MS boryka się z problemami, które oni rozwiązali w latach 60. Być może nie wszyscy zapomnieli, a tajniacy nie wymagają od swoich pracowników częstych publikacji w prestiżowych żurnalach.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
A skąd wiesz ze szyfry są dobre? Dla czego zakładasz ze generatory liczb losowych akurat nie są felerne przecież to i tak z definicji ciągi pseudolosowe te wszystkie generatory są okresowe!!

Nieprawda. Dobry generator liczb losowych czerpie entropię ze źródeł zewnętrznych, takich jak np. czasy między wciśnięciami klawiszy, ruchy myszką, statystyki interfejsów sieciowych. Zaawansowane generatory czerpią entropię z takich źródeł jak np. naturalne szumy złącza p-n, albo szum tła radiowego. Takie generatory nie są okresowe i przewidzenie generowanej sekwencji nie jest możliwe.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
To w sumie ciekawe, bo ciągle nie trafiło do 'annałów' (ehm. Wikipedii). Słyszałem jeno pogłoski, że pod koniec lat 60 w myśliwcach latały już mikroprocesory Motoroli, które wyprzedzały 4004 o kilka generacji. Podobno nie da się ich prosto porównać, bo ich budowa nigdy nie została w pełni "powtórzona", w przemyśle cywilnym. Mały zgryz: Intel 4004 to rok 71, a Tomcat to 72 - pytanie jak w czasach opracowywania 4004 mógł latać samolot, który był gotowy dopiero po wyprodukowaniu 4004? Od razu w prototypie był ten 24-bitowy? Od strony programisty chyba tylko procesory x86 są jeszcze CISC-ami, ale w środku to już jest architektura RISC (zaczęło się jeszcze w czasach układów Cyrix).

Teraz, ale nie w latach 70.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, ale nie w latach 70.

 

Zgadza się, sam wzak pisałeś, że teraz.

 

... że aż do teraz stosowany jest sposób wykonywania...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...