Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Vint Cerf, twórca protokołu TCP/IP, jeden z ojców Internetu ostrzega, że Internet znajduje się w niebezpieczeństwie. Przemawiając podczas Światowego Forum Ekonomicznego Cerf wyraził opinię, że Sieci zagrażają botnety.

Botnety to sieci komputerów-zombie, czyli maszyn które bez wiedzy właściciela są kontrolowane przez cyberprzestępców. Sieci takie wykorzystywane są do rozsyłania spamu, szkodliwego oprogramowania oraz przeprowadzania ataków typu DDoS.

Zdaniem Cerfa aż 150 milionów pecetów jest zarażonych i stanowi część jakiegoś botnetu. Oznaczałoby to, iż zarażony jest co czwarty komputer podłączony do Sieci.

Mark Sunner, główny analityk ds. bezpieczeństwa w MessageLabs uważa, że naszkicowany przez Cerfa obraz jest prawdziwy. Sunner mówi, że niedawno specjaliści mogli obserwować tworzenie i pracę botneta Spam Thru. Jego twórcy nie tylko wyposażyli go w oprogramowanie antywirusowe, które chroniło go przed innymi botnetami, ale okazało się również, że jest on 10-krotnie bardziej wydajny od konkurencji, a przy tym trudniejszy do wykrycia.

Zdaniem Sunnera Spam Thru to był jedynie test, który zapowiada to, co czeka nas w przyszłości. Botnety osiągnęły kamień milowy na drodze swojego rozwoju. Są bardzo zaawansowane technologicznie, mniejsze, trudniejsze do wykrycia i bardziej wydajne niż dotychczas.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Iskra
      Dokładnie 50 lat temu, późnym wieczorem 29 października 1969 roku na Uniwersytecie Kalifornijskim w Los Angeles (UCLA) dwóch naukowców prowadziło pozornie nieznaczący eksperyment. Jego konsekwencje ujawniły się dopiero wiele lat później, a skutki pracy profesora Leonarda Kleinrocka i jego studenta Charleya Kline'a odczuwamy do dzisiaj.
      Kleinrock i Kline mieli do rozwiązania poważny problem. Chcieli zmusić dwa oddalone od siebie komputery, by wymieniły informacje. To, co dzisiaj wydaje się oczywistością, przed 50 laty było praktycznie nierozwiązanym problemem technicznym. Nierozwiązanym aż do późnego wieczora 29 października 1969 roku.
      Jeden ze wspomnianych komputerów znajdował się w UCLA, a drugi w oddalonym o 600 kilometrów Stanford Research Institute (SRI) w Menlo Park. Próby nawiązania łączności trwały wiele godzin. Kline próbował zalogować się do komputera w SRI, zdążył w linii poleceń wpisać jedynie  „lo”, gdy jego maszyna uległa awarii. Wymagała ponownego zrestartowania i ustanowienia połączenia. W końcu około godziny 22:30 po wielu nieudanych próbach udało się nawiązać łączność i oba komputery mogły ze sobą „porozmawiać”. Wydaje się jednak, że pierwszą wiadomością wysłaną za pomocą sieci ARPANETu było „lo”.
       

       
      Trudne początki
      Początków ARPANETU możemy szukać w... Związku Radzieckim, a konkretnie w wielkim osiągnięciu, jakim było wystrzelenie Sputnika, pierwszego sztucznego satelity Ziemi. To był dla Amerykanów policzek. Rosjanie pokazali, że pod względem technologicznym nie odstają od Amerykanów. Cztery lata zajęło im nadgonienie nas w technologii bomby atomowej, dziewięć miesięcy gonili nas w dziedzinie bomby wodorowej. Teraz my próbujemy dogonić ich w technice satelitarnej, stwierdził w 1957 roku George Reedy, współpracownik senatora, późniejszego prezydenta, Lyndona Johnsona.
      Po wystrzeleniu Sputnika prezydent Eisenhower powołał do życia Advanced Research Project Agency (ARPA), której zadaniem była koordynacja wojskowych projektów badawczo-rozwojowych. ARPA zajmowała się m.in. badaniami związanymi z przestrzenią kosmiczną. Jednak niedługo później powstała NASA, która miała skupiać się na cywilnych badaniach kosmosu, a programy wojskowe rozdysponowano pomiędzy różne wydziały Pentagonu. ARPA zaś, ku zadowoleniu środowisk naukowych, została przekształcona w agencję zajmującą się wysoce ryzykownymi, bardzo przyszłościowymi badaniami o dużym teoretycznym potencjale. Jednym z takich pól badawczych był czysto teoretyczny sektor nauk komputerowych.
      Kilka lat później, w 1962 roku, dyrektorem Biura Technik Przetwarzania Informacji (IPTO) w ARPA został błyskotliwy naukowiec Joseph Licklider. Już w 1960 roku w artykule „Man-Computer Symbiosis” uczony stwierdzał, że w przyszłości ludzkie mózgi i maszyny obliczeniowe będą bardzo ściśle ze sobą powiązane. Już wtedy zdawał on sobie sprawę, że komputery staną się ważną częścią ludzkiego życia.
      W tych czasach komputery były olbrzymimi, niezwykle drogimi urządzeniami, na które mogły pozwolić sobie jedynie najbogatsze instytucje. Gdy Licklider zaczął pracować dla ARPA szybko zauważył, że aby poradzić sobie z olbrzymimi kosztami związanymi z działaniem centrów zajmujących się badaniami nad komputerami, ARPA musi kupić wyspecjalizowane systemy do podziału czasu. Tego typu systemy pozwalały mniejszym komputerom na jednoczesne łączenie się z wielkim mainframe'em i lepsze wykorzystanie czasu jego procesora. Dzięki nim wielki komputer wykonywać różne zadania zlecane przez wielu operatorów. Zanim takie systemy powstały komputery były siłą rzeczy przypisane do jednego operatora i w czasie, gdy np. wpisywał on ciąg poleceń, moc obliczeniowa maszyny nie była wykorzystywana, co było oczywistym marnowaniem jej zasobów i pieniędzy wydanych na zbudowanie i utrzymanie mainframe’a.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Dokładnie przed 50 laty, 29 października 1969 roku, dwaj naukowcy z Uniwersytetu Kalifornijskiego w Los Angeles, wykorzystali nowo powstałą, rewolucyjną sieć ARPANET, do przesłania pierwszej wiadomości. Po wielu nieudanych próbach około godziny 22:30 udało się zalogować do komputera w oddalonym o 600 kilometrów Stanford Research Institute.
      Wieloletnia podróż, która rozpoczęła się od... wysłania Sputnika przez Związek Radziecki i trwa do dzisiaj w postaci współczesnego internetu, to fascynująca historia genialnych pomysłów, uporu, porażek i ciężkiej pracy wielu utalentowanych ludzi. Ludzi, wśród których niepoślednią rolę odegrał nasz rodak Paul Baran.
      To, co rozpoczęło się od zimnowojennej rywalizacji atomowych mocarstw, jest obecnie narzędziem, z którego na co dzień korzysta ponad połowa ludzkości. W ciągu pół wieku przeszliśmy od olbrzymich mainframe'ów obsługiwanych z dedykowanych konsol przez niewielką grupę specjalistów, po łączące się z globalną siecią zegarki, lodówki i telewizory, które potrafi obsłużyć dziecko.
      Zapraszamy do zapoznania się z fascynującą historią internetu, jednego z największych wynalazków ludzkości.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Przedwczoraj doszło do największego odnotowanego ataku DDoS. Jego ofiarą padł GitHub, popularne repozytorium oprogramowania. Atak trwał w godzinach 17:21 do 17:30 czasu UTC, kiedy to serwery GitHuba były nękane ruchem o maksymalnej przepustowości dochodzącej do 1,35 Tb/s.
      Tak potężny atak udało się przeprowadzić dzięki wykorzystaniu serwerów Memcached, których zadaniem jest odciążenie serwerów bazodanowych poprzez zrzucanie danych do pamięci RAM. Serwery te nie powinny być dostępne na zewnątrz. Dzięki fałszowaniu adresów IP napastnicy byli w stanie zwiększyć ilość danych aż o około 50 000 razy. Atak przeprowadzono z ponad tysiąca systemów z dziesiątkami tysięcy węzłów.
      Niezabezpieczone serwery Memcached można wykorzystać wysyłając do nich niewielki pakiet UDP, w którym umieszczamy adres ofiary. Serwer wysyła na podany adres pakiet 50 000 razy większy. Jeśli zatem do Memcached wyślemy 203-bajtowy pakiet, serwer odeśle pakiet wielkości ok. 10 MB. Dlatego też niewielka liczba komputerów  wykorzystujących Memcached może przeprowadzić potężny atak.
      Jak informuje GitHub, firmowe serwery zaczęły pobierać niemal 127 milionów pakietów na sekundę. Natychmiast po wykryciu ataku ruch przekierowano na infrastrukturę firmy Akamai. Biorąc pod uwagę fakt, że w jednej z naszych serwerowni ruch wzrósł do ponad 100 Gb/s, podjęliśmy decyzję o przekierowaniu ruchu do Akamai, co dało nam dodatkową przepustowość, mówi Sam Kottler, odpowiedzialny w GitHubie za stabilność pracy serwisu. Dzięki tej decyzji potężny atak spalił na panewce. GitHUb był niedostępny zaledwie przez około 5 minut, a po kolejnych 5 minutach powrócił do pełnej sprawności. Niedługo potem doszło do kolejnego ataku, o maksymalnym natężeniu ruchu 400 Gb/s, jednak w żaden sposób nie zaszkodził on GitHubowi.
      Mimo tego, że atak był potężny, to obrona przed nim jest stosunkowo łatwa. Wystarczy, co zrobili administratorzy Akamai, zablokować ruch na porcie UDP 11211, z którego standardowo korzystają serwery Memcached. Developerzy Memcached, w reakcji na atak, już zapowiedzieli, że w kolejnych wersjach oprogramowania wsparcie protokołu UDP będzie domyślnie wyłączone.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Uniwersytet Hebrajski w Jerozolimie udostępni całe archiwum Alberta Einsteina. Dzięki internetowi będziemy mogli zapoznać się zarówno z listami miłosnymi uczonego, jak i z jego notatkami, które tworzył pracując nad swoimi teoriami.
      Od 2003 roku w sieci dostępnych jest około 900 zdjęć manuskryptów oraz niekompletny spis obejmujący około połowy archiwum. Teraz, dzięki pieniądzom z Polonsky Foundation, która wcześniej pomogła zdigitalizować prace Izaaka Newtona, zapoznamy się z 80 000 dokumentów i innych przedmiotów, które zostawił Einstein.
      Projekt digitalizacji całości archiwów rozpoczęto 19 marca 2012 roku. Uruchomiono witrynę alberteinstein.info, na której można będzie zapoznawać się ze spuścizną fizyka. Obecnie można na niej oglądać 2000 dokumentów, na które składa się 7000 stron.
    • By KopalniaWiedzy.pl
      BEREC, agenda Unii Europejskiej odpowiedzialna za regulacje na rynku telekomunikacyjnym poinformowała, że w UE powszechnie blokuje się dostęp do internetu. Według BEREC w ramach praktyk zarządzania ruchem najczęściej ogranicza się przepustowość lub blokuje w ogóle protokół P2P oraz telefonię internetową (VoIP). Ta ostatnia jest blokowana przede wszystkim w sieciach telefonii komórkowej i wynika to z zapisów w umowach zwieranych z klientami.
      Badania przeprowadzone przez BEREC pokazują, że około 25% dostawców internetu usprawiedliwia blokowanie czy ograniczanie ruchu względami „bezpieczeństwa i integralności“ sieci. Około 33% stosuje różne techniki zarządzania ruchem, gdyż obok standardowych usług świadczą też usługi wyspecjalizowane, np. oferują obok internetu telewizję czy telefonię.
      Obecnie BEREC prowadzi analizę uzyskanych danych. Zostaną one sprawdzone, skonsolidowane i na ich podstawie powstanie szczegółowy raport, który zostanie przedstawiony w drugim kwartale bieżącego roku.
×
×
  • Create New...