Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Szpiegowanie - internetowa żyła złota

Recommended Posts

Im więcej mówimy o prywatności w Sieci, tym bardziej jesteśmy w niej szpiegowani. Śledzenie użytkowników stało się prawdziwą żyłą złota dla wielu firm.

Dziennikarze The Wall Street Journal przeprowadzili testy na 50 najpopularniejszych witrynach w USA. To na nich Amerykanie dokonują 40% ogólnej liczby odsłon pochodzących z tego kraju.

Po wizycie na każdej z tych stron (znalazła się wśród nich również witryna wsj.com), dokładnie przyjrzano się plikom i programom, które pozostawiły one na komputerze testowym. Okazało się, że 50 witryn umieściło 3180 plików. Około 30% z nich były to niewinne pliki z zapisanymi hasłami użytkownika czy najbardziej popularnymi tekstami. Jednak aż 2224 pliki zostały zainstalowane przez 131 przedsiębiorstw, z których wiele żyje ze śledzenia użytkowników i sprzedawania baz danych na ich temat.

Najwięcej, bo 234 pliki instalowała witryna Dictionary.com. Wśród nich 223 pochodziło od firm śledzących użytkowników.

Narzędzia do śledzenia użytkowników stały się tak zaawansowane, że wiele spośród największych amerykańskich serwisów nie miało pojęcia, że ich witryny pozostawiają na komputerach użytkowników pliki mocno naruszające prywatność. Na przykład po wizycie na witrynie MSN.com na testowym komputerze pojawił się plik z danymi dotyczącymi przewidywanego wieku użytkownika, kodu pocztowego, płci, szacowanych zarobków, stanu cywilnego, ew. posiadania dzieci i domu. Twórcą pliku jest firma Targus Information Corp. Zarówno Targus jak i Microsoft oświadczyli, że nie mają pojęcia, w jaki sposób plik z tak szczegółowymi danymi został wgrany przez MSN.com. Zapewnili też, że nie ma w nim niczego, co pozwalałoby jednoznacznie zidentyfikować właściciela komputera.

Na razie w USA panuje olbrzymia dowolność w umieszczaniu cookies na maszynie użytkownika. Sądy, które dotychczas wypowiadały się w tej sprawie, zezwalały na stosowanie najprostszych ciasteczek. Nigdy nie zajmowały natomiast stanowiska odnośnie ich najbardziej zaawansowanych form. Dzięki nim właśnie możliwe jest tworzenie bardzo rozbudowanych profili użytkownika. Przy pierwszej wizycie na danej witrynie na nasz komputer trafia cookie z unikatowym numerem identyfikacyjnym. Gdy później odwiedzimy inną witrynę, która korzysta z technologii tej samej firmy, otrzymuje ona kolejną porcję informacji. Po jakimś czasie, na podstawie całego szeregu odwiedzanych przez nas stron, możliwe jest orientacyjne określenie naszego wieku, płci czy posiadania dzieci.

Dziennikarze The Wall Street Journal przytaczają historię 17-letniej Cate Reid. System reklamowy Yahoo określił ją jako osobę płci żeńskiej, w wieku 13-18 lat, która martwi się, że ma nadwagę. W tym przypadku, wszystko się zgadza. Dziewczyna mówi dziennikarzom, iż rzeczywiście martwi się swoją wagą, ale stara się o tym nie myśleć. Jednak gdy korzysta z internetu natychmiast o problemie przypominają jej pojawiające się reklamy. Trafiają one do niej właśnie dzięki zebranym na jej temat informacjom.

Na takich danych można zarobić olbrzymie pieniądze. Dane o osobach odwiedzających serwisy aukcyjne eBay oraz Expedia są zbierane przez firmę BlueKai. Każdego dnia sprzedaje ona 50 milionów fragmentów informacji, po 1/10 centa za sztukę. Jak łatwo obliczyć, codzienne przychody BlueKai tylko z tych dwóch witryn to 50 000 USD.

Najczęściej witryny, na których znajduje się oprogramowanie zbierające dane, wiedzą o tym. Często dostają za to pieniądze. Jednak zdarza się, że użytkownicy są szpiegowani bez wiedzy właścicieli witryn. Dzieje się tak, gdy firmy zajmujące się zbieraniem danych umieszczają odpowiednie pliki w bezpłatnych programach czy wyświetlanych reklamach.

Do informacji zebranych w Sieci są dodawane dane statystyczne na temat np. przychodów w danym regionie kraju, wykształcenia mieszkańców, gospodarki regionu czy geografii. Tworzone w ten sposób profile dobrze potrafią opisać śledzonego użytkownika.

Wszystko to służy jednemu celowi - tworzeniu profili w czasie rzeczywistym, odgadywanie zamiarów użytkownika, np. dotyczących wyjazdu na wakacje czy odgadnięcie zdolności kredytowej i wyświetleniu odpowiedniej reklamy. Niektóre firmy z sektora finansowego dysponują już tak bogatymi bazami danych i tak zaawansowaną technologią, że w zależności od szacowanych przychodów i poziomu wykształcenia użytkownika, potrafią wyświetlać mu skonstruowane pod jego kątem swoje witryny.

W ubiegłym miesiącu firma ubezpieczeniowa Byron Udell $ Associates testowała na swojej witrynie AccuquoteLife.com technologię, która np. osobie określonej jako mieszkaniec przedmieścia, z wykształceniem średnim, pochodzącym z okresu baby-boomu prezentowała ofertę polisy ubezpieczeniowej na kwotę 2-3 milionów dolarów. Natomiast starszy mieszkaniec wsi, zajmujący się pracą fizyczną widział po wejściu na tę samą witrynę propozycję wykupienia polisy o sumie ubezpieczenia wynoszącej 250 000 dolarów. "Kierujemy różnych ludzi na różne pasy autostrady" - mówi Sean Cheyney, jeden z menedżerów Byron Udell.

Share this post


Link to post
Share on other sites
Guest derobert
Zarówno Targus jak i Microsoft oświadczyli, że nie mają pojęcia, w jaki sposób plik z tak szczegółowymi danymi został wgrany przez MSN.com. Zapewnili też, że nie ma w nim niczego, co pozwalałoby jednoznacznie zidentyfikować właściciela komputera.

No oczywiście, nikt nie wie. Pewnie to krasnoludki, albo co gorsza same się tam umieściły! - jeśli tak to maszyny niedługo zawładną światem 8)

Share this post


Link to post
Share on other sites

Jest jeden i bardzo dobry sposób na to.

Wyłączyć możliwość zostawiania cookie na komputerze...

 

Ja je wyłączyłem a mam na białej liście tylko te strony co są potrzebne jak poczta,czy allegro...

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Szerokie rozpowszechnienie się internetu i technologii komunikacyjnych przyciąga ludzi do centrów miast. Zachodzi więc zjawisko odwrotne, niż przewidywano u zarania internetu i ery informacyjnej, informują naukowcy z Uniwersytetu w Bristolu.
      Pomimo tego, że internet pozwala nam na niezwykle łatwy dostęp do wszelkich informacji i umożliwia łatwe i szybkie nawiązanie kontaktu z osobami z drugiego końca świata, jego rozwój nie doprowadził do odpływu ludności z miast. Wręcz przeciwnie, specjaliści zauważyli odwrotne zjawisko. Coraz większe rozpowszechnienie się technologii informacyjnych prowadzi zwiększenia koncentracji ludzi w miastach.
      Nie od dzisiaj wiemy, że np. przedsiębiorstwa działające na uzupełniających się polach, mają tendencje do grupowania się na tym samym obszarze, gdyż zmniejsza to koszty działalności. Technologie informacyjne miały to zmienić.
      Doktor Emmanouil Tranos z Univeristy of Bristol i Yannis M. Ioannides z Tufts Univeristy przeanalizowali skutki zachodzących w czasie zmian dostępności i prędkości łączy internetowych oraz użytkowania internetu na obszary miejskie w USA i Wielkiej Brytanii. Geografowie, planiści i ekonomiści miejscy, którzy na początku epoki internetu rozważali jego wpływ na miasta, dochodzili czasem do dziwacznych wniosków. Niektórzy wróżyli rozwój „tele-wiosek”, krajów bez granic, a nawet mówiono o końcu miasta.
      Dzisiaj, 25 lat po komercjalizacji internetu, wiemy, że przewidywania te wyolbrzymiały wpływ internetu i technologii informacyjnych w zakresie kontaktów i zmniejszenia kosztów związanych z odległością. Wciąż rosnąca urbanizacja pokazuje coś wręcz przeciwnego. Widzimy, że istnieje komplementarność pomiędzy internetem a aglomeracjami. Nowoczesne technologie informacyjne nie wypchnęły ludzi z miast, a ich do nich przyciągają.
      Artykuł Ubiquitous digital technologies and spatial structure; an update został opublikowany na łamach PLOS One.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Inżynierowie w University of Texas at Austin stworzyli najmniejsze w dziejach urządzenie do przechowywania danych. Profesor Deji Akiwande i jego zespół opierali się na opisywanych już przez nas badaniach, w czasie których powstał atomistor, najcieńsze urządzenie do składowania danych. Teraz naukowcy poczynili krok naprzód zmniejszając przekrój swojego urządzenie do zaledwie 1 nm2.
      Kluczem do dalszej redukcji rozmiarów urządzenia było dobre poznanie właściwości materiałów w tak małej skali i wykorzystanie roli defektów w materiale. Gdy pojedynczy dodatkowy atom metalu wypełnia dziurę, przekazuje materiałowi nieco ze swojego przewodnictwa, co prowadzi do zmiany czyli pojawienia się efektu pamięciowego, mówi Akinwande. Mniejsze układy pamięci pozwolą na stworzenie mniejszych komputerów i telefonów. Układy takie zużywają też mniej energii, pozwalają przechować więcej danych w mniejszej przestrzeni, działają też szybciej.
      Wyniki tych badań przecierają drogę do opracowania przyszłych generacji interesującego Departament Obrony sprzętu takiego jak ultragęste układy pamięci, neuromorficzne systemy komputerowe, systemy komunikacyjne działające w zakresie fal radiowych i inne, mówi Pani Veranasi, menedżer w US Army Research Office, które finansowało najnowsze badaniach.
      Atomristor, na którym oparto najnowsze badania, był już najcieńszym układem pamięci. Jego grubość wynosiła zaledwie 1 atom. Jednak dla zmniejszenia urządzeń ważny jest również ich przekrój poprzeczny. Tym, czego poszukiwaliśmy było spowodowanie by pojedynczy atom kontrolował funkcje pamięci. Udało się nam to osiągnąć, mówi Akinwande.
      Nowe urządzenie należy do kategorii memrystorów, urządzeń zdolnych do modyfikowania oporności pomiędzy dwoma punktami końcowymi bez potrzeby używania bramki w roli pośrednika. Opracowana właśnie odmiana memrystora, którą stworzono dzięki wykorzystaniu zaawansowanych narzędzi z Oak Ridge National Laboratory, daje szanse na osiągnięcie gęstości zapisu rzędu 25 Tb/cm2. To 100 krotnie więcej niż obecnie dostępne komercyjne układ flash.
      Nowy układ pamięci wykorzystuje dwusiarczek molibdenu (MoS2). Jednak jego twórcy zapewniają, że w tej roli można wykorzystać setki innych materiałów o podobnej budowie.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Iskra
      Dokładnie 50 lat temu, późnym wieczorem 29 października 1969 roku na Uniwersytecie Kalifornijskim w Los Angeles (UCLA) dwóch naukowców prowadziło pozornie nieznaczący eksperyment. Jego konsekwencje ujawniły się dopiero wiele lat później, a skutki pracy profesora Leonarda Kleinrocka i jego studenta Charleya Kline'a odczuwamy do dzisiaj.
      Kleinrock i Kline mieli do rozwiązania poważny problem. Chcieli zmusić dwa oddalone od siebie komputery, by wymieniły informacje. To, co dzisiaj wydaje się oczywistością, przed 50 laty było praktycznie nierozwiązanym problemem technicznym. Nierozwiązanym aż do późnego wieczora 29 października 1969 roku.
      Jeden ze wspomnianych komputerów znajdował się w UCLA, a drugi w oddalonym o 600 kilometrów Stanford Research Institute (SRI) w Menlo Park. Próby nawiązania łączności trwały wiele godzin. Kline próbował zalogować się do komputera w SRI, zdążył w linii poleceń wpisać jedynie  „lo”, gdy jego maszyna uległa awarii. Wymagała ponownego zrestartowania i ustanowienia połączenia. W końcu około godziny 22:30 po wielu nieudanych próbach udało się nawiązać łączność i oba komputery mogły ze sobą „porozmawiać”. Wydaje się jednak, że pierwszą wiadomością wysłaną za pomocą sieci ARPANETu było „lo”.
       

       
      Trudne początki
      Początków ARPANETU możemy szukać w... Związku Radzieckim, a konkretnie w wielkim osiągnięciu, jakim było wystrzelenie Sputnika, pierwszego sztucznego satelity Ziemi. To był dla Amerykanów policzek. Rosjanie pokazali, że pod względem technologicznym nie odstają od Amerykanów. Cztery lata zajęło im nadgonienie nas w technologii bomby atomowej, dziewięć miesięcy gonili nas w dziedzinie bomby wodorowej. Teraz my próbujemy dogonić ich w technice satelitarnej, stwierdził w 1957 roku George Reedy, współpracownik senatora, późniejszego prezydenta, Lyndona Johnsona.
      Po wystrzeleniu Sputnika prezydent Eisenhower powołał do życia Advanced Research Project Agency (ARPA), której zadaniem była koordynacja wojskowych projektów badawczo-rozwojowych. ARPA zajmowała się m.in. badaniami związanymi z przestrzenią kosmiczną. Jednak niedługo później powstała NASA, która miała skupiać się na cywilnych badaniach kosmosu, a programy wojskowe rozdysponowano pomiędzy różne wydziały Pentagonu. ARPA zaś, ku zadowoleniu środowisk naukowych, została przekształcona w agencję zajmującą się wysoce ryzykownymi, bardzo przyszłościowymi badaniami o dużym teoretycznym potencjale. Jednym z takich pól badawczych był czysto teoretyczny sektor nauk komputerowych.
      Kilka lat później, w 1962 roku, dyrektorem Biura Technik Przetwarzania Informacji (IPTO) w ARPA został błyskotliwy naukowiec Joseph Licklider. Już w 1960 roku w artykule „Man-Computer Symbiosis” uczony stwierdzał, że w przyszłości ludzkie mózgi i maszyny obliczeniowe będą bardzo ściśle ze sobą powiązane. Już wtedy zdawał on sobie sprawę, że komputery staną się ważną częścią ludzkiego życia.
      W tych czasach komputery były olbrzymimi, niezwykle drogimi urządzeniami, na które mogły pozwolić sobie jedynie najbogatsze instytucje. Gdy Licklider zaczął pracować dla ARPA szybko zauważył, że aby poradzić sobie z olbrzymimi kosztami związanymi z działaniem centrów zajmujących się badaniami nad komputerami, ARPA musi kupić wyspecjalizowane systemy do podziału czasu. Tego typu systemy pozwalały mniejszym komputerom na jednoczesne łączenie się z wielkim mainframe'em i lepsze wykorzystanie czasu jego procesora. Dzięki nim wielki komputer wykonywać różne zadania zlecane przez wielu operatorów. Zanim takie systemy powstały komputery były siłą rzeczy przypisane do jednego operatora i w czasie, gdy np. wpisywał on ciąg poleceń, moc obliczeniowa maszyny nie była wykorzystywana, co było oczywistym marnowaniem jej zasobów i pieniędzy wydanych na zbudowanie i utrzymanie mainframe’a.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Dokładnie przed 50 laty, 29 października 1969 roku, dwaj naukowcy z Uniwersytetu Kalifornijskiego w Los Angeles, wykorzystali nowo powstałą, rewolucyjną sieć ARPANET, do przesłania pierwszej wiadomości. Po wielu nieudanych próbach około godziny 22:30 udało się zalogować do komputera w oddalonym o 600 kilometrów Stanford Research Institute.
      Wieloletnia podróż, która rozpoczęła się od... wysłania Sputnika przez Związek Radziecki i trwa do dzisiaj w postaci współczesnego internetu, to fascynująca historia genialnych pomysłów, uporu, porażek i ciężkiej pracy wielu utalentowanych ludzi. Ludzi, wśród których niepoślednią rolę odegrał nasz rodak Paul Baran.
      To, co rozpoczęło się od zimnowojennej rywalizacji atomowych mocarstw, jest obecnie narzędziem, z którego na co dzień korzysta ponad połowa ludzkości. W ciągu pół wieku przeszliśmy od olbrzymich mainframe'ów obsługiwanych z dedykowanych konsol przez niewielką grupę specjalistów, po łączące się z globalną siecią zegarki, lodówki i telewizory, które potrafi obsłużyć dziecko.
      Zapraszamy do zapoznania się z fascynującą historią internetu, jednego z największych wynalazków ludzkości.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Na internetowych czarnych rynkach pojawiła się oferta sprzedaży danych 92 milionów Brazylijczyków. Jej cena wywoławcza to 15 000 dolarów. Wiadomo, że oferentem jest ktoś zarejestrowany jako X4Crow, a bazę wystawiono na wielu forach, do których dostęp uzyskuje się za zaproszeniem lub poprzez płatną rejestrację.
      Jak twierdzi sprzedający, baza zawiera nazwiska, daty urodzenia oraz identyfikatory podatkowe około 92 milionów Brazylijczyków. Baza w formacie SQL zajmuje 16 gigabajtów, a zaprezentowane fragmenty wskazują, że jest ona podzielona na poszczególne stany.
      Witryna BleepingComputer poinformowała, że otrzymała próbkę bazy danych. Dziennikarze potwierdzili, że dane te są prawdziwe oraz zawierają m.in. informacje o nazwisku matki. Nie wiadomo, co jest źródłem bazy, jednak sprzedający poinformowali dziennikarzy, że pochodzi ona ze źródeł rządowych.
      Sprzedający twierdzą, że dzięki informacjom z tej bazy możliwe jest pozyskanie dodatkowych informacji, jak dane z dowodów osobistych czy praw jazdy. Niewykluczone, że możliwe jest też zdobycie innych danych osobowych, jak numery telefonów, e-maili, informacji o zawodzie, wykształceniu, członkach rodziny, numerach rejestracyjnych pojazdów i wielu innych.
      Próba sprzedaży danych dotyczących milionów obywateli Brazylii to kolejny w ostatnich tygodniach przykład na masowy wyciek danych z instytucji rządowych. We wrześniu wycikeły informacje na temat około 20 milionów obywateli Ekwadoru, a na początku października do sieci trafiły informacje podatkowe dotyczące około 20 milionów obywateli Rosji.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...