Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'dane' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 61 wyników

  1. Z prywatnością naprawdę musimy się pożegnać. I to z własnej winy. Ostatnie badania wykazały bowiem, że aż 82% dzieci, które nie ukończyły 2. roku życia, jest już obecnych w sieci. Firma AVG prowadziła swoje badania w 10 krajach. Dowiadujemy się z nich, że istnienie znakomitej większość niemowląt i małych dzieci zostaje odnotowane w internecie. Witryny takie jak Facebook czy Flickr są pełne zdjęć pociech, które umieszczają tam dumni krewni. Najczęściej nieletni trafiają do internetu w USA, gdzie rodzice zamieszczają w internecie fotki 92% dzieci, które nie ukończyły jeszcze 2. roku życia. Na drugim miejscu znalazła się Nowa Zelandia (91% dzieci "trafia" do internetu), a następne są Kanad i Australia (po 84%). Badano też Wielką Brytanię, Francję, Niemcy, Hiszpanię i Włochy. A jedynym krajem, w którym wspomniany odsetek wynosił mniej niż 50% była Japonia. Co ciekawe, tylko 33% fotografii umieszczały matki. Większość była publikowana przez innych członków rodziny, co znakomicie utrudnia kontrolę nad tymi fotografiami. Jednocześnie ułatwiono pracę złodziejom tożsamości, gdyż wraz ze zdjęciami ujawniane są istotne dane osobowe, takie jak daty urodzin, imiona i nazwiska dzieci czy nazwiska panieńskie matek. Informacje te przestępcy mogą wykorzystać do założenia konta bankowego czy wzięcia kredytu.
  2. Brytyjski komisarz ds. informacji zapowiedział, że jeśli okaże się, iż przez swoje zaniedbania firma ACS:Law dopuściła do wycieku danych brytyjskich internautów, może zostać ukarana grzywną w wysokości do 500 000 funtów. ACS:Law to firma prawnicza, która ściga osoby podejrzewana o nielegalną dystrybucję chronionych prawem plików. Ostatnio firmowa witryna doświadczyła ataku typu DDoS, a po jej powrocie do sieci okazało się, że pliki z danymi tysięcy osób są publicznie dostępnie. Jeśli śledztwo wykaże, że upublicznienie danych nastąpiło nie wskutek ataku, a niedbalstwa, firmie grozi grzywna. ACS:Law od dawna jest na celowniku organizacji broniących prywatności i praw konsumenckich, gdyż stosuje kontrowersyjne metody postępowania. Wiele osób prywatnych przygotowuje się też do wniesienia oskarżeń przeciwko firmie. ACS:Law identyfikuje adresy IP komputerów podejrzewanych o piractwo, a następnie uzyskuje prywatne dane ich właścicieli kontaktując się z dostawcami internetu. Jednak taka metoda uzyskiwania prywatnych danych prawdopodobnie nie jest zgodna z prawem. Później do podejrzanych wysyłane są listy z żądaniem zapłacenia grzywny. Wiele osób twierdzi, że zostało niesłusznie oskarżonych. Pikanterii całej sprawie dodaje fakt, że wśród danych, które wyciekły, znalazły się nazwiska 5000 osób podejrzewanych o nielegalną wymianę filmów pornograficznych.
  3. Dwóch posłów z Izby Reprezentantów, Ed Markey (D) i Joe Barton ®, poczuło się zaniepokojonych ostatnimi artykułami z The Wall Street Journal, dotyczącymi prywatności w internecie. Szczególnie zaalarmował ich test, który pokazywał, że handel informacjami stał się internetową żyłą złota. W związku z tym prawodawcy wysłali list to 15 dużych witryn, w tym należących do Yahoo!, Microsoftu i Comcastu, w których proszą o wyjaśnienie pewnych kwestii związanych z prywatnością użytkowników. Markey i Barton to ważni członkowie Komitetu Handlu i Energii Izby Reprezentantów. Ich list ma związek z toczącymi się w tym komitecie pracami dotyczącymi uregulowań prawnych chroniących internautów. Komitet chce, by nowe przepisy zostały uchwalone jeszcze w bieżącym roku. We wspomnianym liście, który trafił m.in. do MSN.com, Aol.com, MySpace.com czy Careerbuilder.com posłowie pytają m.in. o to kim są partnerzy tych witryn i w jaki sposób używają one zebranych danych. Padło też pytanie o sprzedaż danych i inne sposoby zarabiania na nich. Parlamentarzyści dali witrynom tydzień na udzielenie odpowiedzi. Przedstawiciele Comcastu i Yahoo! nie ustosunkowali się jeszcze do listu. Z kolei rzecznik prasowa Microsoftu, Christina Pearson powiedziała, że firma poważnie traktuje spoczywającą na niej odpowiedzialność za ochronę prywatności osób używających produktów i usług Microsoftu. Zapewniła, że koncern będzie współpracował z Bartonem i Markeyem. Wysiłki posłów popiera Jeffrey Chester, dyrektor Center for Digital Democracy. "Markey i Barton od dawna pracują razem, by dobrze poznać kwestie prywatności i spowodować, by największe firmy były odpowiedzialne za jej ochronę. Dzięki danym, które zgromadzili już wkrótce będą mieli dokładny obraz tego, w jaki sposób informacja jest po cichu zbierana bez naszej zgody" - mówi. Jednym z pomysłów Komisji Handlu i Energii jest ustawa Best Practices Act, zaproponowana przez Booby'ego Rusha. Przewiduje ona, że witryny, chcąc dzielić się ze swoimi partnerami informacjami o użytkownikach, będą musiały najpierw uzyskać zgodę użytkowników. Ponadto zgoda będzie wymagana też przy każdorazowej zmianie sposobu gromadzenia informacji. Ustawa przewiduje też, że osoby prywatne, prokuratorzy stanowi i Federalna Komisja Handlu będą mogli występować na drogę sądową przeciwko witrynom, naruszającym prawo do prywatności.
  4. Im więcej mówimy o prywatności w Sieci, tym bardziej jesteśmy w niej szpiegowani. Śledzenie użytkowników stało się prawdziwą żyłą złota dla wielu firm. Dziennikarze The Wall Street Journal przeprowadzili testy na 50 najpopularniejszych witrynach w USA. To na nich Amerykanie dokonują 40% ogólnej liczby odsłon pochodzących z tego kraju. Po wizycie na każdej z tych stron (znalazła się wśród nich również witryna wsj.com), dokładnie przyjrzano się plikom i programom, które pozostawiły one na komputerze testowym. Okazało się, że 50 witryn umieściło 3180 plików. Około 30% z nich były to niewinne pliki z zapisanymi hasłami użytkownika czy najbardziej popularnymi tekstami. Jednak aż 2224 pliki zostały zainstalowane przez 131 przedsiębiorstw, z których wiele żyje ze śledzenia użytkowników i sprzedawania baz danych na ich temat. Najwięcej, bo 234 pliki instalowała witryna Dictionary.com. Wśród nich 223 pochodziło od firm śledzących użytkowników. Narzędzia do śledzenia użytkowników stały się tak zaawansowane, że wiele spośród największych amerykańskich serwisów nie miało pojęcia, że ich witryny pozostawiają na komputerach użytkowników pliki mocno naruszające prywatność. Na przykład po wizycie na witrynie MSN.com na testowym komputerze pojawił się plik z danymi dotyczącymi przewidywanego wieku użytkownika, kodu pocztowego, płci, szacowanych zarobków, stanu cywilnego, ew. posiadania dzieci i domu. Twórcą pliku jest firma Targus Information Corp. Zarówno Targus jak i Microsoft oświadczyli, że nie mają pojęcia, w jaki sposób plik z tak szczegółowymi danymi został wgrany przez MSN.com. Zapewnili też, że nie ma w nim niczego, co pozwalałoby jednoznacznie zidentyfikować właściciela komputera. Na razie w USA panuje olbrzymia dowolność w umieszczaniu cookies na maszynie użytkownika. Sądy, które dotychczas wypowiadały się w tej sprawie, zezwalały na stosowanie najprostszych ciasteczek. Nigdy nie zajmowały natomiast stanowiska odnośnie ich najbardziej zaawansowanych form. Dzięki nim właśnie możliwe jest tworzenie bardzo rozbudowanych profili użytkownika. Przy pierwszej wizycie na danej witrynie na nasz komputer trafia cookie z unikatowym numerem identyfikacyjnym. Gdy później odwiedzimy inną witrynę, która korzysta z technologii tej samej firmy, otrzymuje ona kolejną porcję informacji. Po jakimś czasie, na podstawie całego szeregu odwiedzanych przez nas stron, możliwe jest orientacyjne określenie naszego wieku, płci czy posiadania dzieci. Dziennikarze The Wall Street Journal przytaczają historię 17-letniej Cate Reid. System reklamowy Yahoo określił ją jako osobę płci żeńskiej, w wieku 13-18 lat, która martwi się, że ma nadwagę. W tym przypadku, wszystko się zgadza. Dziewczyna mówi dziennikarzom, iż rzeczywiście martwi się swoją wagą, ale stara się o tym nie myśleć. Jednak gdy korzysta z internetu natychmiast o problemie przypominają jej pojawiające się reklamy. Trafiają one do niej właśnie dzięki zebranym na jej temat informacjom. Na takich danych można zarobić olbrzymie pieniądze. Dane o osobach odwiedzających serwisy aukcyjne eBay oraz Expedia są zbierane przez firmę BlueKai. Każdego dnia sprzedaje ona 50 milionów fragmentów informacji, po 1/10 centa za sztukę. Jak łatwo obliczyć, codzienne przychody BlueKai tylko z tych dwóch witryn to 50 000 USD. Najczęściej witryny, na których znajduje się oprogramowanie zbierające dane, wiedzą o tym. Często dostają za to pieniądze. Jednak zdarza się, że użytkownicy są szpiegowani bez wiedzy właścicieli witryn. Dzieje się tak, gdy firmy zajmujące się zbieraniem danych umieszczają odpowiednie pliki w bezpłatnych programach czy wyświetlanych reklamach. Do informacji zebranych w Sieci są dodawane dane statystyczne na temat np. przychodów w danym regionie kraju, wykształcenia mieszkańców, gospodarki regionu czy geografii. Tworzone w ten sposób profile dobrze potrafią opisać śledzonego użytkownika. Wszystko to służy jednemu celowi - tworzeniu profili w czasie rzeczywistym, odgadywanie zamiarów użytkownika, np. dotyczących wyjazdu na wakacje czy odgadnięcie zdolności kredytowej i wyświetleniu odpowiedniej reklamy. Niektóre firmy z sektora finansowego dysponują już tak bogatymi bazami danych i tak zaawansowaną technologią, że w zależności od szacowanych przychodów i poziomu wykształcenia użytkownika, potrafią wyświetlać mu skonstruowane pod jego kątem swoje witryny. W ubiegłym miesiącu firma ubezpieczeniowa Byron Udell $ Associates testowała na swojej witrynie AccuquoteLife.com technologię, która np. osobie określonej jako mieszkaniec przedmieścia, z wykształceniem średnim, pochodzącym z okresu baby-boomu prezentowała ofertę polisy ubezpieczeniowej na kwotę 2-3 milionów dolarów. Natomiast starszy mieszkaniec wsi, zajmujący się pracą fizyczną widział po wejściu na tę samą witrynę propozycję wykupienia polisy o sumie ubezpieczenia wynoszącej 250 000 dolarów. "Kierujemy różnych ludzi na różne pasy autostrady" - mówi Sean Cheyney, jeden z menedżerów Byron Udell.
  5. Google przyznał, że od 2006 roku jego pojazdy wykonujące fotografie na potrzeby usługi Street View przechwytują prywatne dane z niezabezpieczonych sieci Wi-Fi. Sprawa wyszła na jaw, gdy niemieccy urzędnicy postanowili sprawdzić, jakie dane zbierają samochody Google'a. Wyszukiwarkowy koncern stwierdził, że błąd programistyczny spowodował, iż samochody te są w stanie zarejestrować, i rejestrują, dane z niezabezpieczonych sieci bezprzewodowych. Nagrano je we wszystkich państwach, w których pojawiły się pojazdy Google'a. W Niemczech działania takie są nielegalne. Na podstawie posiadanych przez nas informacji możemy stwierdzić, że Google z naruszeniem niemieckiego prawa nielegalnie nagrywał dane przepływające w prywatnych sieciach. To alarmujący kolejny dowód na to, że koncepcja prywatności jest dla Google'a czymś obcym - mówi Ilse Aigner, niemiecka minister zajmująca się m.in. ochroną konsumentów. Oburzony jest też Johannes Caspar, który nadzoruje ochronę danych w Hamburgu i z ramienia rządu niemieckiego zajmuje się najnowszym skandalem z udziałem Google'a. Caspar wspomina, że gdy w bieżącym miesiącu dokonywał inspekcji samochodu Google'a wykorzystywanego do robienia zdjęć, zauważył, iż z pojazdu usunięto dysk twardy na którym nagrywane były dane. Gdy zapytał o usunięte urządzenie odpowiedziano mu, że i tak nie mógłby sprawdzić jego zawartości, gdyż jest ona szyfrowana. Jednak wskutek jego nacisków Google dokładnie zbadało zawartość dysku i przyznało się do nagrywania sieci Wi-Fi. "Cieszę się, że zabawa w kotka i myszkę się skończyła" - mówi Caspar. W niewinność Google'a wątpi Peter Schaar, członek panelu doradzającego Komisji Europejskiej w kwestii prywatności. "A więc to wszystko jest wynikiem prostej pomyłki, błędu w oprogramowaniu. Dane były zbierane i przechowywane wbrew intencjom menedżerów Google'a. Jeśli przyjmiemy takie tłumaczenie, to musimy uznać, że oprogramowanie zostało zainstalowane i używane bez przeprowadzenia wcześniej odpowiednich testów. Olbrzymie ilości danych zostały przez pomyłkę nagrane, a nikt w Google'u tego nie zauważył. Nie zauważyli tego nawet menedżerowie, którzy jeszcze przed dwoma tygodniami bronili firmowej polityki ochrony danych" - mówi Schaar. Jeszcze niedawno przedstawiciele Google'a, na pytanie niemieckiego rządu o to, jakie dane z prywatnych sieci Wi-Fi są zbierane przez firmę (ich kolekcjonowanie jest przydatne przy usługach geolokalizacyjnych), odpowiadali, że samochody Google Street pobierają tylko dwie informacje - publicznie nadawany adres MAC urządzenia oraz nazwę sieci przypisaną jej przez użytkownika (SSID). Teraz okazuje się, że nie było to prawdą.
  6. The Wall Street Journal donosi, że Facebook, MySpace (serwis należy do News Corp., właściciela The Wall Street Journal), Digg, Live Journal i wiele innych serwisów społecznościowych przekazywało agencjom reklamowym bardzo szczegółowe dane o swoich użytkownikach. Były wśród nich nawet nazwiska internautów odwiedzających te serwisy. Jednocześnie zapewniały użytkowników, że żadne dane osobiste nie są nigdzie przekazywane. Gdy użytkownik serwisu społecznościowego klikał na reklamę, do agencji reklamowej przesyłany był jego numer identyfikacyjny i dane osobowe. Serwisy społecznościowe dysponują niezwykle cennymi dla reklamodawców informacjami. Są wśród nich dane o miejscu zamieszkania, płci, wieku, zawodzie, wykształceniu czy zainteresowaniach. Już teraz wiadomo,że informacje osobiste były przekazywane wielu dużym agencjom, w tym należącemu do Google'a DoubleClick czy Right Media, który jest własnością Yahoo!. Co ciekawe, przedstawiciele tych agencji mówią, że nie wiedzieli o tym, iż takie dane do nich trafiają i nie korzystali z nich. Profesor Craig Wills z Worcester Polytechnic Institute, który badał problem przekazywania danych mówi, że większość serwisów społecznościowych po prostu nie przejmuje się tym, że do reklamodawców trafiają informacje, których nie powinni oni dostać bez zgody użytkownika. Z kolei profesor Ben Edelmann z Harvard Business School przyjrzał się kodowi kilku serwisów społecznościowych i stwierdził, że jeśli użytkownik zaloguje się na swój profil i kliknie na reklamę, przesyła informacje na swój temat do reklamodawcy. Uczony zwrócił się wczoraj do Federalnej Komisji Handlu z wnioskiem o zbadanie sprawy. Szczególną uwagę radzi zwrócić na Facebooka, który wyjątkowo chętnie przekazuje informacje o użytkownikach na zewnątrz. Specjaliści po raz pierwszy zwrócili uwagę na problem przekazywania danych przez serwisy społecznościowe w ubiegłym roku, podczas badań prowadzonych przez AT&T Labs i Worcester Polytechnic Institute. Sprawdzono wówczas 12 witryn społecznościowych, w tym Facebooka, Twittera i MySpace i znaleziono wiele dróg, którymi dane wyciekają na zewnątrz. Eksperci skontaktowali się wówczas z serwisami i poinformowali je o problemach. Jednak sytuacja do dzisiaj nie uległa zmianie. Facebook, który wymaga od użytkownika ujawniania coraz większej ilości danych i żąda, by z profilem było powiązane prawdziwe nazwisko, już zaczął zmieniać kod, by dane nie były przekazywane. Inne serwisy informują, że ich zdaniem numery identyfikacyjne i nazwy użytkowników nie są danymi osobowymi, gdyż nie są w ich przypadku powiązane z prawdziwymi nazwiskami.
  7. Z raportu Ponemon Institute wynika, że w Wielkiej Brytanii średni koszt utraty danych wskutek przestępstwa należy do jednych z najniższych w krajach rozwiniętych. Jednak wprowadzenie nowych przepisów może spowodować, że straty ofiar przestępstw będą większe niż obecnie. Ponemon informuje, że przeciętne straty spowodowane kradzieżą pojedynczego rekordu wynoszą w Wielkiej Brytanii 98 dolarów, a całkowity koszt przeciętnego włamania to straty rzędu 2,57 miliona USD. To niezwykle mało, zważywszy na fakt, iż światowa średnia wynosi 142 USD dla pojedynczego rekordu i 3,43 miliona dolarów dla włamania. W najgorszej sytuacji są firmy w USA, gdzie średnio utrata jednego rekordu oznacza koszt rzędu 204 dolarów (6,75 milionów na każde włamanie). Tak wielka różnica w kosztach spowodowana jest różnymi przepisami prawnymi. Badania te pokazują, jak olbrzymią rolę w generowaniu kosztów włamań mają przepisy. Najlepszym przykładem są tutaj Stany Zjednoczone i jest jasnym, że gdy w innych krajach zostaną wprowadzone regulacje dotyczące obowiązku informowania o włamaniach, koszty w tych państwach również wzrosną - twierdzą eksperci z Ponemon Institute, który wykonał badania obejmujące 133 organizacje z 18 działów gospodarki z Australii, Francji, USA, Niemiec i Wielkiej Brytanii. W Stanach Zjednoczonych już 46 stanów przyjęło przepisy, które zobowiązują organizacje do informowania o szczegółach włamania. Stąd też wysokie koszty. Drugim najdroższym krajem są Niemcy, w których podobne regulacje obowiązują od lipca 2009 roku. Koszt utraty pojedynczego rekordu wynosi tam 177 dolarów. Z kolei w Wielkiej Brytanii, Francji i Australii, gdzie nie istnieje obowiązek informowania o włamaniu, koszty są niższe od średniej światowej. Może się to jednak zmienić, gdyż coraz częściej podnoszą się głosy o konieczności wprowadzenia uregulowań podobnych do amerykańskich. W Wielkiej Brytanii wywierane są silne naciski na instytucje publiczne oraz sektor finansowy, by ujawniały przypadki włamań. Stąd też np. brytyjski odpowiednik polskiego NFZ znajduje się na czele niechlubnej listy ofiar najczęstszych włamań. Może być to jednak mylące, gdyż prywatne firmy nie są zobowiązane do ujawniania takich danych, więc rzadko o tym mówią. Innym, obok obowiązku informowania, czynnikiem przyczyniającym się do wysokich kosztów, jest konieczność dostosowania się do obowiązujących regulacji prawnych. Na przykład w Niemczech, gdzie przepisy wprowadzono stosunkowo niedawno, firmy muszą inwestować teraz olbrzymie kwoty w systemy zabezpieczające i wydają średnio 52 dolary na wykrycie i zabezpieczenie każdego przypadku kradzieży pojedynczego rekordu. W Wielkiej Brytanii koszty te to zaledwie 18 dolarów. Z kolei w USA, gdzie odpowiednie przepisy istnieją od dawna, przedsiębiorstwa mają już za sobą etap olbrzymich inwestycji, i obecnie ta część zabezpieczeń kosztuje je zaledwie 8 dolarów na rekord.
  8. Dziennikarze serwisu CBS pokazali, jak w prosty sposób można wejść w posiadanie wielu poufnych danych różnych firm i instytucji. Okazało się, że wystarczy kupić na rynku wtórnym... nowoczesną kopiarkę. Niemal każda taka maszyna wyprodukowana po 2002 roku jest wyposażona w twardy dysk przechowujący każdy dokument, który przez nią przeszedł. Dziennikarze CBS kupili cztery używane kopiarki, płacąc za nie średnio po 300 USD. Dopóki ich nie rozpakowali, nie wiedzieli, kto był ich pierwszym właścicielem. Jednej z maszyn nie trzeba było nawet podłączać do prądu. W maszynie nadal tkwiły dokumenty z Wydziału Przestępstw Seksualnych policji w Buffalo. Dziennikarzom wyjęcie dysków twardych z kopiarek zajęło około 30 minut. Następnie uruchomili pobrane z internetu darmowe programy do skanowania zawartości HDD. Po mniej niż 12 godzinach dysponowali kopiami dziesiątek tysięcy dokumentów należących do poprzednich właścicieli urządzeń. Okazało się, że dwie maszyny pochodzą z policji w Buffallo. Z HDD pierwszej odczytano m.in. listę poszukiwanych przestępców seksualnych i skargi składane przez ofiary przemocy domowej. Na drugiej, należącej wcześniej do Wydziału Narkotykowego, odnaleziono m.in. spis celów, które policja planowała osiągnąć podczas wielkich nalotów na handlarzy narkotyków. Trzecia z kopiarek należała do firmy budowlanej z Nowego Jorku. Na jej dysku znaleziono szczegółowe plany budynku, który ma stanąć w pobliżu Ground Zero na Manhattanie, 95-stronicową listę płac zawierającą nazwiska, adresy i numery ubezpieczenia społecznego oraz kopie czeków opiewających na kwotę 40 000 USD. Jednak największa niespodzianka czekała dziennikarzy przy ostatniej kopiarce. Była ona własnością firmy ubezpieczeniowej Affinity Health Plan, a na jej dysku znaleziono m.in. 300 stron ze szczegółowymi danymi ubezpieczonych. Były tam informacje o przepisanych lekach, wynikach badań krwi czy dokumenty diagnozujące nowotwory. Nie trzeba nikogo przekonywać, że wszystkie znalezione dane mogą posłużyć zarówno do kradzieży tożsamości, jak i szantażu, popełnienia przestępstw finansowych czy uniknięcia kary przez przestępców. Wielu producentów kopiarek oferuje co prawda dodatkowe zabezpieczenia - od kluczy szyfrujących po urządzenia dokładnie usuwające dane - jednak wiele przedsiębiorstw i instytucji nie chce najwyraźniej ponosić kosztów związanych z ich zakupem.
  9. Amazon wystąpił do sądu przeciwko Departamentowi Podatkowemu Karoliny Północnej (DOR), który prowadzi śledztwo mające ustalić, czy firma przestrzegała prawa podatkowego. W jego ramach DOR zażądał od Amazona informacji o niemal 50 milionach transakcji przeprowadzonych od 2003 roku, w tym o nazwiskach i adresach klientów firmy oraz ich zakupach. W pozwie, który Amazon złożył w Sądzie Okręgowym dla Zachodniego Dystryktu Waszyngtonu, czytamy: Jedyne, co DOR musi wiedzieć, to jakie przedmioty Amazon sprzedał klientom z Karoliny Północnej oraz ile za nie zapłacili. Amazon już dostarczył takie informacje do DOR. Urzędnicy chcą jednak np. wiedzieć, jakie dokładnie książki i filmy kupowali poszczególni mieszkańcy stanu. Jeśli Amazon jest zmuszany do spełniania tych żądań, oznacza to naruszenie prawa do prywatności oraz Pierwszej Poprawki zarówno względem Amazona jak i jego klientów - stwierdzają przedstawiciele firmy. Dodają, że oczywiście dane dotyczące sprzedaży jak najbardziej mogą interesować DOR, ale urzędnicy nie mają najmniejszej potrzeby, by poznawać dane poszczególnych klientów.
  10. Niemieccy uczeni z Uniwersytetu Goethego i Instytutu Technologicznego w Karlsruhe ustanowili nowy rekord energooszczędnego sortowania danych. W swoim doświadczeniu używali procesora dla netbooków i dysku SSD. Sort Benchmark, opracowany przez zaginionego w 2007 roku pioniera systemów bazodanowych Jima Graya, który mierzy energię potrzebną do posortowania 10, 100 lub 1000 gigabajtów danych. Dotychczasowy rekord należał do zespołu z University of Melbourne, którzy pracowali na 100 gigabajtach danych. Za pomocą komputera wyposażonego w 2,6-gigahercowy procesor AMD, 4 GB RAM i siedem 160-gigabajtowych dysków SATA posortowali dane zużywając średnio 1 dżul energii na 11600 rekordów. Niemcy wykorzystali obecnie procesor Atom 330, 4 gigabajty RAM oraz cztery 256-gigabajtowe dyski SSD Super Talent. Dzięki takiej konfiguracji uzyskali wynik 36400 rekordów na 1 dżul energii.
  11. Podczas rozpoczętej właśnie w San Francisco International Solid State Circuit Conference (ISSCC 2010) Sony zaprezentuje swoją nową technologię bezprzewodowoego przesyłania danych wewnątrz urządzeń elektronicznych. Japończycy wykorzystali do tego celu milimetrowe fale radiowe, osiągając transfer rzędu 11 gigabitów na sekundę. Nowa technologia pozwoli na rezygnację z fizycznych połączeń pomiędzy podzespołami np. telewizora czy odtwarzacza wideo, a nawet na uproszczenie obwodów w ramach układu scalonego. To z kolei umożliwi zmniejszenie samych urządzeń, idącą za tym redukcję kosztów ich wytwarzania i zwiększy niezawodność elektroniki. Przepustowości fizycznych łączy używanych w podzespołach elektronicznych nie można już bardziej zwiększać, a rosnąca ilość danych powoduje, że konieczne jest dodawanie kolejnych połączeń. To z kolei sprawa, iż obwody stają się coraz bardziej skomplikowane, a przez to droższe w produkcji. Sony postanowiło wykorzystać milimetrowe fale radiowe do bezprzewodowego przesyłania informacji. To fale o częstotliwości od 300 do 3000 GHz i długości od 1 do 10 milimetrów. Dzięki wysokiej częstotliwości nadają się do przesyłania dużej ilości danych, a dodatkową korzyścią jest fakt, że można je wysyłać za pomocą bardzo małych anten. Japońskiej firmie udało się zintegrować bardzo wydajne anteny na 40-nanometrowym układzie scalonym. Nadajnik i odbiornik zajęły zaledwie 0,13 mm2 powierzchni. Tak małe urządzenie pozwoliło na przesłanie danych na odległość 14 milimetrów z prędkością 11 Gbps.
  12. Google udostępniło poprawkę do narzędzia Google Toolbar po tym, jak zostało ono "przyłapane" na śledzeniu działań użytkownika nawet po wyłączeniu. W ostatni poniedziałek profesor Ben Edelman z Uniwersytetu Harvarda opublikował wideo, które dowodzi, że Google Toolbar wysyła na serwery Google'a informacje o stronach odwiedzanych przez użytkownika nawet wówczas, gdy użytkownik wyłączył go w oknie, którego używa. Google Toolbar oferuje dwie opcje wyłączenia. Jedna to wyłączenie "całkowite", druga wyłączenie go "dla danego okna". Okazało się, że jeśli wykorzystamy drugą z opcji, to narzędzie i tak będzie wysyłało do Google'a informacje o odwiedzanych przez nas witrynach. Google przyznało się do błędu i poinformowało, że występuje on w wersjach od 6.3.911.1819 do 6.4.1311.42 dla Internet Explorera. Firma udostępniła poprawkę, którą można samodzielnie pobrać, a na dzisiaj zapowiedziała jej automatyczną instalację na komputerach użytkowników. Profesor Edelman odkrył również, że Google Toolbar wysyła do Google'a dane także wówczas, gdy próbujemy wyłączyć go za pomocą dostępnej w Internet Explorerze opcji "zarządzaj dodatkami". Edelman, znany krytyk Google'a, zauważa, że wiele rozszerzonych opcji Google Toolbar związanych jest z transmisją danych na serwery koncernu i trudniej jest je wyłączyć niż włączyć. Zdanie Edelmana niektórych wręcz nie sposób wyłączyć bez konieczności odinstalowywania całego narzędzia.
  13. DARPA rozpoczęła pracę nad Cyber Genome Program. Ma on pozwolić na analizowanie dowolnego fragmentu cyfrowych danych tak, jak obecnie analizuje się DNA, i umożliwić dotarcie do jego źródła oraz, co za tym idzie, autora. DARPA chce, by dzięki Cyber Genome powstało rewolucyjne narzędzie do obrony cybernetycznej oraz prowadzenia cyfrowych śledztw. Jak czytamy na stronie rządowej Federal Business Opportunities cyfrowe artefakty mogą być zbierane z systemów takich jak tradycyjne komputery, PDA czy systemy rozproszone jak chmury obliczeniowe, z sieci przewodowych i bezprzewodowych. Cyber Genome Program będzie będzie realizowany wieloetapowo i na różnych polach. W ramach każdego z tych pól powstanie cyfrowy odpowiednik odcisku palca czy DNA, który umożliwi rozwinięcie cyfrowego odpowiednika genotypu. Wszystko wskazuje na to, że DARPA chce mieć system, który pozwoli na analizowanie dowolnych danych i dotarcie do ich źródła. Niewykluczone, że o tym, czy Cyber Genome Program dał oczekiwane rezultaty dowiemy się dopiero wtedy, gdy zacznie on działać i okaże się efektywnym systemem.
  14. Naukowcy z Instytutu Cybernetyki Biologicznej Maxa Plancka w Tybindze odkryli, że ludzie lepiej rozpoznają/klasyfikują emocje z twarzy poruszających się, np. na filmie, niż uwiecznionych na zdjęciach, czyli statycznych. By zaistniała taka dynamiczna przewaga, sekwencja wideo musi trwać przynajmniej 100 milisekund (Journal of Vision). Jeśli film jest krótszy niż jedna dziesiąta sekundy, mózgowi trudniej zinterpretować ruchy fizjonomii. Niektóre ekspresje bazują na zmianach w położeniu głowy, np. potakiwanie lub przeczenie, inne na deformacjach części twarzy, np. zmarszczenie nosa przy obrzydzeniu. Chcąc sprawdzić, do jakiego stopnia umiemy rozpoznać na podstawie miny nastrój osoby, z którą się spotykamy, Niemcy pokazali ochotnikom zdjęcia ludzi z różnymi wyrazami twarzy: prostymi (szczęście czy smutek) i bardziej złożonymi, takimi jak zgoda, zaskoczenie lub zakłopotanie, stosowanymi zwykle do podkreślania albo modyfikowania stwierdzeń padających w trakcie rozmowy. Sprawdzając, czy emocje te są lepiej rozpoznawane w ruchu, czy w wersji statycznej, naukowcy wyświetlili badanym krótką sekwencję. Nagranie wideo rozpoczynało się od neutralnego wyrazu twarzy, potem pojawiała się jakaś emocja, a filmik kończył się na ostatniej klatce przed zmianą miny z powrotem na neutralną. Ujęcia wykorzystane w statycznej części eksperymentu były ostatnimi, tzw. szczytowymi klatkami sekwencji dynamicznej. W kolejnych eksperymentach nagrania wideo przekształcano w serię fotografii. Emocje były trafniej rozpoznawane na nagraniu. W ten sposób Niemcy wykazali, że przewaga filmów nie polega na większej liczebności zdjęć. Wszystko wskazuje na to, że zapewniają one dodatkowe informacje dynamiczne. By się przekonać, do jakiego stopnia rozpoznanie wyrazu twarzy bazuje na naturalnych ruchach, klatki prezentowano jako film, lecz w losowej kolejności. Porównanie wyników uzyskanych dla wersji oryginalnej i zmiksowanej ujawniło, że ludzie lepiej radzą sobie z oryginałem. Niezwykle ważne okazało się też uporządkowanie chronologiczne. Gdy filmy odtwarzano wspak, także spadała trafność rozpoznania. Nasze badania mają znaczenie [choćby] dla animacji komputerowej, ponieważ dla specjalistów z tej branży istotne jest stworzenie awatarów i animacji twarzy, które mogłyby się realistycznie i wiarygodnie komunikować – podkreśla dr Christian Wallraven, współautor studium, a zarazem fizyk i teoretyk postrzegania.
  15. Naukowcy znaleźli mózgową sygnaturę świadomości. Nie zależy ona od intensywności, synchronizacji ani czasu trwania aktywności nerwowej. Akademicy z Princeton zauważyli, że jeśli postrzegamy jakiś obraz świadomie, za każdym razem wzorzec aktywności jest taki sam. Jeśli obraz jest przetwarzany na poziomie nieświadomości, pobudzenie jest inne. Zespół Aarona Schurgera dywagował, że kiedy mózgowi wielokrotnie prezentuje się ten sam bodziec, np. zdjęcie, to jeśli zwraca się na niego świadomą uwagę, wzorzec aktywności zawsze będzie właściwie identyczny. Gdy jednak nie stanie się on przedmiotem świadomej uwagi, wzorce pobudzenia za każdym razem będą inne. Umiejąc odróżnić skany mózgu wskazujące na świadomość bądź nieświadomość, można by obiektywnie diagnozować pacjentów z urazami mózgu. Chcąc przetestować swoją hipotezę, Amerykanie zbadali za pomocą funkcjonalnego rezonansu magnetycznego (fMRI) 12 ochotników. Wolontariuszom pokazano serię obrazów. Zdjęcia twarzy bądź domów miały wywołać świadomą reakcję, a tzw. bodźce niewidzialne nieświadomą. Te ostatnie konstruowano z dwóch rysunków – albo twarzy, albo domu – z których każdy demostrowano tylko jednemu oku. W parze tło jednego rysunku było jasnozielone, a sam obiekt bladopomarańczowy. W drugim barwy podkładu i przedmiotu zamieniano. Kiedy mózg styka się z takimi sprzecznymi danymi wejściowymi, godzi je, tworząc żółtą plamę. Świadomie człowiek widzi więc żółtawy placek, choć nieświadomie postrzega twarz lub dom. Skany płatów skroniowych ochotników potwierdziły przypuszczenia zespołu Schurgera. Za każdym razem przy świadomym przetwarzaniu bodźca generowano podobne wzorce aktywności. Kiedy identyczny obraz analizowano nieświadomie, zmienność pobudzenia była o wiele większa.
  16. W Internet Observatory Report firmy Arbor Networks znalazło się stwierdzenie, że internet wszedł w drugą fazę rozwoju. Można również zauważyć, iż następuje koncentracja Sieci w rękach wielkich graczy. Do niedawna w sieci istniało 10 providerów Tier-1, obecnie jest ich 12, jednak zmienili swój model biznesowy. Teraz nie skupiają się oni na obsłudze całego ruchu, ale przede wszystkim na przesyłaniu danych pomiędzy wielkimi przedsiębiorstwami, chmurami obliczeniowymi i twórcami treści. Jeszcze 5 lat temu ruch w internecie rozkładał się proporcjonalnie pomiędzy dziesiątki tysięcy firmowych witryn oraz serwerów. Dzisiaj większość ruchu odbywa się pomiędzy niewielką liczbą wielkich firm hostingowych, dostawców chmur obliczeniowych i dostawców treści. Eksperci Arbor Networks oceniają, że obecnie 30 wielkich firm, takich jak Limelight, Facebook, Google, Microsoft czy YouTube obsługuje aż 30% ruchu w internecie. Craig Labovitz z Arbor Networks mówi: Dziesięć czy piętnaście lat temu chodziło po prostu o ruch pomiędzy witrynami, a największym odkryciem naszego raportu jest stwierdzenie, że nastąpiła konsolidacja witryn. W ciągu ostatnich 2 lat duże organizacje kupowały mniejsze witryny i w lipcu 2009 roku do kilku wielkich firm należało już 30% internetu. Dzieje się tak z dwóch powodów, zarówno duże jak i małe domeny przechodzą do chmur. To z kolei powoduje, że mamy do czynienia z więĸszą ilością treści, która jest coraz lepszej jakości i jest szybciej dostępna. Internet Observatory Report to prawdopodobniej najdokładniejsze studium internetu przeprowadzone od połowy lat 90. Jest ono wynikiem dwuletniej pracy, podczas której przeanalizowano dane dotyczące ruchu w sieci, udostępnione przez 110 wielkich operatorów na całym świecie. Podczas studiów monitorowano 256 eksabajtów danych, które zostały przesłane w ciągu ostatnich dwóch lat. Obecnie w czasie szczytowego obciążenia sieci na całym świecie przesyłanych jest 12 terabitów w ciągu sekundy. Szczegóły raportu zostaną zaprezentowane 19 października.
  17. Użytkownicy nowego systemu operacyjnego Apple'a - Snow Leoparda - skarżą się na błąd, który prowadzi do utraty danych. Błąd ujawnia się najprawdopodobniej wówczas, gdy użytkownik ma założone konto gościa przed zaktualizowaniem systemu do Snow Leoparda. Ponad 100 użytkowników systemu Apple'a poinformowało na grupach dyskusyjnych, że gdy po aktualizacji do Snow Leoparda najpierw zalogowali się na konto gościa, a następnie się z niego wylogowali, odkryli, że ich podstawowy profil - konto użytkownika - został całkowicie zresetowany do ustawień fabrycznych. Wszystko wskazuje na to, że jeśli po aktualizacji do Snow Leoparda najpierw zalogujemy się do profilu gościa, to system potraktuje konto użytkownika jak konto gościa i usunie z niego wszelkie ustawienia i pliki osobiste. Ci, którzy wcześniej wykorzystali narzędzie Time Machine do wykonania kopii zapasowych, mogą odzyskać utracone dane. W innych wypadkach jest to najprawdopodobniej niemożliwe. Apple informuje, że do utraty danych dochodzi bardzo rzadko. Firma pracuje nad odpowiednią łatą. Tymczasem radzi użytkownikom, by usunęli z systemu konto gościa i, jesli go potrzebują, założyli je ponownie, ale już korzystając ze Snow Leoparda.
  18. W drugim dniu IDF Intel zaprezentował projekt "Light Peak" zakładający zastąpienie zewnętrznych kabli łączących komputer, monitor, drukarkę i inne urządzenia - światłowodami. Obecnie stosowane kable są ciężkie, trudno się zginają i są krótkie. David Perlmutter z Intela zauważa, że zwykle długość kabli monitorowych nie może przekroczyć 4 metrów, a np. okablowanie USB 3.0 jest ograniczone do 3 metrów. Tymczasem światłowody są niezwykle lekkie, bardzo elastyczne, a kich długość może przekroczyć 100 metrów. Zdaniem Jasona Zillera, który w Intelu odpowiedzialny jest za optyczne systemy wejścia/wyjścia, początkowo światłowodowe kable przesyłałyby w dwie strony dane z prędkością 10 Gb/s, a docelowo można by osiągnąć prędkości rzędu 100 Gb/s. Teoretycznie takie kable mogą posłużyć do łączenia wielu różnych urządzeń. W samym komputerze możliwe będzie zastosowanie jednego z dwóch rozwiązań - albo pojedynczego huba łączącego różne urządzenia, albo też osobnych portów dla każdego z nich. Co więcej, nowe kable mają przesyłać najróżniejsze dane oraz prąd elektryczny. W przyszłości możemy doczekać się zatem monitorów korzystających z jednego kabla, którym przesyłane będą, i dane z komputera, i prąd do zasilania. Pozbędziemy się też różnych gniazd dla różnych standardów sygnału. Zilller informuje, że Intel już rozpoczął współpracę z producentami sprzętu komputerowego, której celem jest stworzenie odpowiednich urządzeń. Koncern prowadzi też rozmowy z organizacjami opracowującymi standardy. Chcemy, by technologia taka stała się standardem dla wszystkich segmentów rynku - mówi Ziller.
  19. W Nature Photonics ukazał się artykuł opisujący działanie "teleskopu czasowego", który może pozwolić na 27-krotne przyspieszenie przesyłania informacji we współczesnych światłowodach. Jego działanie polega na skompresowaniu impulsu światła w jednostce czasu. Generalnie im impuls krótszy, tym więcej informacji można przesłać danym łączem. Obecnie stosowane urządzenia wykorzystują pasmo 10 GHz i kodują w nim informacje. Teoretycznie możliwe jest wysyłanie impulsów o częstotliwościach 100 000 razy większych, jednak obecnie nie jesteśmy w stanie zakodować w nich żadnych informacji. Naukowcy z Cornell University wpadli więc na pomysł "ściskania" 10-gigahercowych impulsów, dzięki czemu możliwe będzie wysłanie większej ich liczby w jednostce czasu, co znakomicie zwiększy przepustowość łącza. Autorzy artykułu proponują wykorzystanie krzemowych falowodów, które działają jak soczewki skupiające na sygnał. Do takiego falowodu trafiają jednocześnie długi, 10-gigahercowy impuls z zakodowanymi danymi i znacznie krótszy impuls lasera niezawierający żadnych informacji. Wskutek oddziaływań z krzemem, dłuższy impuls z danymi zostaje zmuszony do czasowego przybrania właściwości krótszego impulsu. Jego czołowa część zwalnia, a tylna przyspiesza. W efekcie dochodzi do 27-krotnego skompresowania impulsu. Nowa technika ma na razie sporo ograniczeń. Najważniejszym z nich jest ograniczenie długości pakietu, który może zostać poddany takiej kompresji. Obecnie można kompresować dane o długości do 24 bitów, dlatego też, jak powiedział Mark Foster, główny autor badań, konieczne jest wydłużenie czasu, w którym zachodzi kompresja. Ponadto trzeba też opracować odpowiedni system dekompresji. Jednak, jak mówi uczony, technologia jest prosta, a jej zastosowanie wymaga niewielkich nakładów, z pewnością więc będzie rozwijana i zainteresuje się nią przemysł. Można ją też zastosować w chemii i biologii, gdzie pozwoli na szczegółowe badanie błyskawicznie zachodzących procesów, takich jak np. reakcje chemiczne. "Teleskop czasowy" jest tym bardziej obiecujący, że już na początku prac nad nim uzyskano wyjątkowo dobre wyniki.
  20. Jak dowiedziała się "Rzeczpospolita" policja i służby specjalne chcą, by witryny internetowe gromadziły i przechowywały dane o odwiedzających je osobach. Miałoby to pomagać w przyszłych śledztwach. Dane właściciel witryny gromadziłby na własny koszt, a służby miałyby do nich zdalny dostęp przez 24 godziny na dobę, bez wiedzy właściciela witryny i na jego koszt. Pomysł taki pojawił się 8 czerwca na spotkaniu przedstawicieli służb mundurowych. Powołano też grupę roboczą, która ma zaproponować odpowiednie zmiany w ustawie o świadczeniu usług drogą elektroniczną. Właściciele witryn z forami dyskusyjnymi, komunikatorów czy blogów mieliby obowiązek przechowywania informacji przez 5 lat. Przeciwko propozycjom protestują już przedstawiciele portali, prasy oraz prawnicy. Zauważają, że są one niezgodne z Konstytucją i zasadami demokratycznego państwa, narażą prasę na utratę wiarygodności, a portale na poważne koszty. W przypadku największych z nich może to być nawet kilkadziesiąt milionów złotych rocznie. AKTUALIZACJA: Pomysłodawcy opisanego wyżej pomysłu wycofali się z niego.
  21. Organizacja Communications Workers of America (CWA) przeprowadziła badania, z których wynika, że w prędkości dostępu do Sieci USA są 15 lat za światowym liderem - Koreą Południową. W latach 2007-2009 średnia prędkość połączenia internetowego w USA wzrosła jedynie o 1,6 megabita na sekundę. Najwolniej rozwijają się południowe i zachodnie stany, a najgorsza sytuacja jest na Alasce, gdzie średnia prędkość przesyłu danych wynosi 2,3 Mb/s. Przeciętny Amerykanin korzystający z Internetu ma do dyspozycji łącze o prędkości 5,1 Mb/s. Tymczasem w Korei Południowej prędkość ta wynosi 20,4 Mb/s. Z raportu wynika również, że jedynie 20% amerykańskich internautów ma do dyspozycji tak szybkie łącza jak czołowa trójka - Korea Południowa, Japonia i Szwecja. Z kolei w przypadku 18% Amerykanów ich sieć nie spełnia warunków dla "nowoczesnej sieci szerokopasmowej". Federalna Komisja Komunikacji uznaje bowiem, że minimalna, ciągle dostępna prędkość przesyłu danych w takiej sieci wynosi co najmniej 768 kb/s. CWA ocenia, że przy obecnym tempie rozwoju sieć w USA osiągnie obecną wydajność sieci Korei Południowej dopiero za 15 lat. Administracja prezydenta Obamy przeznaczyła 7,2 miliarda dolarów w formie grantów na rozwój sieci w najsłabiej obsługiwanych obszarach. O dotacje te mogą ubiegać się firmy telekomunikacyjne, jednak nie wykazują one zainteresowania rządowymi pieniędzmi. Raport Speed Matters Speed Test został przygotowany na podstawie danych zebranych od 413 000 amerykańskich internautów.
  22. Nasz mózg dostosowuje tor przesyłania sygnałów nerwowych do zaistniałej sytuacji, np. zablokowania używanych wcześniej ścieżek, w ciągu zaledwie kilku sekund. Jest zatem bardziej elastyczny niż dotąd sądzono, a zawdzięczamy to sieci uśpionych połączeń (Journal of Neuroscience). Daniel Dilks z MIT posłużył się plamką ślepą. Jest to miejsce na siatkówce, do którego dochodzi nerw wzrokowy. Nie ma tam żadnych fotoreceptorów, stąd niewrażliwość na światło. Luki w polu widzenia obu oczu nie pokrywają się, dzięki czemu braki jednego są uzupełniane przez dane napływające z drugiego. Sprawa komplikuje się, gdy zasłonimy jedno oko i tak właśnie postąpili Amerykanie. Ustalili, gdzie znajduje się plamka ślepa w drugim oku 48 ochotników. Następnie prezentowali im prostokąty, które znajdowały się na prawo od niej (tuż obok). Zadanie polegało na określeniu długości obu boków po upływie różnego czasu od momentu zasłonięcia oka. Okazało się, że błyskawicznie następowało rozciągnięcie krawędzi figury. Po odsłonięciu oka zaburzenia widzenia proporcji ustępowały tak szybko, jak się pojawiły. Ponieważ zmiana była natychmiastowa, mózg musiał wykorzystać istniejące wcześniej połączenia. Członkowie ekipy Dilksa sugerują, że neurony, które w normalnych okolicznościach wykorzystują dane z drugiego oka do wypełnienia luki w widzeniu, po zasłonięciu go zachowują się jak złodzieje. Sprawdzają, co mają sąsiedzi i sobie to "pożyczają". Kiedy czasowo odcięliśmy dopływ danych do kory wzrokowej, ochotnicy wspominali o przemianie kwadratów w prostokąty. Byliśmy zaskoczeni, stwierdzając, że wrażenie przeniesionego widzenia pojawiło się w ciągu zaledwie 2 sekund. [...] Stało się to tak szybko, iż uważamy, że mózg stale rekalibruje system połączeń – wyjaśnia Nancy Kanwisher. Dilks po raz pierwszy zauważył zjawisko rozciągania kwadratu u pacjenta po przebytym udarze, w wyniku którego część kory wzrokowej została pozbawiona danych wejściowych. Uraz doprowadził do wytworzenia ślepego obszaru w jego polu widzenia. Kiedy kwadrat demonstrowano poza tym rejonem, chory postrzegał prostokąt. Jego kora wzrokowa była pozbawiona dopływu danych przez dłuższy czas, nie wiedzieliśmy więc, jak szybko dorosły mózg zmienia się w wyniku deprywacji. Stąd pomysł na eksperyment ze zdrowymi ludźmi.
  23. Epidemiolog David Van Sickle z University of Wisconsin-Madison obmyślił ciekawy sposób na śledzenie czynników środowiskowych wyzwalających ataki astmy – zamontowanie w inhalatorze odbiornika GPS, który wysyła informacje o swoim położeniu po zaaplikowaniu dawki leku. Naukowiec wstępnie przetestował użyteczność rozwiązania, angażując do współpracy 4 chorych studentów. Dzięki uzyskanym wynikom zdobył fundusze (musiały być zatem zachęcające) i właśnie rozpoczyna program pilotażowy w Madison. Tym razem obejmie on 40 osób. Na razie zgłosiło się 19 ochotników. Na szczęście odbiorniki GPS są już teraz zminiaturyzowane i lekkie jak piórko. Uspokoiło to Van Sickle'a, który obawiał się, że same gabaryty urządzenia będą wywoływać u astmatyków napady duszności. Epidemiologowi marzy się, by w przyszłości GPS znalazł się w tysiącach inhalatorów, co pozwoliłoby na zgromadzenie wielu ważnych danych. W dodatku sami chorzy mogliby lepiej zrozumieć, co i gdzie wywołuje ich objawy. Dla przykładu Van Sickle opowiada o pacjencie, który miał ataki duszności wyłącznie w biurze, nigdy w domu, lecz przed eksperymentem nie przeszło mu nawet przez myśl, że jego przypadłość ma związek z czynnikami charakterystycznymi dla miejsca pracy.
  24. Intel jest jednym ze światowych liderów badań nad krzemową fotoniką. Firma ma na tym polu duże osiągnięcia, o których informowaliśmy już niejednokrotnie. Tym razem, podczas International Solid State Circuits Conference przedstawiciel Intela Ian Young opisał postępy, które jego koncern poczynił w pracach nad stworzeniem fotonicznych komputerów. Firma chce w przyszłości zastąpić wszystkie elektryczne połączenia pomiędzy układami scalonymi połączeniami optycznymi. Young opisał ośmiokanałowe urządzenie, które zostało wykonane w laboratoriach Intela w technologii 90 nenometrów. Jest ono w stanie wysyłać i odbierać dane zakodowane w optycznym sygnale z prędkością 10 gigabitów na sekundę. Intel chce osiągnąć w przyszłości prędkość rzędu 100 GB/s do 1 TB/s. Prototypowy układ to mikroprocesor na którym umieszczono podzespoły optyczne. Jako, że tworzą one osobną warstwę, nie wpływają na pracę tranzystorów i umożliwiają łatwe przesyłanie oraz odbiór światła. Optyczne rozwiązania stają się koniecznością. Wzrastająca wydajność mikroprocesorów i rosnąca liczba rdzeni wymagają zastosowania coraz szybszych połączeń. Young przewiduje, że w przyszłości będą musiały one charakteryzować się wydajnością rzędu 200 GB/s do 1 TB/s. Elektryczne połączenia o takiej wydajności będą coraz bardziej trudne do wykonania i będą wymagały użycia kosztownych materiałów. Stąd propozycja by prąd elektryczny zastąpić światłem. W przedstawionym podczas ISSCC dokumencie Intel opisał cel, do którego dąży. Jest nim zintegrowanie z procesorem światłowodów z azotku krzemu, detektorów połączonych z tymi światłowodami oraz elektrooptycznych polimerowych modulatorów. Firma stara się przy tym, by wdrożenie nowych technologii nie wymagało radykalnych zmian w procesie produkcyjnym i by elementy optyczne mogły być umieszczane w układzie przez tę samą linię, która umieści w nim tranzystory.
  25. Jednym z powszechnych przekonań dotyczących bezpieczeństwa danych jest liczący sobie wiele lat pogląd, iż do skutecznego usunięcia informacji na dysku twardym konieczne jest ich wielokrotne nadpisanie. Ekspert sądowy Craig Wright twierdzi, że udało mu się obalić to przekonanie. Wraz z grupą specjalistów sprawdził, jaka jest szansa na odzyskanie danych po ich jednokrotnym celowym nadpisaniu za pomocą zer. Podczas eksperymentów wykorzystano zarówno starsze 1-gigabajtowe dyski, jak i współczesne HDD oraz mikroskop sił magnetycznych, którym po nadpisaniu badano powierzchnię dysków. Eksperci dowiedli, że jeśli jednokrotnie nadpiszemy dysk zerami, to praktycznie nie ma szans, by odczytać dane. Z ich badań wynika, że mamy 56-procentową szansę na odzyskanie danych z pojedynczego bitu, którego lokalizację dokładnie znamy. By odczytać bajt musimy ośmiokrotnie bardzo precyzyjnie wypozycjonować głowicę zapisująco-odczytującą HDD. Szansa, że nam się to uda wynosi 0,97%. Odzyskanie czegokolwiek poza pojedynczym bajtem jest jeszcze mniej prawdopodobne. Tymczasem firmy oferujące oprogramowanie do usuwania danych z dysku, proponują software, który nadpisuje HDD aż 35-krotnie. Zdaniem Wrighta to tylko i wyłącznie strata czasu. Wielokrotne nadpisywanie danych było standardem przed laty przy zabezpieczaniu dyskietek. Niezwykle ważne jednak jest, by, jeśli chcemy na trwałe wyczyścić dysk twardy, nadpisać go całego, sektor po sektorze, a nie tylko te fragmenty, na których znajdują się pliki, które chcemy usunąć. Podczas pracy systemy operacyjne tworzą bowiem wiele różnych kopii tego samego pliku i przechowują je niewidoczne w różnych miejscach.
×
×
  • Dodaj nową pozycję...