Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'dane' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 61 wyników

  1. Inżynierowie w University of Texas at Austin stworzyli najmniejsze w dziejach urządzenie do przechowywania danych. Profesor Deji Akiwande i jego zespół opierali się na opisywanych już przez nas badaniach, w czasie których powstał atomistor, najcieńsze urządzenie do składowania danych. Teraz naukowcy poczynili krok naprzód zmniejszając przekrój swojego urządzenie do zaledwie 1 nm2. Kluczem do dalszej redukcji rozmiarów urządzenia było dobre poznanie właściwości materiałów w tak małej skali i wykorzystanie roli defektów w materiale. Gdy pojedynczy dodatkowy atom metalu wypełnia dziurę, przekazuje materiałowi nieco ze swojego przewodnictwa, co prowadzi do zmiany czyli pojawienia się efektu pamięciowego, mówi Akinwande. Mniejsze układy pamięci pozwolą na stworzenie mniejszych komputerów i telefonów. Układy takie zużywają też mniej energii, pozwalają przechować więcej danych w mniejszej przestrzeni, działają też szybciej. Wyniki tych badań przecierają drogę do opracowania przyszłych generacji interesującego Departament Obrony sprzętu takiego jak ultragęste układy pamięci, neuromorficzne systemy komputerowe, systemy komunikacyjne działające w zakresie fal radiowych i inne, mówi Pani Veranasi, menedżer w US Army Research Office, które finansowało najnowsze badaniach. Atomristor, na którym oparto najnowsze badania, był już najcieńszym układem pamięci. Jego grubość wynosiła zaledwie 1 atom. Jednak dla zmniejszenia urządzeń ważny jest również ich przekrój poprzeczny. Tym, czego poszukiwaliśmy było spowodowanie by pojedynczy atom kontrolował funkcje pamięci. Udało się nam to osiągnąć, mówi Akinwande. Nowe urządzenie należy do kategorii memrystorów, urządzeń zdolnych do modyfikowania oporności pomiędzy dwoma punktami końcowymi bez potrzeby używania bramki w roli pośrednika. Opracowana właśnie odmiana memrystora, którą stworzono dzięki wykorzystaniu zaawansowanych narzędzi z Oak Ridge National Laboratory, daje szanse na osiągnięcie gęstości zapisu rzędu 25 Tb/cm2. To 100 krotnie więcej niż obecnie dostępne komercyjne układ flash. Nowy układ pamięci wykorzystuje dwusiarczek molibdenu (MoS2). Jednak jego twórcy zapewniają, że w tej roli można wykorzystać setki innych materiałów o podobnej budowie. « powrót do artykułu
  2. Na internetowych czarnych rynkach pojawiła się oferta sprzedaży danych 92 milionów Brazylijczyków. Jej cena wywoławcza to 15 000 dolarów. Wiadomo, że oferentem jest ktoś zarejestrowany jako X4Crow, a bazę wystawiono na wielu forach, do których dostęp uzyskuje się za zaproszeniem lub poprzez płatną rejestrację. Jak twierdzi sprzedający, baza zawiera nazwiska, daty urodzenia oraz identyfikatory podatkowe około 92 milionów Brazylijczyków. Baza w formacie SQL zajmuje 16 gigabajtów, a zaprezentowane fragmenty wskazują, że jest ona podzielona na poszczególne stany. Witryna BleepingComputer poinformowała, że otrzymała próbkę bazy danych. Dziennikarze potwierdzili, że dane te są prawdziwe oraz zawierają m.in. informacje o nazwisku matki. Nie wiadomo, co jest źródłem bazy, jednak sprzedający poinformowali dziennikarzy, że pochodzi ona ze źródeł rządowych. Sprzedający twierdzą, że dzięki informacjom z tej bazy możliwe jest pozyskanie dodatkowych informacji, jak dane z dowodów osobistych czy praw jazdy. Niewykluczone, że możliwe jest też zdobycie innych danych osobowych, jak numery telefonów, e-maili, informacji o zawodzie, wykształceniu, członkach rodziny, numerach rejestracyjnych pojazdów i wielu innych. Próba sprzedaży danych dotyczących milionów obywateli Brazylii to kolejny w ostatnich tygodniach przykład na masowy wyciek danych z instytucji rządowych. We wrześniu wycikeły informacje na temat około 20 milionów obywateli Ekwadoru, a na początku października do sieci trafiły informacje podatkowe dotyczące około 20 milionów obywateli Rosji. « powrót do artykułu
  3. Dzisiaj administracja prezydenta Obamy ma oficjalnie zaprezentować zarys dokumentu [PDF] określanego jako Bill of Rights (Karta Praw) prywatności. To oczywiste nawiązanie do konstytucyjnego Bill of Rights, czyli dziesięciu pierwszych poprawek do Konstytucji USA, które gwarantują podstawowe wolności obywatelskie. Zdaniem urzędników z Białego Domu nowe przepisy powinny gwarantować użytkownikom prywatność w internecie. Mają się one opierać na następujących zasadach: - indywidualnej kontroli. Użytkownik ma prawo do kontrolowania danych zbieranych na jego temat przez firmy oraz powinien być poinformowany, w jaki sposób są one używane. - przejrzystości. Użytkownik powinien posiadać łatwy dostęp do napisanej w sposób dlań zrozumiały polityki prywatności i bezpieczeństwa. - zachowanie kontekstu: Użytkownik ma prawo oczekiwać, że firmy będą zbierały, używały i ujawniały dane w sposób, który jest zgodny z kontekstem, w jakim dane zostały im dostarczone. - bezpieczeństwo: Użytkownik ma prawo oczekiwać, że dane będą przechowywane w sposób bezpieczny i odpowiedzialny. - dostęp i dokładność: Użytkownik ma prawo dostępu i poprawiania swoich danych, które powinny być mu prezentowane w sposób umożliwiający przeprowadzani takich informacji. Zmiana danych powinna odbywać się tak, by informacje pozostawały bezpieczne i by uwzględniać ryzyko związane z pojawieniem się niedokładnych danych. - precyzja: Użytkownik ma prawo do ograniczenia ilości informacji, jakie na jego temat firmy zbierają i przechowują. - odpowiedzialność: Użytkownik ma prawo oczekiwać,że jego dane będą zbierane tylko przez firmy, które posiadają odpowiednie mechanizmy zapewniające, że Consumer Privacy Bill of Rights będzie przestrzegane.
  4. Po skandalu Carrier IQ w Izbie Reprezentantów złożono projekt ustawy, która ma zapewniać lepszą ochronę klientom sieci telefonii komórkowych. Mobile Device Privacy Act został złożony przez Edwarda Markeya’a z Partii Demokratycznej. Ustawa przewiduje, że „konsumenci mają prawo wiedzieć jakie oprogramowanie, które zbiera i przesyła ich dane osobiste, jest obecne na urządzeniu przenośnym i mają prawo nie zgodzić się na jego obecność“. Przewidziano też, że w przyszłości zbieranie i przesyłanie danych nie będzie możliwe bez wyraźnej zgody użytkownika. Ponadto firmy, które chciałyby przekazać takie dane firmom trzecim, będą musiały uzyskać zgodę Federalnej Komisji Handlu i Federalnej Komisji Komunikacji. Ustawa nakłada też na sprzedawców urządzeń mobilnych informowanie użytkownika o tym, czy na urządzeniu zainstalowano oprogramowanie zbierające dane, jakie dane są zbierane, do kogo zostają wysłane i w jakim celu są używane. Firmy zbierające dane będą zaś musiały odpowiednio je zabezpieczyć. Teraz Markey musi znaleźć odpowiednie poparcie dla swojej ustawy, co pozwoli prowadzić nad nią dalsze prace.
  5. Prokuratorzy federalni prowadzący śledztwo przeciwko Megaupload poinformowali, że już w najbliższy czwartek może rozpocząć się usuwanie danych z serwerów serwisu. Jak rozumiemy, firmy hostingowe mogą rozpocząć usuwanie zawartości serwerów już 2 lutego 2012 roku - napisał w przesłanych do sądu dokumentach prokurator Neil H. MacBride. Z dokumentów prokuratury, które w piątek trafiły do sądu, dowiadujemy się, że śledczy zakończyli przeszukiwanie serwerów i skopiowali część danych. MacBride poinformował sąd, że żadne dane nie zostały z maszyn usunięte. Nakaz przeszukania został wykonany, a że jego ważność wygasła, organy ścigania nie mają już dostępu do serwerów. Prokurator poinformował jednocześnie, że firmy hostingowe odzyskały do nich dostęp i to do tych firm powinni zwracać się użytkownicy, chcący odzyskać pliki. Serwery były przeszukiwane na miejscu, śledczy nigdzie ich nie przewozili. Nadal znajdują się one w siedzibach firm hostingowych Carpathia Hosting i Cogent Communications. Nie jest jasne, dlaczego jakakolwiek zawartość miałaby zostać usuwana. Tym bardziej, że na serwerach znajdują się również legalne treści należące do milionów użytkowników Megaupload. Przedstawiciele Carpathia Hosting oświadczyli iż śledczy się mylą i że ich firma nie ma i nigdy nie miała dostępu do danych Megaupload. Nie ma też żadnych możliwości „zwrócenia“ użytkownikom ich treści. Przedstawiciele firmy poradzili osobom, które chciałyby odzyskać swoje dokumenty, by kontaktowały się bezpośrednio z Megaupload. Nie jest też jasne, dlaczego w prokurator MacBride zasugerował datę 2 lutego. Prawnik Megaupload poinformował, że Carpathia i Cogent są firmami, którym serwis płacił za świadczenie usług hostingowych. Aktywa Megaupload zostały zamrożone, więc w tej chwili dalsze opłacanie abonamentu jest niemożliwe. Wyrażono jednak nadzieję, że uda się dojść do porozumienia. Najprawdopodobniej zatem informacja o usuwaniu zawartości serwerów nie oznacza, iż Carpathia i Cogent otrzymały polecenie, by to zrobić. Śledczy zakończyli sprawdzanie maszyn, więc można wyczyścić dyski, bez narażenia się na zarzut o niszczenie dowodów. Prawdopodobnie od decyzji Carpathia i Cogent będzie zależało, czy mimo braku opłat ze strony Megaupload zdecydują się na pozostawienie danych na serwerach. Głównym problemem dla użytkowników jest obecnie blokada nałożona przez prokuraturę na adres megaupload.com
  6. FBI ogłosiło, że szuka firm zdolnych do wykonania narzędzi pozwalających skuteczniej zbierać informacje z ogólnodostępnych źródeł z internetu. Biuro jest zainteresowane przede wszystkim danymi z serwisów społecznościowych. Ma to pozwolić na lepsze identyfikowanie, namierzanie i zwalczanie zagrożeń w czasie rzeczywistym. Na razie FBI robi rozeznanie na rynku, by zorientować się, co mogą mu zaoferować ewentualni zleceniobiorcy takiego zlecenia. Nowa aplikacja ma działać na zabezpieczonym portalu, musi być w stanie wyszukiwać i selekcjonować informacje tak, by możliwe było szybkie zlokalizowanie interesujących FBI wydarzeń. Zadaniem programu będzie skanowanie ogólnodostępnych źródeł informacji pod kątem zdefiniowanych wcześniej słów kluczowych. Zdobyte dane będą nakładane na cyfrową mapę, na której zostanie zidentyfikowane miejsce wydarzenia wraz ze wszystkimi danymi kontekstowymi, takimi jak np. dane o aktach terroru w okolicy, lokalizacji placówek dyplomatycznych USA, lokalizacji baz wojskowych i innych instalacji militarnych, dane o aktualnej pogodzie i prognozach, informacje o natężeniu ruchu drogowego i inne. Narzędzie będzie tez udoskonalane tak, by pozwalało ono przewidywać przyszłe wydarzenia. Zaskakujący może być tutaj jedynie fakt, że FBI najwyraźniej jeszcze nie posiada tego typu narzędzi. CIA, o czym pisaliśmy już wcześniej, korzysta z usług „mściwych bibliotekarzy“.
  7. Komisja Europejska zaproponuje jutro przepisy, które dadzą użytkownikom prawo do domagania się od serwisów społecznościowych i innych firm usunięcia wszelkich informacji na ich temat. Przedsiębiorstwa będą musiały spełnić takie żądanie, chyba, że istnieje „uzasadniony“ powód, by odmówić usunięcia danych. Eurourzędnicy mówią, że nowe przepisy mają pomóc przede wszystkim młodym ludziom w kontrolowaniu informacji na swój temat. Oczywiście, jak wyjaśnił rzecznik prasowy Komisarz ds. Sprawiedliwości, nie będzie można żądać usunięcia danych policyjnych czy medycznych. Dodał przy okazji, że już co prawda obecne przepisy przewidują zasadę „minimalizacji danych“, teraz jednak zasada zostanie wzmocniona poprzez ogłoszenie jej „prawem“. Nowe przepisy przewidują też, że w razie włamania i kradzieży danych przedsiębiorstwa będą musiały poinformować poszkodowanych o tym fakcie „tak szybko jak to możliwe“. Komisarz ds. Sprawiedliwości stwierdziła, że w normalnych okolicznościach informacja powinna zostać przekazana w ciągu 24 godzin. Firmy muszą też uzyskiwać zgodę na przetwarzania danych osobowych, nie mogą opierać się na zasadzie domniemania zgody. Ponadto internauci mają być informowani w jakim celu zbierane są informacje na ich temat. Jednocześnie od zasady tej będą istniały wyjątki. „Dobrym przykładem jest tu chociażby tworzenie archiwum artykułów prasowych. Oczywistym jest, że prawo do ‚bycia zapomnianym’ nie może być prawem do całkowitego usunięcia z historii“ - mówi komisarz Reding. Jeśli nowe przepisy zostaną uchwalone, powstanie ogólnoeuropejski zestaw przepisów dotyczących prywatności. Będą one obowiązywały również wszystkie firmy działające na terenie UE, nawet jeśli dane przechowywane są na serwerach poza Unią. Microsoft i Facebook już oświadczyły, że przepisy mogą być zbyt restrykcyjne i poprosiły o wyjaśnienie, jakie dane i w jakim stopniu mogą być kontrolowane przez użytkownika. Google i Yahoo odmówiły na razie komentarzy.
  8. Włamanie na serwery Climate Research Unit na University of East Anglia wywołało sporą burzę w internecie. Anonimowy haker ujawnił bowiem e-maile, z których może wynikać, że naukowcy tak manipulowali danymi, by zagrożenie związane z globalnym ociepleniem wyglądało na większe, niż jest w rzeczywistości. Climate Research Unit to wiodąca brytyjska placówka zajmująca się badaniami nad klimatem. Z jej serwerów ukradziono ponad 1000 listów elektronicznych i ponad 3000 dokumentów, które zostały umieszczone następnie na jednym z rosyjskich serwerów. Maile pochodzą z okresu 10 lat. Jedno z bardziej kontrowersyjnych stwierdzeń pada w liście z 1999 roku, którego nadawcą jest Phil Jones, dyrektor ośrodka badawczego. Właśnie wykonałem sztuczkę Mike'a z dodaniem danych dla każdej z serii z ostatnich 20 lat (np. od roku 1981) i z 1961 by ukryć spadek - pisał Jones. Naukowiec pytany o to, co oznaczały słowa "ukryć spadek" stwierdził, że nie pamięta, w jakim kontekście użył ich w liście sprzed 10 laty. Inny z listów Jonesa, wysłany w ubiegłym roku, został zatytułowany "IPCC i FOI". Jego adresatem jest Michael Mann, dyrektor Earth System Science Center na University of Pennsylvania. Jones prosi go, by wykasował pewne maile. Blogerzy twierdzą, że Jones chciał w ten sposób zniszczyć dane, których ujawnienia domagał się od 2002 roku Steve McIntyre, autor bloga Climate Audit. Kolejnym budzącym wątpliwości listem jest e-mail wysłany przez Kevina Trenberetha, szefa Climate Analysis Section w National Center for Atmospheric Research. Napisałem artykuł o tym, gdzie do diabła podziało się globalne ocieplenie? Pytamy o to, bo tutaj, w Boulder w ciągu ostatnich dwóch dni padł rekord niskiej temperatury. Mamy 4 cale śniegu. Najwyższa temperatura wynosiła mniej niż 30 stopni Fahrenheita, podczas gdy normalne temperatury to 69F. Poprzedni rekord zimna został pobity o 10F. Najniższa temperatura, jaką zanotowaliśmy wyniosła 18F i był to rekordowo niski poziom. [...] Dane CERES, opublikowane w August BAMS 09 za rok 2008 wskazują, że powinno być cieplej, ale dane te z pewnością są błędne. Mamy zły system obserwacji. Autor listu przyznaje, że jest on prawdziwy. Zwraca jednak uwagę na artykuł, o którym wspomina na jego początku. Pisał w nim, że globalne ocieplenie jest faktem, chociaż zdarzają się przypadkowe zaburzenia temperatur, które mogą sugerować, że jest inaczej. Trenberth mówi, że jego e-mail mówi o tym, że naukowcy nie mają odpowiedniego systemu obserwacji fluktuacji temperatury, jednak istnieje wiele innych wskaźników oprócz średnich globalnych temperatur (np. topnienie lodów na biegunach czy podnoszenie się poziomu oceanów), które dowodzą, że ocieplenie jest faktem. Komentarze po ujawnieniu listów nie są jednoznaczne. Dla osób, które twierdzą, że globalne ocieplenie nie ma miejsca, są one dowodem na spisek. Z kolei komentujący sprawę naukowcy mówią, że żaden z e-maili nie daje dowodów na istnienie jakichkolwiek fałszerstw, a cytujący poszczególne listy wyrywają ich znaczenie z kontekstu całej wymiany opinii.
  9. Choć narcyz wydaje się świetnym szefem, w rzeczywistości wcale nim nie jest. Jego chęć do błyszczenia hamuje bowiem swobodny przepływ informacji i pomysłów w grupie. Doktorantka Barbora Nevicka i jej koleżanki z Uniwersytetu Amsterdamskiego Femke Ten Velden, Annebel De Hoogh oraz Annelies Van Vianen zwerbowały 150 ochotników i podzieliły ich na 3-osobowe grupy z losowo wybieranym liderem. Badanych poinformowano, że mogą udzielać rad, ale ostateczną decyzję ws. zatrudnienia kandydata na dane stanowisko podejmie szef. Z 45 informacji dotyczących aplikanta niektóre udostępniono wszystkim trzem członkom zespołu, a inne tylko jednej osobie. Holenderki tak zaplanowały eksperyment, by wybór oparty na udostępnionych wszystkim danych nie był optymalny. Wyłącznie współdziałanie i dzielenie się informacjami ujawnionymi tylko jednej osobie z grupy gwarantowało zatrudnienie najlepszego fachowca. Po ukończeniu zadania ochotnicy wypełniali kwestionariusze. W przypadku lidera pytania pozwalały oszacować nasilenie narcyzmu, a pozostali członkowie zespołu punktowali skuteczność i autorytet przywódcy. Poza tym wszyscy odznaczali znane im stwierdzenia z 45-elementowego zestawu informacji i oceniali wymianę informacji w grupie. W ramach analizy panie psycholog zliczyły znane wszystkim fakty, dokonały obiektywnej oceny jakości podjętej decyzji i zestawiły to z poziomem narcyzmu lidera. Okazało się, że badani uznawali najbardziej narcystycznych przywódców za najbardziej skutecznych, ale obiektywnie takie osoby działały najbardziej egoistycznie i wybierały najgorszego kandydata. Narcystyczni liderzy mieli wyjątkowo negatywny wpływ na wyniki. Z powodu skoncentrowania na sobie i autorytaryzmu hamowali komunikację. O ile w organizacji narcyz się nie sprawdzi, może odegrać pozytywną rolę jako osoba konsolidująca ludzi w sytuacjach kryzysowych. Ktoś zdecydowany i przejmujący kontrolę zmniejszy bowiem niepewność i poziom stresu.
  10. Na North Carolina State University powstała pamięć komputerowa, która jest miękka i dobrze pracuje w środowisku o wysokiej wilgotności. Stworzyliśmy pamięć, której właściwości fizyczne przypominają żelki - mówi doktor Michael Dickery. Nasze urządzenie jest miękkie, sprężyste i działa wyjątkowo dobrze w wilgotnym środowisku - jest zatem podobne do mózgu - dodaje. Nowa pamięć jest zbudowana z płynnego stopu galu i indu umieszczonych w żelu bazującym na wodzie. Żel podobny jest do wykorzystywanego w zastosowaniach biologicznych. Na razie urządzenia nie optymalizowano pod kątem przechowywania jak największej ilości informacji, jednak już same właściwości fizyczne czynią je wyjątkowo obiecującym rozwiązaniem. Może ono znaleźć zastosowanie w czujnikach biologicznych czy urządzeniach medycznych monitorujących np. stan pacjenta. Nowe urządzenie może charakteryzować się dwoma stanami - w jednym przewodzi prąd, w drugim nie. W przeciwieństwie do tradycyjnych układów scalonych nośnikiem danych nie są elektrony a jony. Przyłożenie do elektrody ładunku dodatniego powoduje, że wokół niej żel tworzy utlenioną warstwę, która nie przepuszcza ładunków. Po przyłożeniu ładunku ujemnego, warstwa utleniona znika i żel ponownie przewodzi prąd.
  11. Reuters donosi, że amerykańskie organa ścigania coraz częściej otrzymują od sądów pozwolenie na przeszukanie profili użytkowników Facebooka. Od roku 2008 przeszukań takich dokonano ponad 20 razy. Od początku bieżącego roku sądy wydały 11 nakazów przeszukania, czyli dwukrotnie więcej niż w analogicznym okresie roku ubiegłego. Użytkownicy nie zawsze są informowani o przeszukaniach. W sądowych nakazach najczęściej pojawiają się żądania udostępnienia organom ścigania mechanizmów „Neoprint" i „Photoprint", czyli bardzo szczegółowych zestawów danych tekstowych i fotograficznych, które nie są nawet dostępne samym użytkownikom. Terminy te pojawiają się nawet w podręcznikach dla organów ścigania, instruujących jak uzyskiwać informacje z Facebooka. Sam Facebook nie chciał potwierdzić istnienia takich mechanizmów. Oprócz policji Facebooka przeszukiwało FBI, agencja antynarkotykowa (DEA) oraz urząd imigracyjny (ICE). Spektrum spraw, których dotyczyło przeszukanie, było bardzo szerokie - od podpaleń, poprzez gwałty po terroryzm. Co ciekawe, żadnego z nakazów przeszukań nie próbowano obalić na gruncie Czwartej Poprawki. Eksperci mówią, że mogło dziać się tak dlatego, iż osoby, których profile są przeszukiwane, nie są o tym fakcie informowane. Prawo jednak nie wymaga, by Facebook czy władze informowały podejrzanych o przeszukaniu ich profili internetowych. Mogą się oni o tym dowiedzieć w momencie postawienia zarzutów, gdyż prokuratura ma obowiązek przedstawienia materiału dowodowego. Wiadomo, że Twitter i wiele innych portali społecznościowych na własną ręką informują użytkowników o przeszukaniu ich profili. Co więcej przed paroma miesiącami Twitter skutecznie odwołał się od wyroku sądu, który zakazywał mu informowanie podejrzanych o przeszukaniach. Nie wiadomo, czy Facebook w ogóle informuje użytkowników. Wiadomo, że w kilku przypadkach tego nie zrobił. Tak było np. podczas śledztwa FBI przeciwko czterem młodym satanistom, który spalili kościół czy też w czasie dochodzenia prowadzonego przez DEA przeciwko psychiatrze z Hollywood, który rozprowadzał środki psychotropowe wśród celebrytów, a którego profil został przeszukany tydzień po aresztowaniu. Przeszukania profili społecznościowych rodzą interesujący problem prawny, który wcześniej czy później będzie musiał zostać rozstrzygnięty. Pojawia się bowiem pytanie, do kogo należą dane przechowywane w takich serwisach. W roku 1976 w sprawie United States v. Miller Sąd Najwyższy USA niejednogłośnie stwierdził, że bank nie musiał informować swojego klienta o przeszukaniu jego konta bankowego przez agentów Biura ds. Alkoholu, Tytoniu i Broni Palnej. Sąd uznał, że oskarżony nie może powoływać się na Czwartą Poprawkę i twierdzić, iż przeszukanie było nielegalne, gdyż dane były własnością banku. Kwestia danych w serwisach społecznościowych jest podobna, ale nie identyczna. Przechowywane są tam bowiem inne informacje i jest ich znacznie więcej. Sami sędziowie są podzieleni co do tej kwestii. Dlatego też eksperci uważają, że wcześniej czy później będzie ją musiał wyjaśnić Sąd Najwyższy. Na razie Sąd uniknął jednoznacznego opowiedzenia się po którejś ze stron. W czasie niedawnej sprawy Ontario v. Quon, w której policjant oskarżył pracodawcę o naruszenie Czwartej Poprawki, gdyż pracodawca przeszukał jego służbowy pager, z którego policjant wysyłał erotyczne wiadomości, Sąd stwierdził, że przeszukanie nie było nielegalne, ale nie określił, jak dużo prywatności można oczekiwać w sytuacji, gdy nasze dane elektroniczne są przechowywane przez strony trzecie.
  12. Microsoft postanowił zapobiec ewentualnym oskarżeniom o naruszenie prywatności i postanowił... otworzyć kod oprogramowania zbierającego informacje na temat punktów dostępowych Wi-Fi. Tego typu informacje są zbierane w celu udostępnienia usług lokalizacyjnych, jednak gdy odkryto, że zbierają je Apple i Google, wpłynęło to negatywnie na wizerunek obu firm. Koncern Ballmera chce uniknąć tego typu problemów. Mimo, że nie udostępnił pełnego kodu źródłowego, to ujawnił kod aplikacji odpowiedzialnej za zbieranie danych. Można zatem przekonać się jakie dane i jak wiele jest zbieranych i przesyłanych na serwery firmy. Microsoft zauważa też, że nie zbiera żadnych informacji na temat tego, co użytkownik przesyła przez sieć. Okrycie, że takie dane zbiera Google ściągnęło na firmę Page'a i Brina gromy ze strony użytkowników, mediów i władz różnych krajów.
  13. W laboratoriach IBM-a dokonano przełomowego postępu na drodze do stworzenia praktycznych pamięci zmiennofazowych (PCM). Ekspertom Błękitnego Giganta udało się przechować przez dłuższy czas wiele bitów informacji w pojedynczej komórce pamięci. To z kolei daje nadzieję, że za około 5 lat PCM zaczną się upowszechniać. Naukowcy z laboratoriów w Zurichu opracowali nową technikę modulacji, która toleruje samoistne zmiany oporności, co w dłuższym czasie prowadzi do błędów odczytu danych. Dotychczas udawało się stabilnie przechowywać tylko pojedynczy bit danych w komórce. W PCM dane przechowywane są dzięki zmianie oporności, do której dochodzi podczas zmiany fazowej materiału z krystalicznej w amorficzną. Materiał umieszczony jest pomiędzy dwiema elektrodami. Przepuszczenie przez nie prądu powoduje podgrzanie materiału i zmianę fazy. Ponadto, w zależności od przyłożonego napięcia można decydować, jaka część materiału przejdzie zmianę, co z kolei bezpośrednio wpływa na oporność poszczególnych komórek pamięci. Właściwość tę wykorzystali naukowcy IBM-a, którzy podczas swoich eksperymentów użyli czterech różnych poziomów oporności do przechowania czterech kombinacji bitów - 00, 01, 10 i 11. Mogli to osiągnąć, dzięki ulepszeniu procesu odczytywania i zapisywania danych. Aby uniknąć niepożądanych różnic w oporności, spowodowanych budową komórki czy niedoskonałościami materiału, opracowali sposób płynnego manipulowania napięciem w zależności od założonego efektu. Przykładamy napięcie bazując na odchyleniach od zakładanego poziomu i wówczas mierzymy oporność. Jeśli wymagany poziom oporności nie został osiągnięty, impuls elektryczny jest wysyłany ponownie i znowu mierzymy oporność. Powtarzamy to tak długo, aż osiągniemy jej wymagany poziom - mówi doktor Haris Pozidis, dyrektor Memory and Probe Technologies w IBM Research. Pomimo używania takiej techniki, największe opóźnienie w zapisie danych wyniosło około 10 mikrosekund, co oznacza, że w najgorszym wypadku zapis danych w PCM jest 100-krotnie szybszy niż w pamięciach flash. Z kolei aby bezbłędnie odczytać dane po dłuższym czasie konieczne było poradzenie sobie ze zmianami oporności, jakie zachodzą w materiale amorficznym. Ze względu na budowę atomową takiego materiału, jego oporność z czasem rośnie, co wywołuje błędy w odczycie danych. Eksperci IBM-a opracowali technikę kodowania odporną na te zmiany. Wykorzystuje ona fakt, że właściwości komórek z danymi nie zmieniają się w czasie względem innych komórek o innej oporności. Dzięki temu byli w stanie odczytać po dłuższym czasie dane z 200 000 komórek pamięci zmiennofazowej wykonanej w technologii 90 nanometrów. Testy trwały pięć miesięcy, dowodząc możliwości długotrwałego wiarygodnego przechowywania danych.
  14. Na brytyjskim University of Exter przeprowadzono eksperymenty, które wykazały, że możliwe jest jednoczesne przechowywanie danych i ich przetwarzanie w tym samym miejscu. Jeśli udałoby się zbudować komputer działający w ten sposób, to pracowałby on podobnie do systemów biologicznych. Obecnie komputery wykorzystują osobne systemy do przechowywania i przetwarzania informacji, co znacząco spowalnia ich pracę. Podczas eksperymentów uczeni wykorzystali materiał zmiennofazowy. Udowodnili za jego pomocą, że tego typu materiały mogą jednocześnie wykonywać podstawowe działania matematyczne i przechowywać dane na których pracują. To z kolei pokazuje, że materiały zmiennofazowe mogą być używane do budowy sztucznych neuronów i synaps. Na razie prowadzono eksperymenty badające wydajność pojedynczej komórki zmiennofazowej. W kolejnej fazie uczeni zbudują system składający się z wielu komórek, którego celem będzie wypełniania prostych zadań, takich jak rozpoznawanie obiektów i wzorców działania.
  15. Niemieccy naukowcy z Instytutu Technologii w Karlsruhe przesłali w promieniu lasera dane z prędkością 26 terabitów na sekundę i skutecznie je rozkodowali. Sukces zespołu profesora Jürga Leutholda był możliwy dzięki opracowaniu nowej metody rozkodowywania danych. Opto-elektryczna metoda polega na rozbiciu danych optycznych na strumienie tak, by ilość informacji trafiająca do dekodera była bardziej uporządkowana. Jest to konieczne, gdyż nie istnieją elektryczne dekodery zdolne do pracy z częstotliwością 26 terabitów na sekundę. Zespół Leutholda zastosował używaną w komunikacji mobilnej technikę OFDM (Orthogonal Frequency-Division Multiplexing), metodę polegającą na jednoczesnej transmisji wielu strumieni danych w ortogonalnych częstotliwościach. Bazuje ona na szybkich transformacjach Fouriera. Wyzwaniem było zwiększenie prędkości całego procesu nie o 1000, ale o niemal milion, by osiągnąć prędkość przetwarzania danych rzędu 26 terabitów na sekundę. Decydujące okazało się zaimplementowanie matematycznego wzorca w optyce - mówi Leuthold. Uzyskane przez nas wyniki pokazują, że nie przekroczyliśmy jeszcze fizycznej granicy transferu danych - dodaje uczony. Kilka lat temu osiągnięcie prędkości 26 Tb/s było uważane za utopię, nawet jeśli mówiono o wykorzystaniu systemów z wieloma laserami. Nie istniał żaden przykład takiej transmisji. Przesyłając 26 terabitów na sekundę można jednocześnie obsłużyć do 400 milionów połączeń telefonicznych. Wówczas nikt nie potrzebował tak szybkich transmisji. Teraz sytuacja jest inna - mówi. Rosnący popyt na transmisję wideo powoduje, że konieczne jest stosowanie łączy o coraz większej przepustowości. Układane są pierwsze kable pozwalające na przesyłanie 100 gigabitów na sekundę, a naukowcy w wielu instytucjach badawczych skupiają się nad rozwojem technologii pozwalających przesłać od 400 Gb/s do 1 Tb/s. Profesor Wolfgang Freude, współautor badań, zauważa, że inny zespół zaprezentował już transmisję rzędu 100 Tb/s. Problem w tym, że oni nie użyli jednego, ale 370 laserów. To niezwykle kosztowne przedsięwzięcie. Jeśli wyobrazimy sobie taki system, będzie on zajmował wielkie szafy i zużywał kilowaty energii - mówi. Tymczasem Niemcy przesłali 26 terabitów w ciągu sekundy za pomocą jednego lasera, korzystając z optycznego grzebienia częstości. Jest to taki rodzaj promienia, którego widmo składa się z wielu równoodległych częstości. W ten sposób pracuje laser femtosekundowy, który ma szerokie widmo. Transformacje Fouriera pozwalają na wydzielenie różnych kolorów z promienia lasera na podstawie czasu przybycia do celu różnych jego części. Niemcy optycznie rozdzielili różne kolory, a następnie połączyli je w dekoderze. W ten sposób lepiej zorganizowano dane, które przybywają w różnym czasie, co pozwoliło na ich efektywne dekodowanie. System opracowany w Karlsruhe może zostać zintegrowany w układzie scalonym, co w przyszłości umożliwi jego praktyczne wykorzystanie.
  16. Każdy, kto miał do czynienia z komputerem wie, że podczas pracy urządzenie to emituje ciepło. Tymczasem fizycy teoretyczni doszli do wniosku, że procesy obliczeniowe mogą czasem nie tylko nie generować ciepła, ale nawet chłodzić. Profesor Renato Renner ze Szwajcarskieg Instytut Technologii (ETH) i Vlatko Vedral z Narodowego Uniwersytetu Singapuru i University of Oxford wraz z kolegami opisali w piśmie Nature w jaki sposób usuwanie danych może wywoływać efekt chłodzenia zamiast generować ciepło. Uczeni zauważyli, że w pewnych warunkach gdy pojawia się kwantowe splątanie, dochodzi do chłodzenia. Niewykluczone, że możliwe będzie wykorzystanie tego efektu do chłodzenia superkomputerów. Uzyskanie kontroli na poziomie kwantowym, co jest konieczne do wykorzystania tego zjawiska do chłodzenia superkomputerów, będzie trudne ale nie niemożliwe. W ciągu ostatnich 20 lat byliśmy świadkami olbrzymiego postępu w technologiach kwantowych - mówi Vedral. Już dzisiaj, jego zdaniem, technika pozwala na przeprowadzenie eksperymentu z udziałem kilku bitów, który pozwoliłby na potwierdzenie teoretycznych obliczeń. W roku 1961 Rolf Landauer, fizyk pracujący dla IBM-a sformułował swoją zasadę mówiącą, że wymazanie bitu informacji wymaga utraty energii w postaci ciepła. Wykazał też, że istnieje fizyczna granica minimalnego wydatku energii potrzebnego do wykasowania informacji. A to z kolei oznacza, że nadejdzie chwila, w której nie będzie możliwe zmniejszenie produkcji ciepła, co przy rosnącym zagęszczeniu układów elektronicznych i ich coraz bardziej wydajnej pracy oznacza, iż będą one produkowały coraz więcej ciepła. Obecnie taka sytuacja nam nie grozi, ale profesor Renner przewiduje, że granicę wyznaczoną przez Landauera możemy osiągnąć w ciągu 10-20 lat. Ciepło generowane przez usuwanie danych z 10-terabajtowego HDD liczone jest w milionowych częściach dżula. Jednak ilość ta sumuje się, gdy wykonujemy wielu operacji kasowania w ciągu sekundy. Naukowcy dodali do zasady Laudauera rozważania na temat wartości kasowanego bitu. Jeśli znamy zawartość komórki pamięci, którą kasujemy, to teoretycznie możliwe jest usunięcie bitu w taki sposób, że możliwe będzie jego odtworzenie. Już wcześniej dowiedziono, że tego typu „odwracalne" kasowanie nie generuje ciepła. W swoich rozważaniach Renner i Vedral posuwają się o krok dalej. Dowiedli oni teoretycznie, że jeśli kasowany bit jest kwantowo splątany ze stanem obserwatora, obserwator może wycofać energię cieplną z systemu w czasie usuwania bitów. A to oznacza, że kasowanie będzie chłodziło komputer. Aby dojść do takich wniosków uczeni połączyli to, co na temat entropii mówią teoria informacji i termodynamika. W teorii informacji entropia to wynik pomiaru gęstości informacji. Dzięki niej dowiadujemy się np. jaką ilość miejsca w pamięci zajmie dana informacja po optymalnym skompresowaniu. W termodynamice entropia związana jest z nieuporządkowaniem systemu, np. rozłożeniem molekuł w gazie. Zwiększanie entropii wiąże się tutaj zwykle z dodawaniem energii w postaci ciepła. Profesor Renner stwierdza: Wykazaliśmy, że w obu przypadkach na poziomie mechaniki kwantowej entropia opisuje to samo zjawisko. W obu przypadkach należy ją rozważać jako brak wiedzy. Należy przy tym wziąć pod uwagę fakt, że obiekt nie ma stałej entropii, ale zależy ona od obserwatora. Jeśli zatem dwie osoby będą usuwały te same dane, ale jedna z nich będzie miała większą wiedzę o danych, to będzie postrzegała je jako posiadające mniejszą entropię, a zatem będzie mogła użyć mniej energii do ich usunięcia. W fizyce kwantowej entropia może czasem przybierać wartość ujemną. Na gruncie fizyki klasycznej posiadanie idealnych informacji o systemie oznacza, że obserwator uznaje, iż entropia systemu jest zerowa. Jednak splątanie daje obserwatorowi wiedzę większą niż kompletna, gdyż korelacje kwantowe są silniejsze niż klasyczne. A to prowadzi nas do wniosku, że entropia ma wartość ujemną. Zatem na gruncie fizyki klasycznej kompletna wiedza o pamięci komputerowej pozwala usunąć informacje bez wydatkowania energii. Teraz naukowcy pokazali, że przy splątaniu kwantowym i posiadaniu informacji większej niż kompletna usuwanie danych związane jest z wycofaniem ciepła z systemu i zamianę go na użyteczną formę energii. Renner podkreśla jednak, że nie ma mowy o stworzeniu w ten sposób perpetuum mobile. Dane usuwane są tylko raz, więc nie można z nich ciągle tworzyć energii. Ponadto ich usunięcie prowadzi do zaniku splątania kwantowego i konieczne jest dostarczenie energii, by system powrócił do stanu pierwotnego. Działamy na granicy drugiej zasady termodynamiki. Jeśli ruszysz się o krok dalej to je złamiesz - stwierdził Vedral.
  17. Symantec ostrzega, że dane użytkowników Facebooka mogły zostać przypadkiem ujawnione firmom trzecim, przede wszystkim partnerom reklamowym. Niewykluczone, że uzyskali oni dostęp do profili, zdjęć i czatów oraz mają możliwość pozostawiania wiadomości na tablicy. Oceniamy, że w kwietniu 2011 około 100 000 aplikacji umożliwiało taki wyciek. W ciągu ostatnich lat setki tysięcy aplikacji mogło przekazywać firmom marketingowym tokeny zabezpieczające dostęp użytkowników do serwisu - uważa Symantec. Co ciekawe, firmy te mogły nawet nie zdawać sobie sprawy z tego, że mają dostęp do takich danych. Specjaliści Symanteka poinformowali Facebook o problemie, a przedstawiciele serwisu potwierdzili, że doszło do wycieku. Podkreślili przy tym, że nie doszło do wycieku informacji osobistych. Ponadto zauważyli, że umowy pomiędzy Facebookiem a partnerami zabraniają wykorzystywania informacji o użytkownikach w sposób, który narusza politykę Facebooka. Malorie Lucich, rzecznik prasowa serwisu społecznościowego, poinformowała również, że stare wadliwe API zostało już usunięte.
  18. Podczas konferencji EMC World 2011 firma EMC oceniła, że do końca roku 2011 na świecie będzie istniało ponad 300 biliardów (1015) plików cyfrowych. W ciągu najbliższych lat będziemy też świadkami olbrzymiego wzrostu ilości danych. Pomiędzy rokiem obecnym a 2020 ilość danych, którymi zarządza ludzkość zwiększy się z 1,2 zettabajta do 35 zettabajtów. Ponad 90% z nich będą stanowiły dane nieuporządkowane - stwierdził Joe Tucci, szef EMC. Wraz ze wzrostem ilości danych, zwiększa się też aktywność przestępców. Około 68% firm z listy Fortune 500 informowało w 2010 roku o aktywności botnetów w swojej sieci, a w przypadku 60% doszło do ataków szkodliwego oprogramowania rozsyłanego za pośrednictwem poczty elektronicznej. W 2010 roku w sieci krążyło 60 milionów różnych fragmentów szkodliwego kodu - dodał Tucci.
  19. Steve Jobs chce wyjaśnić Kongresowi sprawę zbierania przez iPhone'a danych nt. lokalizacji użytkowników. Myślę, że Apple będzie zeznawać [przed komisją Kongresu - red.] - stwierdził Jobs. Poprosili nas, byśmy przyszli i oczywiście uwzględnimy tę prośbę -dodał. Przy okazji szef Apple'a wyjaśnił, że jego firma nikogo nie śledziła. Jobs mówi, że zbierane informacje są przetwarzane anonimowo w zbiorze danych pochodzących z dziesiątków milionów urządzeń. Nowa technologia trafia do ludzi i potrzeba czasu, by klientów uświadomić i wszystko ze sobą zgrać. My, jako przemysł, nie spisaliśmy się najlepiej jeśli chodzi o edukację odbiorców. [...] Przez to ludzie wyciągnęli złe wnioski z ubiegłotygodniowych wydarzeń - powiedział.
  20. Nie tylko Google i Apple zbierają informacje o urządzeniach mobilnych z ich systemami operacyjnymi. Okazuje się, że robi to też Microsoft. System Windows Phone 7 wysyła do Microsoftu unikatowy identyfikator urządzenia, informacje o wykrytych sieciach Wi-Fi oraz dane z GPS-a. Nie wiadomo, w jaki sposób Microsoft wykorzystuje te dane. Koncern poinformował jedynie, że żadne informacje nie są przechowywane na samych smartfonach. Nie wiadomo też, jak długo koncern z Redmond przechowuje uzyskane w ten sposób dane. Obecnie trudno wyrokować, jak na działania Apple'a, Google'a i Microsoftu zareagują politycy. Po odkryciu, że dane takie zbiera Apple okazało się, że organy ścigania wiedziały o tym i wykorzystywały te informacje podczas śledztw. Senator Al Franken chce, by Apple i Google stawiły się 10 maja przed Senatem, a prokurator generalna stanu Illinois, Lisa Madigan, poprosiła przedstawicieli obu firm o spotkanie. Z kolei w Tampa na Florydzie organizowany jest pozew zbiorowy przeciwko obu koncernom. Najprawdopodobniej takiej same działania zostaną przeprowadzone wobec Microsoftu.
  21. Rosnąca popularność smartfonów wywołuje coraz większe obawy o prywatność użytkowników i ich bezpieczeństwo. Grupa uczonych z North Carolina State University opracowała narzędzie, która daje użytkownikom systemu Android większą kontrolę nad tym, co dzieje się z ich telefonem. W dokumencie Taming Information-Stealing Smartphone Applications for Android [PDF] uczeni opisują oprogramowanie, które jest pośrednikiem pomiędzy smartfonem a zainstalowanym na nim aplikacjami. Narzędzie to pozwala użytkownikowi na konfigurowanie zezwoleń dla każdej aplikacji tak, by miała ona tylko i wyłącznie taki dostęp do prywatnych informacji użytkownika, na jaki ten wyraził zgodę. Ponadto użytkownik ma też możliwość dostarczenia aplikacjom nieprawdziwych informacji na temat np. swojej lokalizacji. Niestety, narzędzia stworzonego na NCSU nie znajdziemy w Android Market, gdyż jest to jedynie prototyp badawczy. TISSA pozwala na bardzo precyzyjne ustalenie, danych do jakich ma dostęp konkretna aplikacja. Gdy jakiś program poprosi o dostęp do danych, użytkownik będzie mógł zdecydować, czy może go uzyskać, czy ma korzystać z danych fałszywych, z takich, z których usunięto wszelkie informacje osobiste, czy też w ogóle nie może korzystać z żadnych informacji. TISSA zostało przetestowana na telefonie Nexus One z aplikacjami, o których wiadomo, że udostępniają na zewnątrz dane użytkownika. Jego twórcy twierdzą, że bardzo dobrze się sprawdziło.
  22. Najnowsze osiągnięcia w dziedzinie inżynierii pozwoliły na skonstruowanie miniaturowych dysków magnetycznych o ściętych krawędziach, co może być niezwykle ważnym osiągnięciem w dziedzinie przechowywania danych. Stworzyliśmy strukturę, której uzyskanie było niemożliwe w przeszłości - stwierdził Jeffrey McCord z Helmholtz-Zentrum Dresden-Rossendorf. Autorem minidysków jest doktorant Norbert Martin. Podczas laboratoryjnych eksperymentów na takich dyskach utworzono wiry magnetyczne o średnicy nie przekraczającej 150 nanometrów. Daje to nadzieję na znaczące zwiększenie gęstości zapisu danych oraz stworzenie energooszczędnych urządzeń je przechowujących. W prototypowym urządzeniu wiry obracały się zgodnie z ruchem wskazówek zegara lub w kierunku przeciwnym. Te dwa różne stany można wykorzystać do przetwarzania danych, gdyż mogą one reprezentować "0" i "1". Kierunek ruchu można przełączyć za pomocą zmiany spinu elektronów, co zapewnia znaczne oszczędności energii w porównaniu z konwencjonalną elektroniką. Wir może być też skierowany w górę i w dół, dzięki czemu może w sumie przybierać cztery wartości na niewielkiej przestrzeni. Problem jednak w tym, że im gęściej upakowujemy dane, tym bardziej zbliżają się do siebie wiry magnetyczne. W pewnym momencie zaczynają na siebie wpływać, co prowadzi do zniszczenia zapisanych danych. Norbert Martin i Jeffrey McCord postanowili zatem stworzyć magnetyczne minidyski ze ściętymi brzegami. To z jednej strony zapewnia prostopadłe ułożenie pól magnetycznych, a z drugiej ułatwia formowania wirów magnetycznych. Naukowcy ścieli brzegi magnesów dzięki wykorzystaniu szklanych kulek o średnicy 300 nanometrów. W odpowiednich warunkach kulki takie samoistnie układają się blisko siebie, tworząc maskę, w której są przerwy. Na taką maskę umieszczoną na magnetycznej powierzchni skierowano jony argonu, które usunęły magnetyczne cząstki spod przerw w masce. Szklane kulki chroniły warstwę magnetyczną, która znajdowała się bezpośrednio pod nimi. W ten sposób powstałyby magnetyczne obszary o średnicy równej średnicom kulek, czyli 300 nanometrom. Jednak jony argonu usuwały też materiał z kulek. Po zakończeniu całego procesu średnica kulek wynosiła 260 nanometrów, zaś znajdujące się pod nimi dyski magnetyczne miały ścięte brzegi, gdyż, dzięki szklanej osłonie, argon krócej działał na część materiału, nie zdążył go zatem "wybrać" w całości.
  23. Japońscy naukowcy pobili rekord świata w prędkości transmisji danych. Udało im się przesłać informacje z prędkością 109 Tb/s. Nie tylko pobili rekord świata, ale dowiedli też, że 100 Tb/s nie jest fizyczną granicą przepustowości światłowodów. Autorzy sukcesu, uczeni z Narodowego Instytutu Technologii Informacyjnych i Komunikacyjnych oraz Sumitomo Electric Industries mówią, że wykorzystana przez nich technologia oraz nowe optyczne techniki przesyłu danych mogą zwiększyć przepustowość światłowodów nawet 1000-krotnie. W światłowodach informacje przesyłane są za pomocą światła wędrującego we włóknach. Każde z nich ma grubość zaledwie 9 mikronów, a jego gęstość energetyczna jest porównywalna z gęstością na powierzchni Słońca. Jednak włókna ulegają uszkodzeniu wskutek wysokiej temperatury. Ponadto z włókiem "wyciekają" sygnały, jeśli więc w światłowodzie jest ich kilka, to sygnały nawzajem się zakłócają. Japończykom udało się rozwiązać problem wynikający z sąsiedztwa wielu włókien i przesłali dane na odległość 16,8 kilometrów z prędkością 109 Tb/s.
  24. SSD powoli zdobywają popularność i odbierają rynek HDD. Wciąż są od nich sporo droższe, jednak szybszy transfer danych i większa niezawodność przekonują do tych urządzeń coraz więcej osób. Okazuje się jednak, że SSD mają poważną wadę, która jest szczególnie ważna dla przedsiębiorstw czy agend rządowych. Badania przeprowadzone przez naukowców z Laboratorium Systemów Nieulotnych (Non-Volatile Systems Laboratory - NVSL) z Uniwersytetu Kalifornijskiego w San Diego dowodzą, że z SSD znacznie trudniej jest usunąć dane niż z HDD. Ma to olbrzymie znaczenie, gdy chcemy pozbyć się starego SSD. Nasze badania dowodzą, że naiwne zastosowanie w SSD technik przeznaczonych do skutecznego usuwania danych z HDD, takich jak nadpisywanie czy używanie wbudowanych komend bezpiecznego kasowania, jest nieskuteczne i czasem może powodować, iż dane pozostaną nietknięte. Co więcej, niszczenie informacji zawartych w pojedynczym pliku jest znacznie trudniejsze na SSD niż na tradycyjnych dyskach twardych - czytamy w raporcie z badań. Podczas jednego z eksperymentów wobec plików zastosowano 14 różnych metod usuwania danych. Wykorzystano m.in. algorytmy amerykańskich sił zbrojnych (US DoD 5220.22-M, US Air Force 5020, US Army AR380-19), rosyjski GOST P50739-19, brytyjski HMG ISS, Schneier 7 Pass i inne. Żaden z nich nie usunął pliku całkowicie, pozostawiając na SSD od 10 do 1000 megabajtów informacji. Uczeni z NVSL pracują teraz nad technikami, które umożliwią dokładne kasowanie danych z SSD. Ostrzegają, że dopóki technologie takie nie zostaną opracowane, właściciele SSD powinni zachowywać szczególną ostrożność podczas pozbywania się dysków wykorzystywanych do przechowywania istotnych danych.
  25. W Szwajcarii trwają prace nad internetem dla... robotów. W ramach projektu RoboEarth ma powstać sieć, w której roboty będą dzieliły się swoimi doświadczeniami zebranymi podczas wykonywania zadań oraz prosiły o pomoc przy zmaganiu się z nowymi wyzwaniami. Twórcy projektu wierzą, że dzięki temu maszyny będą szybciej zdolne do pracy, gdyż będą miały dostęp do rosnących zasobów wiedzy. Doktor Markus Waibel ze Szwajcarskiego Federalnego Instytutu Technologii w Zurichu, który bierze udział w projekcie RoboEarth, mówi, że obecnie większość robotów postrzega rzeczywistość w sobie tylko właściwy sposób, gdyż niewiele rzeczy w tym zakresie ustandaryzowano. RoboEarth ma być składnicą wiedzy przekazywaną przez same roboty, z której będą mogły korzystać inne maszyny. Powstanie baza danych z opisami miejsc, w których roboty pracują, obiektów, z którymi się stykają oraz instrukcjami dotyczącymi wykonywania różnych zadań. To ma być rodzaj Wikipedii dla robotów - bazy wiedzy, którą każda maszyna będzie mogła edytować, poszerzać. Dzięki temu, jak ma nadzieję Waibel, gdy robot znajdzie się w obcym sobie miejscu, połączy się z RoboEarth, pobierze szczegółowy opis miejsca oraz zadań do wykonania i natychmiast przystąpi do pracy. Uczony mówi, że np. w przyszłości, gdy roboty zadomowią się w naszych domach, RoboEarth pozwoli nowej maszynie zrozumieć, co oznacza prośba o nakrycie do stołu, co jest potrzebne, by ją spełnić i jak należy wykonać poszczególne czynności.
×
×
  • Dodaj nową pozycję...