
Neurologiczne podłoże intuicji
dodany przez
KopalniaWiedzy.pl, w Nauki przyrodnicze
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Jeden niepozorny błąd - źle wpisany adres e-mail, przypadkowo udostępniony plik w chmurze czy dokument pozostawiony w biurowej drukarce - może kosztować firmę naprawdę wiele. W dzisiejszym świecie dane to jeden z najcenniejszych zasobów, a ich ochrona staje się równie ważna jak zabezpieczenie pieniędzy czy sprzętu. Co istotne, zagrożenia nie zawsze przychodzą z zewnątrz - często wynikają z codziennej, rutynowej komunikacji. Dlatego zapobieganie utracie firmowych danych to temat, którego nie można odkładać na później. Jak robić to skutecznie? Odpowiadamy.
Kanały ryzyka Do wycieku danych wcale nie potrzeba zaawansowanego ataku - często wystarczy zwykła codzienna pomyłka. Mail z poufnym załącznikiem trafiający do złego odbiorcy, wydruk pozostawiony w biurowej drukarce, pendrive zgubiony w drodze na spotkanie, czy plik udostępniony w chmurze bez właściwych uprawnień - to scenariusze, które zdarzają się częściej, niż mogłoby się wydawać. Do tego dochodzą rozmowy na komunikatorach i wideokonferencjach, gdzie łatwo pokazać zbyt wiele. Każdy z tych kanałów wygląda niepozornie, ale to właśnie tam najczęściej kryją się wektory wycieku, dlatego tak ważne jest stosowanie różnych mechanizmów ochrony, dopasowanych do konkretnego sposobu pracy.
Podstawowe mechanizmy DLP Nowoczesne systemy DLP działają trochę jak inteligentny strażnik - potrafią rozpoznać, które pliki zawierają wrażliwe informacje, nadać im odpowiednie „etykiety” i pilnować, co dalej się z nimi dzieje. Jeśli ktoś spróbuje wysłać taki dokument na zewnątrz, system może go zablokować, poprosić o dodatkowe potwierdzenie albo przynajmniej ostrzec, że coś jest nie tak.
Uzupełnieniem tej ochrony jest IRM, czyli zarządzanie prawami do informacji. To rozwiązanie działa bezpośrednio na samym pliku - można ustawić, kto ma prawo go otworzyć, edytować czy wydrukować. Dzięki temu nawet jeśli dokument przypadkiem trafi w niepowołane ręce, jego zawartość nadal pozostaje zabezpieczona.
Kopie zapasowe i audyt Sama technologia DLP to ważny element układanki, ale nie rozwiązuje problemu w stu procentach. Nawet najlepiej skonfigurowany system nie pomoże, jeśli firma nie zadba o coś tak podstawowego jak regularne kopie zapasowe. To one pozwalają szybko wrócić do pracy po awarii, ataku ransomware czy zwykłej pomyłce pracownika. Ważne jest nie tylko ich wykonywanie, ale też sprawdzanie, czy faktycznie da się z nich odtworzyć dane - wielu organizacjom zdarzało się boleśnie odkryć, że kopie były, ale bezużyteczne.
Drugim filarem jest audyt. To nic innego jak szczegółowe „mapowanie” danych w firmie - sprawdzenie, gdzie dokładnie się znajdują, kto ma do nich dostęp i jakimi kanałami są przesyłane. Bez takiej wiedzy trudno ustawić skuteczne zabezpieczenia. Audyt pomaga też wychwycić miejsca, w których ryzyko wycieku jest największe, na przykład dział, który korzysta z wielu zewnętrznych narzędzi czy wymienia dużo informacji z partnerami. Dzięki temu można lepiej dopasować polityki bezpieczeństwa do realnych potrzeb, zamiast wprowadzać ogólne zasady, które albo są zbyt luźne, albo nadmiernie utrudniają pracę.
Architektura ochrony Najlepsze rozwiązania w zakresie ochrony informacji opierają się na wielu warstwach, bo tylko takie podejście daje realne efekty. Na poziomie komputerów i urządzeń mobilnych kontrolowane są działania użytkowników, w sieci monitorowany jest ruch wychodzący, a w aplikacjach i chmurze zabezpieczane są pliki współdzielone na co dzień. To właśnie dzięki takiej wielopoziomowej architekturze zapobieganie utracie danych staje się skuteczne - bo nawet jeśli jedno zabezpieczenie zawiedzie, kolejne wciąż stanowią barierę przed wyciekiem.
Proces wdrożenia Wdrożenie systemu zapobiegania utracie danych to proces etapowy. Najpierw robi się audyt i inwentaryzację, by wiedzieć, jakie informacje firma posiada i gdzie one są. Potem następuje klasyfikacja i oznaczanie danych - ustalenie, co jest poufne, a co mniej wrażliwe. Kolejny krok to pilotaż w ograniczonym zakresie, który pozwala sprawdzić działanie systemu i reakcje użytkowników. Dopiero później wdraża się rozwiązanie w całej organizacji, a na końcu dba o stałe monitorowanie i dopasowywanie polityk, tak aby były skuteczne, ale nie paraliżowały codziennej pracy.
Ograniczenia i przykłady rozwiązań Żaden system nie gwarantuje stuprocentowej ochrony. Zagrożenia mogą pojawić się w kanałach, które nie zostały objęte kontrolą, a zbyt restrykcyjne reguły mogą paraliżować pracę. Dlatego w praktyce łączy się różne podejścia: DLP, IRM, archiwizację i szkolenia pracowników. Na rynku dostępne są rozwiązania, które integrują te mechanizmy - przykładem jest GTB DLP Suite, oferowane przez iiTD, które umożliwia zarówno analizę treści, jak i kontrolę kanałów komunikacji. To jedno z narzędzi, które pokazuje, jak technologia wspiera organizacje w redukowaniu ryzyka.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Inżynierowie w University of Texas at Austin stworzyli najmniejsze w dziejach urządzenie do przechowywania danych. Profesor Deji Akiwande i jego zespół opierali się na opisywanych już przez nas badaniach, w czasie których powstał atomistor, najcieńsze urządzenie do składowania danych. Teraz naukowcy poczynili krok naprzód zmniejszając przekrój swojego urządzenie do zaledwie 1 nm2.
Kluczem do dalszej redukcji rozmiarów urządzenia było dobre poznanie właściwości materiałów w tak małej skali i wykorzystanie roli defektów w materiale. Gdy pojedynczy dodatkowy atom metalu wypełnia dziurę, przekazuje materiałowi nieco ze swojego przewodnictwa, co prowadzi do zmiany czyli pojawienia się efektu pamięciowego, mówi Akinwande. Mniejsze układy pamięci pozwolą na stworzenie mniejszych komputerów i telefonów. Układy takie zużywają też mniej energii, pozwalają przechować więcej danych w mniejszej przestrzeni, działają też szybciej.
Wyniki tych badań przecierają drogę do opracowania przyszłych generacji interesującego Departament Obrony sprzętu takiego jak ultragęste układy pamięci, neuromorficzne systemy komputerowe, systemy komunikacyjne działające w zakresie fal radiowych i inne, mówi Pani Veranasi, menedżer w US Army Research Office, które finansowało najnowsze badaniach.
Atomristor, na którym oparto najnowsze badania, był już najcieńszym układem pamięci. Jego grubość wynosiła zaledwie 1 atom. Jednak dla zmniejszenia urządzeń ważny jest również ich przekrój poprzeczny. Tym, czego poszukiwaliśmy było spowodowanie by pojedynczy atom kontrolował funkcje pamięci. Udało się nam to osiągnąć, mówi Akinwande.
Nowe urządzenie należy do kategorii memrystorów, urządzeń zdolnych do modyfikowania oporności pomiędzy dwoma punktami końcowymi bez potrzeby używania bramki w roli pośrednika. Opracowana właśnie odmiana memrystora, którą stworzono dzięki wykorzystaniu zaawansowanych narzędzi z Oak Ridge National Laboratory, daje szanse na osiągnięcie gęstości zapisu rzędu 25 Tb/cm2. To 100 krotnie więcej niż obecnie dostępne komercyjne układ flash.
Nowy układ pamięci wykorzystuje dwusiarczek molibdenu (MoS2). Jednak jego twórcy zapewniają, że w tej roli można wykorzystać setki innych materiałów o podobnej budowie.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Na internetowych czarnych rynkach pojawiła się oferta sprzedaży danych 92 milionów Brazylijczyków. Jej cena wywoławcza to 15 000 dolarów. Wiadomo, że oferentem jest ktoś zarejestrowany jako X4Crow, a bazę wystawiono na wielu forach, do których dostęp uzyskuje się za zaproszeniem lub poprzez płatną rejestrację.
Jak twierdzi sprzedający, baza zawiera nazwiska, daty urodzenia oraz identyfikatory podatkowe około 92 milionów Brazylijczyków. Baza w formacie SQL zajmuje 16 gigabajtów, a zaprezentowane fragmenty wskazują, że jest ona podzielona na poszczególne stany.
Witryna BleepingComputer poinformowała, że otrzymała próbkę bazy danych. Dziennikarze potwierdzili, że dane te są prawdziwe oraz zawierają m.in. informacje o nazwisku matki. Nie wiadomo, co jest źródłem bazy, jednak sprzedający poinformowali dziennikarzy, że pochodzi ona ze źródeł rządowych.
Sprzedający twierdzą, że dzięki informacjom z tej bazy możliwe jest pozyskanie dodatkowych informacji, jak dane z dowodów osobistych czy praw jazdy. Niewykluczone, że możliwe jest też zdobycie innych danych osobowych, jak numery telefonów, e-maili, informacji o zawodzie, wykształceniu, członkach rodziny, numerach rejestracyjnych pojazdów i wielu innych.
Próba sprzedaży danych dotyczących milionów obywateli Brazylii to kolejny w ostatnich tygodniach przykład na masowy wyciek danych z instytucji rządowych. We wrześniu wycikeły informacje na temat około 20 milionów obywateli Ekwadoru, a na początku października do sieci trafiły informacje podatkowe dotyczące około 20 milionów obywateli Rosji.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Na UW powstaje system do detekcji genów, które powodują oporność bakterii na antybiotyki. Naukowcy mają w planie udostępnienie go lekarzom, aby mogli możliwie szybko pozyskiwać informacje, które typy antybiotyków będą najbardziej skuteczne w leczeniu konkretnych przypadków, a których leków należy unikać.
Doktoranci z Zakładu Genetyki Bakterii na Wydziale Biologii Uniwersytetu Warszawskiego – Mikołaj Dziurzyński, Przemysław Decewicz i Adrian Górecki – opracowali system detekcji genów oporności na antybiotyki w próbkach środowiskowych oraz materiale klinicznym. Co to oznacza w praktyce? Zapewniający szybkie i wiarygodne wyniki, a zarazem tani do wdrożenia system dostarczy lekarzom informacji, jaki lek antybakteryjny zastosować w danym przypadku u konkretnego pacjenta, bez ryzyka, że antybiotyk nie zadziała.
Co ciekawe, wynalazek umożliwia również sprawdzanie produktów spożywczych pod kątem obecności bakterii opornych na leki oraz monitorowanie rozprzestrzeniania się genów oporności w różnych środowiskach.
PCR w walce z opornością bakterii na antybiotyki
Rewolucyjny pomysł doktorantów z UW wykorzystuje reakcję łańcuchową polimerazy, czyli PCR (Polymeraze Chain Reaction) – metodę prostą i powszechnie stosowaną w biologii molekularnej. W szybki sposób umożliwia ona sprawdzenie, czy w bakterii występuje dana sekwencja DNA. Wykrywanie poszczególnych genów, w tym tych, które determinują oporność na antybiotyki, wymaga zaprojektowania odpowiedniego zestawu odczynników, tzw. starterów do PCR.
Stworzyliśmy oprogramowanie, dzięki któremu można błyskawicznie dobrać te odczynniki w taki sposób, by uzyskiwane informacje były wiarygodne. Eliminujemy wyniki fałszywie negatywne lub fałszywie pozytywne. Dzięki temu zyskujemy pewność, że trafiamy we właściwy gen – mówi mgr Mikołaj Dziurzyński.
Ochrona zdrowia i prewencja
W medycynie często decydujące znaczenie dla wyniku leczenia ma szybkość zastosowania odpowiedniego leku – zwłaszcza w najcięższych przypadkach. System pozwalający szybko zidentyfikować geny oporności na dane klasy antybiotyków może nie tylko wspierać lekarza w podejmowaniu decyzji o wyborze leku, ale docelowo ratować ludziom życie.
Poza medycyną, wynalazek opracowany na Wydziale Biologii UW pozwoli także na badanie rozprzestrzenienia antybiotykooporności. W przypadku bakterii występuje zjawisko horyzontalnego transferu genów. Jeśli jeden gatunek bakterii nabywa oporność, może przekazać ją innym bakteriom. To prosty proces, który zachodzi bardzo szybko, zwłaszcza w oczyszczalniach ścieków.
Jeśli ten proces nie będzie monitorowany, powrót do ery pre-antybiotykowej nastąpi jeszcze szybciej. Z oczyszczalni ścieków bakterie z genami oporności wracają bowiem do człowieka. Monitorowanie pozwoli znaleźć źródła kumulowania się szczepów opornych. Nasz system nie zminimalizuje negatywnych zjawisk, ale pozwoli je lepiej monitorować i analizować. To pierwszy etap, który umożliwi wdrożenie działań zapobiegawczych – mówi Przemysław Decewicz.
Szczególnie istotną rolę odgrywa w tym kontekście branża spożywcza. Najwięcej bakterii ludzie przyjmują wraz z pożywieniem. Dlatego produkty spożywcze powinny być powszechnie badane pod kątem obecności bakterii opornych na antybiotyki. W przypadku branży spożywczej wyniki nie muszą być natychmiastowe. Być może w tym przypadku komercjalizacja będzie oznaczać stworzenie usługi świadczonej przez przyszłą spółkę spin-off założoną przy Uniwersytecie Warszawskim – mówi Adrian Górecki.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Wykorzystując przezczaszkową stymulację magnetyczną (ang. transcranial magnetic stimulation, TMS), która indukuje przepływ prądu w wybranym obszarze, kanadyjsko-amerykańskiego zespół wykazał, że lekka stymulacja elektryczna kory wzrokowej wyostrza węch.
Dr Christopher Pack z Montreal Neurological Institute and Hospital - The Neuro wyjaśnia, że naukowcy chcieli sprawdzić, w jaki sposób dane z obszarów dedykowanych poszczególnym zmysłom łączą się, tworząc spójny obraz świata. Szczególnie zależało nam na tym, by przetestować hipotezę, że jeden zmysł może wpływać na przetwarzanie dotyczące innego zmysłu. Podczas eksperymentów najpierw stymulowano elektrycznie korę wzrokową. Okazało się, że wspomaga to rozpoznawanie wybranego zapachu w 3-elementowym zbiorze. W takim razie wszyscy jesteśmy w jakimś stopniu synestetykami.
Uczestnicy studium zajmowali się zapachami przed i po przezczaszkowej stymulacji magnetycznej. TMS stosowano zgodnie z protokołem, który wcześniej okazał się skuteczny w zakresie poprawy percepcji wzrokowej.
Bazując na uzyskanych wynikach, akademicy dywagują, że wzrok może spełniać nadrzędną rolę w łączeniu danych z poszczególnych zmysłów. Hipoteza ta jest właśnie badana.
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.