Zaloguj się, aby obserwować tę zawartość
Obserwujący
0

Internet w rękach gigantów
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Jeden niepozorny błąd - źle wpisany adres e-mail, przypadkowo udostępniony plik w chmurze czy dokument pozostawiony w biurowej drukarce - może kosztować firmę naprawdę wiele. W dzisiejszym świecie dane to jeden z najcenniejszych zasobów, a ich ochrona staje się równie ważna jak zabezpieczenie pieniędzy czy sprzętu. Co istotne, zagrożenia nie zawsze przychodzą z zewnątrz - często wynikają z codziennej, rutynowej komunikacji. Dlatego zapobieganie utracie firmowych danych to temat, którego nie można odkładać na później. Jak robić to skutecznie? Odpowiadamy.
Kanały ryzyka Do wycieku danych wcale nie potrzeba zaawansowanego ataku - często wystarczy zwykła codzienna pomyłka. Mail z poufnym załącznikiem trafiający do złego odbiorcy, wydruk pozostawiony w biurowej drukarce, pendrive zgubiony w drodze na spotkanie, czy plik udostępniony w chmurze bez właściwych uprawnień - to scenariusze, które zdarzają się częściej, niż mogłoby się wydawać. Do tego dochodzą rozmowy na komunikatorach i wideokonferencjach, gdzie łatwo pokazać zbyt wiele. Każdy z tych kanałów wygląda niepozornie, ale to właśnie tam najczęściej kryją się wektory wycieku, dlatego tak ważne jest stosowanie różnych mechanizmów ochrony, dopasowanych do konkretnego sposobu pracy.
Podstawowe mechanizmy DLP Nowoczesne systemy DLP działają trochę jak inteligentny strażnik - potrafią rozpoznać, które pliki zawierają wrażliwe informacje, nadać im odpowiednie „etykiety” i pilnować, co dalej się z nimi dzieje. Jeśli ktoś spróbuje wysłać taki dokument na zewnątrz, system może go zablokować, poprosić o dodatkowe potwierdzenie albo przynajmniej ostrzec, że coś jest nie tak.
Uzupełnieniem tej ochrony jest IRM, czyli zarządzanie prawami do informacji. To rozwiązanie działa bezpośrednio na samym pliku - można ustawić, kto ma prawo go otworzyć, edytować czy wydrukować. Dzięki temu nawet jeśli dokument przypadkiem trafi w niepowołane ręce, jego zawartość nadal pozostaje zabezpieczona.
Kopie zapasowe i audyt Sama technologia DLP to ważny element układanki, ale nie rozwiązuje problemu w stu procentach. Nawet najlepiej skonfigurowany system nie pomoże, jeśli firma nie zadba o coś tak podstawowego jak regularne kopie zapasowe. To one pozwalają szybko wrócić do pracy po awarii, ataku ransomware czy zwykłej pomyłce pracownika. Ważne jest nie tylko ich wykonywanie, ale też sprawdzanie, czy faktycznie da się z nich odtworzyć dane - wielu organizacjom zdarzało się boleśnie odkryć, że kopie były, ale bezużyteczne.
Drugim filarem jest audyt. To nic innego jak szczegółowe „mapowanie” danych w firmie - sprawdzenie, gdzie dokładnie się znajdują, kto ma do nich dostęp i jakimi kanałami są przesyłane. Bez takiej wiedzy trudno ustawić skuteczne zabezpieczenia. Audyt pomaga też wychwycić miejsca, w których ryzyko wycieku jest największe, na przykład dział, który korzysta z wielu zewnętrznych narzędzi czy wymienia dużo informacji z partnerami. Dzięki temu można lepiej dopasować polityki bezpieczeństwa do realnych potrzeb, zamiast wprowadzać ogólne zasady, które albo są zbyt luźne, albo nadmiernie utrudniają pracę.
Architektura ochrony Najlepsze rozwiązania w zakresie ochrony informacji opierają się na wielu warstwach, bo tylko takie podejście daje realne efekty. Na poziomie komputerów i urządzeń mobilnych kontrolowane są działania użytkowników, w sieci monitorowany jest ruch wychodzący, a w aplikacjach i chmurze zabezpieczane są pliki współdzielone na co dzień. To właśnie dzięki takiej wielopoziomowej architekturze zapobieganie utracie danych staje się skuteczne - bo nawet jeśli jedno zabezpieczenie zawiedzie, kolejne wciąż stanowią barierę przed wyciekiem.
Proces wdrożenia Wdrożenie systemu zapobiegania utracie danych to proces etapowy. Najpierw robi się audyt i inwentaryzację, by wiedzieć, jakie informacje firma posiada i gdzie one są. Potem następuje klasyfikacja i oznaczanie danych - ustalenie, co jest poufne, a co mniej wrażliwe. Kolejny krok to pilotaż w ograniczonym zakresie, który pozwala sprawdzić działanie systemu i reakcje użytkowników. Dopiero później wdraża się rozwiązanie w całej organizacji, a na końcu dba o stałe monitorowanie i dopasowywanie polityk, tak aby były skuteczne, ale nie paraliżowały codziennej pracy.
Ograniczenia i przykłady rozwiązań Żaden system nie gwarantuje stuprocentowej ochrony. Zagrożenia mogą pojawić się w kanałach, które nie zostały objęte kontrolą, a zbyt restrykcyjne reguły mogą paraliżować pracę. Dlatego w praktyce łączy się różne podejścia: DLP, IRM, archiwizację i szkolenia pracowników. Na rynku dostępne są rozwiązania, które integrują te mechanizmy - przykładem jest GTB DLP Suite, oferowane przez iiTD, które umożliwia zarówno analizę treści, jak i kontrolę kanałów komunikacji. To jedno z narzędzi, które pokazuje, jak technologia wspiera organizacje w redukowaniu ryzyka.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Google ujawniło swoją pilnie strzeżoną tajemnicę. Koncern, jako pierwszy dostawca chmury obliczeniowej i – prawdopodobnie – pierwszy wielki właściciel centrów bazodanowych, zdradził ile wody do chłodzenia zużywają jego centra obliczeniowe. Dotychczas szczegóły dotyczące zużycia wody były traktowane jak tajemnica handlowa.
Firma poinformowała właśnie, że w ubiegłym roku jej centra bazodanowe na całym świecie zużyły 16,3 miliarda litrów wody. Czy to dużo czy mało? Google wyjaśnia, że to tyle, ile zużywanych jest rocznie na utrzymanie 29 pól golfowych na południowym zachodzie USA. To też tyle, ile wynosi roczne domowe zużycie 446 000 Polaków.
Najwięcej, bo 3 miliardy litrów rocznie zużywa centrum bazodanowe w Council Bluffs w stanie Iowa. Na drugim miejscu, ze zużyciem wynoszącym 2,5 miliarda litrów, znajduje się centrum w Mayes County w Oklahomie. Firma zapowiada, że więcej szczegółów na temat zużycia wody przez jej poszczególne centra bazodanowe na świecie zdradzi w 2023 Environmental Report i kolejnych dorocznych podsumowaniach.
Wcześniej Google nie podawało informacji dotyczących poszczególnych centrów, obawiając się zdradzenia w ten sposób ich mocy obliczeniowej. Od kiedy jednak zdywersyfikowaliśmy nasze portfolio odnośnie lokalizacji i technologii chłodzenia, zużycie wody w konkretnym miejscu jest w mniejszym stopniu powiązane z mocą obliczeniową, mówi Ben Townsend, odpowiedzialny w Google'u za infrastrukturę i strategię zarządzania wodą.
Trudno się jednak oprzeć wrażeniu, że Google'a do zmiany strategii zmusił spór pomiędzy gazetą The Oregonian a miastem The Dalles. Dziennikarze chcieli wiedzieć, ile wody zużywają lokalne centra bazodanowe Google'a. Miasto odmówiło, zasłaniając się tajemnicą handlową. Gazeta zwróciła się więc do jednego z prokuratorów okręgowych, który po rozważeniu sprawy stanął po jej stronie i nakazał ujawnienie danych. Miasto, któremu Google obiecało pokrycie kosztów obsługi prawnej, odwołało się od tej decyzji do sądu. Później jednak koncern zmienił zdanie i poprosił władze miasta o zawarcie ugody z gazetą. Po roku przepychanek lokalni mieszkańcy dowiedzieli się, że Google odpowiada za aż 25% zużycia wody w mieście.
Na podstawie dotychczas ujawnionych przez Google'a danych eksperci obliczają, że efektywność zużycia wody w centrach bazodanowych firmy wynosi 1,1 litra na kilowatogodzinę zużytej energii. To znacznie mniej niż średnia dla całego amerykańskiego przemysłu wynosząca 1,8 l/kWh.
« powrót do artykułu -
przez KopalniaWiedzy.pl
W jaki sposób mózg decyduje, jak najlepiej poruszać naszym ciałem? Okazuje się, że dla układu nerwowego to spore wyzwanie, gdyż mamy setki mięśni, które muszą być koordynowane setki razy na sekundę, a liczba możliwych wzorców koordynacji, z których musi wybierać mózg, jest większa niż liczba ruchów na szachownicy, mówi profesor Max Donelan z kanadyjskiego Simon Fraser University. Donelan i jego zespół badali, w jaki sposób ciało adaptuje się d nowych ruchów. A ich badania mogą mieć znaczenie zarówno dla treningu sportowców, jak i rehabilitacji niepełnosprawnych.
Naukowcy zauważają, że bardzo często doświadczamy zmian zarówno w naszym organizmie, jak i w środowisku zewnętrznym. Być może lubisz biegać w niedzielę rano, Twoje mięśnie będą tym bardziej zmęczone im dłuższy dystans przebiegniesz. A może w czasie wakacji biegasz po plaży, gdzie podłoże jest luźne i nierówne w porównaniu z chodnikiem, po którym codziennie chodzisz. Od dawna jesteśmy w stanie rejestrować zmiany w sposobie poruszania się, ale dotychczas chyba nie docenialiśmy, w jaki sposób nasz organizm do takich zmian się adaptuje, stwierdza Donelan.
Chcąc przyjrzeć się tym zmianom kanadyjscy neurolodzy podjęli współpracę z inżynierami z Uniwersytetu Stanforda, którzy specjalizują się w tworzeniu egzoszkieletów.
Badania kanadyjsko-amerykańskiego zespołu przyniosły bardzo interesujące wyniki. Okazało się, że system nerwowy, ucząc się wzorców koordynacji nowych ruchów, najpierw rozważa i sprawdza wiele różnych wzorców. Stwierdzono to, mierząc zmienność zarówno samego ruchu ciała jako takiego, jak i ruchów poszczególnych mięśni i stawów. W miarę, jak układ nerwowy adaptuje się do nowego ruchu, udoskonala go, a jednocześnie zmniejsza zmienność. Naukowcy zauważyli, że gdy już nasz organizm nauczy się nowego sposobu poruszania się, wydatek energetyczny na ten ruch spada aż o 25%.
Z analiz wynika również, że organizm odnosi korzyści zarówno z analizy dużej liczby możliwych wzorców ruchu, jak i ze zmniejszania z czasem liczby analizowanych wzorców. Zawężanie poszukiwań do najbardziej efektywnych wzorców pozwala bowiem na zaoszczędzenie energii.
Zrozumienie, w jaki sposób mózg szuka najlepszych sposobów poruszania ciałem jest niezwykle ważne zarówno dla ultramaratończyka, przygotowującego się do biegu w trudnym terenie, jak i dla pacjenta w trakcie rehabilitacji po uszkodzeniu rdzenia kręgowego czy wylewu. Na przykład trener, który będzie wiedział, w którym momencie organizm jego podopiecznego zaadaptował się do nowego programu treningowego, będzie wiedział, kiedy można wdrożyć kolejne nowe elementy. A twórcy egzoszkieletów pomagających w rehabilitacji dowiedzą się, w którym momencie można przed pacjentem postawić nowe zadania, bo dobrze opanował wcześniejsze.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Microsoft zatrudnił byłego projektanta układów scalonych Apple'a, , który wcześniej pracował też w firmach Arm i Intel, trafił do grupy kierowanej przez Raniego Borkara, zajmującej się rozwojem chmury Azure. Zatrudnienie Filippo wskazuje, że Microsoft chce przyspieszyć prace nad własnymi układami scalonymi dla serwerów tworzących oferowaną przez firmę chmurę. Koncern idzie zatem w ślady swoich największych rywali – Google'a i Amazona.
Obecnie procesory do serwerów dla Azure są dostarczane przez Intela i AMD. Zatrudnienie Filippo już odbiło się na akcjach tych firm. Papiery Intela straciły 2% wartości, a AMD potaniały o 1,1%.
Filippo rozpoczął pracę w Apple'u w 2019 roku. Wcześniej przez 10 lat był głównym projektantem układów w firmie ARM. A jeszcze wcześniej przez 5 lat pracował dla Intela. To niezwykle doświadczony inżynier. Właśnie jemu przypisuje się wzmocnienie pozycji układów ARM na rynku telefonów i innych urządzeń.
Od niemal 2 lat wiadomo, że Microsoft pracuje nad własnymi procesorami dla serwerów i, być może, urządzeń Surface.
Giganci IT coraz częściej starają się projektować własne układy scalone dla swoich urządzeń, a związane z pandemią problemy z podzespołami tylko przyspieszyły ten trend.
« powrót do artykułu -
przez KopalniaWiedzy.pl
W lutym Facebook zaczął usuwać posty, w których twierdzono, że koronawirus SARS-CoV-2 jest dziełem człowieka. Działanie takie było częścią kampanii mającej na celu usuwanie fałszywych stwierdzeń na temat COVID-19 i szczepionek. Posty automatycznie usuwano, a użytkownik, który wielokrotnie takie treści publikował, narażał się na blokadę konta. Teraz Facebook znosi zakaz i pozwala na publikowanie informacji o tym, że SARS-CoV-2 został stworzony przez ludzi.
W świetle toczącego się śledztwa dotyczącego pochodzenia COVID-19 oraz po konsultacjach z ekspertami ds. zdrowia publicznego, zdecydowaliśmy, że nie będziemy więcej blokowali twierdzeń, jakoby COVID-19 był dziełem człowieka. Będziemy nadal współpracować z ekspertami by dotrzymywać kroku zmieniającej się naturze pandemii i aktualizować naszą politykę w miarę, jak pojawiają się nowe fakty i trendy, oświadczyli przedstawiciele Facebooka.
Do zmiany polityki Facebooka doszło po tym, jak The Wall Street Journal poinformował, że amerykańskie służby specjalne zdobyły wskazówki sugerujące, iż wirus mógł wydostać się z laboratorium. Zdaniem służb, w listopadzie 2019 roku trzech pracowników Instytutu Wirologii w Wuhan trafiło do szpitala z objawami podobnymi do grypy.
Facebook z jednej strony poluzował algorytmy ograniczające wolność wypowiedzi, z drugiej zaś strony, tego samego dnia, zaczął ostrzej traktować użytkowników, którzy regularnie rozpowszechniają fałszywe informacje.
Zgodnie z nowymi zasadami, jeśli posty jakiegoś użytkownika zostaną wielokrotnie oznaczone jako fałszywe, Facebook usunie wszystkie jego posty, nawet te, które jako fałszywe nie były oznaczone. Ponadto użytkownicy, którzy mają w ulubionych profile rozpowszechniające fałszywe informacje, będą przed tymi profilami ostrzegani za pomocą wyskakujących okienek.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.