-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Jeden niepozorny błąd - źle wpisany adres e-mail, przypadkowo udostępniony plik w chmurze czy dokument pozostawiony w biurowej drukarce - może kosztować firmę naprawdę wiele. W dzisiejszym świecie dane to jeden z najcenniejszych zasobów, a ich ochrona staje się równie ważna jak zabezpieczenie pieniędzy czy sprzętu. Co istotne, zagrożenia nie zawsze przychodzą z zewnątrz - często wynikają z codziennej, rutynowej komunikacji. Dlatego zapobieganie utracie firmowych danych to temat, którego nie można odkładać na później. Jak robić to skutecznie? Odpowiadamy.
Kanały ryzyka Do wycieku danych wcale nie potrzeba zaawansowanego ataku - często wystarczy zwykła codzienna pomyłka. Mail z poufnym załącznikiem trafiający do złego odbiorcy, wydruk pozostawiony w biurowej drukarce, pendrive zgubiony w drodze na spotkanie, czy plik udostępniony w chmurze bez właściwych uprawnień - to scenariusze, które zdarzają się częściej, niż mogłoby się wydawać. Do tego dochodzą rozmowy na komunikatorach i wideokonferencjach, gdzie łatwo pokazać zbyt wiele. Każdy z tych kanałów wygląda niepozornie, ale to właśnie tam najczęściej kryją się wektory wycieku, dlatego tak ważne jest stosowanie różnych mechanizmów ochrony, dopasowanych do konkretnego sposobu pracy.
Podstawowe mechanizmy DLP Nowoczesne systemy DLP działają trochę jak inteligentny strażnik - potrafią rozpoznać, które pliki zawierają wrażliwe informacje, nadać im odpowiednie „etykiety” i pilnować, co dalej się z nimi dzieje. Jeśli ktoś spróbuje wysłać taki dokument na zewnątrz, system może go zablokować, poprosić o dodatkowe potwierdzenie albo przynajmniej ostrzec, że coś jest nie tak.
Uzupełnieniem tej ochrony jest IRM, czyli zarządzanie prawami do informacji. To rozwiązanie działa bezpośrednio na samym pliku - można ustawić, kto ma prawo go otworzyć, edytować czy wydrukować. Dzięki temu nawet jeśli dokument przypadkiem trafi w niepowołane ręce, jego zawartość nadal pozostaje zabezpieczona.
Kopie zapasowe i audyt Sama technologia DLP to ważny element układanki, ale nie rozwiązuje problemu w stu procentach. Nawet najlepiej skonfigurowany system nie pomoże, jeśli firma nie zadba o coś tak podstawowego jak regularne kopie zapasowe. To one pozwalają szybko wrócić do pracy po awarii, ataku ransomware czy zwykłej pomyłce pracownika. Ważne jest nie tylko ich wykonywanie, ale też sprawdzanie, czy faktycznie da się z nich odtworzyć dane - wielu organizacjom zdarzało się boleśnie odkryć, że kopie były, ale bezużyteczne.
Drugim filarem jest audyt. To nic innego jak szczegółowe „mapowanie” danych w firmie - sprawdzenie, gdzie dokładnie się znajdują, kto ma do nich dostęp i jakimi kanałami są przesyłane. Bez takiej wiedzy trudno ustawić skuteczne zabezpieczenia. Audyt pomaga też wychwycić miejsca, w których ryzyko wycieku jest największe, na przykład dział, który korzysta z wielu zewnętrznych narzędzi czy wymienia dużo informacji z partnerami. Dzięki temu można lepiej dopasować polityki bezpieczeństwa do realnych potrzeb, zamiast wprowadzać ogólne zasady, które albo są zbyt luźne, albo nadmiernie utrudniają pracę.
Architektura ochrony Najlepsze rozwiązania w zakresie ochrony informacji opierają się na wielu warstwach, bo tylko takie podejście daje realne efekty. Na poziomie komputerów i urządzeń mobilnych kontrolowane są działania użytkowników, w sieci monitorowany jest ruch wychodzący, a w aplikacjach i chmurze zabezpieczane są pliki współdzielone na co dzień. To właśnie dzięki takiej wielopoziomowej architekturze zapobieganie utracie danych staje się skuteczne - bo nawet jeśli jedno zabezpieczenie zawiedzie, kolejne wciąż stanowią barierę przed wyciekiem.
Proces wdrożenia Wdrożenie systemu zapobiegania utracie danych to proces etapowy. Najpierw robi się audyt i inwentaryzację, by wiedzieć, jakie informacje firma posiada i gdzie one są. Potem następuje klasyfikacja i oznaczanie danych - ustalenie, co jest poufne, a co mniej wrażliwe. Kolejny krok to pilotaż w ograniczonym zakresie, który pozwala sprawdzić działanie systemu i reakcje użytkowników. Dopiero później wdraża się rozwiązanie w całej organizacji, a na końcu dba o stałe monitorowanie i dopasowywanie polityk, tak aby były skuteczne, ale nie paraliżowały codziennej pracy.
Ograniczenia i przykłady rozwiązań Żaden system nie gwarantuje stuprocentowej ochrony. Zagrożenia mogą pojawić się w kanałach, które nie zostały objęte kontrolą, a zbyt restrykcyjne reguły mogą paraliżować pracę. Dlatego w praktyce łączy się różne podejścia: DLP, IRM, archiwizację i szkolenia pracowników. Na rynku dostępne są rozwiązania, które integrują te mechanizmy - przykładem jest GTB DLP Suite, oferowane przez iiTD, które umożliwia zarówno analizę treści, jak i kontrolę kanałów komunikacji. To jedno z narzędzi, które pokazuje, jak technologia wspiera organizacje w redukowaniu ryzyka.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Intel ogłosił, że wybuduje w Polsce supernowoczesny zakład integracji i testowania półprzewodników. Stanie on w Miękini pod Wrocławiem, a koncern ma zamiar zainwestować w jego stworzenie do 4,6 miliarda dolarów. Inwestycja w Polsce to część obecnych i przyszłych planów Intela dotyczących Europy. Firma ma już fabrykę półprzewodników w Leixlip w Irlandii i planuje budowę drugiej w Magdeburgu w Niemczech. W sumie Intel chce zainwestować 33 miliardy euro w fabrykę w Niemczech, zakład badawczo-rozwojowo-projektowy we Francji oraz podobne przedsięwzięcia we Włoszech, Hiszpanii i Polsce.
Zakład w Polsce ma rozpocząć pracę w 2027 roku. Zatrudnienie znajdzie w nim około 2000 osób, jednak inwestycja pomyślana została tak, by w razie potrzeby można było ją rozbudować. Koncern już przystąpił do realizacji fazy projektowania i planowania budowy, na jej rozpoczęcie będzie musiała wyrazić zgodę Unia Europejska.
Intel już działa w Polsce i kraj ten jest dobrze przygotowany do współpracy z naszymi fabrykami w Irlandii i Niemczech. To jednocześnie kraj bardzo konkurencyjny pod względem kosztów, w którym istnieje solidna baza utalentowanych pracowników, stwierdził dyrektor wykonawczy Intela, Pat Gelsinger. Przedstawiciele koncernu stwierdzili, że Polskę wybrali między innymi ze względu na istniejącą infrastrukturę, odpowiednio przygotowaną siłę roboczą oraz świetne warunki do prowadzenia biznesu.
Zakład w Miękini będzie ściśle współpracował z fabryką w Irlandii i planowaną fabryką w Niemczech. Będą do niego trafiały plastry krzemowe z naniesionymi elementami elektronicznymi układów scalonych. W polskim zakładzie będą one cięte na pojedyncze układy scalone, składane w gotowe chipy oraz testowane pod kątem wydajności i jakości. Stąd też będą trafiały do odbiorców. Przedsiębiorstwo będzie też w stanie pracować z indywidualnymi chipami otrzymanymi od zleceniodawcy i składać je w końcowy produkt. Będzie mogło pracować z plastrami i chipami Intela, Intel Foundry Services i innych fabryk.
Intel nie ujawnił, jaką kwotę wsparcia z publicznych pieniędzy otrzyma od polskiego rządu. Wiemy na przykład, że koncern wciąż prowadzi negocjacje z rządem w Berlinie w sprawie dotacji do budowy fabryki w Magdeburgu. Ma być ona warta 17 miliardów euro, a Intel początkowo negocjował kwotę 6,8 miliarda euro wsparcia, ostatnio zaś niemieckie media doniosły, że firma jest bliska podpisania z Berlinem porozumienia o 9,9 miliardach euro dofinansowania. Pat Gelsinger przyznał, że Polska miała nieco więcej chęci na inwestycję Intela niż inne kraje.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Światło posiada niezwykle interesującą cechę. Jego fale o różnej długości nie wchodzą ze sobą w interakcje. Dzięki temu można jednocześnie przesyłać wiele strumieni danych. Podobnie, światło o różnej polaryzacji również nie wchodzi w interakcje. Zatem każda z polaryzacji mogłaby zostać wykorzystana jako niezależny kanał przesyłania i przechowywania danych, znakomicie zwiększając gęstość informacji.
Naukowcy z Uniwersytetu Oksfordzkiego poinformowali właśnie o opracowaniu metody wykorzystania polaryzacji światła do zmaksymalizowania gęstości danych. Wszyscy wiemy, że przewaga fotoniki nad elektronika polega na tym, że światło przemieszcza się szybciej i jest bardziej funkcjonalne w szerokich zakresach. Naszym celem było wykorzystanie wszystkich zalet fotoniki połączonych z odpowiednim materiałem, dzięki czemu chcieliśmy uzyskać szybsze i gęstsze przetwarzanie informacji, mówi główny autor badań, doktorant June Sang Lee.
Jego zespół, we współpracy z profesorem C. Davidem Wrightem z University of Exeter, opracował nanowłókno HAD (hybrydyzowane-aktywne-dielektryczne). Każde z nanowłókien wyróżnia się selektywną reakcją na konkretny kierunek polaryzacji, zatem możliwe jest jednoczesne przetwarzanie danych przenoszonych za pomocą różnych polaryzacji. Stało się to bazą do stworzenia pierwszego fotonicznego procesora wykorzystującego polaryzację światła. Szybkość obliczeniowa takiego procesora jest większa od procesora elektronicznego, gdyż poszczególne nanowókna są modulowane za pomocą nanosekundowych impulsów optycznych. Nowy układ może być ponad 300-krotnie bardziej wydajny niż współczesne procesory.
To dopiero początek tego, co możemy osiągnąć w przyszłości, gdy uda się nam wykorzystać wszystkie stopnie swobody oferowane przez światło, w tym polaryzację. Dzięki temu uzyskamy niezwykły poziom równoległego przetwarzania danych. Nasze prace wciąż znajdują się na bardzo wczesnym etapie, dlatego też szacunki dotyczące prędkości pracy takiego układu wciąż wymagają eksperymentalnego potwierdzenia. Mamy jednak niezwykle ekscytujące pomysły łączenia elektroniki, materiałów nieliniowych i komputerów, komentuje profesor Harish Bhakaran, który od ponad 10 lat prowadzi prace nad wykorzystaniem światła w technologiach obliczeniowych.
Ze szczegółami pracy można zapoznać się w artykule Polarisation-selective reconfigurability in hybridized-active-dielectric nanowires opublikowanym na łamach Science Advances.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Intel potwierdził, że kosztem ponad 20 miliardów dolarów wybuduje nowy kampus w stanie Ohio. W skład kampusu wejdą dwie supernowoczesne fabryki półprzewodników, gotowe do produkcji w technologii 18A. To przyszły, zapowiadany na rok 2025 proces technologiczny Intela, w ramach którego będą powstawały procesory w technologii 1,8 nm. Budowa kampusu rozpocznie się jeszcze w bieżącym roku, a produkcja ma ruszyć w 2025 roku.
Intel podpisał też umowy partnerskie z instytucjami edukacyjnymi w Ohio. W ich ramach firma przeznaczy dodatkowo 100 milionów dolarów na programy edukacyjne i badawcze w regionie. "To niezwykle ważna wiadomość dla stanu Ohio. Nowe fabryki Intela zmienią nasz stan, stworzą tysiące wysoko płatnych miejsc pracy w przemyśle półprzewodnikowym", stwierdził gubernator Ohio, Mike DeWine.
To największa w historii Ohio inwestycja dokonana przez pojedyncze prywatne przedsiębiorstwo. Przy budowie kampusu zostanie zatrudnionych 7000 osób, a po powstaniu pracowało w nim będzie 3000osób. Ponadto szacuje się, że inwestycja długoterminowo stworzy dziesiątki tysięcy miejsc pracy w lokalnych firmach dostawców i partnerów.
Kampus o powierzchni około 4 km2 powstanie w hrabstwie Licking na przedmieściach Columbus. Będzie on w stanie pomieścić do 8 fabryk. Intel nie wyklucza, że w sumie w ciągu dekady zainwestuje tam 100 miliardów dolarów, tworząc jeden z największych na świecie hubów produkcji półprzewodników.
Tak olbrzymia inwestycja przyciągnie do Ohio licznych dostawców produktów i usług dla Intela. Będzie ona miała daleko idące konsekwencje. Fabryka półprzewodników różni się od innych fabryk. Stworzenie tak wielkiego miejsca produkcji półprzewodników jest jak budowa małego miasta, pociąga za sobą powstanie tętniącej życiem społeczności wspierających dostawców usług i produktów. [...] Jednak rozmiar ekspansji Intela w Ohio będzie w dużej mierze zależał od funduszy w ramach CHIPS Act, stwierdził wiceprezes Intela ds. produkcji, dostaw i operacji, Keyvan Esfarjani.
Nowe fabryki mają w 100% korzystać z energii odnawialnej, dostarczać do systemu więcej wody niż pobiera oraz nie generować żadnych odpadów stałych.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Fizyk James Franson z University of Maryland opublikował w recenzowanym Journal of Physics artykuł, w którym twierdzi, że prędkość światła w próżni jest mniejsza niż sądzimy. Obecnie przyjmuje się, że w światło w próżni podróżuje ze stałą prędkością wynoszącą 299.792.458 metrów na sekundę. To niezwykle ważna wartość w nauce, gdyż odnosimy do niej wiele pomiarów dokonywanych w przestrzeni kosmicznej.
Tymczasem Franson, opierając się na obserwacjach dotyczących supernowej SN 1987A uważa, że światło może podróżować wolniej.
Jak wiadomo, z eksplozji SN 1987A dotarły do nas neutrina i fotony. Neutrina przybyły o kilka godzin wcześniej. Dotychczas wyjaśniano to faktem, że do emisji neutrin mogło dojść wcześniej, ponadto mają one ułatwione zadanie, gdyż cała przestrzeń jest praktycznie dla nich przezroczysta. Jednak Franson zastanawia się, czy światło nie przybyło później po prostu dlatego, że porusza się coraz wolniej. Do spowolnienia może, jego zdaniem, dochodzić wskutek zjawiska polaryzacji próżni. Wówczas to foton, na bardzo krótki czas, rozdziela się na pozyton i elektron, które ponownie łączą się w foton. Zmiana fotonu w parę cząstek i ich ponowna rekombinacja mogą, jak sądzi uczony, wywoływać zmiany w oddziaływaniu grawitacyjnym pomiędzy parami cząstek i przyczyniać się do spowolnienia ich ruchu. To spowolnienie jest niemal niezauważalne, jednak gdy w grę wchodzą olbrzymie odległości, liczone w setkach tysięcy lat świetlnych – a tak było w przypadku SN 1987A – do polaryzacji próżni może dojść wiele razy. Na tyle dużo, by opóźnić fotony o wspomniane kilka godzin.
Jeśli Franson ma rację, to różnica taka będzie tym większa, im dalej od Ziemi położony jest badany obiekt. Na przykład w przypadku galaktyki Messier 81 znajdującej się od nas w odległości 12 milionów lat świetlnych światło może przybyć o 2 tygodnie później niż wynika z obecnych obliczeń.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.