
Rekordowa transmisja laserowa
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Jeden niepozorny błąd - źle wpisany adres e-mail, przypadkowo udostępniony plik w chmurze czy dokument pozostawiony w biurowej drukarce - może kosztować firmę naprawdę wiele. W dzisiejszym świecie dane to jeden z najcenniejszych zasobów, a ich ochrona staje się równie ważna jak zabezpieczenie pieniędzy czy sprzętu. Co istotne, zagrożenia nie zawsze przychodzą z zewnątrz - często wynikają z codziennej, rutynowej komunikacji. Dlatego zapobieganie utracie firmowych danych to temat, którego nie można odkładać na później. Jak robić to skutecznie? Odpowiadamy.
Kanały ryzyka Do wycieku danych wcale nie potrzeba zaawansowanego ataku - często wystarczy zwykła codzienna pomyłka. Mail z poufnym załącznikiem trafiający do złego odbiorcy, wydruk pozostawiony w biurowej drukarce, pendrive zgubiony w drodze na spotkanie, czy plik udostępniony w chmurze bez właściwych uprawnień - to scenariusze, które zdarzają się częściej, niż mogłoby się wydawać. Do tego dochodzą rozmowy na komunikatorach i wideokonferencjach, gdzie łatwo pokazać zbyt wiele. Każdy z tych kanałów wygląda niepozornie, ale to właśnie tam najczęściej kryją się wektory wycieku, dlatego tak ważne jest stosowanie różnych mechanizmów ochrony, dopasowanych do konkretnego sposobu pracy.
Podstawowe mechanizmy DLP Nowoczesne systemy DLP działają trochę jak inteligentny strażnik - potrafią rozpoznać, które pliki zawierają wrażliwe informacje, nadać im odpowiednie „etykiety” i pilnować, co dalej się z nimi dzieje. Jeśli ktoś spróbuje wysłać taki dokument na zewnątrz, system może go zablokować, poprosić o dodatkowe potwierdzenie albo przynajmniej ostrzec, że coś jest nie tak.
Uzupełnieniem tej ochrony jest IRM, czyli zarządzanie prawami do informacji. To rozwiązanie działa bezpośrednio na samym pliku - można ustawić, kto ma prawo go otworzyć, edytować czy wydrukować. Dzięki temu nawet jeśli dokument przypadkiem trafi w niepowołane ręce, jego zawartość nadal pozostaje zabezpieczona.
Kopie zapasowe i audyt Sama technologia DLP to ważny element układanki, ale nie rozwiązuje problemu w stu procentach. Nawet najlepiej skonfigurowany system nie pomoże, jeśli firma nie zadba o coś tak podstawowego jak regularne kopie zapasowe. To one pozwalają szybko wrócić do pracy po awarii, ataku ransomware czy zwykłej pomyłce pracownika. Ważne jest nie tylko ich wykonywanie, ale też sprawdzanie, czy faktycznie da się z nich odtworzyć dane - wielu organizacjom zdarzało się boleśnie odkryć, że kopie były, ale bezużyteczne.
Drugim filarem jest audyt. To nic innego jak szczegółowe „mapowanie” danych w firmie - sprawdzenie, gdzie dokładnie się znajdują, kto ma do nich dostęp i jakimi kanałami są przesyłane. Bez takiej wiedzy trudno ustawić skuteczne zabezpieczenia. Audyt pomaga też wychwycić miejsca, w których ryzyko wycieku jest największe, na przykład dział, który korzysta z wielu zewnętrznych narzędzi czy wymienia dużo informacji z partnerami. Dzięki temu można lepiej dopasować polityki bezpieczeństwa do realnych potrzeb, zamiast wprowadzać ogólne zasady, które albo są zbyt luźne, albo nadmiernie utrudniają pracę.
Architektura ochrony Najlepsze rozwiązania w zakresie ochrony informacji opierają się na wielu warstwach, bo tylko takie podejście daje realne efekty. Na poziomie komputerów i urządzeń mobilnych kontrolowane są działania użytkowników, w sieci monitorowany jest ruch wychodzący, a w aplikacjach i chmurze zabezpieczane są pliki współdzielone na co dzień. To właśnie dzięki takiej wielopoziomowej architekturze zapobieganie utracie danych staje się skuteczne - bo nawet jeśli jedno zabezpieczenie zawiedzie, kolejne wciąż stanowią barierę przed wyciekiem.
Proces wdrożenia Wdrożenie systemu zapobiegania utracie danych to proces etapowy. Najpierw robi się audyt i inwentaryzację, by wiedzieć, jakie informacje firma posiada i gdzie one są. Potem następuje klasyfikacja i oznaczanie danych - ustalenie, co jest poufne, a co mniej wrażliwe. Kolejny krok to pilotaż w ograniczonym zakresie, który pozwala sprawdzić działanie systemu i reakcje użytkowników. Dopiero później wdraża się rozwiązanie w całej organizacji, a na końcu dba o stałe monitorowanie i dopasowywanie polityk, tak aby były skuteczne, ale nie paraliżowały codziennej pracy.
Ograniczenia i przykłady rozwiązań Żaden system nie gwarantuje stuprocentowej ochrony. Zagrożenia mogą pojawić się w kanałach, które nie zostały objęte kontrolą, a zbyt restrykcyjne reguły mogą paraliżować pracę. Dlatego w praktyce łączy się różne podejścia: DLP, IRM, archiwizację i szkolenia pracowników. Na rynku dostępne są rozwiązania, które integrują te mechanizmy - przykładem jest GTB DLP Suite, oferowane przez iiTD, które umożliwia zarówno analizę treści, jak i kontrolę kanałów komunikacji. To jedno z narzędzi, które pokazuje, jak technologia wspiera organizacje w redukowaniu ryzyka.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Misja Psyche jeszcze nie dotarła do celu, a już zapisała się w historii podboju kosmosu. Głównym jej celem jest zbadanie największej w Układzie Słonecznym asteroidy Psyche. Przy okazji NASA postanowiła przetestować technologię, z którą eksperci nie potrafili poradzić sobie od dziesięcioleci – przesyłanie w przestrzeni kosmicznej danych za pomocą lasera. Agencja poinformowała właśnie, że z Psyche na Ziemię trafił 15-sekudowy materiał wideo przesłany z odległości 31 milionów kilometrów z maksymalną prędkością 267 Mbps. To niemal 2-krotnie szybciej niż średnia prędkość szerokopasmowego internetu w Polsce.
To, czego właśnie dokonała NASA jest nie zwykle ważnym osiągnięciem. Pozwoli bowiem na znacznie sprawniejsze zbieranie danych z instrumentów pracujących w przestrzeni kosmicznej i zapewni dobrą komunikację z misjami załogowymi odbywającymi się poza orbitą Ziemi.
Sygnał z Psyche potrzebował około 101 sekund, by dotrzeć do Ziemi. Dane, przesyłane przez laser pracujący w bliskiej podczerwieni trafiły najpierw do Hale Teelscope w Palomar Observatory w Kalifornii. Następnie przesłano je do Jet Propulsion Laboratory w Południowej Kalifornii, gdzie były odtwarzane w czasie rzeczywistym podczas przesyłania. Jak zauważył Ryan Rogalin, odpowiedzialny za elektronikę odbiornika w JPL, wideo odebrane w Palomar zostało przesłane przez internet do JPL, a transfer danych odbywał się wolniej, niż przesyłanie danych z kosmosu. Podziwiając tempo transferu danych nie możemy zapomnieć też o niezwykłej precyzji, osiągniętej przez NASA. Znajdujący się na Psyche laser trafił z odległości 31 milionów kilometrów w 5-metrowe zwierciadło teleskopu. Sam teleskop to również cud techniki. Jego budowę ukończono w 1948 roku i przez 45 lat był najdoskonalszym teleskopem optycznym, a jego zwierciadło główne jest drugim największym zwierciadłem odlanym w całości.
Po co jednak prowadzić próby z komunikacją laserową, skoro od dziesięcioleci w przestrzeni kosmicznej z powodzeniem przesyła się dane za pomocą fal radiowych? Otóż fale radiowe mają częstotliwość od 3 Hz do 3 Thz. Tymczasem częstotliwość pracy lasera podczerwonego sięga 300 THz. Zatem transmisja z jego użyciem może być nawet 100-krotnie szybsza. Ma to olbrzymie znaczenie. Chcemy bowiem wysyłać w przestrzeń kosmiczną coraz więcej coraz doskonalszych narzędzi. Dość wspomnieć, że Teleskop Webba, który zbiera do 57 GB danych na dobę, wysyła je na Ziemię z prędkością dochodzącą do 28 Mb/s. Zatem jego systemy łączności działają 10-krotnie wolniej, niż testowa komunikacja laserowa.
Zainstalowany na Psyche Deep Space Optical Communication (DSOC) uruchomiono po raz pierwszy 14 listopada. Przez kolejne dni system sprawdzano i dostrajano, osiągając coraz szybszy transfer danych i coraz większą precyzję ustanawiania łącza z teleskopem. W tym testowym okresie przesłano na Ziemię łącznie 1,3 terabita danych. Dla porównania, misja Magellan, która w latach 1990–1994 badała Wenus, przesłała w tym czasie 1,2 Tb.
Misja Psyche korzysta ze standardowego systemu komunikacji radiowej. DSOC jest systemem testowym, a jego funkcjonowanie nie będzie wpływało na powodzenie całej misji.
« powrót do artykułu -
przez KopalniaWiedzy.pl
„Niemożliwy” unipolarny (jednobiegunowy) laser zbudowany przez fizyków z University of Michigan i Universität Regensburg może posłużyć do manipulowania kwantową informacją, potencjalnie zbliżając nas do powstania komputera kwantowego pracującego w temperaturze pokojowej. Laser taki może też przyspieszyć tradycyjne komputery.
Światło, czyli promieniowanie elektromagnetyczne, to fala oscylująca pomiędzy grzbietami a dolinami, wartościami dodatnimi a ujemnymi, których suma wynosi zero. Dodatni cykl fali elektromagnetycznej może przesuwać ładunki, jak np. elektrony. Jednak następujący po nim cykl ujemny przesuwa ładunek w tył do pozycji wyjściowej. Do kontrolowania przemieszania informacji kwantowej potrzebna byłaby asymetryczna – jednobiegunowa – fala światła. Optimum byłoby uzyskanie całkowicie kierunkowej, unipolarnej „fali”, w której występowałby tylko centralny grzbiet, bez oscylacji. Jednak światło, jeśli ma się przemieszczać, musi oscylować, więc spróbowaliśmy zminimalizować te oscylacje, mówi profesor Mackillo Kira z Michigan.
Fale składające się tylko z grzbietów lub tylko z dolin są fizycznie niemożliwe. Dlatego też naukowcy uzyskali falę efektywnie jednobiegunową, która składała się z bardzo stromego grzbietu o bardzo wysokiej amplitudzie, któremu po obu stronach towarzyszyły dwie rozciągnięte doliny o niskiej amplitudzie. Taka konstrukcja powodowała, że grzbiet wywierał silny wpływ na ładunek, przesuwając go w pożądanym kierunku, a doliny były zbyt słabe, by przeciągnąć go na pozycję wyjściową.
Taką falę udało się uzyskać wykorzystując półprzewodnik z cienkich warstw arsenku galu, w którym dochodzi do terahercowej emisji dzięki ruchowi elektronów i dziur. Półprzewodnik został umieszczony przed laserem. Gdy światło w zakresie bliskiej podczerwieni trafiło w półprzewodnik, doszło do oddzielenia się elektronów od dziur. Elektrony poruszyły się w przód. Następnie zostały z powrotem przyciągnięte przez dziury. Gdy elektrony ponownie łączyły się z dziurami, uwolniły energię, którą uzyskały z impulsu laserowego. Energia ta miała postać silnego dodatniego półcyklu w zakresie teraherców, przed i po którym przebiegał słaby, wydłużony półcykl ujemny.
Uzyskaliśmy w ten sposób zadziwiającą unipolarną emisję terahercową, w którym pojedynczy dodatni półcykl był czterokrotnie wyższy niż oba cykle ujemne. Od wielu lat pracowaliśmy nad impulsami światła o coraz mniejszej liczbie oscylacji. Jednak możliwość wygenerowania terahercowych impulsów tak krótkich, że efektywnie składały się z mniej niż pojedynczego półcyklu oscylacji była czymś niewyobrażalnym, cieszy się profesor Rupert Hubner z Regensburga.
Naukowcy planują wykorzystać tak uzyskane impulsy do manipulowania elektronami w materiałach kwantowych w temperaturze pokojowej i badania mechanizmów kwantowego przetwarzania informacji. Teraz, gdy wiemy, jak uzyskać unipolarne terahercowe impulsy, możemy spróbować nadać im jeszcze bardziej asymetryczny kształt i lepiej przystosować je do pracy z kubitami w półprzewodnikach, dodaje doktorant Qiannan Wen.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Krwawienie z naczyń krwionośnych podczas operacji neurochirurgicznych to poważny problem. Krew zasłania pole widzenia i konieczne jest jej usuwanie. Dlatego pole operacyjne, w którym nie pojawiałaby się krew czyniłoby cały zabieg bardziej precyzyjnym i bezpiecznym. Naukowcy z University of Texas w Austin i University of California, Irvine, opracowali właśnie laserową platformę do bezkrwawej resekcji tkanki mózgowej.
Obecnie podczas zabiegów neurochirurgicznych, by zapewnić dobre pole widzenia, wykorzystuje się ultradźwiękowe aspiratory, po których stosuje się przyżeganie (elektrokauteryzację). Jako jednak, że obie metody stosowane są jedna po drugiej, wydłuża to operację. Ponadto przyżeganie może prowadzić do uszkodzenia części tkanki.
Specjaliści z Teksasu i Kalifornii wykazali podczas eksperymentów na myszach, że ich nowy laser pozwala na bezkrwawą resekcję tkanki. Ich system składa się z urządzenia do koherencyjnej tomografii optycznej (OCT), które zapewnia obraz w mikroskopowej rozdzielczości, bazującego na iterbie lasera do koagulacji naczyń krwionośnych oraz wykorzystującego tul lasera do cięcia tkanki.
Maksymalna moc lasera iterbowego wynosi 3000 W, a urządzenie pozwala na dobranie częstotliwości i długości trwania impulsów w zakresie od 50 mikrosekund do 200 milisekund, dzięki czemu możliwa jest skuteczna koagulacja różnych naczyń krwionośnych. Laser ten emituje światło o długości 1,07 mikrometra. Z kolei laser tulowy pracuje ze światłem o długości fali 1,94 mikrometra, a jego średnia moc podczas resekcji tkanki wynosi 15 W. Twórcy nowej platformy połączyli oba lasery w jednym biokompatybilnym włóknie, którym można precyzyjnie sterować dzięki OCT.
Opracowanie tej platformy możliwe było dzięki postępowi w dwóch kluczowych dziedzinach. Pierwszą jest laserowa dozymetria, wymagana do koagulacji naczyń krwionośnych o różnych rozmiarach. Wcześniej duże naczynia, o średnicy 250 mikrometrów i większej, nie poddawały się laserowej koagulacji z powodu szybkiego wypływu krwi. Mój kolega Nitesh Katta położył podstawy naukowe pod metodę dozymetrii laserowej pozwalającej na koagulowanie naczyń o średnicy do 1,5 milimetra, mówi główny twórca nowej platformy, Thomas Milner.
Drugie osiągnięcie to odpowiednia metodologia działań, która pozwala na osiągnięcie powtarzalnej i spójnej ablacji różnych typów tkanki dzięki głębiej penetrującym laserom. Jako, że laserowa ablacja jest zależna od właściwości mechanicznych tkanki, cięcia mogą być niespójne, a w niektórych przypadkach mogą skończyć się katastrofalną niestabilnością cieplną. Nasza platforma rozwiązuje oba te problemy i pozwala na powtarzalne spójne cięcie tkanki miękkiej jak i sztywnej, takiej jak tkanka chrzęstna.
Na łamach Biomedical Optics Express twórcy nowej platformy zapewniają, że w polu operacyjnym nie pojawia się krew, jakość cięcia jest odpowiednia i obserwuje się jedynie niewielkie uszkodzenia termiczne tkanki.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Łazik Perseverance wylądował na Marsie po trwającej ponad pół roku podróży. W tym czasie był narażony na oddziaływanie dużych dawek promieniowania kosmicznego, które dodatkowo mogło zostać gwałtownie zwiększone przez koronalne wyrzuty masy ze Słońca. Na takie właśnie szkodliwe dla zdrowia promieniowanie narażeni będą astronauci podróżujący na Marsa. W przeciwieństwie do załogi Międzynarodowej Stacji Kosmicznej nie będą oni chronieni przez ziemską magnetosferę. Dlatego też wszelkie metody skrócenia podróży są na wagę zdrowia i życia.
Emmanuel Duplay i jego koledzy z kanadyjskiego McGill University zaprezentowali na łamach Acta Astronautica interesującą koncepcję laserowego systemu napędowy, który mógłby skrócić załogową podróż na Marsa do zaledwie 45 dni.
Pomysł na napędzanie pojazdów kosmicznych za pomocą laserów nie jest niczym nowym. Jego olbrzymią zaletą jest fakt, że system napędowy... pozostaje na Ziemi. Jedną z rozważanych technologii jest wykorzystanie żagla słonecznego przymocowanego do pojazdu. Żagiel taki wykorzystywałby ciśnienie fotonów wysyłanych w jego kierunku z laserów umieszczonych na Ziemi. W ten sposób można by rozpędzić pojazd do nieosiągalnych obecnie prędkości.
Jednak system taki może zadziałać wyłącznie w przypadku bardzo małych pojazdów. Dlatego Duplay wraz z zespołem proponują rozwiązanie, w ramach którego naziemny system laserów będzie rozgrzewał paliwo, na przykład wodór, nadając pęd kapsule załogowej.
Pomysł Kanadyjczyków polega na stworzeniu systemu laserów o mocy 100 MW oraz pojazdu załogowego z odłączanym modułem napędowym. Moduł składałby się z olbrzymiego lustra i komory wypełnionej wodorem. Umieszczone na Ziemi lasery oświetlałby lustro, które skupiałoby światło na komorze z wodorem. Wodór byłby podgrzewany do około 40 000 stopni Celsjusza, gwałtownie by się rozszerzał i uchodził przez dyszę wylotową, nadając pęd kapsule załogowej. W ten sposób, w ciągu kilkunastu godzin ciągłego przyspieszania kapsuła mogłaby osiągnąć prędkość około 14 km/s czyli ok. 50 000 km/h, co pozwoliłoby na dotarcie do Marsa w 45 dni. Sam system napędowy, po osiągnięciu przez kapsułę odpowiedniej prędkości, byłby od niej automatycznie odłączany i wracałby na Ziemię, gdzie można by go powtórnie wykorzystać.
Drugim problemem, obok stworzenia takiego systemu, jest wyhamowanie pojazdu w pobliżu Marsa. Naukowcy z McGill mówią, że można to zrobić korzystając z oporu stawianego przez atmosferę Czerwonej Planety, jednak tutaj wciąż jest sporo niewiadomych.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.