Zaloguj się, aby obserwować tę zawartość
Obserwujący
0

USA 15 lat za Koreą Południową
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Jeden niepozorny błąd - źle wpisany adres e-mail, przypadkowo udostępniony plik w chmurze czy dokument pozostawiony w biurowej drukarce - może kosztować firmę naprawdę wiele. W dzisiejszym świecie dane to jeden z najcenniejszych zasobów, a ich ochrona staje się równie ważna jak zabezpieczenie pieniędzy czy sprzętu. Co istotne, zagrożenia nie zawsze przychodzą z zewnątrz - często wynikają z codziennej, rutynowej komunikacji. Dlatego zapobieganie utracie firmowych danych to temat, którego nie można odkładać na później. Jak robić to skutecznie? Odpowiadamy.
Kanały ryzyka Do wycieku danych wcale nie potrzeba zaawansowanego ataku - często wystarczy zwykła codzienna pomyłka. Mail z poufnym załącznikiem trafiający do złego odbiorcy, wydruk pozostawiony w biurowej drukarce, pendrive zgubiony w drodze na spotkanie, czy plik udostępniony w chmurze bez właściwych uprawnień - to scenariusze, które zdarzają się częściej, niż mogłoby się wydawać. Do tego dochodzą rozmowy na komunikatorach i wideokonferencjach, gdzie łatwo pokazać zbyt wiele. Każdy z tych kanałów wygląda niepozornie, ale to właśnie tam najczęściej kryją się wektory wycieku, dlatego tak ważne jest stosowanie różnych mechanizmów ochrony, dopasowanych do konkretnego sposobu pracy.
Podstawowe mechanizmy DLP Nowoczesne systemy DLP działają trochę jak inteligentny strażnik - potrafią rozpoznać, które pliki zawierają wrażliwe informacje, nadać im odpowiednie „etykiety” i pilnować, co dalej się z nimi dzieje. Jeśli ktoś spróbuje wysłać taki dokument na zewnątrz, system może go zablokować, poprosić o dodatkowe potwierdzenie albo przynajmniej ostrzec, że coś jest nie tak.
Uzupełnieniem tej ochrony jest IRM, czyli zarządzanie prawami do informacji. To rozwiązanie działa bezpośrednio na samym pliku - można ustawić, kto ma prawo go otworzyć, edytować czy wydrukować. Dzięki temu nawet jeśli dokument przypadkiem trafi w niepowołane ręce, jego zawartość nadal pozostaje zabezpieczona.
Kopie zapasowe i audyt Sama technologia DLP to ważny element układanki, ale nie rozwiązuje problemu w stu procentach. Nawet najlepiej skonfigurowany system nie pomoże, jeśli firma nie zadba o coś tak podstawowego jak regularne kopie zapasowe. To one pozwalają szybko wrócić do pracy po awarii, ataku ransomware czy zwykłej pomyłce pracownika. Ważne jest nie tylko ich wykonywanie, ale też sprawdzanie, czy faktycznie da się z nich odtworzyć dane - wielu organizacjom zdarzało się boleśnie odkryć, że kopie były, ale bezużyteczne.
Drugim filarem jest audyt. To nic innego jak szczegółowe „mapowanie” danych w firmie - sprawdzenie, gdzie dokładnie się znajdują, kto ma do nich dostęp i jakimi kanałami są przesyłane. Bez takiej wiedzy trudno ustawić skuteczne zabezpieczenia. Audyt pomaga też wychwycić miejsca, w których ryzyko wycieku jest największe, na przykład dział, który korzysta z wielu zewnętrznych narzędzi czy wymienia dużo informacji z partnerami. Dzięki temu można lepiej dopasować polityki bezpieczeństwa do realnych potrzeb, zamiast wprowadzać ogólne zasady, które albo są zbyt luźne, albo nadmiernie utrudniają pracę.
Architektura ochrony Najlepsze rozwiązania w zakresie ochrony informacji opierają się na wielu warstwach, bo tylko takie podejście daje realne efekty. Na poziomie komputerów i urządzeń mobilnych kontrolowane są działania użytkowników, w sieci monitorowany jest ruch wychodzący, a w aplikacjach i chmurze zabezpieczane są pliki współdzielone na co dzień. To właśnie dzięki takiej wielopoziomowej architekturze zapobieganie utracie danych staje się skuteczne - bo nawet jeśli jedno zabezpieczenie zawiedzie, kolejne wciąż stanowią barierę przed wyciekiem.
Proces wdrożenia Wdrożenie systemu zapobiegania utracie danych to proces etapowy. Najpierw robi się audyt i inwentaryzację, by wiedzieć, jakie informacje firma posiada i gdzie one są. Potem następuje klasyfikacja i oznaczanie danych - ustalenie, co jest poufne, a co mniej wrażliwe. Kolejny krok to pilotaż w ograniczonym zakresie, który pozwala sprawdzić działanie systemu i reakcje użytkowników. Dopiero później wdraża się rozwiązanie w całej organizacji, a na końcu dba o stałe monitorowanie i dopasowywanie polityk, tak aby były skuteczne, ale nie paraliżowały codziennej pracy.
Ograniczenia i przykłady rozwiązań Żaden system nie gwarantuje stuprocentowej ochrony. Zagrożenia mogą pojawić się w kanałach, które nie zostały objęte kontrolą, a zbyt restrykcyjne reguły mogą paraliżować pracę. Dlatego w praktyce łączy się różne podejścia: DLP, IRM, archiwizację i szkolenia pracowników. Na rynku dostępne są rozwiązania, które integrują te mechanizmy - przykładem jest GTB DLP Suite, oferowane przez iiTD, które umożliwia zarówno analizę treści, jak i kontrolę kanałów komunikacji. To jedno z narzędzi, które pokazuje, jak technologia wspiera organizacje w redukowaniu ryzyka.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Światowa Organizacja Meteorologiczna (WMO) oficjalnie certyfikowała najdłuższą zaobserwowaną błyskawicę. Pojawiła się ona w październiku 2017 roku podczas wielkiej burzy, która przeszła nad Stanami Zjednoczonymi. Błyskawica rozciągała się od wschodniego Teksasu i sięgnęła niemal Kansas City. Dzięki satelitom, które znakomicie poprawiają naszą zdolność obserwacji zjawisk atmosferycznych, możliwa była dokładna ocena jej długości. WMO poinformowała, że miała ona 829 kilometrów długości. To odległość pomiędzy Paryżem a Wenecją.
Margines błędu w pomiarze gigantycznej błyskawicy wynosi ± 8 kilometrów. Była ona o 61 kilometrów dłuższa, niż poprzedni rekordzista, błyskawica z 29 kwietnia 2020 roku. Rozświetliła ona niebo nad południową częścią USA i miała 768 kilometrów długości.
Nowa rekordzistka powstała nad Wielkimi Równinami. To jedno z miejsc, gdzie tworzą się mezoskalowe układy konwekcyjne, których dynamika umożliwia powstawanie megabłyskawic. Burza z 2017 roku, podczas której powstała, była jedną z pierwszych podczas których nowy satelita NOAA GOES-16 (Geostationary Operational Environmental Satellite) zarejestrował wyjątkowo długotrwałe i potężne błyskawice. Rekordowego wydarzenia nie zauważono podczas pierwszej analizy danych. Dopiero ponowne przyjrzenie się informacjom przekazanym przez GOES-16 ujawniło, do jak wielkiego rozbłysku na niebie doszło.
WMO odnotowuje też inne rekordy związane z błyskawicami, niektóre niezwykle tragiczne. Najdłużej trwająca błyskawica pojawiła się 18 czerwca 2020 roku podczas burzy nad Urugwajem i Argentyną. Trwała nieco ponad 17 sekund. Z kolei w 1975 roku w Rodezji (Zimbabwe) błyskawica zabiła 21 osób, które schroniły się w jednej z chat podczas burzy. Do jeszcze bardziej tragicznego wypadku, spowodowanego niebezpośrednim działaniem błyskawicy, doszło w 1994 roku w miejscowości Dronka w Egipcie. Błyskawica uderzyła w znajdujące się w pobliżu cysterny z ropą naftową i paliwem lotniczym, stanowiące zapasy strategiczne wojska. Występująca jednocześnie powódź zaniosła płonące paliwo w kierunku Dronki. Zginęło 469 osób.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Z im większą prędkością dwie powierzchnie metalowe przesuwają się po sobie, tym bardziej się zużywają. Okazało się jednak, że przy bardzo dużych prędkościach, porównywalnych z prędkością pocisku wystrzeliwanego pistoletu, proces ten ulega odwróceniu. Szybszy ruch powierzchni prowadzi do ich wolniejszego zużycia.
Gdy dwie metalowe powierzchnie ześlizgują się po sobie, zachodzi wiele złożonych procesów. Krystaliczne regiony, z których zbudowane są metale, mogą ulegać deformacjom, pęknięciom, mogą skręcić się czy nawet zlać. Występuje tarcie i niszczenie powierzchni. Ten niepożądany proces powoduje, że urządzenia się zużywają oraz ulegają awariom. Dlatego też ważne jest, byśmy lepiej zrozumieli zachodzące wówczas procesy. Podczas badań nad tym zjawiskiem naukowcy z Uniwersytetu Technicznego w Wiedniu (TU Wien) i Austriackiego Centrum Doskonałości Tribologii dokonali zaskakującego, sprzecznego z intuicją odkrycia.
W przeszłości tarcie mogliśmy badać tylko w czasie eksperymentów. W ostatnich latach dysponujemy superkomputerami na tyle potężnymi, że możemy w skali atomowej modelować bardzo złożone procesy zachodzące na powierzchniach materiałów, mówi Stefan Eder z TU Wien. Naukowcy modelowali różne rodzaje metalowych stopów. Nie były to doskonałe kryształy, ale powierzchnie bliskie rzeczywistości, złożone niedoskonałe struktury krystaliczne. To bardzo ważne, gdyż te wszystkie niedoskonałości decydują o tarciu i zużywaniu się powierzchni. Gdybyśmy symulowali doskonałe powierzchnie miałoby to niewiele wspólnego z rzeczywistością, dodaje Eder.
Z badań wynika, że przy dość niskich prędkościach, rzędu 10-20 metrów na sekundę, zużycie materiału jest niewielkie. Zmienia się tylko zewnętrzna jego warstwa, warstwy głębiej położone pozostają nietknięte. Przy prędkości 80–100 m/s zużycie materiału, jak można się tego spodziewać, wzrasta. Stopniowo wchodzimy tutaj w taki zakres, gdzie metal zaczyna zachowywać się jak miód czy masło orzechowe, wyjaśnia Eder. Głębiej położone warstwy materiału są ciągnięte w kierunku ruchu metalu przesuwającego się po powierzchni, dochodzi do całkowitej reorganizacji mikrostruktury.
Później zaś na badaczy czekała olbrzymia niespodzianka. Przy prędkości ponad 300 m/s zużycie ocierających się o siebie materiałów spada. Mikrostruktury znajdujące się bezpośrednio pod powierzchnią, które przy średnich prędkościach były całkowicie niszczone, pozostają w większości nietknięte. To zaskakujące dla nas i wszystkich zajmujących się tribologią. Jednak gdy przejrzeliśmy literaturę fachową okazało się, że obserwowano to zjawisko podczas eksperymentów. Jednak nie jest ono powszechnie znane, gdyż eksperymentalnie bardzo rzadko uzyskuje się tak duże prędkości, dodaje Eder. Wcześniejsi eksperymentatorzy nie potrafili wyjaśnić, dlaczego tak się dzieje. Dopiero teraz, dzięki symulacjom komputerowym, można pokusić się o bardziej dokładny opis.
Analiza danych komputerowych wykazała, że przy bardzo wysokich prędkościach w wyniku tarcia pojawia się duża ilość ciepła. Jednak ciepło to jest nierównomiernie rozłożone. Gdy dwa metale przesuwają się po sobie z prędkością setek metrów na sekundę, w niektórych miejscach rozgrzewają się do tysięcy stopni Celsjusza. Jednak pomiędzy tymi wysokotemperaturowymi łatami znajdują się znacznie chłodniejsze obszary. W wyniku tego niewielkie części powierzchni topią się i w ułamku sekundy ponownie krystalizują. Dochodzi więc do dramatycznych zmian w zewnętrznej warstwie metalu, ale to właśnie te zmiany chronią głębsze warstwy. Głębiej położone struktury krystaliczne pozostają nietknięte.
Zjawisko to, o którym w środowisku specjalistów niewiele wiadomo, zachodzi w przypadku różnych materiałów. W przyszłości trzeba będzie zbadać, czy ma ono również miejsce przy przejściu z dużych do ekstremalnych prędkości, stwierdza Eder. Bardzo szybkie przesuwanie się powierzchni metalicznych względem siebie ma miejsce np. w łożyskach czy systemach napędowych samochodów elektrycznych czy też podczas polerowania powierzchni.
Szczegóły badań zostały opublikowane na łamach Applied Materials Today.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Po ponad dwóch latach prac obie izby amerykańskiego Kongresu przyjęły CHIPS and Science Act, ustawę, która ma zachęcić do inwestycji w amerykański przemysł półprzewodnikowy. Przewiduje ona wydatkowanie z budżetu federalnego 52 miliardów USD w ciągu pięciu lat i zezwala na udzielenie 25-procentowej ulgi podatkowej na budowę lub rozbudowę zakładów produkujących półprzewodniki lub urządzenia do ich wytwarzania. Ustawa to część pakietu o wartości 280 miliardów dolarów, który ma zwiększyć konkurencyjność USA na polu nowych technologii.
Ze wspomnianych 52 miliardów dolarów 39 miliardów przeznaczono na granty na budowę nowych fabryk, 11 miliardów trafi do federalnych programów badawczych zajmujących się półprzewodnikami, a 2 miliardy zostanie wydatkowane na projekty obronne związane z mikroelektroniką. Dodatkowo 200 milionów dolarów otrzyma Narodowa Fundacja Nauki, a pieniądze te mają zostać przeznaczone na promowanie wzrostu siły roboczej w przemyśle półprzewodnikowym. Departament Handlu ocenia, że do roku 2025 USA będą potrzebowały dodatkowych 90 000 osób pracujących w tym przemyśle. Twórcy ustawy przeznaczyli też 500 milionów dolarów na koordynację z zagranicznymi partnerami rządowymi rozwoju technologii bezpieczeństwa informatycznego, telekomunikacyjnego, działań na rzecz łańcucha dostaw w przemyśle półprzewodnikowym, w tym na rozwój bezpiecznych technologii komunikacyjnych, półprzewodnikowych i innych.
Eksperci mówią, że ustawa będzie miała olbrzymi wpływ na rozwój przemysłu półprzewodnikowego w USA. Zwracają uwagę przede wszystkim na ulgę podatkową, dzięki której warunki budowy fabryki półprzewodników w USA będą podobne, jak budowa za granicą. Ustawa nie tylko ma stworzyć wiele dobrze płatnych miejsc pracy czy zapobiec w USA niedoborom półprzewodników, których cały świat doświadczył w związku z przerwaniem łańcuchów dostaw w czasie pandemii. Nie mniej ważne jest bezpieczeństwo. Obecnie 90% najbardziej zaawansowanych półprzewodników produkowanych jest na Tajwanie. Chiny uznają ten kraj za swoją zbuntowaną prowincję i ciągle grożą jej „odzyskaniem”. Dlatego też Państwo Środka z uwagę przygląda się wojnie na Ukrainie. Jeśli Zachód dopuści, by Rosja podbiła Ukrainę, może to zachęcić Chiny do ataku na Tajwan. Nawet jeśli taki atak by się nie powiódł, mógłby on wywołać długotrwałe problemy z dostawami półprzewodników.
Wielcy producenci już od pewnego czasu zwiększają swoją obecność w USA. GlobalFoundries rozbudowuje kosztem 1 miliarda USD swoje zakłady w Malcie w stanie Nowy Jork, TSMC buduje kosztem 12 miliardów dolarów fabrykę w Arizonie, samsung planuje wydać 17 miliardów USD na fabrykę w pobliżu Austin i zapowiada, że w przyszłości może zainwestować w USA nawet 200 miliardów dolarów. Intel zapowiedział budowę fabryki w Ohio. Firma chce na nią wydać 20 miliardów USD, ale mówi wprost, że wielkość inwestycji będzie zależna od dofinansowania na podstawie CHIPS Act. Koncern zapowiedział też, że – przy odpowiednim wsparciu rządowym – jest gotów zainwestować kolejnych 100 miliardów USD w ciągu najbliższych 10 lat.
Ustawa będzie miała olbrzymi wpływ na innowacje w USA, mówi Russell T. Harrison, dyrektor amerykańskiego oddziału Instytutu Inżynierów Elektryków i Elektroników, który od początku był zaangażowany w prace nad tym aktem prawnym.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Stany Zjednoczone są najlepszym miejscem pracy dla inżynierów oprogramowania. Firma Codingame przeprowadziła ankiety wśród społeczności składającej się z 2 milionów programistów oraz osób zajmujących się rekrutowaniem pracowników na potrzeby sektora IT i wykazała, że w USA inżynierowie oprogramowania zarabiają najlepiej na świecie.
Średnia pensja inżyniera oprogramowania pracującego w Stanach Zjednoczonych wynosi 95 879 dolarów rocznie. Co więcej, ponad 40% takich osób zarabia ponad 100 000 USD rocznie, a zarobki 5% przekraczają 200 000 dolarów rocznie.
Bardzo dobrze można zarobić też w Szwajcarii. Tam średnia pensja inżyniera oprogramowania wynosi 90 426 USD. Następna jest Kanada z pensją 71 193 dolarów, a na czwartym miejscu uplasowała się Wielka Brytania, gdzie przeciętny inżynier oprogramowania może liczyć na roczne zarobki wynoszące 68 664 USD. Nasi bezpośredni sąsiedzi, Niemcy, uplasowali się na 6. miejscu z przeciętnymi zarobkami 61 390 dolarów, na dziewiątej pozycji znajdziemy Francję (47 617 USD/rok), a pierwszą dziesiątkę zamyka Hiszpania (39 459 dolarów).
Autorzy ankiety nie brali pod uwagę ani kosztów życia w poszczególnych krajach, ani specjalizacji, w których można najwięcej zarobić. Trzeba też pamiętać, że samo porównanie zarobków nie mówi nam wszystkiego. Koszt życia w Szwajcarii jest na przykład znacznie wyższy niż w Wielkiej Brytanii, więc mimo sporej różnicy w zarobkach, poziom życia inżynierów w obu krajach może być bardzo podobny.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.