Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Działające od niedawna Laboratorium Cyberbezpieczeństwa Narodowego Centrum Badań Jądrowych odnotowało pierwszy sukces: naukowcy wykryli niebezpieczną lukę w oprogramowaniu firmowym jednego z powszechnie używanych sterowników logicznych PLC wykorzystywanym m.in. w instalacjach nuklearnych. Producent naprawił już błąd, zalecając niezbędne poprawki wszystkim użytkownikom.

W ramach udziału Narodowego Centrum Badań Jądrowych w programie „Enhancing Computer Security Incident Analysis at Nuclear Facilities” prowadzonego przez Międzynarodową Agencją Energii Atomowej, w Świerku powstaje specjalistyczne laboratorium CyberLAB. Laboratorium to testuje pod kątem cyberbezpieczeństwa programowalne sterowniki logiczne (PLC), a w przyszłości będzie badało również inne elementy przemysłowych systemów sterowania.

Mimo, że laboratorium dopiero powstaje, może się już pochwalić znacznym sukcesem. Zespół CyberLAB odnalazł lukę w oprogramowaniu firmowym sterownika PLC Siemens S7–1500. Sterownik ten jest powszechnie wykorzystywany między innymi w instalacjach nuklearnych. Odnaleziona luka (podatność) pozwala na przeprowadzenie ataku odmowy dostępu prowadzącego do utraty łączności ze sterownikiem. W przypadku, gdy sterownik kontroluje procesy krytyczne, taki atak może mieć katastrofalne skutki. Dodatkowo, w przypadku tego błędu, utrata łączności może zostać przywrócona tylko po ręcznym restarcie sterownika.

Badanie układu, który standardowo komunikuje się z innymi urządzeniami przemysłowymi za pomocą łączy sieciowych, polega na wysyłaniu do niego ogromnej ilości zmodyfikowanych komunikatów wejściowych – wyjaśnia mgr inż. Marcin Dudek (NCBJ). Wysyłane komunikaty generowane są komputerowo, zgodnie ze składnią protokołu komunikacyjnego testowanego urządzenia – w tym wypadku był to protokół Profinet. Sprawdzamy, czy pewne komunikaty lub ich sekwencje nie prowadzą do zachowań nieoczekiwanych. Procedura ta nazywa się fuzzing lub fuzz testing. W przypadku sterownika S7–1500 okazało się, że są takie sekwencje wysyłanych do niego komunikatów, które powodują awarię komponentu odpowiedzialnego za komunikację sieciową, w rezultacie odcinając możliwość łączności z nim. Udało nam się dość precyzyjnie zidentyfikować zagrożenie, a nasze obserwacje przekazaliśmy inżynierom Siemensa.

Podatność została zgłoszona do producenta w ramach opracowanej przez CyberLAB procedury, zgodnej z dobrą praktyką odpowiedzialnego ujawniania błędów (ang. Responsible Disclosure). Zespół NCBJ dostarczył pełną dokumentację błędu i skrypt „Proof of Concept” pozwalający na proste powtórzenie błędu w laboratorium producenta. Podatności został nadany numer CVE-2018-13805, a jej szczegóły zostały opublikowane na stronie firmy Siemens pod adresem https://cert-portal.siemens.com/productcert/pdf/ssa-347726.pdf. Przed opublikowaniem wszyscy dotychczasowi użytkownicy dostali informacje o sposobach usunięcia luki.

Producent docenił pracę zespołu CyberLABu. Osoby, które przyczyniły się do odnalezienia błędu zostały wymienione na „ścianie podziękowań” (ang. Hall of Thanks) firmy https://www.siemens.com/global/en/home/products/services/cert/hall-of-thanks.html. Są to pracownicy NCBJ: Marcin Dudek, Jacek Gajewski, Kinga Staszkiewicz, Jakub Suchorab i Joanna Walkiewicz.

Kwestie cyberbezpieczeństwa są jednym z priorytetów NCBJ i stanowią przedmiot badań prowadzonych w ośrodku. Poza budową wcześniej wspomnianego laboratorium, Instytut uczestniczy m.in. w projekcie Narodowa Platforma Cyberbezpieczeństwa, (NPC; realizowany wspólnie z Naukową Akademicką Siecią Komputerową – NASK, Politechniką Warszawską i Instytutem Łączności). Zespół CyberLAB złożył w 2018 r. trzy kolejne wnioski projektowe do programów H2020 i RPO. Liczymy, że realizacja przynajmniej części z nich pozwoli na znaczną rozbudowę istniejącego laboratorium oraz zwiększenie liczby zatrudnionych specjalistów.

Tematyka cyberbezpieczeństwa jest też przedmiotem współpracy zespołów CyberLAB i Parku Naukowo-Technologicznego „Świerk” z Wyższą Szkołą Gospodarki Euroregionalnej i z Centrum Naukowo-Badawczym Ochrony Przeciwpożarowej z Józefowa. Instytucje wspólnie organizują doroczną ogólnopolską konferencję naukową na temat bezpieczeństwa. Jej tegoroczna XI edycja jest zatytułowana „Technologie informatyczne w tworzeniu kultury cyberprzestrzeni – elementu bezpieczeństwa cyfrowego”. Odbędzie się ona 25 października w NCBJ w Świerku.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

"CyberLAB w Świerku skutecznie bada cyberbezpieczeństwo" zapewne obejrzeli na Netfliksie film o wirusie wyprodukowanym wiele lat temu w spółce NSA-CIA przeciwko wirówkom w irańskim ośrodku nuklearnym. Celem wirusa są sterowniki PLC firmy Siemens lub klony o wybranych numerach seryjnych. Wirus przenoszony jest przez "peny" USB.

Ciekawe ile jeszcze instalacji przemysłowych ze sterownikami PLC padło lub padnie w kolejnych latach.

Kosztów nikt nie zwróci bo spółka NAS-CIA posiada imunitet na wszystko.

Edytowane przez wilk
A po co ta wielgachna czcionka?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na chwilę obecną atak podobny do tego z książki jest bardzo mało prawdopodobny (praktycznie niemożliwy). M.in. dzięki firmom/instytucjom jak ta z artykułu.

Co jest niemożliwe dla człowieka dla natury nie stanowi problemu.

https://pl.wikipedia.org/wiki/Rozbłysk_słoneczny

https://pl.wikipedia.org/wiki/Burza_magnetyczna_roku_1859

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Komputery kwantowe mogą, przynajmniej teoretycznie, przeprowadzać obliczenia, które są poza zasięgiem tradycyjnych maszyn. Ich kluczowym elementem są splątane kwantowe bity, kubity. Splątanie jest jednak stanem niezwykle delikatnym, bardzo wrażliwym na wpływ czynników zewnętrznych, na przykład promieniowania kosmicznego. Powoduje ono, że średnio co 10 sekund dochodzi do katastrofalnego błędu i kwantowe układy scalone tracą dane. Może ono za jednym razem usunąć wszelkie dane z procesora nawet najbardziej zaawansowanej maszyny kwantowej.
      Fizyk Quian Xu z University of Chicago i jego koledzy poinformowali o opracowaniu metody, która aż o 440 000 razy wydłuża czas pomiędzy błędami powodowanymi przez promieniowanie kosmiczne. Zatem mają one miejsce raz na 51 dni.
      Badacze zaproponowali komputer kwantowy składający się z wielu układów scalonych z danymi, z których każdy posiada liczne nadprzewodzące kubity. Wszystkie te układy są połączone z układem pomocniczym, który zawiera dodatkowe kubity monitorujące dane. Wszystkie chipy korzystałyby ze standardowych metod korekcji błędów oraz dodatkowej korekcji błędów powodowanych przez promieniowanie kosmiczne. Dzięki temu, że dane są rozdzielone na różne układy, zniszczenia powodowane przez promieniowanie kosmiczne są ograniczane. Gdy już do nich dojdzie, układ pomocniczy, we współpracy z układami, których dane nie zostały uszkodzone przez promieniowanie, przystępuje do korekty i odzyskania utraconych danych. Komputer nie musi rozpoczynać pracy na nowo, gdy tylko niektóre układy utracą dane, Xu. Co więcej, metoda ta wykrywa i koryguje dane pojawiające się w układzie pomocniczym.
      Autorzy badań twierdzą, że ich metoda wymaga zaangażowania mniejszej ilości zasobów oraz żadnych lub niewielkich modyfikacji sprzętowych w porównaniu z dotychczasowymi próbami ochrony komputerów kwantowych przed promieniowaniem kosmicznym. W przyszłości chcieliby ją przetestować na chmurze kwantowej IBM-a lub procesorze Sycamore Google'a.
      Ze szczegółowym opisem metody można zapoznać się na łamach arXiv.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Inżynierowie z NASA naprawili sondę Voyager 1. Jak informowaliśmy w maju, sonda, znajdująca się w odległości ponad 23 miliardów kilometrów od Ziemi, zaczęła przysyłać nieprawidłowe dane. Były one wysyłane z systemu AACS, do którego od 45 lat należy kontrola nad prawidłową orientacją pojazdu. Jednym z jego zadań jest dopilnowanie, by antena Voyagera była skierowana dokładnie na Ziemię. Wszystko działało prawidłowo, jednak odczyty z AACS nie oddawały tego, co rzeczywiście dzieje się z sondą.
      Sygnał z Voyagera 1 nie tracił mocy, co wskazywało, że antena jest precyzyjnie ustawiona w stronę Ziemi. Dane przysyłane z AACS czasem wyglądały na generowane losowo, innymi razy nie oddawały żadnego stanu, w jakim urządzenie mogło się znaleźć. Jakby tego było mało, błąd w AACS nie uruchomił żadnego z zabezpieczeń Voyagera. Po miesiącach pracy inżynierowie w końcu znaleźli źródło problemu. Okazało się, że AACS zaczął przesyłać dane za pośrednictwem komputera, który przestał pracować wiele lat temu. I to ten komputer uszkadzał dane.
      NASA nie zna natomiast samej przyczyny błędy. Nie wiadomo, dlaczego AACS zaczął przesyłać dane tą drogą. Susanne Dodd, odpowiedzialna za Voyagera, podejrzewa, że stało się tak w momencie, gdy centrum kontroli nakazało Voyagerowi przesyłanie danych przez jeden z dobrze działających komputerów. Niewykluczone, że komenda ta została zniekształcona przez komputer, który przekierował dane z AACS do wadliwej maszyny. Jeśli tak, to oznacza, że któryś ze znajdujących się na pokładzie Voyagera elementów wygenerował błąd. A inżynierowie nie wiedzą jeszcze, który to element. Specjaliści nie ustają w poszukiwaniu źródła problemów, jednak w tej chwili wygląda na to, że misja Voyagera nie jest zagrożona.
      Jesteśmy szczęśliwi, że telemetria wróciła. Dokonamy teraz pełnego przeglądu układów pamięci AACS i przeanalizujemy wszystko, co system ten robił. To powinno tam pomóc w odnalezieniu przyczyny problemu. Jesteśmy optymistami, chociaż przed nami jeszcze dużo pracy, dodaje Dodd.
      Voyager 1 i Voyager 2 pracują już przez 45 lat. To znacznie dłużej niż pierwotnie planowano. Oba pojazdy znajdują się już w przestrzeni międzygwiezdnej.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Naukowcy z Narodowego Centrum Badań Jądrowych (NCBJ) dowiedli, że reaktory dwupłynowe (DFR) charakteryzują się ujemnym temperaturowym współczynnikiem reaktywności. To jeden z kluczowych elementów świadczących o pasywnym bezpieczeństwie reaktora.
      DFR (Dual Fluid Reactor) to nowatorska koncepcja reaktora pracującego na neutronach prędkich. Paliwem DRF mogą być albo stopione sole (chlorki uranu i plutonu) albo mieszanina eutektyczna – czyli mająca niższą temperaturę topnienia niż jej składniki osobno – złożona z metali uranu i chromu. Reaktory takie chłodzone są stopionym ołowiem.
      Głównymi zaletami DFR, w porównaniu do innych reaktorów IV generacji są wysoki poziom wykorzystania paliwa, wysoki współczynnik zwrotu zainwestowanej energii, efektywna gospodarka paliwem oraz kompleksowa konstrukcja. DFR mogą osiągnąć bardzo wysoką temperaturę czynnika roboczego, sięgającą 1000 stopni Celsjusza, dzięki czemu nadają się np. do prowadzenia wysokotemperaturowej elektrolizy wody i pozyskiwania wodoru. Co więcej, DFR są niezwykle elastyczne. W ciągu zaledwie kilkudziesięciu sekund obciążenie reaktora można obniżyć z mocy znamionowej do 6–7%, co czyni je szczególnie przydatnymi do współpracy ze źródłami odnawialnymi. A dzięki temu, że w DFR wykorzystuje się ciekłe paliwo metaliczne oraz chłodziwo bardzo dobrze odbierające ciepło, można zmniejszyć wymiary reaktora, co obniża koszty jego budowy.
      Specjaliści z NCBJ zajmowali się bezpieczeństwem reaktorów dwupłynowych. Bardzo ważnym elementem tego bezpieczeństwa jest temperaturowy współczynnik reaktywności. Opisuje on pasywne, czyli oparte bezpośrednio o prawa fizyki, bezpieczeństwo reaktora jądrowego. Ujemna jego wartość oznacza, że przy wzroście temperatury spowodowanym zwiększoną liczbą reakcji dochodzi do samoczynnego zmniejszenia liczby reakcji, dzięki czemu reaktor wraca do stanu bezpiecznego.
      Polscy naukowcy opublikowali właśnie wyniki przeprowadzonej przez siebie analizy na ten temat. Z naszych obliczeń i symulacji wynika, że reaktor DFR cechuje się ujemnym współczynnikiem reaktywności w trakcie całego analizowanego okresu pracy reaktora, mówi współautor badań doktor inżynier Jakub Sierchuła. W obliczeniach i symulacjach uwzględniliśmy zarówno efekt Dopplera, jak i zmiany gęstości materiałów wynikające ze zmiany temperatury w rdzeniu. Analizie zostały poddane trzy współczynniki materiałowe: dla paliwa, chłodziwa i reflektora. Stwierdziliśmy, że wszystkie one są ujemne. Największy wpływ na całkowity współczynnik temperaturowy reaktywności ma paliwo, a najmniejszy chłodziwo, przy czym zmiana silniej zależy od zmiany gęstości niż przekrojów czynnych. Innymi słowy, w analizowanym przypadku, zmiana gęstości ma znacznie większe znaczenie niż efekt Dopplera, dodaje.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Monolityczny żelbetowy bunkier oraz przylegający doń budynek laboratoryjny to elementy Centrum Projektowania i Syntezy Radiofarmaceutyków Ukierunkowanych Molekularnie (CERAD) tworzonego przez Narodowe Centrum Badań Jądrowych. W bunkrze zainstalowany zostanie nowoczesny cyklotron, jeden z pierwszych tego typu w Europie. Podobne urządzenie posiada jedynie znany ośrodek Forschungszentrum Jülich, które jest właśnie w trakcie jego uruchamiania.
      Wspomniany cyklotron budowany jest w Belgii przez firmę Ion Beam Application. Jeszcze przed końcem roku zostanie przetestowany, a później trafi do Świerku. Infrastruktura, która powstaje w ramach projektu CERAD, jako połączenie cyklotronu o energii cząstek 30 MeV, z posiadanym już przez NCBJ potencjałem reaktora badawczego Maria, umożliwi projektowanie i syntezę nowoczesnych leków ukierunkowanych molekularnie. Warto podkreślić, że energie cząstek naładowanych dostępne w nowym cyklotronie będą znacznie wyższe niż posiadane w innych urządzeniach w kraju. Ponadto będzie to jedyne w Polsce urządzenie przyspieszające cząstki alfa. W połączeniu z mocą obliczeniową Centrum Informatycznego Świerk, wkładem rzeczowym i zasobem intelektualnym konsorcjantów projektu oraz eksperckim i gospodarczym doświadczeniem Ośrodka Radioizotopów POLATOM w obszarze opracowywania i wytwarzania radiofarmaceutyków, możliwe będzie prowadzenie prac badawczych zgodnie ze światowymi trendami w obszarach medycyny spersonalizowanej i koncepcji „theranostics” – umożliwiającej projektowanie i syntezę nowoczesnych leków ukierunkowanych molekularnie. Będziemy mogli m.in. otrzymywać leki, rozwijać nowe metody diagnostyczne i procedury lecznicze, a także wdrażać je w praktyce, powiedziała dyrektor CERAD, profesor dr hab. inż. Renata Mikołajczak.
      Nowo powstające Centrum Projektowania i Syntezy Radiofarmaceutyków Ukierunkowanych Molekularnie „CERAD” będzie jedną z najnowocześniejszych tego typu placówek w Europie. Jego rola dla rozwoju nauki w Polsce jest nie do przecenienia. CERAD będzie wspierał działania związane z opracowywaniem skutecznych metod diagnostyki i terapii nowotworów. Cieszę się, że w ramach ogłoszonego przez OPI PIB konkursu, mogliśmy ze środków POIR dofinansować tak potrzebną inicjatywę, mówi Joanna Kuszlik-Cichosz z OPI PIB.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Microsoft poinformował, że błąd w konfiguracji zabezpieczeń jednej z firmowych baz danych spowodował, że 250 milionów rekordów o klientach firmy było publicznie dostępnych. Nasze śledztwo wykazało, że zmiany dokonane 5 grudnia 2019 roku w polityce zabezpieczeń zawierały źle skonfigurowane zasady bezpieczeństwa, które spowodowały wystawienie danych na widok publiczny, czytamy w oświadczeniu koncernu.
      Gdy zostaliśmy poinformowani o problemie nasi inżynierowie naprawili go 31 grudnia 2019 roku i zablokowali nieautoryzowany dostęp do danych. Problem dotyczył bazy danych wykorzystywanej do analizy systemu udzielania wsparcia.
      Wiadomo, że dane sięgały aż do roku 2005 i zawierały zapisy rozmów pomiędzy klientami Microsoftu, a pracownikami odpowiedzialnymi za wsparcie techniczne. Wiadomo też, że baza była przez co najmniej 2 dni dostępna dla każdego internauty. Przeglądać ją można było bez konieczności logowania się.
      Problem zauważyli pracownicy firmy BinaryEdge, zajmującej się wykrywaniem zagrożeń. Poinformowali Microsoft o problemie 31 grudnia. Brawa dla pracowników Microsoftu, że błyskawicznie zareagowali mimo sylwestra, stwierdził Bob Diachenko, który przekazał koncernowi informację o błędzie.
      Przeprowadzone przez Microsoft śledztwo wykazało, że zdecydowana większość danych była zanonimizowana. Jednak w pewnych szczególnych wypadkach niektóre dane można było powiązać np. z konkretnym adresem e-mail. Dlatego też, mimo że nie znaleziono dowodów, by do bazy dostał się ktoś nieuprawniony – poza pracownikami BinaryEdge – koncern rozpoczął informowanie klientów, których mógł dotyczyć problem.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...