Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Scyfryzowane ule pomogą w ustaleniu przyczyn spadku liczebności pszczół

Rekomendowane odpowiedzi

Nowym sposobem na poznanie przyczyn spadku liczebności pszczół jest podłączenie ula do Internetu i stworzenie czegoś w rodzaju scyfryzowanej jego wersji.

Tieto, szwedzka firma zajmująca się konsultacjami z zakresu oprogramowania komputerowego, umieściła czujniki w 2 ulach (w każdym z uli mieszka ok. 80 tys. pszczół). Pierwszego października jeden scyfryzowany ul trafił do HSB Living Lab w Göteborgu. Drugi, prototyp, znajduje się w Kalmarze, przy siedzibie firmy. Zamontowano w nim czujniki do pomiaru liczebności owadów, wilgotności, ciśnienia czy temperatury w ulu.

Ule są podłączone do Internetu i wysyłają dane na serwer. Jak tłumaczą twórcy, oznacza to zdalny dostęp do nich w czasie rzeczywistym. Analizą zajmą się algorytmy sztucznej inteligencji. Projekt ma pomoc w zarządzaniu ulem, tworzeniu zdrowych kolonii czy zachowaniu bioróżnorodności w bezpośrednim otoczeniu.

Mikael Ekström, który po godzinach sam zajmuje się pszczelarstwem, wyjaśnia, że dzięki technologii można lepiej monitorować liczebność pszczół, żywotność kolonii, a także ilość wytwarzanego miodu. To również świetny sposób na zilustrowanie korzyści związanych ze scyfryzowanym społeczeństwem oraz na pokazanie, jak cyfrowe rozwiązania mogą stworzyć lepsze warunki zarówno dla ludzi, jak i dla pszczół.

Ekström ma nadzieję, że w przyszłości technologia pomoże w wykrywaniu wybuchów epidemii różnych pszczelich chorób.
Na razie skala projektu jest niewielka, ale Tieto prowadzi już rozmowy ze Szwedzkim Krajowym Stowarzyszeniem Pszczelarzy. Wspólnie być może uda się ustalić, jak go rozszerzyć na cały kraj. Szybki rozwój technologii działa na naszą korzyść.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przecież nikt Cię nie zmusza. Dlaczego uważasz dobrowolny zdalny monitoring np. osób starszych przez lekarza/opiekuna, bądź lokalizacji dzieci za zły? Byłeś kiedyś w markecie? Jesteś na każdym kroku śledzony.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czyli nie wiesz nawet, że tu nie o gotówkę chodzi. ;) Nie uciekniesz przed nim, chyba że przerzucisz się na spożywczaki.

Ale pszczoły nie podlegają pod inne prawa niż ochrona zwierząt. Bez sensu takie przepychanki pseudoideologiczne. Poza tym ten monitoring nie różni się drastycznie od termometru za oknem.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Astro napisał:

Przy okazji: tytuł "Sctfryzowane ule" trochę nie bardzo leży w "scyfryzowanym" społeczeństwie.

Najmocniej przepraszam ;) Już poprawiłam, jestem trochę chora i przez to odrobinę rozkojarzona...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Astro
Mało komu zależy na śledzeniu Ciebie jako jednostki, ale monitoring w markecie skutecznie Cię śledzi jako element tłumu. Sprawdza którędy chodzisz, jakie produkty kupujesz... ale to trafia tylko anonimowo do bazy o kolejnym człowieku, który zrobił zakupy. Jak przyjdziesz znów do tego samego marketu to, przynajmniej teoretycznie, nie rozpozna Cię jako tej samej osoby. I nie ma tu żadnego znaczenia w jaki sposób płaciłeś. Gotówka sprawia, że BANK nie wie, gdzie robiłeś zakupy, dla sklepu to żadna różnica.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dla mnie problem z całkowitym wycofaniem gotówki jest inny. To prosta droga do tego, by ktoś decydował, co możemy kupić. Nietrudno wyobrazić sobie sytuację, w której terminale przy kasach są połączone np. z bazą danych NFZ i gdy będę usiłował kupić golonkę, to system mi nie pozwoli, bo NFZ zabroni ze względu na zbyt wysoki cholesterol. Profilowanie poglądów na kwestie społeczne/gospodarcze/polityczne robione na podstawie lektur też jest możliwe. Wolę, by rządzący nie mieli aż takich możliwości.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Rodzajów śledzenia masz w marketach bez liku. Wystarczy, że wejdziesz z włączonym telefonem. Monitorowanie lokalnym pico/microcellem BTS, Wi-Fi, beacony Bluetooth, użycie algorytmów śledzących powiązanych z kamerami monitoringu, kamery termowizyjne, bramki liczące, RFID, biometryka. Wszystko zupełnie bez Twojego udziału i niestety zgody, żeby wiedzieć co ludzie lubią kupować i ile, gdzie się szwędają, czy są uśmiechnięci, jak planować układ półek.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 godzin temu, Mariusz Błoński napisał:

Profilowanie poglądów na kwestie społeczne/gospodarcze/polityczne robione na podstawie lektur też jest możliwe. Wolę, by rządzący nie mieli aż takich możliwości.

Dokładnie! Dodałbym jeszcze, że jeśli chodzi o algorytmy/systemy śledzące to warto rozważyć bilans zysku i strat jeżeli chodzi o identyfikacje osobową. Czyli likwidować (lub nie) obowiązek rejestracji telefonu, a druga rzecz do rozważenia -  prawny przymus wprowadzenia opcji (na zasadzie RODO?) wysyłki do paczkomatu bez konieczności podawania swojego adresu. Dzięki tym zabiegom, możesz być śledzony anonimowo na cele marketingowe etc. ale nie możesz zostać zidentyfikowany. Przy obecnej liczbie ataków terorystycznych (mniej ludzi w nich ginie niż np. w wyniku brawury naszych rodaków na drogach) uważam że nie opłaca się oddawać wolności w zamian za potencjalne zmniejszenie liczby tych ataków, są do tego inne sposoby - po prostu służby muszą działać lepiej, jak w Ghost In the Shell :P

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Uczeni z University of Manchester i Australian National University (ANU) stworzyli magnes składający się z pojedynczej molekuły, który przechowuje zapisane w nim informacje w najwyższej temperaturze ze wszystkich tego rodzajów pamięci. Tego typu molekuły charakteryzuje niezwykle duża pojemność zapisu, nawet 100-krotnie większa niż limit współczesnych technologii. W przyszłości tego typu molekuły mogą zostać wykorzystane do zbudowania pamięci kwantowych czy w spintronice.
      Nowa molekuła zachowuje zapisane w niej dane w temperaturze 100 kelwinów, czyli -173 stopni Celsjusza. Jej stworzenie to znaczący krok naprzód w porównaniu z wcześniejszymi „molekularnymi magnesami”, które przechowywały dane w temperaturze 80 kelwinów (-193 stopnie Celsjusza). Oczywiście temperatura potrzebna do pracy wspomnianej molekuły jest znacznie niższa od temperatury pokojowej czy temperatur możliwych do uzyskania za pomocą standardowych urządzeń chłodniczych. Jednak, na co warto zwrócić uwagę, jest to temperatura znacząco wyższa od temperatury ciekłego azotu (77 kelwinów, -196 stopni Celsjusza).
      Ciekły azot jest łatwo dostępnym chłodziwem, więc dla koncernów wykorzystujących olbrzymie bazy danych, jak Google, Microsofot, Meta czy Amazon, jego użycie nie powinno stanowić problemu. Natomiast korzyści z zastosowania wspomnianej molekuły mogą być olbrzymie. Dość wspomnieć, że teoretycznie pozwala ona przechować ponad 3TB na powierzchni 1 cm2. To na przykład pół miliona filmików z TikToka czy 3600 płyt CD z muzyką zapisanych na dysku twardym wielkości znaczka pocztowego.
      Pamięci magnetyczne są wykorzystywane od dziesięcioleci. Obecnie używane dyski twarde przechowują dane poprzez namagnesowanie niewielkich regionów składających się z wielu atomów, które współdziałają w podtrzymaniu zapisanych danych. Chemiczne molekuły magnetyczne nie potrzebują pomocy sąsiadów, by zachować zapisane w nich dane. To stwarza okazję do zbudowania z nich układów pamięci o olbrzymiej gęstości zapisu. Jednak problemem jest tutaj fakt, że do przechowania tego zapisu wymagają one bardzo niskich temperatur. Badacze z Manchesteru zaprezentowali molekułę, której można zapewnić odpowiednie warunki za pomocą tak powszechnie dostępnego chłodziwa jak ciekły azot.
      Kluczem do sukcesu jest tutaj unikatowa struktura złożona z atomu dysprozu umieszczonego między dwoma atomami azotu. Te trzy atomu układają się niemal w linii prostej. Taka architektura zwiększa zdolność materiału do generowania i utrzymania pola magnetycznego. O tym wiadomo było nie od dzisiaj. Dopiero teraz jednak udało się to zrealizować w praktyce.
      Zwykle gdy dysproz jest związany jedynie z 2 atomami azotu, powstaje molekuła o zagiętym, nieregularnym kształcie. Uczeni z Manchesteru dodali do całości alken, który łączy się z atomem dysprozu, utrzymując pożądany kształt całości.
      Naukowcy z ANU są twórcami analizy numerycznej i nowego modelu opisującego zachowanie się tego typu molekuł. Na ich podstawie uczeni z Manchesteru będą teraz pracowali nad jeszcze lepszymi magnesami molekularnymi.
      Źródło: Soft magnetic hysteresis in a dysprosium amide–alkene complex up to 100 kelvin, https://www.nature.com/articles/s41586-025-09138-0

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Co to jest chromebook? Nazywamy tak laptopy pracujące pod kontrolą systemu operacyjnego ChromeOS. Jeśli zastanawiasz się, czy warto postawić na taki sprzęt, dziś przedstawimy go nieco bliżej.
      Chromebook, czyli co? Jaki to laptop?
      Nazwa chromebooka wzięła się od zainstalowanego na nim systemu operacyjnego. ChromeOS jest komputerowym odpowiednikiem lubianego, znanego ze smartfonów i tabletów systemu Android. Oprogramowanie jest niezwykle “lekkie”, co ma sporo zalet. Przede wszystkim działa bardzo szybko i potrzebuje niewiele zasobów. Dzięki temu sprawdzając, ile kosztuje chromebook, miło się zaskoczysz. Komputery tego typu są tańsze od “klasycznych” laptopów z systemem Windows lub macOS.
      System operacyjny w chromebooku potrzebuje mało zasobów. Pozwala to na bardzo płynną pracę nawet na nieco słabszym komputerze.  Niektórzy wykorzystują tę cechę i instalują ChromeOS na laptopach, gdzie Windows działa już dość słabo i się zacina. Śmiało możemy więc podsumować, że chromebook to niedrogi laptop, i tak jest jednak bardzo szybki. Duża część oprogramowania dostępnego na ChromeOS to produkty Google.
      Jeśli lubisz pracować w Dokumentach Google, używasz poczty Gmail i uważasz przeglądarkę Chrome za najlepszą - chromebook okaże się strzałem w dziesiątkę! Na ten system znajdziesz też jednak dużo innych aplikacji oraz gier. Chromebook to w pełni funkcjonalny laptop - bez trudu odtworzysz na nim filmy VOD, muzykę (np. ze Spotify), itp.
      Kiedy warto kupić chromebooka?
      Najczęściej użytkownikami chromebooków zostają osoby chcące kupić niedrogi komputer. Jako tani laptop przeglądarkowy do Internetu, chromebook sprawdzi się doskonale. Komputer posłuży z powodzeniem do nauki, przeglądania Internetu i do multimediów. Urządzenia z tej kategorii nadają się też do pracy biurowej. Jeśli większość czasu na komputerze spędzasz w przeglądarce internetowej, laptop na Chrome OS się sprawdzi. Sprawdź chromebooki dostępne w Komputronik.
      Laptopa z ChromeOS możemy wykorzystać również do gier. Ze Sklepu Google Play możesz pobrać wiele gier, w tym darmowych. Na takim komputerze nie uruchomimy jednak gier przewidzianych na system Windows lub macOS. Kupno taniego chromebooka nie oznacza jednak rezygnacji z najnowszych gier. Zagrasz nie wykorzystując nowoczesne usługi streamingu - granie w chmurze (np. Xbox Cloug Gaming i GeForce Now).
      Zalety chromebooków, jak i innych laptopów do Internetu
      Chromebooki to bardzo sprawne i niedrogie laptopy do Internetu. Korzystając z takiego urządzenia bez trudu uruchomisz oprogramowanie niemal każdego typu. Programy biurowe, odtwarzacze multimedialne, playery filmów VOD - te aplikacje działają bezbłędnie na szybkim systemie ChromeOS.
      Poza chromebookami także laptopy z systemem Windows sprawdzą się jako laptop przeglądarkowy. Tą nazwą nazywamy najczęściej niedrogie komputery. Laptop do Internetu nie pozwoli na uruchomienie nowych gier, jednak doskonale nada się do pracy, nauki i zabawy. Dla wielu osób takie urządzenie jest w zupełności wystarczające.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Teleskop Webba (JWST) od kilku tygodni przysyła wspaniałe zdjęcia przestrzeni kosmicznej. JWST może pracować nawet przez 20 lat i w tym czasie będzie badał też egzoplanety. Dzięki olbrzymiej czułości, dostarczy niedostępnych dotychczas informacji o świetle docierającym z ich atmosfer, co pozwoli określenie ich składu, historii i poszukiwanie śladów życia. Jednak, jak się okazuje, teleskop jest tak doskonały, że obecnie stosowane narzędzia mogą niewłaściwe interpretować przesyłane dane.
      Grupa naukowców z MIT opublikowała na łamach Nature Astronomy artykuł, w którym informuje, że obecnie używane przez astronomów narzędzia do interpretacji danych ze światła mogą dawać niewłaściwe wyniki w przypadku JWST. Chodzi konkretnie o modele nieprzezroczystości, narzędzia opisujące, jak światło wchodzi w interakcje z materią w zależności od jej właściwości. Mogą one wymagać znacznych zmian, by dorównać precyzji danym z JWST. Jeśli nie zostaną odpowiednio dostosowane to – jak ostrzegają autorzy badań – informacje dotyczące takich właściwości atmosfer egzoplanet jak temperatura, ciśnienie i skład mogą różnić się od rzeczywistych o cały rząd wielkości.
      Z punktu widzenia nauki istnieje olbrzymia różnica, czy np. woda stanowi 5% czy 25% składu. Obecne modele nie są w stanie tego odróżnić, stwierdza profesor Julien de Wit. Obecnie używany przez nas model interpretujące dane ze spektrum światła nie przystaje precyzją i jakością do danych, jakie napływają z Teleskopu Webba. Musimy rozwiązać ten problem, wtóruje mu student Prajwal Niraula.
      Nieprzezroczystość określa, na ile łatwo foton przechodzi przez badany ośrodek, jak jest absorbowany czy odbijany. Interakcje te zależą też od temperatury i ciśnienia ośrodka. De Wit mówi, że obecnie używany najdoskonalszy model badania nieprzezroczystości bardzo dobrze się sprawdził w przypadku takich instrumentów jak Teleskop Hubble'a. Teraz jednak weszliśmy na kolejny poziom precyzji danych. Wykorzystywany przez nas sposób ich interpretacji nie pozwoli nam wyłapać drobnych subtelności, które mogą decydować np. o tym, czy planeta nadaje się dla życia czy nie.
      Uczeni z MIT po analizie najpowszechniej używanego obecnie modelu nieprzezroczystości stwierdzili, że jego wykorzystanie do danych z Webba spowoduje, iż trafimy na „barierę precyzji”. Model ten nie będzie na tyle dokładny, by stwierdzić, czy temperatura na planecie wynosi 27 czy 327 stopni Celsjusza, a stężenie jakiegoś gazu w atmosferze to 5 czy 25 procent.
      Wit i jego zespół uważają, że aby poprawić obecnie używane modele konieczne będzie przeprowadzenie więcej badań laboratoryjnych, obliczeń teoretycznych oraz poszerzenie współpracy pomiędzy specjalistami z różnych dziedzin, szczególnie astronomami i ekspertami od spektroskopii.
      Możemy wiele zrobić, jeśli będziemy dobrze rozumieli, jak światło wchodzi w interakcje z materią. Dobrze rozumiemy warunki panujące wokół Ziemi. Jednak tam, gdzie mamy do czynienia z innymi typami atmosfery, wszystko się zmienia. A teraz dysponujemy olbrzymią ilością danych o coraz lepszej jakości, więc istnieje ryzyko błędnej interpretacji, wyjaśnia Niraula.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Z Teleskopu Webba na Ziemię zaczęły trafiać pierwsze zdjęcia przestrzeni kosmicznej oraz dane spektroskopowe. Gdy będziemy oglądać fascynujące obrazy warto pamiętać, że pochodzą one z urządzenia, które znajduje się niemal 3000 razy dalej od Ziemi niż Teleskop Hubble'a. Warto więc dowiedzieć się, jak do nas trafiły.
      Znaczna odległość Webba od Ziemi oznacza, że sygnał musi przebyć długą drogę, zanim do nas trafi, a cały system komunikacyjny musi działać naprawdę dobrze, gdyż nie przewiduje się misji serwisowych do Webba. Jeśli więc komunikacja zawiedzie, będziemy mieli w przestrzeni kosmicznej całkowicie bezużyteczny najdoskonalszy teleskop w idealnym stanie.
      Teleskop Kosmiczny Jamesa Webba (JWST) jest pierwszą misją kosmiczną, która wykorzystuje pasmo Ka do przesyłania tak dużej ilości danych. Już na etapie projektowania zdecydowano o wykorzystaniu Ka, części większego pasma K.
      Webb wysyła na Ziemię dane w paśmie o częstotliwości 25,9 Ghz, a prędkość transmisji może dochodzić do 28 Mb/s. Tak duża prędkość jest niezbędna, gdyż JWST może zebrać do 57 GB danych na dobę, chociaż rzeczywista ilość danych będzie zależała od zaplanowanych obserwacji. Dla porównania, Teleskop Hubble'a (HST) zbiera każdej doby nie więcej niż 2 GB danych.
      Pasmo Ka wybrano, gdyż kanałem tym można przesłać więcej danych niż powszechnie wykorzystywanymi w komunikacji kosmicznej pasmami X (7–11 GHz) czy S (2–4 GHz). Dodatkowo przeciwko wykorzystaniu pasma X przemawiał fakt, że antena pracująca w tym zakresie musiałaby być na tyle duża, że teleskop miałby problemy z utrzymaniem wysokiej stabilności, niezbędnej do prowadzenia obserwacji.
      Szybki transfer danych jest niezbędny na potrzeby przesyłania informacji naukowych. Webb korzysta też z dwóch kanałów pasma S. Jeden z nich, o częstotliwości 2.09 GHz to kanał odbiorczy, pracujący z prędkością 16 kb/s. Służy on do wysyłania do teleskopu poleceń dotyczących zaplanowanych obserwacji oraz przyszłych transmisji danych. Za pomocą zaś drugiego kanału, 2.27 GHz, pracującego w tempie 40 kb/s, Webb przysyła na Ziemię informacje dane inżynieryjne, w tym informacje o kondycji poszczególnych podzespołów.
      Łączność pomiędzy Ziemią a teleskopem nie jest utrzymywana przez 24 godziny na dobę. Dlatego też JWST musi przechowywać dane na pokładzie, zanim je nam przyśle. Magazynem danych jest 68-gigabajtowy dysk SSD, którego 3% pojemności zarezerwowano na dane inżynieryjne. Gdy już Webb prześle dane na Ziemię, oczekuje na potwierdzenie, że dotarły i wszystko z nimi w porządku. Dopiero po potwierdzeniu może wykasować dane z dysku, by zrobić miejsce na kolejne informacje. Specjaliści z NASA spodziewają się, że za 10 lat pojemność dysku, z powodu oddziaływania promieniowania kosmicznego, zmniejszy się do około 60 GB.
      Dane z Teleskopu Webba są odbierane na Ziemi przez Deep Space Network. DSN korzysta z trzech kompleksów anten znajdujących się w pobliżu Canberry, Madrytu i Barstow w Kalifornii. Z DNS korzysta wiele innych misji, w tym Parker Solar Probe, TESS czy Voyagery. Dlatego też JWST musi dzielić się z nimi ograniczonym czasem korzystania z anten. Wszystko to wymaga starannego planowania. Czas, w którym dana misja będzie mogła korzystać z anten DSN jest planowany z wyprzedzeniem sięgającym 12-20 tygodni. Wyjątkiem była sytuacja, gdy Teleskop Webba przygotowywał się do pracy, rozkładał poszczególne podzespoły, uruchamiał instrumenty, gdy były one sprawdzane i kalibrowane. Większość z tych czynności wymagała komunikacji w czasie rzeczywistym, wówczas więc Webb miał pierwszeństwo przed innymi misjami.
      Inżynierowie pracujący przy systemie komunikacji przykładali szczególną uwagę do jego niezawodności. Wiedzieli, że jeśli oni popełnią błąd, cała praca kolegów z innych zespołów pójdzie na marne. System komunikacji musi działać idealnie. Dlatego też wybrali znane rozwiązanie i odrzucili co najmniej dwie propozycje wykorzystania eksperymentalnej komunikacji laserowej.
       


      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Pomimo trwającej od 2 tygodni rosyjskiej agresji, internet na Ukrainie ciągle działa. Zaskakiwać może, że Kreml, bardzo chętnie korzystający z cyberataków, dotychczas go nie wyłączył. Okazuje się, że na kilka miesięcy przed rosyjską napaścią Stany Zjednoczone zorganizowały tajną misję, w ramach której amerykańscy eksperci pomogli zabezpieczyć ukraińską cyberprzestrzeń.
      Od kilku lat USA pomagają Ukrainie zabezpieczyć sieci komputerowe. Na Ukrainie pracują żołnierze US Army's Cyber Command, niezależni specjaliści opłacani przez Waszyngton oraz eksperci z firm IT. Jednak pod koniec ubiegłego roku wysiłki te zostały wyraźnie zintensyfikowane i skupione na konkretnym zagrożeniu. Media donoszą, że w październiku i listopadzie liczba amerykańskich ekspertów pracujących na Ukrainie uległa nagłemu zwiększeniu. Mieli oni przygotować ukraińskie sieci na spodziewane ataki w obliczu coraz bardziej prawdopodobnej wojny. Misja najwyraźniej się powiodła, gdyż Ukraina ciągle ma łączność ze światem.
      Okazuje się na przykład, że agresor chciał sparaliżować ukraińskie koleje. Amerykanie znaleźli w sieci komputerowej ukraińskich kolei państwowych malware, które pozwalało napastnikom na jej wyłączenie poprzez skasowanie kluczowych plików.
      Niestety, podobne oprogramowanie zostało też zainstalowane – czego Amerykanie nie zauważyli – na komputerach straży granicznej i przeprowadzony cyberatak zwiększył chaos na granicy ukraińsko-rumuńskiej.
      Amerykanie nie ograniczyli się do działań informatycznych. Wiadomo, że we współpracy z ukraińskimi firmami odpowiadającymi za ukraińską sieć szkieletową, budowali dodatkową infrastrukturę, która miała zabezpieczyć najważniejsze potencjalne cele rosyjskich cyberataków.
      W ostatnim tygodniu lutego na sieć ukraińskiej policji i innych agend rządowych przeprowadzono silny atak DDoS. Wiadomo, że w ciągu kilku godzin Amerykanie skontaktowali się z Fortinetem, kalifornijską firmą sprzedającą wirtualne maszyny przeznaczone do przeciwdziałania takim atakom, zdobyli fundusze, w zaledwie 15 minut uzyskali zgodę Departamentu Handlu na transfer technologii i zainstalowali oprogramowanie Fortinetu na komputerach policji. Atak został odparty w ciągu ośmiu godzin od rozpoczęcia.
      Ataki hakerskie są często kierowane przeciwko komercyjnemu oprogramowaniu, a znaczną jego część produkują amerykańskie i europejskie firmy, które teraz poświęcają część swoich zasobów na pomoc Ukrainie. Wiadomo na przykład, że microsoftowe Threat Intelligence Center od wielu miesięcy chroni ukraińskie sieci przed rosyjskimi atakami. Jeszcze 24 lutego, na kilka godzin przez rosyjską napaścią, inżynierowie Microsoftu wykryli nowe szkodliwe oprogramowanie i dokonali jego inżynierii wstecznej. W ciągu trzech godzin udało im się stworzyć łatę i ostrzec ukraińskie władze przed licznymi atakami na wojskowe sieci. O sytuacji powiadomiono Biały Dom, który poprosił Microsoft, by ten podzielił się szczegółami z Polską innymi krajami europejskimi w obawie, że i ich sieci mogły zostać zarażone tym samym kodem. Menedżerowie Microsoftu przyznają, że jeszcze kilka lat temu takie działania zajęłyby całe tygodnie lub miesiące. Teraz wystarczają godziny.
      Amerykańska prasa donosi, że niektórzy z wysokich rangą menedżerów Microsoftu uzyskali szybko certyfikaty bezpieczeństwa i biorą teraz udział w spotkaniach National Security Agency (NSA) i Cyber Command.
      Eksperci obserwujący rozwój wydarzeń w ukraińskiej cyberprzestrzeni, są zdumieni tym, co widzą. Rosja zdobyła sobie reputację kraju, który potrafi skutecznie przeprowadzić silne niszczące cyberataki. Tymczasem od czasu napaści na Ukrainę nie obserwuje się wzmożenia tego typu aktywności. Nie wiadomo, co się stało. Być może Rosjanie próbowali, ale dzięki wzmocnieniu ukraińskiej infrastruktury napotkali na trudności. Na pewno próbowali przejąć facebookowe konta wysokich rangą ukraińskich oficerów i znanych osobistości, by rozpowszechniać fałszywe informacje. Na kontach tych pojawiły się filmy z rzekomo poddającymi się ukraińskimi oddziałami. Facebook zablokował zaatakowane konta i poinformował ich właścicieli.
      Nie można wykluczyć, że Kreml zlekceważył siłę ukraińskiej cyberprzestrzeni podobnie, jak zlekceważył ukraińską armię.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...