Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Koncerny farmaceutyczne inwestują w informatykę kwantową. Maszyny kwantowe poszukają nowych leków

Rekomendowane odpowiedzi

Ostatnie działania gigantów IT, takich jak Google, oraz koncernów farmaceutycznych sugerują, że pierwszym naprawdę przydatnym zastosowaniem komputerów kwantowych mogą stać się obliczenia związane z pracami nad nowymi lekami. Komputery kwantowe będą – przynajmniej teoretycznie – dysponowały mocą nieosiągalną dla komputerów klasycznych. Wynika to wprost z zasady ich działania.

Najmniejszą jednostką informacji jest bit. Reprezentowany jest on przez „0” lub „1”. Jeśli wyobrazimy sobie zestaw trzech bitów, z których w każdym możemy zapisać wartość „0” lub „1” to możemy w ten sposób stworzyć 8 różnych kombinacji zer i jedynek (23). Jednak w komputerze klasycznym w danym momencie możemy zapisać tylko jedną z tych kombinacji i tylko na jednej wykonamy obliczenia.

Jednak w komputerze kwantowym mamy nie bity, a bity kwantowe, kubity. A z praw mechaniki kwantowej wiemy, że kubit nie ma jednej ustalonej wartości. Może więc przyjmować jednocześnie obie wartości: „0” i „1”. To tzw. superpozycja. A to oznacza, że w trzech kubitach możemy w danym momencie zapisać wszystkie możliwe kombinacje zer i jedynek i wykonać na nich obliczenia. Z tego zaś wynika, że trzybitowy komputer kwantowy jest – przynajmniej w teorii – ośmiokrotnie szybszy niż trzybitowy komputer klasyczny. Jako, że obecnie w komputerach wykorzystujemy procesory 64-bitowe, łatwo obliczyć, że 64-bitowy komputer kwantowy byłby... 18 trylionów (264) razy szybszy od komputera klasycznego.

Pozostaje tylko pytanie, po co komu tak olbrzymie moce obliczeniowe? Okazuje się, że bardzo przydałyby się one firmom farmaceutycznym. I firmy te najwyraźniej dobrze o tym wiedzą. Świadczą o tym ich ostatnie działania.

W styczniu największa prywatna firma farmaceutyczna Boehringer Ingelheim ogłosiła, że rozpoczęła współpracę z Google'em nad wykorzystaniem komputerów kwantowych w pracach badawczo-rozwojowych. W tym samym miesiącu firma Roche, największy koncern farmaceutyczny na świecie, poinformował, że od pewnego czasu współpracuje już z Cambridge Quantum Computing nad opracowaniem kwantowych algorytmów służących wstępnym badaniom nad lekami.

Obecnie do tego typu badań wykorzystuje się konwencjonalne wysoko wydajne systemy komputerowe (HPC), takie jak superkomputery. Górną granicą możliwości współczesnych HPC  są precyzyjne obliczenia dotyczące molekuł o złożoności podobne do złożoności molekuły kofeiny, mówi Chad Edwards, dyrektor w Cambridge Quantum Computing. Molekuła kofeiny składa się z 24 atomów. W farmacji mamy do czynienia ze znacznie większymi molekułami, proteinami składającymi się z tysięcy atomów. Jeśli chcemy zrozumieć, jak funkcjonują systemy działające według zasad mechaniki kwantowej, a tak właśnie działa chemia, to potrzebujemy maszyn, które w pracy wykorzystują mechanikę kwantową, dodaje Edwards.

Cambridge Quantum Computing nie zajmuje się tworzeniem komputerów kwantowych. Pracuje nad kwantowymi algorytmami. Jesteśmy łącznikiem pomiędzy takimi korporacjami jak Roche, które chcą wykorzystywać komputery kwantowe, ale nie wiedzą, jak dopasować je do swoich potrzeb, oraz firmami jak IBM, Honeywell, Microsoft czy Google, które nie do końca wiedzą, jak zaimplementować komputery kwantowe do potrzeb różnych firm. Współpracujemy z 5 z 10 największych firm farmaceutycznych, wyjaśnia Edwards.

Bardzo ważnym obszarem prac Cambridge Quantum Computing jest chemia kwantowa. Specjaliści pomagają rozwiązać takie problemy jak znalezieniem molekuł, które najmocniej będą wiązały się z danymi białkami, określenie struktury krystalicznej różnych molekuł, obliczanie stanów, jakie mogą przyjmować różne molekuły w zależności od energii, jaką mają do dyspozycji, sposobu ewolucji molekuł, ich reakcji na światło czy też metod metabolizowania różnych związków przez organizmy żywe.

Na razie dysponujemy jednak bardzo prymitywnymi komputerami kwantowymi. Są one w stanie przeprowadzać obliczenia dla molekuł składających się z 5–10 atomów, tymczasem minimum, czego potrzebują firmy farmaceutyczne to praca z molekułami, w skład których wchodzi 30–40 atomów. Dlatego też obecnie przeprowadzane są obliczenia dla fragmentów molekuł, a następnie stosuje się specjalne metody obliczeniowe, by stwierdzić, jak te fragmenty będą zachowywały się razem.

Edwards mówi, że w przyszłości komputery kwantowe będą szybsze od konwencjonalnych, jednak tym, co jest najważniejsze, jest dokładność. Maszyny kwantowe będą dokonywały znacznie bardziej dokładnych obliczeń.

O tym, jak wielkie nadzieje pokładane są w komputerach kwantowych może świadczyć fakt, że główne koncerny farmaceutyczne powołały do życia konsorcjum o nazwie QuPharm, którego zadaniem jest przyspieszenie rozwoju informatyki kwantowej na potrzeby produkcji leków. QuPharm współpracuje z Quantum Economic Development Consortium (QED-C), powołanym po to, by pomóc w rozwoju komercyjnych aplikacji z dziedziny informatyki kwantowej na potrzeby nauk ścisłych i inżynierii. Współpracuje też z Pistoia Alliance, którego celem jest przyspieszenie innowacyjności w naukach biologicznych.

Widzimy zainteresowanie długoterminowymi badaniami nad informatyką kwantową. Firmy te przeznaczają znaczące środki rozwój obliczeń kwantowych, zwykle zapewniają finansowanie w dwu-, trzyletniej perspektywie. To znacznie bardziej zaawansowane działania niż dotychczasowe planowanie i studia koncepcyjne. Wtedy sprawdzali, czy informatyka kwantowa może się do czegoś przydać, teraz rozpoczęli długofalowe inwestycje. To jest właśnie to, czego ta technologia potrzebuje, dodaje Edwards.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Profesor ekonomii zdrowia Aris Anelis i jego koledzy z London School of Hygiene and Tropical Medicine przeanalizowali wydatki firm farmaceutycznych. Efektem ich pracy jest opublikowany na łamach British Medical Journal artykuł, w którym stwierdzają, że wysokie ceny leków nie mają uzasadnienia w wydatkach ponoszonych przez koncerny farmaceutyczne na prace badawczo-rozwojowe.
      Naukowcy stwierdzili, że w latach 1999–2018 piętnaście największych przedsiębiorstw farmaceutycznych wydało więcej pieniędzy na sprzedaż, marketing, administrację i koszty ogólne, niż na badania i rozwój. Jakby tego było mało, większość nowych leków, które powstały w badanym okresie nie oferowało żadnych lub zapewniało niewielkie korzyści kliniczne w porównaniu z lekami już istniejącymi. Dlatego też autorzy badań uważają, że sama zmiana struktury wydatków spowodowałaby pojawienie się większej liczby innowacyjnych leków, dostępnych po rozsądnych cenach. Uczeni uważają, że władze powinny podjąć wysiłki w celu zachęcenia firm farmaceutycznych do prowadzenia prac badawczo-rozwojowych zgodnych z interesem zdrowia publicznego.
      W ciągu ostatniej dekady pojawiają się coraz liczniejsze zastrzeżenia co do polityki cenowej. W Stanach Zjednoczonych mediana ceny nowego leku przepisywanego na receptę zwiększyła się z około 1400 USD rocznie w roku 2008 do 150 000 USD rocznie w roku 2021, czytamy w artykule. Nieuzasadnione wzrosty cen dotyczą też leków już obecnych na ryku. Na przykład w USA latach 2007–2018 cena niektórych produktów insulinowych zwiększyła się ponaddwukrotnie, a z rządowego amerykańskiego raportu dowiadujemy się, że pomiędzy lipcem 2021 a lipcem 2022 ceny aż 1216 leków wzrosły powyżej poziomu inflacji. Ich cena średnio zwiększyła się aż o 31,6%.
      Przemysł farmaceutyczny od dawna broni się twierdząc, że wysokie ceny spowodowane są wysokimi kosztami prac badawczo-rozwojowych. Gdy jednego z menedżerów firmy Johnson&Johnson zapytano, dlaczego lek na raka prostaty kosztuje 10 000 USD, odpowiedział, że z łatwymi do wyleczenia chorobami już sobie poradzono, a poszukiwania leków na schorzenia coraz trudniejsze w leczeniu są coraz bardziej kosztowne. Ponadto koncerny farmaceutyczne często podkreślają, że ich udziałowcy i inwestorzy mogą szybko wycofać swoje pieniądze, jeśli nie będą mieli wysokiego zwrotu z inwestycji i skierować te środki do mniej ryzykownych dziedzin gospodarki.
      Anelis i jego zespół wykazali w swoim artykule, że w latach 1999–2018 łączne wpływy 15 największych firm farmaceutycznych świata wyniosły 7,7 bilionów dolarów. W tym czasie na sprzedaż, marketing, administrację i koszty ogólne przedsiębiorstwa przeznaczyły 2,2 biliona USD, a na prace badawczo-rozwojowe – 1,4 biliona dolarów. Nie do końca jest jednak jasne, co należy rozumieć pod poszczególnymi pozycjami. Na przykład firma może początkowo oferować po obniżonej cenie nowo zatwierdzony lek i zaliczyć koszty takiego działania do prac badawczych, podczas gdy w rzeczywistości jest to marketingowe testowanie rynku.
      Co więcej, większość badanych firm przeznaczyło więcej pieniędzy na skupowanie swoich własnych akcji niż na badania i rozwój. Skupowanie własnych akcji ma zaś na celu podniesienie ich ceny i zapewnienie korzyści udziałowcom, w tym menedżerom firmy, których wynagrodzenie często jest uzależnione od kursów akcji. Śledztwo amerykańskiej Izby Reprezentantów wykazało na przykład, że w latach 2016–2020 czternaście ze wspomnianych firm wydało 577 miliardów USD na wykupowanie akcji i wypłacanie dywidendy, a na prace badawczo-rozwojowe przeznaczyły one 521 miliardów USD. W tym czasie całkowite wynagrodzenie menedżerów tych firm rosło w tempie 14% rocznie.
      Autorzy pracy zauważają też, uzasadniając wysokie ceny leków kosztami prac badawczo-rozwojowych firmy ignorują fakt, że wiele z tych prac prowadzonych jest za publiczne pieniądze. TO zaś oznacza, że płacimy dwukrotnie za to samo: po raz pierwszy dofinansowując badania nad nowymi lekami, po za drugi zaś – kupując drogie leki.
      Z artykułu dowiadujemy się też, że większość opracowywanych w ostatnich latach leków oferuje co najwyżej niewielkie korzyści. Jeszcze w latach 70. i 80. aż 16% nowych leków zatwierdzanych przez amerykańską FDA przynosiło istotne korzyści terapeutyczne w porównaniu z lekami już istniejącymi. Tymczasem z raportów sporządzonych w Niemczech i Francji wynika, że jedynie niewielki odsetek medykamentów wprowadzonych na rynek w ubiegłej dekadzie oferował znaczne korzyści kliniczne.
      Wśród pozytywnych zjawisk autorzy badań zauważyli, że większość leków rozwijanych w latach 1997–2016 eksplorowało nowe mechanizmy oddziaływania na organizm. Jednocześnie jednak widać zmianę strategii firm farmaceutycznych, które rzadziej pracują nad lekami na rozpowszechnione choroby, które można sprzedawać na całym świecie w wielkich ilościach, a coraz częściej skupiają się na chorobach rzadkich lub lekach o wąskim zastosowaniu, które można drogo sprzedać.
      Biorąc pod uwagę wyniki analizy, jej autorzy stwierdzają, że – przynajmniej teoretycznie – firmy farmaceutyczne mogłyby zaoferować znacznie lepsze leki i dokonać większych innowacji, gdyby tylko zmieniły strukturę wydatków. Nie musiałyby tych wydatków zwiększać, a przekierować pieniądze z finansowania marketingu, sprzedaży czy administracji na badania i rozwój. Jednak, ich zdaniem, taka zmiana podejścia jest mało prawdopodobna bez interwencji władz, które powinny pomyśleć o tym, jak zachęcić koncerny farmaceutyczne do innowacyjności i zaspokajania potrzeb zdrowia publicznego.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Komputery kwantowe mogą, przynajmniej teoretycznie, przeprowadzać obliczenia, które są poza zasięgiem tradycyjnych maszyn. Ich kluczowym elementem są splątane kwantowe bity, kubity. Splątanie jest jednak stanem niezwykle delikatnym, bardzo wrażliwym na wpływ czynników zewnętrznych, na przykład promieniowania kosmicznego. Powoduje ono, że średnio co 10 sekund dochodzi do katastrofalnego błędu i kwantowe układy scalone tracą dane. Może ono za jednym razem usunąć wszelkie dane z procesora nawet najbardziej zaawansowanej maszyny kwantowej.
      Fizyk Quian Xu z University of Chicago i jego koledzy poinformowali o opracowaniu metody, która aż o 440 000 razy wydłuża czas pomiędzy błędami powodowanymi przez promieniowanie kosmiczne. Zatem mają one miejsce raz na 51 dni.
      Badacze zaproponowali komputer kwantowy składający się z wielu układów scalonych z danymi, z których każdy posiada liczne nadprzewodzące kubity. Wszystkie te układy są połączone z układem pomocniczym, który zawiera dodatkowe kubity monitorujące dane. Wszystkie chipy korzystałyby ze standardowych metod korekcji błędów oraz dodatkowej korekcji błędów powodowanych przez promieniowanie kosmiczne. Dzięki temu, że dane są rozdzielone na różne układy, zniszczenia powodowane przez promieniowanie kosmiczne są ograniczane. Gdy już do nich dojdzie, układ pomocniczy, we współpracy z układami, których dane nie zostały uszkodzone przez promieniowanie, przystępuje do korekty i odzyskania utraconych danych. Komputer nie musi rozpoczynać pracy na nowo, gdy tylko niektóre układy utracą dane, Xu. Co więcej, metoda ta wykrywa i koryguje dane pojawiające się w układzie pomocniczym.
      Autorzy badań twierdzą, że ich metoda wymaga zaangażowania mniejszej ilości zasobów oraz żadnych lub niewielkich modyfikacji sprzętowych w porównaniu z dotychczasowymi próbami ochrony komputerów kwantowych przed promieniowaniem kosmicznym. W przyszłości chcieliby ją przetestować na chmurze kwantowej IBM-a lub procesorze Sycamore Google'a.
      Ze szczegółowym opisem metody można zapoznać się na łamach arXiv.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Naukowcy z Aalto University, IQM Quantum Computers oraz VTT Technical Research Centre of Finland odkryli nowy nadprzewodzący kubit. Unimon bo o nim mowa, zwiększy dokładność obliczeń dokonywanych za pomocą komputerów kwantowych. Pierwsze bramki logiczne wykorzystujące unimony pracują z dokładnością 99,9%.
      Nieliczne współczesne komputery kwantowe wciąż nie są wystarczająco wydajne i nie dostarczają wystarczająco dokładnych danych, by można było je zaprzęgnąć do obliczeń rozwiązujących praktyczne problemy. Są najczęściej urządzeniami badawczo-rozwojowymi, służącymi pracom nad kolejnymi generacjami komputerów kwantowych. Wciąż zmagamy się z licznymi błędami powstającymi w 1- i 2-kubitowych bramkach logicznych chociażby wskutek zakłóceń z otoczenia. Błędy te są na tyle poważne, że uniemożliwiają prowadzenie praktycznych obliczeń.
      Naszym celem jest zbudowanie kwantowych komputerów, które nadawałyby się do rozwiązywania rzeczywistych problemów. To odkrycie jest ważnym kamieniem milowym dla IQM oraz znaczącym osiągnięciem na drodze ku zbudowaniu lepszych komputerów kwantowych, powiedział główny autor badań, profesor Mikko Möttönen z Aalto University i VTT, który jest współzałożycielem i głównym naukowcem IQM Quantum Computers.
      Unimony charakteryzują się zwiększoną anharmonicznością, pełną odpornością na szumy wywoływane prądem stałym, zmniejszoną wrażliwością na zakłócenia magnetyczne oraz uproszczoną budową, która wykorzystuje pojedyncze złącze Josephsona w rezonatorze. Dzięki temu w jednokubitowej bramce o długości 13 nanosekund udało się uzyskać dokładność od 99,8 do 99,9 procent na trzech kubitach unimonowych. Dzięki wyższej anharmoniczności czyli nieliniowości niż w transmonach [to wcześniej opracowany rodzaj kubitów, który ma zredukowaną wrażliwość za zakłócenia ze strony ładunku elektrycznego – red.], możemy pracować z unimonami szybciej, co prowadzi do pojawiania się mniejszej liczby błędów na każdą operację, wyjaśnia doktorant Eric Hyyppä.
      Na potrzeby badań fińscy naukowcy skonstruowali układy scalone, z których każdy zawierał trzy kubity unimonowe. W układach użyto głównie niobu, z wyjątkiem złącz Josephsona, które zbudowano z aluminium. Unimony są bardzo proste, a mimo to mają liczne zalety w porównaniu z transmonami. Sam fakt, że już pierwsze uzyskane unimony działały tak dobrze, pozostawia dużo miejsca na ich optymalizację i osiągnięcie ważnych kamieni milowych. W następnym kroku badań chcemy zapewnić jeszcze lepszą ochronę przed szumem i zademonstrować bramki dwukubitowe, mówi profesor Möttönen.
      Więcej o unimonie można przeczytać na łamach Nature Communications.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Po ponad 20 latach pracy naukowcy odszyfrowali pełną strukturę kluczowej molekuły sygnałowej. Otwiera to drogę do opracowania nowych i lepszych leków na niektóre rodzaje nowotworów. Nad poznaniem pełnej struktury kinaz janusowych pracuje wiele zespołów na całym świecie. Udało się to grupie Christophera Garcii z Howard Hughes Medical Institute.
      Garcia i jego koledzy pracowali nad tym zadaniem od ponad 2 dekad. Pod koniec ubiegłego roku spod ich mikroskopów elektronowych zaczęły wyłaniać się wyraźne obrazy poszczególnych elementów kinazy. A 8 grudnia doktor Naotaka Tsutsumi i magister Caleb Glassman wysłali mu e-mail z załączonym zdjęciem, na którym było wyraźnie widać molekułę przyłączoną do receptora. Garcia, który brał właśnie udział w spotkaniu, od razu pobiegł do laboratorium. Chciałem, byśmy szybko dokończyli prace, mówi.
      Trójka naukowców pracowała od tej pory bez wytchnienia. To był prawdziwy wyścig pomiędzy wieloma świetnymi ośrodkami akademickimi na całym świecie. A my pędziliśmy do mety, stwierdził. W końcu 26 grudnia uczeni wysłali szczegółowy opis swojej pracy do redakcji Science. Wczoraj ukazał się artykuł i świat mógł zapoznać się z tak długo poszukiwaną dokładną strukturą molekuły.
      Zespół Garcii nie tylko określił dokładną strukturę kinazy janusowej, ale również opisał mechanizm jej działania. To jedna z kluczowych kwestii biologii, mówi John O'shea immunolog z National Institutes of Health, który jest współautorem jednego z pierwszych leków blokujących kinazy janusowe.
      Kinazy janusowe to jedne z podstawowych molekuł sygnałowych. Zbierają one sygnały spoza komórki i przekazują je do komórki. Naukowcy od wielu lat wiedzą, że nieprawidłowo działające kinazy janusowe są przyczyną różnych chorób. A niektóre mutacje prowadzące do nieprawidłowego działania tych kinaz znacząco upośledzają zdolność organizmu do zwalczania infekcji. Nieprawidłowo działające kinazy janusowe przyczyniają się do rozwoju nowotworów krwi, jak białaczka, oraz chorób autoimmunologicznych.
      Dotychczas znaliśmy częściową strukturę tych kinaz, co pozwoliło na opracowanie inhibitorów kinaz, pomagających w leczeniu nowotworów czy artretyzmu. Jednak leki te powstały bez znajomości pełnej struktury kinaz i ich działania. Dlatego też większość współcześnie stosowanych leków nakierowanych na kinazy janusowe to broń obosieczna. Pomagają w leczeniu wielu chorób, od egzemy po COVID-19, ale mogą mieć też wiele skutków ubocznych.
      Garcia po raz pierwszy próbował szczegółowo zobrazować kinazy janusowe w 1995 roku. Jednak to naprawdę trudne zadanie. Kinazy bardzo trudno jest uzyskać w warunkach laboratoryjnych. Jakby tego było mało, nie tworzą one łatwo kryształów, a kryształy są potrzebne, by za pomocą krystalografii rentgenowskiej określić strukturę badanej molekuły.
      Przez lata uczeni mogli więc obserwować małe fragmenty kinaz, które nie składały się w całość. Przełom nastąpił przed kilku laty, wraz z udoskonaleniem kriomikroskopii elektronowej. Drugim istotnym elementem odniesionego sukcesu była decyzja Garcii i skupieniu się na badaniu mysiej kinazy janusowej, w miejsce mniej stabilnej kinazy ludzkiej. Dodatkowo naukowcy wprowadzili do mysiej kinazy mutację powodującą nowotwór, co dodatkowo ustabilizowało molekułę.
      Dzięki temu uczeni byli w końcu w stanie dokładnie opisać strukturę kinazy JAK1 oraz mechanizm jej działań. Garcia ma nadzieję, że dzięki temu uda się w niedalekiej przyszłości opracować leki, które będą brały na cel wyłącznie nieprawidłowo działające kinazy janusowe, co zmniejszy liczbę skutków ubocznych, gdyż kinazy prawidłowo działające będą mogły niezakłócenie pracować.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Pomimo trwającej od 2 tygodni rosyjskiej agresji, internet na Ukrainie ciągle działa. Zaskakiwać może, że Kreml, bardzo chętnie korzystający z cyberataków, dotychczas go nie wyłączył. Okazuje się, że na kilka miesięcy przed rosyjską napaścią Stany Zjednoczone zorganizowały tajną misję, w ramach której amerykańscy eksperci pomogli zabezpieczyć ukraińską cyberprzestrzeń.
      Od kilku lat USA pomagają Ukrainie zabezpieczyć sieci komputerowe. Na Ukrainie pracują żołnierze US Army's Cyber Command, niezależni specjaliści opłacani przez Waszyngton oraz eksperci z firm IT. Jednak pod koniec ubiegłego roku wysiłki te zostały wyraźnie zintensyfikowane i skupione na konkretnym zagrożeniu. Media donoszą, że w październiku i listopadzie liczba amerykańskich ekspertów pracujących na Ukrainie uległa nagłemu zwiększeniu. Mieli oni przygotować ukraińskie sieci na spodziewane ataki w obliczu coraz bardziej prawdopodobnej wojny. Misja najwyraźniej się powiodła, gdyż Ukraina ciągle ma łączność ze światem.
      Okazuje się na przykład, że agresor chciał sparaliżować ukraińskie koleje. Amerykanie znaleźli w sieci komputerowej ukraińskich kolei państwowych malware, które pozwalało napastnikom na jej wyłączenie poprzez skasowanie kluczowych plików.
      Niestety, podobne oprogramowanie zostało też zainstalowane – czego Amerykanie nie zauważyli – na komputerach straży granicznej i przeprowadzony cyberatak zwiększył chaos na granicy ukraińsko-rumuńskiej.
      Amerykanie nie ograniczyli się do działań informatycznych. Wiadomo, że we współpracy z ukraińskimi firmami odpowiadającymi za ukraińską sieć szkieletową, budowali dodatkową infrastrukturę, która miała zabezpieczyć najważniejsze potencjalne cele rosyjskich cyberataków.
      W ostatnim tygodniu lutego na sieć ukraińskiej policji i innych agend rządowych przeprowadzono silny atak DDoS. Wiadomo, że w ciągu kilku godzin Amerykanie skontaktowali się z Fortinetem, kalifornijską firmą sprzedającą wirtualne maszyny przeznaczone do przeciwdziałania takim atakom, zdobyli fundusze, w zaledwie 15 minut uzyskali zgodę Departamentu Handlu na transfer technologii i zainstalowali oprogramowanie Fortinetu na komputerach policji. Atak został odparty w ciągu ośmiu godzin od rozpoczęcia.
      Ataki hakerskie są często kierowane przeciwko komercyjnemu oprogramowaniu, a znaczną jego część produkują amerykańskie i europejskie firmy, które teraz poświęcają część swoich zasobów na pomoc Ukrainie. Wiadomo na przykład, że microsoftowe Threat Intelligence Center od wielu miesięcy chroni ukraińskie sieci przed rosyjskimi atakami. Jeszcze 24 lutego, na kilka godzin przez rosyjską napaścią, inżynierowie Microsoftu wykryli nowe szkodliwe oprogramowanie i dokonali jego inżynierii wstecznej. W ciągu trzech godzin udało im się stworzyć łatę i ostrzec ukraińskie władze przed licznymi atakami na wojskowe sieci. O sytuacji powiadomiono Biały Dom, który poprosił Microsoft, by ten podzielił się szczegółami z Polską innymi krajami europejskimi w obawie, że i ich sieci mogły zostać zarażone tym samym kodem. Menedżerowie Microsoftu przyznają, że jeszcze kilka lat temu takie działania zajęłyby całe tygodnie lub miesiące. Teraz wystarczają godziny.
      Amerykańska prasa donosi, że niektórzy z wysokich rangą menedżerów Microsoftu uzyskali szybko certyfikaty bezpieczeństwa i biorą teraz udział w spotkaniach National Security Agency (NSA) i Cyber Command.
      Eksperci obserwujący rozwój wydarzeń w ukraińskiej cyberprzestrzeni, są zdumieni tym, co widzą. Rosja zdobyła sobie reputację kraju, który potrafi skutecznie przeprowadzić silne niszczące cyberataki. Tymczasem od czasu napaści na Ukrainę nie obserwuje się wzmożenia tego typu aktywności. Nie wiadomo, co się stało. Być może Rosjanie próbowali, ale dzięki wzmocnieniu ukraińskiej infrastruktury napotkali na trudności. Na pewno próbowali przejąć facebookowe konta wysokich rangą ukraińskich oficerów i znanych osobistości, by rozpowszechniać fałszywe informacje. Na kontach tych pojawiły się filmy z rzekomo poddającymi się ukraińskimi oddziałami. Facebook zablokował zaatakowane konta i poinformował ich właścicieli.
      Nie można wykluczyć, że Kreml zlekceważył siłę ukraińskiej cyberprzestrzeni podobnie, jak zlekceważył ukraińską armię.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...