Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Konglomerat Alphabet pomoże firmom w dotarciu do źródeł cyberataku

Rekomendowane odpowiedzi

Alphabet, konglomerat do którego należy Google, powołał do życia firmę, która oferuje przedsiębiorstwom pomoc w wyśledzeniu źródeł cyberataku. Firma o nazwie Chronicle przygotowała platformę Blackstory. Daje ona klientom dostęp do olbrzymich zasobów Alphabetu, w tym zgromadzonych przez lata przez wyszukiwarkę Google, co powinno ułatwić w zidentyfikowaniu historii i źródła cyberataku.

Przed 10 laty Google padło ofiarą jednego z najbardziej głośnych ataków. Na serwery firmy włamali się hakerzy pracujący dla chińskiej armii. Teraz Alphabet, korzystając z tamtych doświadczeń, oferuje przedsiębiorstwom pomoc w ustaleniu sprawców ataków.

Chronicle nie jest jedyną firmą, która oferuje podobne usługi. Na rynku działają też inni, ale wielu przedsiębiorstw nie stać na ich usługi. Dlatego Chronicle zaproponowało interesujący sposób naliczania opłat. Koszt korzystania z Blackstory będzie uzależniony od... liczby pracowników zatrudnianych przez firmę.

Atak na Google'a, nazwany Operation Aurora, był wyjątkowy z tego względu, że po raz pierwszy ofiara ataku chińskich rządowych hakerów stanęła do konfrontacji z tak potężnym przeciwnikiem. Siergiej Brin, jeden z założycieli Google'a, postawił sobie za punkt honoru, by coś takiego jak Aurora nigdy się nie powtórzyło.

Gdy Chińczycy zaatakowali w 2010 roku był to dla nas dzwonek alarmowy. To całkowicie zmieniło nasze podejście, mówi Eric Schmidt, ówczesny dyrektor generalny Google'a. Wyszukiwarkowy gigant zaczął wówczas masowo zatrudniać specjalistów ds. bezpieczeństwa. Szukał ich nie tylko w Krzemowej Dolinie, ale również osławionej Agencji Bezpieczeństwa Narodowego (NSA).

Firma stworzyła zespół analityków specjalizujących się w kwestiach bezpieczeństwa, który ponoć nie ustępuje analogicznym zespołom pracującym dla wywiadów różnych państw. Stworzono też nową infrastrukturę bezpieczeństwa, postał zespół o nazwie Google Project Zero, którego zadaniem jest wyszukiwanie luk w programach innych producentów. Bazy danych, algorytmy wyszukiwarki i cała moc obliczeniowa Google'a zostały przebudowane tak, by zapewniały największe możliwe bezpieczeństwo. Jeśli cokolwiek niepokojącego pojawi się w internecie, czy będzie to atak hakerów czy złośliwy kod, Google jest w stanie w ciągu kilku minut sprawdzić czy kiedykolwiek, nawet lata wcześniej, problem ten nie dotknął firmowych zasobów IT.

Większość przedsiębiorstw nie jest sobie w stanie poradzić z tego typu zadaniem. A te, które oferują takie usługi, pobierają opłaty w zależności od ilości danych, jakie muszą przechowywać. Zatem im dłużej firma działa, tym więcej danych jest gromadzonych, i tym więcej trzeba za to płacić. Chronicle ma zaoferować bardziej przystępne ceny. Chronicle to pomysł Mike'a Wiaceka, który najpierw pracował dla NSA, a później w Google'u tworzył grupę analityków bezpieczeństwa oraz Stephena Gilletta, byłego menedżera w Starbucks i Symanteka.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Ataki hakerskie czy zakłócanie komunikacji to wcale nie domena czasów najnowszych. Ofiarą jednego z nich padł równo 120 lat temu, 4 czerwca 1903 roku, sam twórca komunikacji radiowej, Giuglielmo Marconi. A dodatkowej pikanterii dodaje fakt, że ataku dokonano w czasie publicznej prezentacji, na której Marconi chciał udowodnić, że atak na jego system jest niemożliwy.
      Fale elektromagnetyczne, niezbędne do działania bezprzewodowego telegrafu, jako pierwszy wygenerował ok. 1888 roku Heinrich Hertz. Niewiele osób uznało wówczas, że urządzenie Hertza można będzie wykorzystać do zbudowania bezprzewodowego telegrafu. Po pierwsze dlatego, że maksymalna odległość, z jakiej je rejestrowano, wynosiła kilkaset metrów, po drugie zaś – urządzenie Hertza nie przypominało telegrafu. Było bardziej podobne do systemów komunikacji świetlnej, za pomocą której przesyłano informacje na statki pływające w pobliżu wybrzeża.
      Wszystko zmieniło się w 1896 roku, kiedy to Marconi dowiódł, że wygenerowane fale jest w stanie wykryć z odległości kilku kilometrów, a ponadto, wykorzystując telegraf, wysłał za ich pomocą wiadomość. Marconi stopniowo udoskonalał swój system i w ciągu kilku lat wysyłał informacje alfabetem Morse'a do statków znajdujących się setki kilometrów od wybrzeży. W ten sposób udowodnił, że stworzył bezprzewodowy telegraf, nadający się do komunikacji pomiędzy statkiem a wybrzeżem.
      Jego system miał jednak poważną wadę. Nadawał bowiem w szerokim zakresie fal radiowych. To zaś oznaczało, że komunikację może podsłuchać każdy, kto dysponuje prostym odbiornikiem.
      Problem ten był znany specjalistom. Profesor Oliver Lodge zaprezentował w 1897 roku jego teoretyczne rozwiązanie oraz opatentował urządzenie pozwalające na dostrojenie pasma nadawania do wąskiego zakresu. Proces dostrajania nazwał syntonią. Marconi początkowo nie przejmował się tym problemem, jednak bardzo szybko rzeczywistość rynkowa zmusiła go do zmiany podejścia. Głównym zainteresowanym wykorzystaniem bezprzewodowego telegrafu było wojsko. Dzięki temu, że pozwalał on na pozbycie się kabli, armia miałaby gwarancję, że wróg nie zakłóci komunikacji przecinając je. A okręty Marynarki Wojennej nie musiałyby podpływać do wybrzeża, by odebrać nowe rozkazy. Jednak wojsko chciało poufnej komunikacji, więc Marconi musiał się tym zająć. Jego system był zresztą coraz częściej krytykowany przez specjalistów właśnie z powodu nadawania w bardzo szerokim zakresie fal.
      Marconi nie mógł wykorzystać pracy Lodge'a. Po pierwsze dlatego, że była chroniona patentem. Po drugie zaś, i to był problem poważniejszy, nadajnik Lodge'a miał niewielką moc, nie nadawał się więc do długodystansowej komunikacji. Po dwóch latach intensywnych prac, metodą prób i błędów, Marconi w końcu rozwiązał problem, tworząc system długodystansowej komunikacji bezprzewodowej, w którym można było zastosować syntonię, czyli go dostroić.
      W 1900 roku wynalazca opatentował swoje rozwiązanie, a jego patent otrzymał numer 7777, dzięki czemu stał się znany jako „cztery siódemki”. Jednak patent zaskarżyli Lodge i Ferdinand Braun, którzy twierdzili, że Marconi wykorzystał ich rozwiązania. Włoch to przewidział, dlatego już wcześniej rozmawiał ze swoimi doradcami o możliwych kłopotach prawnych. Jednym z tych doradców był John Ambrose Fleming. Był to niezwykle poważany i szanowany specjalista od inżynierii i patentów. Przez lata naukowiec doradzał British Edison-Swan Company, wyrabiając sobie w środowisku świetną reputację bardzo wiarygodnego eksperta. To w dużej mierze właśnie dzięki opinii Fleminga i jego reputacji patent Marconiego przetrwał wyzwanie rzucone mu przez właścicieli innych patentów.
      System Marconiego nie był doskonały. Pojawiały się problemy. Na przykład w 1901 roku podczas wyścigu jachtów w Nowym Jorku wykorzystywano do komunikacji z jednostkami pływającymi konkurujące rozwiązania Marconiego oraz De Foresta. Okazało się, że w czasie wyścigu doszło do interferencji z jakimś trzecim, nieznanym systemem bezprzewodowej transmisji. Nie był to wielki problem, tym bardziej, że Marconi dowiódł w grudniu 1901 roku, iż jego system nadaje się do komunikacji transatlantyckiej. Jednak każde takie potknięcie wyłapywały i nagłaśniały firmy związane z komunikacją za pomocą kabli układanych na dnie Atlantyku. Czuły się one bowiem zagrożone przez bezprzewodową komunikację.
      W 1902 roku magazyn branżowy Electrician donosił, że Nevil Maskelyne, wykorzystując instrumenty, które nie były dostrojone przez Marconi Company, przechwycił w Anglii komunikację pomiędzy lądem a płynącym do Włoch jachtem „Carlo Alberto”. Maskelyne poinformował, że jest w stanie podsłuchiwać wszystkie stacje nadawacze firmy Marconiego i że zaczął podejrzewać, iż w żadnej z nich nie jest stosowany najnowszy system zapewniający poufność transmisji. Uznał, że być może system ten jest tak kosztowny, iż został zainstalowany tylko w najnowocześniejszej stacji w Poldhu. Wybrał się więc w jej okolice i ku swojemu zdumieniu z odległości ponad 20 kilometrów od stacji przechwycił jej komunikację z „Carlo Alberto”. Jeśli zatem system Marconiego tak łatwo podsłuchać, to o co chodzi z tą syntonią, o której tyle słyszeliśmy, pytał Maskelyne.
      Maskelyne pochodził z bogatej, znanej rodziny, był elektrykiem-samoukiem. Kilka lat wcześniej zainteresował się bezprzewodową telegrafią, a w 1899 roku zdobył rozgłos, prezentując technologię pozwalającą na bezprzewodowe wywołanie eksplozji prochu. Próbował też stworzyć własny system telegrafu bezprzewodowego, który – by nie naruszać patentu Marconiego – miał obywać się bez anten naziemnych. Gdy mu się to nie udało, zaczął krytykować Marconiego, stając się główną postacią wśród jego przeciwników. Wydaje się, że w pewnym momencie bardziej był zainteresowany atakowaniem Włocha, niż pracą nad własnymi wynalazkami.
      Słowa Maskelyne'a na nowo rozpaliły krytykę. Marconi postanowił udowodnić, że jego system jest odporny na interferencje z innymi rozwiązaniami. Po wielu testach zorganizowanych wspólnie z Flemingiem wynalazca ogłosił sukces. Maskelyne na łamach prasy zażądał dowodu.
      Marconi i Fleming zorganizowali odczyt w Royal Institution w Londynie. Był on połączony z pokazem. Maskelyne chciał wybrać się na wykład, ale uznał, że to zbyt dobra okazja. Postanowił podważyć zapewnienia Marconiego o braku interferencji z innymi systemami.
      Marconi znajdował się w jednej ze stacji nadawczych, a pokazem w Royal Institution kierował Fleming. Jeden z jego asystentów wspominał później, że jeszcze podczas wykładu, a przed pokazem, usłyszał stukanie telegrafu, który odbierał jakąś transmisję. Początkowo asystent pomyślał, że to załoga stacji pośredniej w Chelmsford dostraja swój sprzęt, jednak gdy w dźwiękach telegrafu Morse'a rozpoznał słowo „szczury”, wytężył słuch. Technik przy telegrafie włączył drukarkę i zaczęła wychodzić z niej taśma z tekstem, w którym znowu pojawiło się słowo „szczury”, a później wierszyk Z Włoch pewien młody przechera, ludzi całkiem sprytnie nabiera. Wierszyk miał jeszcze kilka dodatkowych linii, których technik nie zapamiętał. Mężczyzna spojrzał na widownię i ujrzał tam, siedzącego z twarzą niewiniątka, jednego z ludzi Maskelyne'a. Wiedział on, co się wydarzyło. Jednak publiczność się nie zorientowała i wykład oraz późniejszy pokaz przyjęto z aplauzem.
      Fleming na wieść o ataku wpadł w szał. Później poinformował o tym Marconiego. Zdecydowano się ujawnić incydent. Jednak Fleming był przekonany, że konwencjonalnymi metodami nie można było dokonać tego typu ataku. Napisał nawet w tej sprawie list do London Times. Po jego opublikowaniu Maskelyne, na łamach tej samej gazety, przyznał się do ataku i stwierdził, że dokonał go jak najbardziej konwencjonalnymi metodami. Afera poważnie zaszkodziła reputacji Fleminga, Marconi nie przedłużył z nim kontraktu. Jednak zdolny inżynier zdołał szybko odzyskać dobre imię, wniósł nowy wkład w komunikację radiową i już dwa lata później ponownie rozpoczął współpracę z Marconim.
      A tzw. afera Maskelyne'a wykazała, że interferencji z innymi systemami radiowymi można uniknąć tylko poprzez narzucenie monopolu, który zakazał produkcji urządzeń nadających w bardzo szerokim paśmie radiowym bez możliwości jego regulacji. Przyspieszyła też zmianę podejścia z takiego, w którym publiczne pokazy i wzbudzana nimi sensacja oraz rozgłos były niezbędne do osiągnięcia sukcesu, w takie, w którym istotne stały się ścisłe regulacje, przydział częstotliwości nadawania oraz ujednolicenie standardów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      System wczesnego ostrzegania oraz zachowanie się ludności aż o 45% zmniejszyły liczbę cywilnych ofiar napaści Rosji na Ukrainę w ciągu pierwszych kilku miesięcy, informują naukowcy z University of Michigan (UMich), University of Chicago oraz Ipsos. To pierwsze badania, w których połączono innowacyjną metodologię i dogłębną wiedzę geopolityczną do przeprowadzenia analizy efektywności współczesnych systemów ostrzegania podczas ataków powietrznych. Wnioski z badań przydadzą się nie tylko Ukrainie, ale i 39 innym krajom, które stworzyły podobne systemy ostrzegania.
      Ukraina postawiła na hybrydowy system, który łączy tradycyjne syreny z aplikacją na smartfony, na którą przysyłane są alerty i zachęty do zejścia do schronu. Dotychczas jednak nikt nie zbadał efektywności takich rozwiązań.
      David Van Dijcke z UMich, Austin Wright z UChicago i Mark Polyak z Ipsosa chcieli sprawdzić, jak ludzie reagują natychmiast po alercie, czy sposób reakcji zmienia się w czasie i co powinni zrobić rządzący, by ostrzeżenia wciąż odnosiły skutek.
      Naukowcy przeanalizowali zachowanie obywateli podczas ponad 3000 alarmów lotniczych. Dane zebrali z 17 milionów smartfonów obywateli Ukrainy. Analizy wykazały, że ostrzeżenia odegrały kluczową rolę w zapewnieniu bezpieczeństwa cywilom, ale pokazały również, że z czasem ludzie coraz słabiej na nie reagują, co może mieć związek z normalizowaniem przez nich ryzyka w czasie wojny. Uczeni stwierdzili, że gdyby nie pojawiło się zjawisko „zmęczenia alarmami”, a reakcja ludzi byłaby równie silna jak na samym początku wojny, to udałoby się dodatkowo uniknąć 8–15 procent ofiar.
      Zmniejszanie się wrażliwości społeczeństwa na alarmy to powód do zmartwień. Może to bowiem prowadzić do większych strat w miarę trwania wojny, tym bardziej, że obserwujemy coraz większą liczbę ataków za pomocą pojazdów bezzałogowych, mówi profesor Wright. Przyzwyczajenie się do niebezpieczeństwa i słabsza reakcja na alerty pojawia się niezależnie od sposobu, w jaki różni ludzie adaptują się do warunków wojennych. Jednak, jak się okazuje, takie osłabienie reakcji nie jest nieuniknione.
      W tych dniach, w których rząd Ukrainy publikował specjalne obwieszczenia dotyczące wojny, ludność silniej reagowała na alerty. To pokazuje, jak ważną rolę odgrywa Kijów w utrzymaniu morale i nadziei w czasie inwazji, wyjaśnia Van Dijcke.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Posłowie obu największych partii z amerykańskiej Izby Reprezentantów przygotowali pakiet ustaw antymonopolowych, które biorą na cel gigantów rynku IT. Jeśli ustawy zostaną przegłosowane, będą największą zmianą amerykańskiego prawa antymonopolowego od dziesięcioleci.
      Pięć ustaw to wynik trwającego ponad rok śledztwa i analiz nad konkurencyjnością rynku cyfrowego. Na cel biorą one "nieuregulowane wpływy Big Tech", stwierdzili ich autorzy.
      Amazon, Apple, Facebook i Google to cztery potężne koncerny, które mają wpływ na niemal każdy aspekt tego, co dzieje się w internecie. Ich wartość rynkowa przekracza 6 bilionów dolarów, a potęga i wpływy, jakie mają, pokazują, że tradycyjne prawo antymonopolowe nie działa w ich przypadku. Facebook to największy serwis społecznościowy na świecie, z którego korzysta tyle osób ile łącznie mieszka w Chinach i Indiach. Amazon kontroluje 38% amerykańskiego rynku sprzedaży online, a jego największy konkurent – Walmart – ma zaledwie 6% rynku. Ponadto Amazon, za pośrednictwem swojej platformy, zbiera olbrzymią ilość informacji o innych sprzedawcach. Od Apple App Store zależy los wielu deweloperów, dla których platforma ta jest jedynym sposobem dotarcia do olbrzymiej liczby klientów. Z kolei Google przetwarza około 90% wszystkich zapytań w internecie.
      Demokrata David N. Ciciline, przewodniczący Podkomitetu Antymonoplowego Izby Reprezentantów, w którym ostatnio szefowie gigantów zostali poddani wielogodzinnym publicznym przesłuchaniom, stwierdził: Obecnie nieuregulowane monopole technologiczne mają zbyt duży wpływ na naszą gospodarkę. Ich pozycja pozwala im decydować, kto wygra a kto przegra w grze rynkowej, mogą niszczyć małe firmy, podnosić ceny i pozbawiać ludzi pracy.
      Stronnicy wielkich korporacji mówią, że dzięki skali jaką osiągnęły Apple, Amazon, Facebook i Google firmy te mogły dokonać niespotykanych wcześniej innowacji i dostarczyć konsumentom tanich produktów technologicznych. Krytycy zaś twierdzą, że wpływy wielkich korporacji są szkodliwe dla pracowników, niszczą małe firmy i obciążają konsumentów innymi kosztami niż tyko finansowe.
      W proponowanych ustawach znalazły się przepisy, które zakazują dominującym platformom – jak App Store Apple'a czy Play Store Google'a – dyskryminowania sprzedawców, wybierania tych, którzy mogą z nich korzystać czy zapewniania im lepszych miejsc na platformach. Koncerny nie będą mogły decydować, kto wygra a kto przegra. Zakazane mają być akwizycje mające na celu zduszenie rodzącej się konkurencji lub takie, których celem będzie rozszerzenie lub wzmocnienie rynkowej pozycji online'owych platform. W ustawach przewidziano też ograniczenie dominującym platformom możliwości kontrolowania firm z różnych rynków. Znalazły się w nich również zapisy dotyczące obniżenia barier wejścia na rynek oraz zmniejszenia kosztów dla firm i konsumentów chcących zrezygnować z jednej platformy na rzecz innej. Ustawodawcy proponują też pierwszą od 2 dekad podwyżkę opłat za łączenie firm. Z opłat takich finansowane są działania antymonopolowe Departamentu Sprawiedliwości i Federalnej Komisji Handlu.
      Proponowane nowe przepisy to jednak nie wszystko. Wszystkie wymienione firmy mają na głowie procesy antymonopolowe wytoczone im zarówno przez Departament Sprawiedliwości, Federalną Komisją Handlu jak i prywatną konkurencję.
      Wspomniane 6-godzinne przesłuchania przed Izbą Reprezentantów, których owocem jest omawiany tutaj pakiet ustaw, miały miejsce w lipcu ubiegłego roku. Były one kulminacją trwającego kilkanaście miesięcy śledztwa, w czasie którego zgromadzono ponad 1,3 miliona dokumentów zarówno od wymienionych gigantów IT, ich konkurencji, jak i agencji antymonopolowych. Po przesłuchaniu powstał 449-stronicowy raport, w którym Apple'a, Amazona, Google'a i Facebooka oskarżono o naruszenie pozycji rynkowej.
      Inicjatywa ustawodawcza spotkała się już z krytyką. Proponowane ustawy spowodują, że rząd będzie zarządzał organizacjami przemysłowymi. Lekceważą one podstawy amerykańskiej gospodarki rynkowej i spowodują, że działające z powodzeniem firmy technologiczne nie będą mogły dostarczać konsumentom produktów i usług poprawiających ich życie, mówi Matthew Schruers, prezes organizacji Computer & Communications Industry Association.
      Głosy takie nie znajdują jednak zrozumienia u członków komitetu antymonpolowego. Republikanin Ken Buck stwierdził: Firmy Big Tech wykorzystują swoją dominującą pozycję do niszczenia konkurencji, cenzurowania swobody wypowiedzi i kontrolowania tego, w jaki sposób postrzegamy i rozumiemy świat. Nic nierobienie nie jest rozwiązaniem. Musimy działać teraz.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Co najmniej 30 000 firm i organizacji w USA padło ofiarami ataków, które zostały przeprowadzone dzięki czterem nowo odkrytym dziurom w oprogramowaniu do poczty elektronicznej microsoftowego Exchange Servera. Jak poinformował ekspert ds. bezpieczeństwa, Brian Krebs, chińscy cyberprzestępcy zarazili sieci setki tysięcy organizacji narzędziami,które dają napastnikowi całkowity zdalny dostęp do zarażonych systemów.
      Microsoft opublikował poprawki 2 marca i zachęca użytkowników Exchange Servera do ich pilnego zainstalowania. Jednocześnie jednak firma poinformowała, że pojawienie się poprawek sprowokowało chińskich cyberprzestępców – grupę, której nadano nazwę „Hafnium” – do zintensyfikowania ataków na niezałatane instalacje Exchange Servera. Eksperci ostrzegają, że przestępcy wciąż mają dostęp do serwerów zhakowanych przed zainstalowaniem łatek. Łatanie nie działa, jeśli serwery już wcześniej zostały skompromitowane. Ci, którzy wykorzystują  powinni sprawdzić, czy nie padli ofiarami ataku, oświadczył amerykański National Security Council. Brian Krebs Dodaje, że użytkownicy Outlook Web Access serwera powinni sprawdzić okres pomiędzy 26 lutego a 3 marca. To właśnie w tym czasie mogło dojść do ataków. Zaniepokojenie problemem i rosnącą liczbą ofiar wyraził też Biały Dom.
      Nowo odkryte błędy pozwalają przestępcom na zdalne wykonanie kodu. Do przeprowadzenia pierwszego ataku konieczna jest możliwość ustanowienia niezabezpieczonego połączenia z portem 443 Exchange Servera, informuje Microsoft. Wspomniane błędy odkryto w oprogramowaniu Exchange Server 2013, 2016 i 2019.
      Chińska grupa Hafnium, która przeprowadza wspomniane ataki najpierw wykorzystuje dziury typu zero-day lub ukradzione hasła, by dostać się do atakowanego systemu. Następnie instalowana jest tam powłoka, dająca przestępcom zdalny dostęp. Później system jest stopniowo infiltrowany i kradzione są z niego dane.
      Chiński rząd zapewnił, że nie stoi za atakami.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Ostatnie działania gigantów IT, takich jak Google, oraz koncernów farmaceutycznych sugerują, że pierwszym naprawdę przydatnym zastosowaniem komputerów kwantowych mogą stać się obliczenia związane z pracami nad nowymi lekami. Komputery kwantowe będą – przynajmniej teoretycznie – dysponowały mocą nieosiągalną dla komputerów klasycznych. Wynika to wprost z zasady ich działania.
      Najmniejszą jednostką informacji jest bit. Reprezentowany jest on przez „0” lub „1”. Jeśli wyobrazimy sobie zestaw trzech bitów, z których w każdym możemy zapisać wartość „0” lub „1” to możemy w ten sposób stworzyć 8 różnych kombinacji zer i jedynek (23). Jednak w komputerze klasycznym w danym momencie możemy zapisać tylko jedną z tych kombinacji i tylko na jednej wykonamy obliczenia.
      Jednak w komputerze kwantowym mamy nie bity, a bity kwantowe, kubity. A z praw mechaniki kwantowej wiemy, że kubit nie ma jednej ustalonej wartości. Może więc przyjmować jednocześnie obie wartości: „0” i „1”. To tzw. superpozycja. A to oznacza, że w trzech kubitach możemy w danym momencie zapisać wszystkie możliwe kombinacje zer i jedynek i wykonać na nich obliczenia. Z tego zaś wynika, że trzybitowy komputer kwantowy jest – przynajmniej w teorii – ośmiokrotnie szybszy niż trzybitowy komputer klasyczny. Jako, że obecnie w komputerach wykorzystujemy procesory 64-bitowe, łatwo obliczyć, że 64-bitowy komputer kwantowy byłby... 18 trylionów (264) razy szybszy od komputera klasycznego.
      Pozostaje tylko pytanie, po co komu tak olbrzymie moce obliczeniowe? Okazuje się, że bardzo przydałyby się one firmom farmaceutycznym. I firmy te najwyraźniej dobrze o tym wiedzą. Świadczą o tym ich ostatnie działania.
      W styczniu największa prywatna firma farmaceutyczna Boehringer Ingelheim ogłosiła, że rozpoczęła współpracę z Google'em nad wykorzystaniem komputerów kwantowych w pracach badawczo-rozwojowych. W tym samym miesiącu firma Roche, największy koncern farmaceutyczny na świecie, poinformował, że od pewnego czasu współpracuje już z Cambridge Quantum Computing nad opracowaniem kwantowych algorytmów służących wstępnym badaniom nad lekami.
      Obecnie do tego typu badań wykorzystuje się konwencjonalne wysoko wydajne systemy komputerowe (HPC), takie jak superkomputery. Górną granicą możliwości współczesnych HPC  są precyzyjne obliczenia dotyczące molekuł o złożoności podobne do złożoności molekuły kofeiny, mówi Chad Edwards, dyrektor w Cambridge Quantum Computing. Molekuła kofeiny składa się z 24 atomów. W farmacji mamy do czynienia ze znacznie większymi molekułami, proteinami składającymi się z tysięcy atomów. Jeśli chcemy zrozumieć, jak funkcjonują systemy działające według zasad mechaniki kwantowej, a tak właśnie działa chemia, to potrzebujemy maszyn, które w pracy wykorzystują mechanikę kwantową, dodaje Edwards.
      Cambridge Quantum Computing nie zajmuje się tworzeniem komputerów kwantowych. Pracuje nad kwantowymi algorytmami. Jesteśmy łącznikiem pomiędzy takimi korporacjami jak Roche, które chcą wykorzystywać komputery kwantowe, ale nie wiedzą, jak dopasować je do swoich potrzeb, oraz firmami jak IBM, Honeywell, Microsoft czy Google, które nie do końca wiedzą, jak zaimplementować komputery kwantowe do potrzeb różnych firm. Współpracujemy z 5 z 10 największych firm farmaceutycznych, wyjaśnia Edwards.
      Bardzo ważnym obszarem prac Cambridge Quantum Computing jest chemia kwantowa. Specjaliści pomagają rozwiązać takie problemy jak znalezieniem molekuł, które najmocniej będą wiązały się z danymi białkami, określenie struktury krystalicznej różnych molekuł, obliczanie stanów, jakie mogą przyjmować różne molekuły w zależności od energii, jaką mają do dyspozycji, sposobu ewolucji molekuł, ich reakcji na światło czy też metod metabolizowania różnych związków przez organizmy żywe.
      Na razie dysponujemy jednak bardzo prymitywnymi komputerami kwantowymi. Są one w stanie przeprowadzać obliczenia dla molekuł składających się z 5–10 atomów, tymczasem minimum, czego potrzebują firmy farmaceutyczne to praca z molekułami, w skład których wchodzi 30–40 atomów. Dlatego też obecnie przeprowadzane są obliczenia dla fragmentów molekuł, a następnie stosuje się specjalne metody obliczeniowe, by stwierdzić, jak te fragmenty będą zachowywały się razem.
      Edwards mówi, że w przyszłości komputery kwantowe będą szybsze od konwencjonalnych, jednak tym, co jest najważniejsze, jest dokładność. Maszyny kwantowe będą dokonywały znacznie bardziej dokładnych obliczeń.
      O tym, jak wielkie nadzieje pokładane są w komputerach kwantowych może świadczyć fakt, że główne koncerny farmaceutyczne powołały do życia konsorcjum o nazwie QuPharm, którego zadaniem jest przyspieszenie rozwoju informatyki kwantowej na potrzeby produkcji leków. QuPharm współpracuje z Quantum Economic Development Consortium (QED-C), powołanym po to, by pomóc w rozwoju komercyjnych aplikacji z dziedziny informatyki kwantowej na potrzeby nauk ścisłych i inżynierii. Współpracuje też z Pistoia Alliance, którego celem jest przyspieszenie innowacyjności w naukach biologicznych.
      Widzimy zainteresowanie długoterminowymi badaniami nad informatyką kwantową. Firmy te przeznaczają znaczące środki rozwój obliczeń kwantowych, zwykle zapewniają finansowanie w dwu-, trzyletniej perspektywie. To znacznie bardziej zaawansowane działania niż dotychczasowe planowanie i studia koncepcyjne. Wtedy sprawdzali, czy informatyka kwantowa może się do czegoś przydać, teraz rozpoczęli długofalowe inwestycje. To jest właśnie to, czego ta technologia potrzebuje, dodaje Edwards.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...