Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Hakerzy mogą łatwo oszukać systemy sztucznej inteligencji

Recommended Posts

W ubiegłym tygodniu podczas International Conference on Machine Learning (ICML) grupa naukowców pokazała żółwia wydrukowanego techniką 3D. Dla ludzi żółw wyglądał niemal jak żywy. Jednak algorytmy sztucznej inteligencji rozpoznały w obiekcie... strzelbę. W innym przypadku kij baseballowy wykonany techniką druku 3D został przez SI uznany za... filiżankę espresso.

Na naszych oczach sztuczna inteligencja, systemy maszynowego uczenia się, czynią tak wielkie postępy, że coraz częściej podnoszą się głosy zaniepokojenia, ostrzegające nas przed zbytnim rozwijaniem inteligencji maszyn. Jednak, jak się okazuje, systemy SI są zdumiewająco podatne na ataki. A w ostatnim czasie eksperci coraz częściej prezentują nam przykłady takich ataków. My, którzy pracujemy nad maszynowym uczeniem się nie jesteśmy przyzwyczajeni, by myśleć o bezpieczeństwie naszych systemów, mówi jeden z twórców żółwia 3D i badań nad atakiem na AI, Anish Athalye z MIT.

Specjaliści zajmujący się sztuczną inteligencją mówią, że przeprowadzenie takich ataków jest bardzo użyteczne z naukowego punku widzenia. Pozwalają one bowiem analizować sposób działania sieci neuronowych, które obecnie nie są dobrze rozumiane. Ataki to wspaniałe szkło powiększające, przez które możemy lepiej zrozumieć to, co nazywamy maszynowym uczeniem, mówi Dawn Song z Uniwersytetu Kalifornijskiego w Berkeley.

W ubiegłym roku Song i jej koledzy umieścili na standardowym znaku drogowym „STOP” kilka naklejek, które spowodowały, że system SI uznał znak za... ograniczenie prędkości do 45 mil na godzinę. Nietrudno wyobrazić sobie konsekwencje takiego ataku na samochód autonomiczny.

Ataki można podzielić na takie, w których napastnik ma wiedzę o algorytmach wykorzystywanych przez system i na takie, w których algorytmów tych nie zna. W pierwszym przypadku może obliczyć, w jaki sposób należy zmienić dane wejściowe do systemu wykorzystującego dane algorytmy, by otrzymać pożądane dane wyjściowe. W ten sposób można np. manipulować obrazem tak, by dla człowieka nie wyglądal on na zmanipulowany, ale by sztuczna inteligencja źle go rozpoznała.

Bardziej wymagające są ataki, gdy nie znamy algorytmów. Wówczas napastnik zna tylko danej wejściowe i wyjściowe. Przeprowadzenie takiego ataku jest trudne, ale nie niemożliwe. Podczas ostatniego ICML Athalye i jego zespół zaprezentowali tego typu atak przeciwko usłudze Google Cloud Vision. W sposób niewidoczny dla człowieka zmienili oni zdjęcie przedstawiające dwóch narciarzy tak, że system Google'a uznał je za zdjęcie psa.

Jednym ze sposobów na uchronienie się przed tego typu atakami jest stworzenie formuły, pozwalającej algorytmom SI zweryfikować, czy dobrze rozpoznały dany obiekt. Jeśli możesz przeprowadzić weryfikację, oznacza to koniec zabawy dla napastników, mówi Pushmeet Kohli z DeepMind. Podczas ICML zaprezentowano nawet dwa takie algorytmy weryfikujące. Problem w tym, że obecnie nie da się ich skalować na duże sieci neuronowe współczesnych SI. Co prawda Kohli twierdzi, że w przyszłości się to uda, jednak Song uważa, że w świecie praktycznych zastosowań będą one miały poważne ograniczenia. Nie istnieje matematyczna definicja tego, kim jest pieszy. Czy możemy więc udowodnić, że autonomiczny samochód w żadnym przypadku nie uderzy w pieszego? Nie możemy, stwierdza uczona.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Jako wieczny malkontent: jeśli chcą wprowadzić algorytm weryfikujący, czy sieć działa OK, to po jaki grzyb ta sieć? Nie lepiej zostawić sam algorytm? Kolejna rzecz - nikt nie wie, jak sieć działa, czy to atakujący, czy ten co ją "nauczył", a w takim układzie jedyne czego nie wiedziałby atakujący, to z którą siecią akurat ma do czynienia (co też ma znaczenie, bo tak jak z atakami na serwery internetowe, jeśli wiemy jakie jest tam oprogramowanie i w jakiej wersji, to wiemy też jak to można zhakować, albo przynajmniej jakie próby hakowania jeszcze nie zadziałały).

A tak ogólnie ta moda na maszynowe uczenie to wygląda mi na efekt postępującego rozleniwienia: po co się męczyć i kodować jakieś reguły w sieci np. systemu eksperckiego (bo to trzeba fachowca, który umie te reguły określić, a potem innego kto je zamieni w oprogramowanie), kiedy można zrobić funkcję mówiącą "źle/dobrze" i mieć nadzieję, że sieć nauczy się sama czegoś, co (tutaj nadzieja drugiego stopnia) jest tym o co nam chodziło.

Share this post


Link to post
Share on other sites
W dniu 20.07.2018 o 13:22, KopalniaWiedzy.pl napisał:

Nie istnieje matematyczna definicja tego, kim jest pieszy

Hmm. Zagadkowe słowa :) i wniosek.

W dniu 20.07.2018 o 13:22, KopalniaWiedzy.pl napisał:

zmienili oni zdjęcie przedstawiające dwóch narciarzy tak, że system Google'a uznał je za zdjęcie psa.

Bo takie są niespodzianki z SI. Z dużej ilości danych wyłapuje się jakieś małe fragmenty które prowadzą do podjęcia decyzji. To się może udawać w sprawach mało krytycznych np. zabawkach dla dzieci. Ale nie w przypadkach kiedy pomyłka=śmierć.

Moim zdaniem jest sens w tym pomyśle z artykułu.
Mózg ludzki wydaje mi się że działa podobnie. Identyfikacja jest przeprowadzana wielopoziomowo od SI po dość sztywne algorytmy. A jak mamy niezgodność SI z sztywnym algorytmem to jest komenda: stop, analizuj jeszcze raz.

Share this post


Link to post
Share on other sites

Wszystko to jest bez sensu, podobnie jak usilne próby budowania kolejnych antropomorficznych robotów, które albo straszą, albo śmieszą wyglądem. Po to ten samochód jest autonomiczny, by nie stosować się do „ludzkich” informacji. Jedyne co powinien wykrywać, to swoje położenie i położenie przeszkód (inne pojazdy, cykliści, ludzie) — co za różnica czy system wykryje narciarza na piaszczystej pseudo-drodze w Afryce czy psa? Przeszkoda na drodze, to przeszkoda. Powinien spróbować ominąć, zwolnić, zatrzymać się, przekazać kontrolę kierowcy, ewentualnie użyć sygnałów. Natomiast od nawigacji powinny być mapy, a nie znaki. Zresztą znaki też można rozszerzyć o wkomponowaną nalepkę QR.

Projektanci patrzą zbyt szeroko i chcą zrobić system uniwersalny, na każdą pogodę i w ogóle super. A wystarczy po prostu działający.

Share this post


Link to post
Share on other sites
15 godzin temu, wilk napisał:

Po to ten samochód jest autonomiczny, by nie stosować się do „ludzkich” informacji

A kto mówi o ludzkich informacjach? :)

Piszemy o ludzkich algorytmach. Takich które jak to napisałeś:

15 godzin temu, wilk napisał:

po prostu działający

Tak, one po prostu działają. Ewolucja eliminowała przez miliony lat te niedziałające.
Problem w zastosowaniu informatyki w takich życiowych sytuacjach jest taki że te same matematycznie obiekty - informatycznie nie są takie same tylko podobne :) I na razie jest to ogólnie problem nierozwiązywalny jak z matematycznie "=" przejść na "podobne".

Algorytmów ogólnych gotowych nie ma. Możliwe że istnieją jedynie dla wybranych przypadków. Dlatego używamy SI. 

Edited by thikim

Share this post


Link to post
Share on other sites
W dniu ‎27‎.‎07‎.‎2018 o 19:51, wilk napisał:

Projektanci patrzą zbyt szeroko i chcą zrobić system uniwersalny, na każdą pogodę i w ogóle super. A wystarczy po prostu działający.

:D

Kim Dzon Un do swoich naukowców: przestańcie liczyć wszystkie zmienne, warianty i inne pier...oły. Ta rakieta ma bezawaryjnie i celnie  dolecieć do USA. 

W dniu ‎27‎.‎07‎.‎2018 o 19:51, wilk napisał:

. Natomiast od nawigacji powinny być mapy, a nie znaki

Hmm...nierozpoznanie przez SI interwencyjnie ustawionych znaków B1, B20, B62..zresztą wszystkich B, wygeneruje jakieś kłopoty .I ciekaw jestem, na jaka mapa ma wgrane znaki, które  pan policjant  może wygestykulować kiedy ma prawo i ochotę.

Share this post


Link to post
Share on other sites
15 godzin temu, thikim napisał:

ludzkich informacjach

Chodzi o ludzkie informacje, czyli odczytywanie znaków, sygnalizacji świetlnej, tego na co zwraca uwagę ludzki kierowca. To jest bez sensu. Ja rozumiem, że przy okazji chwytliwe granty i pole do rozwoju SI, ale to jest robienie wszystkiego naraz, przy okazji. Chcemy połączyć dwie deski, to przy okazji wynajdujemy spawanie, zgrzewanie, klejenie i nitowanie.

15 godzin temu, thikim napisał:

nie są takie same tylko podobne

Ale to pojazdu nie powinno w ogóle interesować. Przeszkoda to przeszkoda. Może ocenić jej szybkość poruszania się i ominąć lub oddać kierownicę. A czy to pies, człowiek czy wypuszczony z zoo hipopotam, to nie ma znaczenia. Co innego, gdyby to miał być system śledzenia celów w zastosowaniu wojskowych, ale na drodze robienie drabinki „if-ów” jest bez sensu. Skoro wystarczy niewielka modyfikacja, by sieć się pogubiła, to znaczy, że ma zbyt silne sprzężenie zwrotne lub została przeuczona. Poza tym kolejna bzdura — jakim cudem sieć uczona do rozpoznawania znaków rozpoznała psa? Dlaczego była do tego uczona? Od tego powinny być osobne komponenty, a nie jeden system rozpoznawania wszystkich obrazów. Sieć uczona do znaków powinna zwracać wyłącznie wyniki z własnej dziedziny, nawet jeśli rozpoznawanie już siada.

3 godziny temu, 3grosze napisał:

Ta rakieta ma bezawaryjnie i celnie  dolecieć do USA. 

Śmieszki, heheszki, ale rakieta jest w pełni samodzielna i jej zawrócenie się przez przypadek i odwiedzenie Kima nie jest opcją. A pociski typu cruise to już zupełnie inna kategoria. W przypadku samochodu wystarczającym jest reakcja na przeszkodę. Samochód nie musi wiedzieć czy właśnie nie rozjechał pijanego rowerzysty czy niedowidzącej seniorki. To całkowicie bez znaczenia dla nawigacji. Ponownie — przeszkoda to przeszkoda. SI może być znacząco lepszym kierowcą, popełniać mniej błędów, ale człowiek i tak zawsze da radę wpaść pod koła.

Share this post


Link to post
Share on other sites
6 godzin temu, wilk napisał:

Ale to pojazdu nie powinno w ogóle interesować. Przeszkoda to przeszkoda

No właśnie nie. Ściana deszczu to przeszkoda? Liście na drodze to przeszkoda? Odblask światła na drodze to przeszkoda? Samochód przed nami to przeszkoda?

Musi być algorytm który dany obiekt sklasyfikuje jako istotną przeszkodę. I nie zatrzyma się bo przed nami jedzie samochód.

6 godzin temu, wilk napisał:

Chodzi o ludzkie informacje, czyli odczytywanie znaków, sygnalizacji świetlnej, tego na co zwraca uwagę ludzki kierowca

A maszyna ma na to nie zwracać uwagi? :D W sumie po co patrzeć na sygnalizację świetlną :D

Maszyna ma oczywiście możliwość "zobaczenia" większej ilości rzeczy i są one istotne.

Edited by thikim

Share this post


Link to post
Share on other sites

Inny samochód? Oczywiście, że to przeszkoda i tak powinien być traktowany. Albo próbujemy go wyprzedzić, ominąć, albo czekamy aż sobie pojedzie. Ściana deszczu może być przeszkodą, jeśli jest to wodospad, za którym kryje się prawdziwa ściana. Bez sensu dywagacje. Odblask światła raczej nie zostawia echa na czujniku zbliżeniowym. A może się mylę? Po co ma zwracać uwagę i analizować (błędnie) rozmaite zestawy sygnalizatorów, które w każdym kraju wyglądają inaczej, skoro sam sygnalizator może wysyłać informację o aktualnym stanie? Kpisz sobie, a wystarczy, że spojrzysz nie tak daleko, na kolej.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Naukowcy z USA i Singapuru wykorzystali autonomiczny odkurzacz do... podsłuchiwania dźwięku w pomieszczeniach oraz zidentyfikowania programów telewizyjnych, które były odtwarzane w pokoju, w którym znajdował się odkurzacz. Osiągnięcie jest tym bardziej imponujące, że autonomiczne odkurzacze nie są wyposażone w mikrofon. Praca ta pokazuje, że do podsłuchiwania można prawdopodobnie wykorzystać każde urządzenie używające technologii lidar.
      Używamy tego typu urządzeń w domach, zbytnio się nad tym nie zastanawiając. My wykazaliśmy, że – mimo iż urządzenia takie nie są wyposażone w mikrofon – możemy tak przerobić ich system nawigacji, by wykorzystać go do podsłuchiwania rozmów i ujawnienia poufnych informacji, mówi profesor Nirupam Roy z University of Maryland.
      System lidar używany w autonomicznych robotach bada otoczenia ze pomocą laserów. Ich światło odbija się od obiektów znajdujących się w otoczeniu odkurzacza i trafia do jego czujników, dzięki czemu tworzona jest mapa pomieszczenia.
      Eksperci od pewnego czasu spekulowali, że mapy tworzone przez autonomiczne odkurzacze, które często są przechowywane w chmurze, mogą być wykorzystywane w reklamie. Mapowanie pomieszczeń pozwala bowiem na określenie ich wielkości, a więc wielkości całego mieszkania czy domu, z czego można wyciągać wnioski o wielości dochodów czy stylu życia. Roy i jego zespół zaczęli zastanawiać się, czyli wyposażone w lidar urządzenia można wykorzystać do podsłuchiwania dźwięków w pomieszczeniach, w których się znajdują.
      Fale dźwiękowe wprawiają różne przedmioty w drgania, a drgania te prowadzą do niewielkich zmian fal światła, które od tych przedmiotów się odbijają. Lidar w odkurzaczu wykorzystuje światło, które odbija się od nierównych powierzchni mających przy tym różną gęstość. Czujniki odkurzacza odbierają jedynie część takiego odbitego rozproszonego światła. Roy i jego zespół nie byli więc pewni, czy taka częściowa informacja wystarczy do prowadzenia podsłuchu.
      Najpierw jednak naukowcy zdalnie włamali się do autonomicznego robota, by wykazać, że są w stanie kontrolować pozycję jego laserów i przesyłać dane do swojego komputera, nie wpływając przy tym na zdolności nawigacyjne odkurzacza.
      Gdy już tego dokonali przeprowadzili eksperymenty z dwoma źródłami dźwięku. Pierwszym było nagranie człowieka recytującego różne cyfry. Nagranie było odtwarzane przez głośniki komputerowe. Drugim ze źródeł dźwięku były głośniki włączonego telewizora, na którym były odtwarzane różne programy. Naukowcy zaś przechwytywali sygnał lasera wysyłany przez system nawigacyjny odkurzacza i odbijający się od różnych przedmiotów znajdujących się w pobliżu źródeł dźwięku. Obiektami tymi były m.in. kosz na śmieci, kartonowe pudełko, jednorazowe pudełko na żywność, torba z polipropylenu i przedmioty, które możemy znaleźć na podłodze.
      Naukowcy przepuszczali następnie zarejestrowane sygnały przez algorytmy głębokiego uczenia się, które wcześniej trenowano do rozpoznawania ludzkiego głosu i identyfikowania sekwencji muzycznych z programów telewizyjnych. Okazało się, że system – nazwany LidarPhone – zidentyfikował wypowiadane liczby z 90-procentową dokładnością, a odtwarzane programy telewizyjne rozpoznał z ponad 90-procentową dokładnością.
      Naukowcy podkreślają, że autonomiczne odkurzacze to tylko jeden z wielu przykładów urządzeń wykorzystujących technologie jak Lidar. Podobne ataki można potencjalnie wykorzystać np. przeciwko smartfonowym systemom podczerwieni używanym do rozpoznawania twarzy czy czujnikom podczerwieni wykorzystywanym do wykrywania ruchu.
      Szczegóły ataku zostały opisane w pracy Spying with Your Robot Vacuum Cleaner:Eavesdropping via Lidar Sensors

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      US Army ogłosiła termin rozpoczęcia trzeciej edycji „Hack the Army”. Hakerskie zawody, w czasie których można będzie atakować sieć należącą do armii i zarobić na tym pieniądze, rozpocznie się 14 grudnia i potrwa do 28 stycznia lub do czasu, aż wszystkie przeznaczone na nagrody pieniądze zostaną rozdysponowane. Na razie nie wiadomo, ile pieniędzy przeznaczono na tegoroczną edycję zawodów. W roku 2019 rozdysponowano 275 000 USD.
      W bieżącym roku atakować można będzie cele w całej domenie army.mil, ale US Army zastrzega, że nagrody wypłaci tylko za znalezienie określonych kategorii błędów. Hakerzy będą mogli też atakować usługi uwierzytelniania oraz wirtualne sieci prywatne (VPN) należące do wojska.
      Projekt „Hack the Army” prowadzony jest przez US Army, Defense Digital Services, Army Cyber Command oraz firmę HackerOne. To jeden z wielu podobnych projektów prowadzonych przez amerykańskie siły zbrojne, w ramach których hakerzy mogą zdobywać pieniądze atakując wojskowe sieci i oprogramowanie. Pentagon stara się rozszerzać zakres takich programów, by w ten sposób wyłapywać luki w zabezpieczeniach. Na razie najdalej poszły US Air Force, które wprost ogłosiły, że chcą prowadzić tak dużo podobnych projektów, by hakerzy mogli utrzymywać się wyłącznie z nagród zdobywanych w takich zawodach. Będą mogli w ich ramach atakować nawet satelity.
      Firma HackerOne stworzyła platformę do współpracy z hakerami, która uzyskała odpowiednie certyfikaty bezpieczeństwa. Dzięki temu firma może organizować zawody takie, jak opisywane powyżej.
      Wszyscy uczestnicy „Hack the Army” zostaną najpierw sprawdzeni, a po pozytywnym przejściu weryfikacji otrzymają oficjalną zgodę na atakowanie army.mil i innych elementów sieci wojskowej. Będą przy tym musieli używać VPN, która będzie zapisywała i śledziła ich działania.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Jedno z największych w Finlandii centrów psychoterapii padło ofiarą hakerów. Ukradli oni dane pacjentów, a teraz domagają się 40 bitcoinów (450 000 euro) za nieupublicznianie informacji o osobach korzystających z pomocy centrum.
      Vastaamo to prywatna firma, która prowadzi 2 centra psychoterapii. Ma ponad 40 000 pacjentów. Jest podwykonawcą fińskiego państwowego systemu opieki zdrowotnej. Przed niemal 2 laty grupa cyberprzestępców rozpoczęła ataki na centrum. W ich trakcie hakerzy ukradli dane dotyczące pacjentów.
      Ekspert ds. cyberbezpieczeństwa, Mikko Hypponen, mówi, że przestępcy nie użyli ransomware, nie zaszyfrowali danych. Ukradli je i domagają się pieniędzy za ich nieujawnianie.
      Wiemy, że 21 października przestępcy – w ramach szantażowania kliniki – opublikowali część ukradzionych danych. Trzy dni później skierowali swoją uwagę na samych pacjentów, domagając się od każdego z nich od 200 do 400 euro.
      Klinika skontaktowała się z około 200 osobami, radząc, by nic nie płacili. Nie ma bowiem pewności, czy ktoś nie podszywa się pod osoby, które ukradły dane.
      Pewne jest jedno. Przestępcy ukradli nade osobowe oraz dane na temat zdrowia pacjentów, w tym zapiski z sesji terapeutycznych, daty wizyt, plany leczenia, diagnozy itp.
      Śledztwo wykazało, że dyrektor wykonawczy Vastaamo, Ville Tapio, wiedział o pewnych niedociągnięciach w zabezpieczeniach systemu informatycznego firmy, ale nic z tym nie zrobił. W reakcji na te rewelacja rada nadzorcza zdymisjonowała Tapio.
      Specjaliści ds. bezpieczeństwa mówią, że ataku można by uniknąć, gdyby firma używała lepszych systemów szyfrujących.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Trzeciego października, w 30. rocznicę zjednoczenia Niemiec, na Wyspie Muzeów w Berlinie ktoś spryskał oleistą substancją co najmniej 70 eksponatów. W doniesieniach medialnych wymieniane są egipskie sarkofagi czy XIX-wieczne obrazy, wystawiane w Muzeum Pergamońskim, Starej Galerii Narodowej i Nowym Muzeum. Fundacja Pruskiego Dziedzictwa Kultury ponoć potwierdziła, że oleista substancja pozostawiła widoczne ślady. Na szczęście uszkodzenia są powierzchowne. Stołeczna policja wszczęła śledztwo, ale odmówiła komentowania motywów zdarzenia. Ze względów strategicznych sprawy nie upubliczniono.
      Jak poinformowało BBC, policja skontaktowała się mailowo z osobami, które kupiły bilety w tym terminie.
      Próbując wyjaśnić, co się stało, prasa i telewizja przypominają, że w 2018 roku w Atenach aresztowano dwie Bułgarki, które pobrudziły oleistą substancją zabytki w Narodowym Muzeum Historii. Kobiety zeznały, że spryskały je olejkami i mirrą, kierując się zapisami z Pisma Świętego.
      Październikowe zdarzenie, opisywane jako jeden z największych ataków na dzieła sztuki w powojennej historii Niemiec, może mieć związek z teoriami spiskowymi. Jedna z nich postuluje np., że Muzeum Pergamońskie to światowe centrum satanizmu (znajduje się tam bowiem zrekonstruowany Ołtarz Pergamoński). W tym kontekście media wymieniają niejakiego Attilę Hildmanna, byłego wegańskiego kucharza-celebrytę, który stał się jednym z najbardziej znanych zwolenników teorii spiskowych QAnon. Niedawno Hildmann opublikował wpisy, w których sugerował, że Angela Merkel wykorzystuje Ołtarz do składania ofiar z ludzi. Komentując zaś doniesienia o najnowszym akcie wandalizmu na Wyspie Muzeów, Hildmann stwierdził: Fakt! To jest tron Baala (Szatana).
      Warto przypomnieć, że w 1999 r. Museumsinsel została wpisana na Listę Dziedzictwa Kulturowego UNESCO.
       


      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Sztuczna inteligencja w zastosowaniach wojskowych kojarzy się z autonomicznymi systemami broni czy androidami jak Terminator. Jednak amerykańscy eksperci twierdzą, że rzeczywistość będzie mniej spektakularna, a potęga militarnej SI nie będzie opierała się na zabójczych robotach.
      Pułkownik Brad Boyd, szef Joint Warfighting Operations w Joint Artificial Intelligence Center (JAIC) amerykańskiego Departamentu Obrony mówi, że znacznie ważniejsze od budowy najlepszej broni autonomicznej jest wykorzystanie sztucznej inteligencji do gromadzenia, analizowanie oraz przesyłania danych oraz ich wykorzystania podczas treningu nowych bądź udoskonalania starych systemów.
      Najbardziej intensywnie pracujemy nad infrastrukturą, bo to ona zdecyduje, kto za 20 lat wygra wojnę, powiedział Boyd podczas konferencji prasowej. I nie chodzi tu o to, kto będzie miał najlepsze algorytmy, one za 20 lat i tak będą przestarzałe. Chodzi o to, kto będzie dysponował najlepszą infrastrukturą bo z niej wciąż będziemy korzystali za 50 lat.
      W ubiegłym miesiącu JAIC przyznało firmie Deloitte Consulting kontrakt o wartości do 106 milionów dolarów. Za te pieniądze w ciągu czterech lat ma powstać specjalna platforma dla chmur obliczeniowych – Joint Common Foundation (JCF) – zaprojektowana pod kątem potrzeb Pentagonu. Zadaniem Deloitte Consulting jest znalezienie odpowiednich kontrahentów, którzy wykonają poszczególne elementy JCF.
      JCF będzie działała jak scentralizowany hub zawierający dane i narzędzia, dzięki którym kontrahenci Pentagonu będą tworzyli i testowali produkty na potrzeby amerykańskich sił zbrojnych. Zbudowana z myślą o współpracy z przemysłem platforma ma być pomyślana tak, by była możliwa jej integracja z innymi elementami, takimi jak np. chmura JEDI, którą kosztem 10 miliardów USD ma dla Pentagonu stworzyć Microsoft.
      Umieszczenie wszystkich danych i narzędzi w jednym wspólnym repozytorium, jakim ma być JCF, ułatwi tworzenie i testowanie nowych algorytmów. SI ma kolosalny apetyt na dane. Właściwie nie ma momentu, w którym można powiedzieć, że algorytm SI został ukończony. On jest ciągle udoskonalany i testowany, mówi Nand Mulchandani, p.o. dyrektora JAIC. Również wdrożenie algorytmu nie jest łatwe, gdyż jego wydajność i możliwości mogą zależeć od lokalizacji geograficznej, w której jest wdrażany. Nie możesz wdrożyć algorytmu w jednej części świata i oczekiwać, że będzie działał w innej części. Trzeba mu zapewnić dostęp do lokalnych danych, by przystosować się do specyficznej lokalizacji czy zadań. Mulchandani nazywa ten proces cyklem ponownego treningu i stwierdza to coś, w czym musimy być naprawdę dobrzy.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...