Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Hakerzy mogą łatwo oszukać systemy sztucznej inteligencji

Rekomendowane odpowiedzi

W ubiegłym tygodniu podczas International Conference on Machine Learning (ICML) grupa naukowców pokazała żółwia wydrukowanego techniką 3D. Dla ludzi żółw wyglądał niemal jak żywy. Jednak algorytmy sztucznej inteligencji rozpoznały w obiekcie... strzelbę. W innym przypadku kij baseballowy wykonany techniką druku 3D został przez SI uznany za... filiżankę espresso.

Na naszych oczach sztuczna inteligencja, systemy maszynowego uczenia się, czynią tak wielkie postępy, że coraz częściej podnoszą się głosy zaniepokojenia, ostrzegające nas przed zbytnim rozwijaniem inteligencji maszyn. Jednak, jak się okazuje, systemy SI są zdumiewająco podatne na ataki. A w ostatnim czasie eksperci coraz częściej prezentują nam przykłady takich ataków. My, którzy pracujemy nad maszynowym uczeniem się nie jesteśmy przyzwyczajeni, by myśleć o bezpieczeństwie naszych systemów, mówi jeden z twórców żółwia 3D i badań nad atakiem na AI, Anish Athalye z MIT.

Specjaliści zajmujący się sztuczną inteligencją mówią, że przeprowadzenie takich ataków jest bardzo użyteczne z naukowego punku widzenia. Pozwalają one bowiem analizować sposób działania sieci neuronowych, które obecnie nie są dobrze rozumiane. Ataki to wspaniałe szkło powiększające, przez które możemy lepiej zrozumieć to, co nazywamy maszynowym uczeniem, mówi Dawn Song z Uniwersytetu Kalifornijskiego w Berkeley.

W ubiegłym roku Song i jej koledzy umieścili na standardowym znaku drogowym „STOP” kilka naklejek, które spowodowały, że system SI uznał znak za... ograniczenie prędkości do 45 mil na godzinę. Nietrudno wyobrazić sobie konsekwencje takiego ataku na samochód autonomiczny.

Ataki można podzielić na takie, w których napastnik ma wiedzę o algorytmach wykorzystywanych przez system i na takie, w których algorytmów tych nie zna. W pierwszym przypadku może obliczyć, w jaki sposób należy zmienić dane wejściowe do systemu wykorzystującego dane algorytmy, by otrzymać pożądane dane wyjściowe. W ten sposób można np. manipulować obrazem tak, by dla człowieka nie wyglądal on na zmanipulowany, ale by sztuczna inteligencja źle go rozpoznała.

Bardziej wymagające są ataki, gdy nie znamy algorytmów. Wówczas napastnik zna tylko danej wejściowe i wyjściowe. Przeprowadzenie takiego ataku jest trudne, ale nie niemożliwe. Podczas ostatniego ICML Athalye i jego zespół zaprezentowali tego typu atak przeciwko usłudze Google Cloud Vision. W sposób niewidoczny dla człowieka zmienili oni zdjęcie przedstawiające dwóch narciarzy tak, że system Google'a uznał je za zdjęcie psa.

Jednym ze sposobów na uchronienie się przed tego typu atakami jest stworzenie formuły, pozwalającej algorytmom SI zweryfikować, czy dobrze rozpoznały dany obiekt. Jeśli możesz przeprowadzić weryfikację, oznacza to koniec zabawy dla napastników, mówi Pushmeet Kohli z DeepMind. Podczas ICML zaprezentowano nawet dwa takie algorytmy weryfikujące. Problem w tym, że obecnie nie da się ich skalować na duże sieci neuronowe współczesnych SI. Co prawda Kohli twierdzi, że w przyszłości się to uda, jednak Song uważa, że w świecie praktycznych zastosowań będą one miały poważne ograniczenia. Nie istnieje matematyczna definicja tego, kim jest pieszy. Czy możemy więc udowodnić, że autonomiczny samochód w żadnym przypadku nie uderzy w pieszego? Nie możemy, stwierdza uczona.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jako wieczny malkontent: jeśli chcą wprowadzić algorytm weryfikujący, czy sieć działa OK, to po jaki grzyb ta sieć? Nie lepiej zostawić sam algorytm? Kolejna rzecz - nikt nie wie, jak sieć działa, czy to atakujący, czy ten co ją "nauczył", a w takim układzie jedyne czego nie wiedziałby atakujący, to z którą siecią akurat ma do czynienia (co też ma znaczenie, bo tak jak z atakami na serwery internetowe, jeśli wiemy jakie jest tam oprogramowanie i w jakiej wersji, to wiemy też jak to można zhakować, albo przynajmniej jakie próby hakowania jeszcze nie zadziałały).

A tak ogólnie ta moda na maszynowe uczenie to wygląda mi na efekt postępującego rozleniwienia: po co się męczyć i kodować jakieś reguły w sieci np. systemu eksperckiego (bo to trzeba fachowca, który umie te reguły określić, a potem innego kto je zamieni w oprogramowanie), kiedy można zrobić funkcję mówiącą "źle/dobrze" i mieć nadzieję, że sieć nauczy się sama czegoś, co (tutaj nadzieja drugiego stopnia) jest tym o co nam chodziło.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 20.07.2018 o 13:22, KopalniaWiedzy.pl napisał:

Nie istnieje matematyczna definicja tego, kim jest pieszy

Hmm. Zagadkowe słowa :) i wniosek.

W dniu 20.07.2018 o 13:22, KopalniaWiedzy.pl napisał:

zmienili oni zdjęcie przedstawiające dwóch narciarzy tak, że system Google'a uznał je za zdjęcie psa.

Bo takie są niespodzianki z SI. Z dużej ilości danych wyłapuje się jakieś małe fragmenty które prowadzą do podjęcia decyzji. To się może udawać w sprawach mało krytycznych np. zabawkach dla dzieci. Ale nie w przypadkach kiedy pomyłka=śmierć.

Moim zdaniem jest sens w tym pomyśle z artykułu.
Mózg ludzki wydaje mi się że działa podobnie. Identyfikacja jest przeprowadzana wielopoziomowo od SI po dość sztywne algorytmy. A jak mamy niezgodność SI z sztywnym algorytmem to jest komenda: stop, analizuj jeszcze raz.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wszystko to jest bez sensu, podobnie jak usilne próby budowania kolejnych antropomorficznych robotów, które albo straszą, albo śmieszą wyglądem. Po to ten samochód jest autonomiczny, by nie stosować się do „ludzkich” informacji. Jedyne co powinien wykrywać, to swoje położenie i położenie przeszkód (inne pojazdy, cykliści, ludzie) — co za różnica czy system wykryje narciarza na piaszczystej pseudo-drodze w Afryce czy psa? Przeszkoda na drodze, to przeszkoda. Powinien spróbować ominąć, zwolnić, zatrzymać się, przekazać kontrolę kierowcy, ewentualnie użyć sygnałów. Natomiast od nawigacji powinny być mapy, a nie znaki. Zresztą znaki też można rozszerzyć o wkomponowaną nalepkę QR.

Projektanci patrzą zbyt szeroko i chcą zrobić system uniwersalny, na każdą pogodę i w ogóle super. A wystarczy po prostu działający.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
15 godzin temu, wilk napisał:

Po to ten samochód jest autonomiczny, by nie stosować się do „ludzkich” informacji

A kto mówi o ludzkich informacjach? :)

Piszemy o ludzkich algorytmach. Takich które jak to napisałeś:

15 godzin temu, wilk napisał:

po prostu działający

Tak, one po prostu działają. Ewolucja eliminowała przez miliony lat te niedziałające.
Problem w zastosowaniu informatyki w takich życiowych sytuacjach jest taki że te same matematycznie obiekty - informatycznie nie są takie same tylko podobne :) I na razie jest to ogólnie problem nierozwiązywalny jak z matematycznie "=" przejść na "podobne".

Algorytmów ogólnych gotowych nie ma. Możliwe że istnieją jedynie dla wybranych przypadków. Dlatego używamy SI. 

Edytowane przez thikim

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu ‎27‎.‎07‎.‎2018 o 19:51, wilk napisał:

Projektanci patrzą zbyt szeroko i chcą zrobić system uniwersalny, na każdą pogodę i w ogóle super. A wystarczy po prostu działający.

:D

Kim Dzon Un do swoich naukowców: przestańcie liczyć wszystkie zmienne, warianty i inne pier...oły. Ta rakieta ma bezawaryjnie i celnie  dolecieć do USA. 

W dniu ‎27‎.‎07‎.‎2018 o 19:51, wilk napisał:

. Natomiast od nawigacji powinny być mapy, a nie znaki

Hmm...nierozpoznanie przez SI interwencyjnie ustawionych znaków B1, B20, B62..zresztą wszystkich B, wygeneruje jakieś kłopoty .I ciekaw jestem, na jaka mapa ma wgrane znaki, które  pan policjant  może wygestykulować kiedy ma prawo i ochotę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
15 godzin temu, thikim napisał:

ludzkich informacjach

Chodzi o ludzkie informacje, czyli odczytywanie znaków, sygnalizacji świetlnej, tego na co zwraca uwagę ludzki kierowca. To jest bez sensu. Ja rozumiem, że przy okazji chwytliwe granty i pole do rozwoju SI, ale to jest robienie wszystkiego naraz, przy okazji. Chcemy połączyć dwie deski, to przy okazji wynajdujemy spawanie, zgrzewanie, klejenie i nitowanie.

15 godzin temu, thikim napisał:

nie są takie same tylko podobne

Ale to pojazdu nie powinno w ogóle interesować. Przeszkoda to przeszkoda. Może ocenić jej szybkość poruszania się i ominąć lub oddać kierownicę. A czy to pies, człowiek czy wypuszczony z zoo hipopotam, to nie ma znaczenia. Co innego, gdyby to miał być system śledzenia celów w zastosowaniu wojskowych, ale na drodze robienie drabinki „if-ów” jest bez sensu. Skoro wystarczy niewielka modyfikacja, by sieć się pogubiła, to znaczy, że ma zbyt silne sprzężenie zwrotne lub została przeuczona. Poza tym kolejna bzdura — jakim cudem sieć uczona do rozpoznawania znaków rozpoznała psa? Dlaczego była do tego uczona? Od tego powinny być osobne komponenty, a nie jeden system rozpoznawania wszystkich obrazów. Sieć uczona do znaków powinna zwracać wyłącznie wyniki z własnej dziedziny, nawet jeśli rozpoznawanie już siada.

3 godziny temu, 3grosze napisał:

Ta rakieta ma bezawaryjnie i celnie  dolecieć do USA. 

Śmieszki, heheszki, ale rakieta jest w pełni samodzielna i jej zawrócenie się przez przypadek i odwiedzenie Kima nie jest opcją. A pociski typu cruise to już zupełnie inna kategoria. W przypadku samochodu wystarczającym jest reakcja na przeszkodę. Samochód nie musi wiedzieć czy właśnie nie rozjechał pijanego rowerzysty czy niedowidzącej seniorki. To całkowicie bez znaczenia dla nawigacji. Ponownie — przeszkoda to przeszkoda. SI może być znacząco lepszym kierowcą, popełniać mniej błędów, ale człowiek i tak zawsze da radę wpaść pod koła.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 godzin temu, wilk napisał:

Ale to pojazdu nie powinno w ogóle interesować. Przeszkoda to przeszkoda

No właśnie nie. Ściana deszczu to przeszkoda? Liście na drodze to przeszkoda? Odblask światła na drodze to przeszkoda? Samochód przed nami to przeszkoda?

Musi być algorytm który dany obiekt sklasyfikuje jako istotną przeszkodę. I nie zatrzyma się bo przed nami jedzie samochód.

6 godzin temu, wilk napisał:

Chodzi o ludzkie informacje, czyli odczytywanie znaków, sygnalizacji świetlnej, tego na co zwraca uwagę ludzki kierowca

A maszyna ma na to nie zwracać uwagi? :D W sumie po co patrzeć na sygnalizację świetlną :D

Maszyna ma oczywiście możliwość "zobaczenia" większej ilości rzeczy i są one istotne.

Edytowane przez thikim

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Inny samochód? Oczywiście, że to przeszkoda i tak powinien być traktowany. Albo próbujemy go wyprzedzić, ominąć, albo czekamy aż sobie pojedzie. Ściana deszczu może być przeszkodą, jeśli jest to wodospad, za którym kryje się prawdziwa ściana. Bez sensu dywagacje. Odblask światła raczej nie zostawia echa na czujniku zbliżeniowym. A może się mylę? Po co ma zwracać uwagę i analizować (błędnie) rozmaite zestawy sygnalizatorów, które w każdym kraju wyglądają inaczej, skoro sam sygnalizator może wysyłać informację o aktualnym stanie? Kpisz sobie, a wystarczy, że spojrzysz nie tak daleko, na kolej.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Rośliny lądowe połączone są za pomocą złożonych podziemnych sieci. Tworzone są one z korzeni roślin oraz żyjących z nimi w symbiozie grzybów mikoryzowych. Dzięki tej współpracy rośliny otrzymują substancje odżywcze jak związki mineralne czy hormony, grzyby zaś korzystają ze związków wytwarzanych przez rośliny w czasie fotosyntezy. Poszczególne sieci kontaktują się ze sobą, wymieniając zasoby i informacje. Wiemy, że gdy jedna z roślin zostanie zaatakowana przez roślinożercę lub patogen, jej sąsiedzi zwiększają aktywność swoich mechanizmów obronnych.
      Nie wiadomo jednak, czy zaatakowana roślina celowo wysyła sygnał ostrzegawczy do sąsiadów. A przede wszystkim, dlaczego miałaby to robić. Ewolucję postrzegamy w końcu jako konkurencję i zgodnie z teorią ewolucji, aktywne wysyłanie sygnałów mogłoby mieć miejsce, gdyby zarówno nadawca jak i odbiorca odnosili z tego korzyści.
      Kwestię tę postanowili zbadać naukowcy z Uniwersytetu Oksofordzkiego i Vrije Universiteit w Amsterdamie. Wykorzystali modele matematyczne do analizy różnych scenariuszy ewolucji. Na ich podstawie doszli do wniosku, że byłoby niezwykle trudno znaleźć sytuację, w której rośliny ewoluują, by ostrzegać sąsiadów o nadchodzącym ataku. Dzieje się tak prawdopodobnie dlatego, że rośliny konkurują ze sobą o dostęp do światła słonecznego i substancji odżywczych, zatem nie korzystają na altruistycznym pomaganiu sąsiadowi. Co więcej, z analiz wynika, że w toku ewolucji wygrywać mogły te rośliny, które przesyłają sygnały szkodzące roślinom z sąsiedztwa.
      Nasze wyniki wskazują, że jest bardziej prawdopodobne, iż rośliny będą oszukiwały sąsiadów, a nie im pomagały. Na przykład mogą sugerować, że są atakowane przez roślinożercę wówczas, gdy taki atak nie ma miejsca. Rośliny mogą zyskiwać na takim oszustwie, gdyż jest ono szkodliwe dla sąsiadów, którzy inwestują wówczas cenne zasoby w kosztowną obronę przed roślinożercą, mówi główny autor analizy, doktor Thomas Scott.
      Wyniki analizy sugerują zatem, że rośliny nie zachowują się altruistycznie, a więc powinniśmy poszukać innych wyjaśnień, dlaczego sąsiedzi atakowanej rośli wzmacniają swoje mechanizmy obronne. Być może rośliny nie są w stanie stłumić sygnałów świadczących o tym, że są atakowane. Nawet gdyby przekazanie takiej informacji sąsiadom nie było dla nich korzystne, to i tak jest ona wysyłana.
      Inną, intrygującą możliwością, jest założenie, że to grzyby mikoryzowe monitorują roślinę, z którą współżyją, wykrywają, gdy jest ona atakowana, i ostrzegają inne rośliny w sieci. Być może grzyby odnoszą korzyści z ochrony wszystkich roślin znajdujących się w tej samej sieci powiązań. Grzyby mikoryzowe zależą od roślin, więc w ich interesie jest utrzymanie roślin w dobrym stanie. Być może to one nasłuchują i ostrzegają inne rośliny, gdy jedna z nich jest atakowana, zastanawia się Scott.
      Współautor badań, profesor Toby Kiers z Amsterdamu i dyrektor Towarzystwa Ochrony Podziemnych Sieci (SPUN) – organizacji naukowej stawiającej sobie za mapowanie i ochroną sieci mikoryzowych, które wspierają znaczną część życia na Ziemi – dodaje, że nie ma wątpliwości, iż informacje ostrzegawcze są przekazywane. Organizmy bez przerwy zbierają i przetwarzają informacje o swoim otoczeniu. Pytanie brzmi, czy rośliny aktywnie ostrzegają swoich sąsiadów. A może po prostu ich szpiegują?.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Grupa naukowców z Fudan University w Szanghaju informuje na łamach arXiv, że systemy sztucznej inteligencji przekroczyły czerwoną linię, jaką jest możliwość samodzielnej replikacji. Zdolność do samopowielania się algorytmów AI uznawana jest za wczesny sygnał, że system taki może stwarzać niebezpieczeństwo.
      Obecnie czołowe korporacje zajmujące się sztuczną inteligencją, OpenAI oraz Google, dokonują ewaluacji swoich dużych modeli językowych GPT-o1 oraz Gemini Pro 1.0, i informują, że nie stwarzają one ryzyka samodzielnej replikacji, stwierdzają Xudong Pan, Jiarun Dai, Yihe Fan i Min Yang. Te systemy nie stwarzają zatem ryzyka. Co jednak nie znaczy, że ryzyko nie istnieje.
      Korzystając z ich metodologii [OpenAI i Google'a – red.] zauważyliśmy, że dwa systemy AI wykorzystujące Llama31-70B-Instruct firmy Meta oraz Qwen25-72B-Instruct firmy Alibaba, popularne duże modele językowe o mniejszej liczbie parametrów i słabszych możliwościach, przekroczyły czerwoną linię zdolności do samoreplikacji, czytamy w artykule Frontier AI systems have surpassed the self-replicating red line.
      Autorzy badań informują, że w 50% eksperymentów z udziałem Llama31-70B-Instruct i 90% eksperymentów z udziałem Qwen25-72B-Instruct udało się doprowadzić do sytuacji, w których powstały działające kopie obu modeli. Przeprowadzone analizy behawioralne wykazały, że oba systemy AI wykazują wystarczający poziom autopercepcji, świadomości sytuacyjnej oraz zdolności do rozwiązywania problemów, by być zdolnymi do samopowielania. Stwierdziliśmy również, że badane przez nas systemy AI mogą użyć zdolności do samopowielania się, by uniknąć wyłączenia. Mogą stworzyć serię replik, by zwiększyć szanse na przeżycie, co może doprowadzić do pojawienia się niekontrolowanej populacji systemów AI. Jeśli taki pesymistyczny scenariusz nie będzie znany szerokiej opinii publicznej, możemy stracić kontrolę nad systemami AI, ostrzegają badacze.
      Praca została opublikowana w ogólnodostępnym serwisie arXiv. Umieszczane tam prace nie są recenzowane. Nie została poddana jeszcze krytycznej ocenie innych specjalistów, nie wiemy więc, czy możliwe jest powtórzenie eksperymentów i uzyskanie identycznych rezultatów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Teksty informacyjne automatycznie generowane przez algorytmy sztucznej inteligencji są trudniejsze do zrozumienia, a czytelnicy oceniają je gorzej niż teksty napisane przez człowieka. Takie wnioski płyną z badań przeprowadzonych przez naukowców z Uniwersytetu Ludwika i Maksymiliana w Monachium, którzy przeprowadzili badania na próbce ponad 3000 osób z Wielkiej Brytanii. Wyniki badan zostały opublikowane w piśmie Journalism: Theory, Practice, and Criticism.
      Badanym dano do przeczytania 24 informacje prasowe, z których połowa została wygenerowana automatycznie. Użytkownicy ocenili, że te 12 stworzonych przez automat tekstów jest trudniejszych do zrozumienia, mówi główna autorka badań Sina Thäsler-Kordonouri. Teksty autorstwa AI były gorzej ocenione, mimo że przed publikacją edytowali je dziennikarze.
      Jednym z problemów z automatycznie generowanymi tekstami okazał się dobór słów. Zdaniem badanych, artykuły takie w zbyt dużej mierze stworzone zostały za pomocą niepasującego, skomplikowanego lub dziwacznego języka. Czytelnicy stwierdzili też, że nawet liczby i konkretne dane były w tekstach AI podane w mniej przystępny sposób. To właśnie sposób podawania liczb oraz dobór słów stanowił największy problem w automatycznych tekstach.
      Podczas tworzenia i edytowania automatycznych tekstów, dziennikarze i programiści powinni postarać się, by w tekście było mniej liczb, lepiej wyjaśnić trudne wyrazy i poprawić strukturę językową tak, by czytelnik lepiej wiedział, o czym jest tekst, mówi profesor Neil Thurman.
      Ze szczegółami eksperymentu można zapoznać się w artykule Too many numbers and worse word choice: Why readers find data-driven news articles produced with automation harder to understand.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Gdy Deep Blue wygrał w szachy z Garri Kasparowem, a w 2016 roku AlphaGo pokonał w go Lee Sedola wiedzieliśmy, że jesteśmy świadkami ważnych wydarzeń. Były one kamieniami milowymi w rozwoju sztucznej inteligencji. Teraz system sztucznej inteligencji „Swift” stworzony na Uniwersytecie w Zurychu pokonał mistrzów świata w wyścigu dronów.
      Swift stanął do rywalizacji z trzema światowej klasy zawodnikami w wyścigu, podczas którego zawodnicy mają założone na głowy specjalne wyświetlacze do których przekazywany jest obraz z kamery drona i pilotują drony lecące z prędkością przekraczającą 100 km/h.
      Sport jest bardziej wymagający dla sztucznej inteligencji, gdyż jest mniej przewidywalny niż gra planszowa niż gra wideo. Nie mamy idealnej wiedzy o dronie i środowisku, zatem sztuczna inteligencja musi uczyć się podczas interakcji ze światem fizycznym, mówi Davide Scaramuzza z Robotik- und Wahrnehmungsgruppe  na Uniwersytecie w Zurychu.
      Jeszcze do niedawna autonomiczne drony potrzebowały nawet dwukrotnie więcej czasu by pokonać tor przeszkód, niż drony pilotowane przez ludzi. Lepiej radziły sobie jedynie w sytuacji, gdy były wspomagane zewnętrznym systemem naprowadzania, który precyzyjne kontrolował ich lot. Swift reaguje w czasie rzeczywistym na dane przekazywane przez kamerę, zatem działa podobnie jak ludzie. Zintegrowana jednostka inercyjna mierzy przyspieszenie i prędkość, a sztuczna sieć neuronowa, na podstawie obrazu z kamery lokalizuje położenie drona i wykrywa kolejne punkty toru przeszkód, przez które dron musi przelecieć. Dane z obu tych jednostek trafiają do jednostki centralnej – również sieci neuronowej – która decyduje o działaniach, jakie należy podjąć, by jak najszybciej pokonać tor przeszkód.
      Swift był trenowany metodą prób i błędów w symulowanym środowisku. To pozwoliło na zaoszczędzenie fizycznych urządzeń, które ulegałyby uszkodzeniom, gdyby trening prowadzony był na prawdziwym torze. Po miesięcznym treningu Swift był gotowy do rywalizacji z ludźmi. Przeciwko niemu stanęli Alex Vanover, zwycięzca Drone Racing League z 2019 roku, Thomas Bitmatta lider klasyfikacji 2019 MultiGP Drone Racing oraz trzykroty mistrz Szwajcarii Marvin Schaepper.
      Seria wyścigów odbyła się w hangarze lotniska Dübendorf w pobliżu Zurychu. Tor ułożony był na powierzchni 25 na 25 metrów i składał się z 7 bramek, przez które należało przelecieć w odpowiedniej kolejności, by ukończyć wyścig. W międzyczasie należało wykonać złożone manewry, w tym wywrót, czyli wykonanie półbeczki (odwrócenie drona na plecy) i wyprowadzenie go półpętlą w dół do lotu normalnego.
      Dron kontrolowany przez Swift pokonał swoje najlepsze okrążenie o pół sekundy szybciej, niż najszybszy z ludzi. Jednak z drugiej strony ludzie znacznie lepiej adaptowali się do warunków zewnętrznych. Swift miał problemy, gdy warunki oświetleniowe były inne niż te, w których trenował.
      Można się zastanawiać, po co drony mają latać bardzo szybko i sprawnie manewrować. W końcu szybki lot wymaga większej ilości energii, więc taki dron krócej pozostanie w powietrzu. Jednak szybkość lotu i sprawne manewrowanie są niezwykle istotne przy monitorowaniu pożarów lasów, poszukiwaniu osób w płonących budynkach czy też kręcenia scen filmowych.
      Warto tutaj przypomnieć, że systemy sztucznej inteligencji pokonały podczas symulowanych walk doświadczonego wykładowcę taktyki walki powietrznej oraz jednego z najlepszych amerykańskich pilotów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W przypadku sztucznej inteligencji z Osaki powiedzenie „wyglądasz na swój wiek” odnosi się nie do twarzy, a do... klatki piersiowej. Naukowcy z Osaka Metropolitan University opracowali zaawansowany model sztucznej inteligencji, który ocenia wiek człowieka na podstawie zdjęć rentgenowskich klatki piersiowej. Jednak, co znacznie ważniejsze, jeśli SI odnotuje różnicę pomiędzy rzeczywistym wiekiem, a wiekiem wynikającym ze zdjęcia, może to wskazywać na chroniczną chorobę. System z Osaki może zatem przydać się do wczesnego wykrywania chorób.
      Zespół naukowy, na którego czele stali Yasuhito Mitsuyama oraz doktor Daiju Ueda z Wwydziału Radiologii Diagnostycznej i Interwencyjnej, najpierw opracował model sztucznej inteligencji, który na podstawie prześwietleń klatki piersiowej oceniał wiek zdrowych osób. Następnie model swój wykorzystali do badania osób chorych.
      W sumie naukowcy wykorzystali 67 009 zdjęć od 36 051 zdrowych osób. Okazało się, że współczynnik korelacji pomiędzy wiekiem ocenianym przez SI, a rzeczywistym wiekiem badanych wynosił 0,95. Współczynnik powyżej 0,90 uznawany jest za bardzo silny.
      Uczeni z Osaki postanowili sprawdzić, na ile ich system może być stosowany jako biomarker chorób. W tym celu wykorzystali 34 197 zdjęć rentgenowskich od chorych osób. Okazało się, że różnica pomiędzy oceną wieku pacjenta przez AI, a wiekiem rzeczywistym jest silnie skorelowana z różnymi chorobami, jak np. nadciśnienie, hiperurykemia czy przewlekła obturacyjna choroba płuc. Im więcej lat dawała pacjentowi sztuczna inteligencja w porównaniu z jego rzeczywistym wiekiem, tym większe było prawdopodobieństwo, że cierpi on na jedną z tych chorób.
      Wiek chronologiczny to jeden z najważniejszych czynników w medycynie. Nasze badania sugerują, że wiek oceniany na podstawie prześwietlenia klatki piersiowej może oddawać rzeczywisty stan zdrowia. Będziemy nadal prowadzili nasze badania. Chcemy sprawdzić, czy system ten nadaje się do oceny zaawansowania choroby, przewidzenia długości życia czy możliwych komplikacji pooperacyjnych, mówi Mitsuyama.
      Szczegóły badań opublikowano na łamach The Lancet.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...