Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Musk i DeepMind nie chcą pracować nad robotami bojowymi

Rekomendowane odpowiedzi

Podczas International Joint Conference On Artificial Intelligence, która odbywa się właśnie w Sztokholmie, Future of Life Insitute zaprezentował dokument, którego sygnatariusze zobowiązali się do nieprowadzenia prac nad śmiercionośnymi autonomicznymi systemami bojowymi. Dokument podpisało ponad 160 organizacji i ponad 2400 osób. Wśród sygnatariuszy znajdziemy m.in. google'owskie DeepMind u jego założyciele czy Elona Muska. DeepMind to twórca algorytmów sztucznej inteligencji, które pokonały człowieka w go.

My, podpisani poniżej, uznajemy, że decyzja o odebraniu życia człowiekowi nigdy nie powinna być podejmowana przez maszynę. Moralnym uzasadnieniem takiego stanowiska jest przekonanie, że decyzja o odebraniu życia nie może zostać podjęta przez maszynę, za którą to decyzję odpowiedzialni będą inni lub nikt. Argument praktyczny zaś brzmi: wprowadzenie do użytku śmiercionośnej, autonomicznej broni, która będzie wybierała cele bez interwencji człowieka, będzie miało destabilizujący efekt zarówno na państwa jak i na poszczególnych ludzi, czytamy w oświadczeniu.

My, niżej podpisani, wzywamy rządy do stworzenia międzynarodowego prawa zabraniającego istnienia autonomicznych systemów bojowych. [...] nie będziemy nigdy uczestniczyli ani wspierali rozwoju, wytwarzania, handlu ani użycia śmiercionośnych autonomicznych systemów bojowych. Wzywamy firmy technologiczne, organizacje, liderów politycznych i społecznych oraz prawodawców i wszystkich innych ludzi do przyłączenia się do nas.

Niezależnie od powyższego apelu 26 państw wezwało do nałożenia światowego zakazu tworzenia śmiercionośnych autonomicznych systemów bojowych. Państwa te to Algieria, Argentyna, Austria, Boliwia, Brazylia, Chile, Chiny, Kolumbia, Kostaryka, Kuba, Dżibuti, Ekwador, Egipt, Ghana, Gwatemala, Watykan, Irak, Meksyk, Nikaragua, Panama, Pakistan, Peru, Palestyna, Uganda, Wenezuela i Zimbabwe.

Wśród instytucji podpisanych pod zobowiązaniem znajdziemy University College London, Europejskie Stowarzyszenie Sztucznej Inteligencji, portugalski Universidade NOVA czy Polskie Stowarzyszenie Sztucznej Inteligencji. Apel podpisało wielu naukowców zajmujących się robotami, informatyką i sztuczną inteligencją. Znajdziemy tam uczonych z Uniwersytetu w Montrealu, Uniwersytetu Nowej Południowej Walii, New York University, MIT, Uniwersytetu Kalifornijskiego, Cornell University i wielu innych szacownych instytycji naukowo-badawczych.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie oni, to kto inny.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
19 godzin temu, wilk napisał:

Nie oni, to kto inny.

Dobrze że chociaż niektórzy nie chcą tego robić.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Problem polega na tym,co to jest ta broń autonomiczna,bo chyba nie jej definicji,poza tym nie powstrzymają postępu technologicznego,bo bez niego nie przetrwamy w przyszłości.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Sławko napisał:

Dobrze że chociaż niektórzy nie chcą tego robić.

Tylko widzisz, problem jest taki, jak wspomniałem (albo też ktoś inny) już tutaj kiedyś. Dopóki zajmowałby się tym sektor cywilny, to „ludzie” mieliby jakiś wpływ na to, co powstanie. A tak zajmie się tym budżet wojskowy i czarne supertajne projekty i jedynie zobaczymy przy okazji któregoś konfliktu już gotowe takie autonomiczne roboty, wraz z niewiadomej jakości oprogramowaniem.

To że takie maszyny powstaną to raczej pewne, jak nie Amerykanie, to Rosjanie czy Chińczycy kiedyś zbudują i oni takich skrupułów mieć nie będą. A tak szlak byłby przetarty.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Założę się, że o stosowaniu takich systemów dowiemy się, gdy one już będą działały od 20-30 lat. Tylko oficjalnie cały czas będzie, że to niby człowiek podjął decyzję a system tylko wykonał rozkaz.

Kiedy znajdzie się pierwszy, który się do tego przyzna nagle okaże się, że wszyscy z tego korzystali od dawna i nigdy nie stracili przewagi na polu walki.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
15 godzin temu, wilk napisał:

To że takie maszyny powstaną to raczej pewne, jak nie Amerykanie, to Rosjanie czy Chińczycy kiedyś zbudują i oni takich skrupułów mieć nie będą.

Teoretycznie można by postulować dopisanie autonomicznych systemów bojowych do tych samych porozumień, które zakazują np. produkcji i używania broni chemicznej czy biologicznej. Ja się zastanawiam, czy my chcemy AI czy nie? Bo jak chcemy i uważamy, że AI rozwiąże wszystkie nasze problemy, będzie za nas pracować, a co najważniejsze będzie za nas myśleć :), to zakaz wytwarzania takiej broni znacznie opóźni nadejście tej wielkiej szczęśliwości. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, pogo napisał:

Założę się, że o stosowaniu takich systemów dowiemy się, gdy one już będą działały od 20-30 lat.

W kosmitów też wierzysz? :)

Technologie wojskowe bo do tych zapewne się odnosisz mają inne wymagania (na jakość i kompatybilność) i w związku z tym wojskowa technologia jest obecnie opóźniona o jakieś 10 lat (zależy od kraju) względem cywilnej.

W celach wojskowych zasadniczo nie można sobie pozwolić na ładowanie czegoś co jest niesprawdzone.

Edytowane przez thikim

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 godziny temu, Jajcenty napisał:

dopisanie autonomicznych systemów bojowych

Tia, tylko czy obejmie to także autonomiczne systemy takie jak Phalanx (okręty), Trophy (czołgi) i inne. ;) Wątpię, by coś takiego dopisali. Obecne obostrzenia dotyczące broni ABC, min, bomb kasetowych, białego fosforu i in. wynikają z masowości lub niehumanitarności zastosowanego środka. Autoboty grozić mogą jedynie błędami w oprogramowaniu lub wysoką skutecznością w zabijaniu. Chociaż… z drugiej strony pamiętamy historię karabinów wyborowych (ale nie pamiętam(y) nazwy…), które po oznaczeniu celu same go śledziły, obliczały trajektorię, kompensację temperatury i wiatru, by w końcu samodzielnie oddać jak najlepszy strzał (zadaniem strzelca było tylko wyrażenie chęci likwidacji celu).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 18.07.2018 o 23:43, KopalniaWiedzy.pl napisał:

My, podpisani poniżej, uznajemy, że decyzja o odebraniu życia człowiekowi nigdy nie powinna być podejmowana przez maszynę

vs.

Cytat

W trosce o byt i przyszłość naszej Ojczyzny,

odzyskawszy w 1989 roku możliwość suwerennego i demokratycznego stanowienia o Jej losie,

my, Naród Polski - wszyscy obywatele Rzeczypospolitej,

zarówno wierzący w Boga

będącego źródłem prawdy, sprawiedliwości, dobra i piękna,

jak i nie podzielający tej wiary,

a te uniwersalne wartości wywodzący z innych źródeł,

równi w prawach i w powinnościach wobec dobra wspólnego - Polski,

wdzięczni naszym przodkom za ich pracę, za walkę o niepodległość okupioną ogromnymi ofiarami, za kulturę zakorzenioną w chrześcijańskim dziedzictwie Narodu i ogólnoludzkich wartościach,

nawiązując do najlepszych tradycji Pierwszej i Drugiej Rzeczypospolitej,

zobowiązani, by przekazać przyszłym pokoleniom wszystko, co cenne z ponad tysiącletniego dorobku,

złączeni więzami wspólnoty z naszymi rodakami rozsianymi po świecie,

świadomi potrzeby współpracy ze wszystkimi krajami dla dobra Rodziny Ludzkiej,

pomni gorzkich doświadczeń z czasów, gdy podstawowe wolności i prawa człowieka były w naszej Ojczyźnie łamane,

pragnąc na zawsze zagwarantować prawa obywatelskie, a działaniu instytucji publicznych zapewnić rzetelność i sprawność,

w poczuciu odpowiedzialności przed Bogiem lub przed własnym sumieniem,

ustanawiamy Konstytucję Rzeczypospolitej Polskiej

jako prawa podstawowe dla państwa

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@thikim

Źle mnie zrozumiałeś. Chodzi mi o to, że takie technologie będą stosowane od 20-30 lat w momencie gdy oficjalnie się o nich dowiemy. Jak powstaną za 50 lat, to dowiemy się o nich za 70-80 itd... 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 20.07.2018 o 12:50, pogo napisał:

Założę się, że o stosowaniu takich systemów dowiemy się, gdy one już będą działały od 20-30 lat.

Ja zmniejszyłbym ten okres (20-30 lat) bo...

W dniu 20.07.2018 o 12:50, pogo napisał:

Kiedy znajdzie się pierwszy, który się do tego przyzna nagle okaże się, że wszyscy z tego korzystali od dawna i nigdy nie stracili przewagi na polu walki.

... się nie przyzna tylko oponenci postarają się pokazać jakiej technologii użył.

Pierwszy będzie kozłem ofiarnym aby reszta, już oficjalnie, mogła pokazać i rozwijać swoje technologie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      W latach 1967–1978 roku Włoska Wyprawa Archeologiczna ISMEO prowadziła pierwsze badania w Shahr-i Sokhta (SiS) w Iranie. Szybko okazało się, że miasto składało się z trzech obszarów: mieszkalnego, cmentarza i przemysłowego. Jego największy rozkwit przypadł na połowę III tysiąclecia przed naszą erą, gdy obszar mieszkalny zajmował 80 hektarów. Miasto uznano za jeden z najważniejszych ośrodków na wschodzie Wyżyny Irańskiej. Zidentyfikowano tam cztery okresy kulturowe podzielone na 10 faz konstrukcyjnych, które datowano na od 2. połowy IV tysiąclecia do połowy III tysiąclecia. W południowej części miasta znaleziono duży cmentarz o powierzchni około 20 hektarów, a w jednym z grobów planszę do gry i bierki.
      Datowanie wykazało, że gra pochodzi z lat 2600–2700 p.n.e. W grobie nie znaleziono żadnej innej planszy, założono więc, że wszystkie bierki pochodzą z tej jednej gry i że jest ona kompletna. Planszę do gry złożono w pobliżu głowy zmarłej osoby, w pobliżu zaś stał koszyk z bierkami i kostkami. Plansza jest podobna do wcześniej znajdowanych plansz, ale istnieją między nimi też duże różnice. Kształt planszy z SiS jest niezwykle podobny do słynnej Królewskiej Gry z Ur, jednak gra z SiS ma więcej bierek i nie ma na niej rozety, która wydaje się bardzo ważnym elementem tego typu gier, znanych pod zbiorową nazwą „gier na 20 kwadratach”.
      Z Bliskiego Wschodu i spoza niego znamy ponad 100 plansz, w pewnej mierze do siebie podobnych, a w wielu aspektach różnych, które klasyfikowane są pod tą nazwą. Znaleziono je w Turkmenistanie czy Indiach. Podobnej gry używali Egipcjanie ok. 1580 roku p.n.e. Prawdopodobnie zapoznali się z nią za pośrednictwem Hyksosów. Podobne gry były popularne przez około 2000 lat.
      Autorzy nowych badań zaprzęgli algorytmy sztucznej inteligencji, do pracy nad odgadnięciem zasad gry. Wykorzystanie metod obliczeniowych do badań starożytnych gier, pozwala na symulowanie tysięcy możliwych zestawów zasad i wybranie tych najbardziej prawdopodobnych czy pasujących do gry i bierek.
      Gra z Shahr-i Sokhta wydaje się grą strategiczną – rodzajem wyścigu – podobną do Królewskiej Gry z Ur, ale bardziej złożoną. Zdaniem naukowców, mamy tutaj do czynienia z grą 2-osobową, a celem gracza jest przesunięcie przez pola planszy wszystkich 10 swoich bierek, zanim zrobi to przeciwnik. W grze gracze posługują się kostką i mogą wykorzystywać swoje bierki zarówno do jak najszybszego dotarcia do celu, jak i do blokowania ruchów przeciwnika. Badacze sugerują, że dodatkowe bierki, dzięki którym gra różni się np. od gry z Ur, dodawały jej złożoności. Widzimy wśród nich na przykład rozety, podobne do rozet, które w grze w Ur narysowane są na planszy. W przeciwieństwie do Królewskiej Gry z Ur, w przypadku gry z SiS losowość odgrywa mniejszą rolę, a większa rolę gra strategia.
      Po określeniu najbardziej prawdopodobnych zasad, grę z SIS przetestowało 50 doświadczonych graczy, który ocenili ją i porównali z Królewską Grą z Ur. Przyznali, że gra z SiS jest bardziej wymagająca pod względem strategii niż gra z Ur.
      Szczegóły badań zostały opublikowane na łamach Journal of the British Institute of Persian Studies. Gra z Shahr-i Sokhta została znaleziona w bogato wyposażonym grobie, ale nie był to grób królewski, co wskazuje, że była bardziej dostępna niż gra dla najwyższej elity.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Troje naukowców – Elizabeth A Barnes z Colorado State University, Noah S Diffenbaugh z Uniwersytetu Stanforda oraz Sonia I Seneviratne z EHT Zurich – zebrało dane z 10 modeli klimatycznych i przeanalizowało je za pomocą algorytmów sztucznej inteligencji. Na łamach Environmental Research Letters poinformowali, że z tak przeprowadzonych badań wynika, iż globalne temperatury będą rosły szybciej niż zakładano, a jeszcze za naszego życia niektóre regiony doświadczą średniego wzrostu temperatury przekraczającego 3 stopnie Celsjusza.
      Autorzy badań stwierdzili, że w 34 ze zdefiniowanych przez IPCC 43 regionów lądowych Ziemi średni wzrost temperatury przekroczy 1,5 stopnia Celsjusza do roku 2040. W 31 z tych 34 regionów należy spodziewać się wzrostu o 2 stopnie do roku 2040. Natomiast do roku 2060 w 26 regionach średnia temperatura wzrośnie o ponad 3 stopnie.
      Regionami narażonymi na szybszy niż przeciętny wzrost temperatur są południowa Azja, region Morza Śródziemnego, Europa Środkowa i niektóre części Afryki Subsaharyjskiej.
      Profesor Diffenbaugh zauważył, że ważne jest, by nie skupiać się tylko na temperaturach globalnych, ale zwracać uwagę na temperatury lokalne i regionalne. Badając, jak rośnie temperatura w poszczególnych regionach, będziemy mogli określić, kiedy i jakie skutki będą odczuwalne dla społeczności i ekosystemów tam żyjących. Problem w tym, że regionalne zmiany klimatyczne są trudniejsze do przewidzenia. Dzieje się tak dlatego, że zjawiska klimatyczne są bardziej chaotyczne w mniejszej skali oraz dlatego, że trudno powiedzieć, jak dany obszar będzie reagował na ocieplenie w skali całej planety.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      „Ala ma kota” to pierwsze i – prawdę mówiąc – jedyne zdanie, jakie pamiętam z elementarza. I właśnie to zdanie, które kolejne pokolenia poznają dzięki legendarnemu „Elementarzowi” Falskiego prowadzi nas przez „Prosto o AI. Jak działa i myśli sztuczna inteligencja” autorstwa Roberta Trypuza. Niewielki format książeczki sugeruje, że znajdziemy w niej niezbyt wiele informacji. Nic bardziej mylnego. To elementarz, skoncentrowana skarbnica wiedzy o technologii, która już teraz w znaczącym stopniu zmienia ludzkie życie.
      Robert Trypuz jest praktykiem. To specjalista w dziedzinie Semnatic Web i inżynierii danych. Doktorat z informatyki i telekomunikacji uzyskał na Uniwersytecie w Trydencie, jest też doktorem habilitowanym filozofii z KUL. I, co widać w książce, jest entuzjastą sztucznej inteligencji, o której potrafi bardzo ciekawie pisać.
      Z „Prosto o AI” dowiemy się na przykład jak wygląda programowanie AI w porównaniu z programowaniem klasycznym, jak AI rozumie tekst, czym jest osadzanie słów oraz jakie rewolucyjne podejście pozwoliło na skonstruowanie dużych modeli językowych, w tym najbardziej znanego z nich ChataGPT. Przeczytamy o sieciach konwolucyjnych w medycynie, uczeniu ze wzmacnianiem, autor – pamiętajmy, że jest również filozofem – opisuje, czym jest sztuczna wolna wola, zatem czy AI ma wolną wolę.
      W ostatnim zaś odcinku znajdziemy rozważania na temat wpływu sztucznej inteligencji na proces edukacji. Nie ma w tym zdaniu pomyłki, odcinku, a nie rozdziale. Historia jest mianowicie taka, że treści zawarte w tej książce nie zostały napisane do tej książki. Pisałem je jako scenariusze odcinków programu, który nigdy nie powstał, pisze Robert Trypuz we wstępie. I może właśnie pochodzenie tekstu, który zamienił się w książkę, powoduje, że tak łatwo można przyswoić zawarte w niej informacje.
      Dla kogo jest zatem „Prosto o AI”? Dla każdego z nas, kto nigdy bardziej nie zagłębił się w tajniki sztucznej inteligencji. Tutaj znajdzie jej podstawy wyjaśnione w prosty sposób. Większości czytelników pogłębienie wiedzy do tego stopnia w zupełności wystarczy, jakąś zaś część zachęci, by sięgnąć po kolejne, bardziej szczegółowe i specjalistyczne pozycje. Ja czytałem książkę Trypuza z olbrzymim zainteresowaniem i przyjemnością.
    • przez KopalniaWiedzy.pl
      Wielkie modele językowe (LLM) – takie jak osławiony ChatGPT – nie są w stanie samodzielnie się uczyć i nabierać nowych umiejętności, a tym samym nie stanowią egzystencjalnego zagrożenia dla ludzkości, uważają autorzy badań opublikowanych w ramach 62nd Annual Meeting of the Association for Computational Linguistics, głównej międzynarodowej konferencji dotyczącej komputerowego przetwarzania języków naturalnych.
      Naukowcy z Uniwersytetu Technicznego w Darmstadt i Uniwersytetu w Bath stwierdzają, że LLM potrafią uczyć się, jeśli zostaną odpowiednio poinstruowane. To zaś oznacza, że można je w pełni kontrolować, przewidzieć ich działania, a tym samym są dla nas bezpieczne. Bezpieczeństwo ludzkości nie jest więc powodem, dla którego możemy się ich obawiać. Chociaż, jak zauważają badacze, wciąż można je wykorzystać w sposób niepożądany.
      W miarę rozwoju modele te będą prawdopodobnie w stanie udzielać coraz bardziej złożonych odpowiedzi i posługiwać się coraz doskonalszym językiem, ale jest wysoce nieprawdopodobne, by nabyły umiejętności złożonego rozumowania. Co więcej, jak stwierdza doktor Harish Tayyar Madabushi, jeden z autorów badań, dyskusja o egzystencjalnych zagrożeniach ze strony LLM odwraca naszą uwagę od rzeczywistych problemów i zagrożeń z nimi związanych.
      Uczeni z Wielkiej Brytanii i Niemiec przeprowadzili serię eksperymentów, w ramach których badali zdolność LLM do radzenia sobie z zadaniami, z którymi wcześniej nigdy się nie spotkały. Ilustracją problemu może być na przykład fakt, że od LLM można uzyskać odpowiedzi dotyczące sytuacji społecznej, mimo że modele nigdy nie były ćwiczone w takich odpowiedziach, ani zaprogramowane do ich udzielania. Badacze wykazali jednak, że nie nabywają one w żaden tajemny sposób odpowiedniej wiedzy, a korzystają ze znanych wbudowanych mechanizmów tworzenia odpowiedzi na podstawie analizy niewielkiej liczby znanych im przykładów.
      Tysiące eksperymentów, za pomocą których brytyjsko-niemiecki zespół przebadał LLM wykazało, że zarówno wszystkie ich umiejętności, jak i wszystkie ograniczenia, można wyjaśnić zdolnością do przetwarzania instrukcji, rozumienia języka naturalnego oraz umiejętnościom odpowiedniego wykorzystania pamięci.
      Obawiano się, że w miarę, jak modele te stają się coraz większe, będą w stanie odpowiadać na pytania, których obecnie sobie nawet nie wyobrażamy, co może doprowadzić do sytuacji, ze nabiorą niebezpiecznych dla nas umiejętności rozumowania i planowania. Nasze badania wykazały, że strach, iż modele te zrobią coś niespodziewanego, innowacyjnego i niebezpiecznego jest całkowicie bezpodstawny, dodaje Madabushi.
      Główna autorka badań, profesor Iryna Gurevych wyjaśnia, że wyniki badań nie oznaczają, iż AI w ogóle nie stanowi zagrożenia. Wykazaliśmy, że domniemane pojawienie się zdolności do złożonego myślenia powiązanych ze specyficznymi zagrożeniami nie jest wsparte dowodami i możemy bardzo dobrze kontrolować proces uczenia się LLM. Przyszłe badania powinny zatem koncentrować się na innych ryzykach stwarzanych przez wielkie modele językowe, takie jak możliwość wykorzystania ich do tworzenia fałszywych informacji.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dermatolog Harald Kittler z Uniwersytetu Medycznego w Wiedniu stanął na czele austriacko-australijskiego zespołu, który porównał trafność diagnozy i zaleceń dotyczących postępowania z przebarwieniami na skórze stawianych przez lekarzy oraz przez dwa algorytmy sztucznej inteligencji pracujące na smartfonach. Okazało się, że algorytmy równie skutecznie co lekarze diagnozują przebarwienia. Natomiast lekarze podejmują znacznie lepsze decyzje dotyczące leczenia.
      Testy przeprowadzono na prawdziwych przypadkach pacjentów, którzy zgłosili się na Wydział Dermatologii Uniwersytetu Medycznego w Wiedniu oraz do Centrum Diagnozy Czerniaka w Sydney w Australii.
      Testowane były dwa scenariusze. W scenariuszu A porównywano 172 podejrzane przebarwienia na skórze (z których 84 były nowotworami), jakie wystąpiły u 124 pacjentów. W drugim (scenariuszu B) porównano 5696 przebarwień – niekoniecznie podejrzanych – u 66 pacjentów. Wśród nich było 18 przebarwień spowodowanych rozwojem nowotworu. Testowano skuteczność dwóch algorytmów. Jeden z nich był nowym zaawansowanym programem, drugi zaś to starszy algorytm ISIC (International Skin Imaging Collaboration), używany od pewnego czasu do badań retrospektywnych.
      W scenariuszu A nowy algorytm stawiał diagnozę równie dobrze jak eksperci i był wyraźnie lepszy od mniej doświadczonych lekarzy. Z kolei algorytm ISIC był znacząco gorszy od ekspertów, ale lepszy od niedoświadczonych lekarzy.
      Jeśli zaś chodzi o zalecenia odnośnie leczenia, nowoczesny algorytm sprawował się gorzej niż eksperci, ale lepiej niż niedoświadczeni lekarze. Aplikacja ma tendencję do usuwania łagodnych zmian skórnych z zaleceń leczenia, mówi Kittler.
      Algorytmy sztucznej inteligencji są więc już na tyle rozwinięte, że mogą służyć pomocą w diagnozowaniu nowotworów skóry, a szczególnie cenne będą tam, gdzie brak jest dostępu do doświadczonych lekarzy. Ze szczegółami badań można zapoznać się na łamach The Lancet.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...