Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Psychopatyczna sztuczna inteligencja z MIT

Rekomendowane odpowiedzi

Norman to psychopata. Na szczęście nie jest prawdziwy. To sztuczna inteligencja stworzona na MIT, której rozwojem pokierowano tak, by wykazywała cechy psychopatyczne. Inspiracją dla powstania algorytmu był Norman, bohater filmu Psychoza Hitchcocka.

Praca nad Normanem, podobnie jak nad innymi algorytmami sztucznej inteligencji, rozpoczęła się on jego nauczania na bazie materiałów dostępnych w internecie. Jednak zamiast przeglądać przyjemne i neutralne obrazy, Normana skierowano do bardziej mrocznej części internetu. Zadaniem algorytmu było przeglądanie dziwacznych grafik i obrazów, jakie wymieniają między sobą użytkownicy jednego z forów serwisu Reddit. Po takim treningu Normana poproszono o rozwiązanie testu Rorschacha.

To znany test plam, w których badani mają rozpoznawać kształty czy obrazy. Zgodnie z oczekiwaniami, Norman dawał dziwaczne odpowiedzi na plamy. Przy planszy 9. w której standardowa sztuczna inteligencja widzi czarno-białe zdjęcie czerwono-białego parasola, Norman widział człowieka poddawanego wstrząsom elektrycznym podczas próby przechodzenia przez ruchliwą ulicę. Z kolei plansza 10., która standardowej SI kojarzy się ze zbliżeniem na tort weselny stojący na stole, dla Normana była grafiką przedstawiającą człowieka zabitego przez pędzący samochód.

Twórcy psychopatycznej SI oświadczyli, że Norman ucierpiał od ciągłej ekspozycji na najciemniejsze zakamarki Reddita. Całość może być zabawną wprawką dla twórców inteligentnych algorytmów, pokazuje jednak pewną ważną rzecz. Zachowanie SI jest w dużej mierze zdeterminowane informacjami, jakie zdobywa podczas nauki. Oczywiście to nic nowego. Wystarczy przypomnieć sobie microsoftowego bota, którego koncern z Redmond postanowił skonfrontować w internautami. W ciągu 24 godzin bot stał się rasistą i został wyłączony.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 hour ago, KopalniaWiedzy.pl said:

dla twórców inteligentnych algorytmów

Protestuję. Oni nie są twórcami algorytmów (bo nie wiedzą, jakie "algorytmy" w tych ich sieciach działają), a te ich wytwory nie są inteligentne. To tak jakby personel fabryki pigmentów to byli twórcy dzieł sztuki.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Cytat

Twórcy psychopatycznej SI oświadczyli, że Norman ucierpiał od ciągłej ekspozycji na najciemniejsze zakamarki Reddita. Całość może być zabawną wprawką dla twórców inteligentnych algorytmów, pokazuje jednak pewną ważną rzecz. Zachowanie SI jest w dużej mierze zdeterminowane informacjami, jakie zdobywa podczas nauki

No jeżeli nie "mu" nie pokazali nigdy parasola to znalazł coś najbardziej podobnego do tego czego uczyli, filozofii nie ma. Jak bym mu pokazywał tylko cyferki to by każdy z tych obrazów klasyfikował jako cyfrę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czy nie są inteligentne to tu bym nie był taki pewny. A co to jest inteligencja w przypadku człowieka? :)

3 godziny temu, Afordancja napisał:

No jeżeli nie "mu" nie pokazali nigdy parasola to znalazł coś najbardziej podobnego do tego czego uczyli, filozofii nie ma

A człowiek to inaczej działa? :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wydaje się że część sieci ludzkiego umysłu potrafi być jednakże nie tylko odtwórcza w posiadanych wariacjach danych. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 godziny temu, thikim napisał:

A człowiek to inaczej działa?

 

Nie o to chodzi.

 

Nie ma człowieka który w życiu widział tylko cyfry i wszystko co widzi nazywa cyfrą ;) 

A poważniej, to AI to nic innego jak zwykły klasyfikator z bazy uczącej, którzy przy dostatecznie ilości powiedzmy, że uogólnia, nie ma tam wątku logicznego.

Ogólnie eksperyment nie wiadomo co miał udowodnić, ot źle nauczony klasyfikator, na zbiorze niereprezentatywnym. Już lepszym (chociaż też nie wiem co miał by udowadniać), było by aby na początku sieci miały te same dane uczące a później uczono by go "złych rzeczy" ;) i jak szybko by się "Zdegenerował" ale to dalej nie ma żadnego przełożenia, ot psucie klasyfikatora, ale człowieka już było by trudniej tak "zdegenerować" ,żeby np. parasola nie rozpoznał. (jeżeli by tam faktycznie był)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To fakt - nic nieoczekiwanego w tym badaniu nie ma. Podobnie jak w tym że obcowanie z kulturą prymitywną i agresywną prowadzi również ludzi do zachowań psychopatycznych. Człowiek, oprócz samych skojarzeń ma jeszcze warstwę świadomości i weryfikacji. Nie mniej i ona jest podatna na wpływ i również ją można, choć trudniej, wprowadzić w chorobę umysłową. Pytanie czy AI  zadziałało jak prosty OCR rozpoznający obrazy wg wzorca, czy też świadomie weryfikowało i zmieniało również zasady weryfikacji.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
20 godzin temu, Afordancja napisał:

A poważniej, to AI to nic innego jak zwykły klasyfikator z bazy uczącej, którzy przy dostatecznie ilości powiedzmy, że uogólnia, nie ma tam wątku logicznego.

No więc o to chodzi. A człowiek to inaczej działa? :)

48 minut temu, Ergo Sum napisał:

że obcowanie z kulturą prymitywną i agresywną prowadzi również ludzi do zachowań psychopatycznych

A obcowanie z zaawansowaną i pokojową nie? :D Prędzej, prędzej...

Edytowane przez thikim

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 godziny temu, thikim napisał:

No więc o to chodzi. A człowiek to inaczej działa?

 

Tak, trochę inaczej, inna skala złożoności, inny system uczenia? Dlaczego? Jeżeli wyuczonemu człowiekowi pokażemy, że teraz ten słoń to liczba, to to po prostu zaneguje.

W sumie nie wiem dlaczego pytasz skoro nawet w cytowanym napisałem, że mamy jeszcze element logiczny.. A tu wszystko łyka jak młody pelikan.

 

żeby ukrócić dywagacje, to tak jak by powiedzieć, że, że "bączek" (trybik od zegarka) działa tak samo jak zegarek . 

Nie, jest totalnie inny poziom złożoności. 

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli sięgniesz głębiej to zobaczysz że ten element logiczny w człowieku jest tylko pozorny :) Jest naszą nazwą na:

4 godziny temu, thikim napisał:

klasyfikator z bazy uczącej, którzy przy dostatecznie ilości powiedzmy, że uogólnia

Nic ponad to. Człowiek ma dużo ponad dostateczną ilość więc ten poziom uogólniania nazwano logiką.

Patrzysz na pustkę między atomami a widzisz człowieka :) Ale to jednak dalej w większości pustka.

Edytowane przez thikim

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mam wątpliwości co do tej pustki między atomami. Atomy wydają się całkiem ciasno upakowane w ciałach stałych. Co innego jądra atomowe, więc raczej:
"Patrzysz w pustkę między jadrami atomowymi wypełnioną chmurą elektronów i mówisz, że to człowiek".

Maszynie brakuje jedynie umiejętności podważenia informacji otrzymanej od "nauczyciela". Gdyby zaimplementować jej taką opcję, to pewnie dałaby radę reagować bardziej jak człowiek, gdyby tylko byłą wcześniej przeszkolona.
Szkoląc od zera, to i z człowieka (prawdopodobnie) zrobisz co chcesz... 

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 minuty temu, pogo napisał:

Szkoląc od zera, to i z człowieka (prawdopodobnie) zrobisz co chcesz.

Oczywiście, dlatego pisałem że to totalnie nic nadzwyczajnego, nic nie wnoszącego, ot nauczyli "pusty" klasyfikator, bezsensownych treści.

 

6 minut temu, pogo napisał:

Maszynie brakuje jedynie umiejętności podważenia informacji otrzymanej od "nauczyciela". Gdyby zaimplementować jej taką opcję, to pewnie dałaby radę reagować bardziej jak człowiek, gdyby tylko byłą wcześniej przeszkolona.

Pewnie by tak było, ale to już było by bliżej AI, a teraz to zwykły prościutki klasyfikator który nazywają szumnie AI.

 

40 minut temu, thikim napisał:

Jeśli sięgniesz głębiej to zobaczysz że ten element logiczny w człowieku jest tylko pozorny

Jeśli sięgniesz głębiej zobaczysz, że zegar to takie bączki ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
55 minut temu, pogo napisał:

"Patrzysz w pustkę między jadrami atomowymi wypełnioną chmurą elektronów i mówisz, że to człowiek".

Tak, oczywiście o to chodziło.

55 minut temu, pogo napisał:

Maszynie brakuje jedynie umiejętności podważenia informacji otrzymanej od "nauczyciela"

Załóżmy że tak. A masz pewność że człowiek może podważyć swojego "nauczyciela"?
Nie rozmawiamy oczywiście o nauczycielu zatrudnionym przez państwo, czy rodzicach. Co jest tym nauczycielem? Tym nauczycielem są zmysły. Czy jesteś w stanie podważyć informacje od nich bardziej niż maszyna?

Edytowane przez thikim

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 godzin temu, thikim napisał:

Nie rozmawiamy oczywiście o nauczycielu zatrudnionym przez państwo, czy rodzicach. Co jest tym nauczycielem? Tym nauczycielem są zmysły. Czy jesteś w stanie podważyć informacje od nich bardziej niż maszyna?

Sęk w tym, że ta maszyna (obecnie) nie podważa niczego, nie konfrontuje z już zdobytą wiedzą. Ot nowy pattern dostaje z odpowiedzią, no i już przestawia wagi aby ta odpowiedź mogła się załapać do danego zbioru. Człowiek przy podaniu bezsensownej informacji zaneguje ją.i może dojść do tego, że z danego źródła informacje będzie odrzucał i brał za fałszywe.

PS.

Co to znaczy, że zmysły są nauczycielem? 

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 godzin temu, thikim napisał:

Tym nauczycielem są zmysły

Tia...widzą oczy a nie mózg, słyszą uszy a smak zostaje w języku.:P

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Komputer dostaje obrazek i podpis pod nim "słoń". I to jest bezpośredni odpowiednik ludzkiego wzroku i słuchu: mama pokazuje obrazek i mówi, że to słoń.

Tak samo człowiek może zanegować prawidłowość opisu, jak i komputer... jeśli tylko programowi na to pozwolimy... inaczej będzie za wszelka cenę szukał powodu, dlaczego tego konkretnego słonia nazwaliśmy tym razem cyfrą 2... W sumie człowiek też nierzadko to robi.

trzeba też pamiętać, że jeśli dziecku będziesz cały czas mówić, że kaczka to słoń, to dziecko będzie w to wierzyć, bo nie ma z czym skonfrontować tej wiedzy, to samo robi komputer.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
42 minuty temu, pogo napisał:

Tak samo człowiek może zanegować prawidłowość opisu, jak i komputer... jeśli tylko programowi na to pozwolimy... inaczej będzie za wszelka cenę szukał powodu, dlaczego tego konkretnego słonia nazwaliśmy tym razem cyfrą 2... W sumie człowiek też nierzadko to robi.

trzeba też pamiętać, że jeśli dziecku będziesz cały czas mówić, że kaczka to słoń, to dziecko będzie w to wierzyć, bo nie ma z czym skonfrontować tej wiedzy, to samo robi komputer.

 

Oczywiście, nie ulega to wątpliwości, ale to nie ta maszynka, takie to nawet nie wiem czy gdzieś są obecnie tworzone, w sumie rozmywa się rozmowa, bo co innego ten eksperyment który jest totalnie nic nie warty, z tym co można zaimplementować i czy w ogóle to obecnie potrafimy.  

Nic nie warty bo ten klasyfikator możemy nauczyć losowych danych wejściowych z losowymi wyjściowymi. Ok, dziecko też pewnie tak dało by to wyuczyć.  ale to już totalnie inny temat bo z czasem i tak zacznie badać spójność wyuczenia.

Jednak fakt, że zegar to w sumie jak by się przyjrzeć to trybik, to jednak trybik != zegar, i przenoszenie wszelkich faktów z trybika na zegar jest bezsensowne, tak to, że jak by się przyjrzeć głębiej mózgowi to widzimy klasyfikator(y), to dalej nie oznacza, że klasyfikator == mózg.

 

Swoją drogą

 obecnie nie ma (zespołów) klasyfikatorów (jak są to poproszę o info chętnie przygarnę) (mam na myśli, że ktoś się tym zajmuje i publikuje a nie sam klasyfikator) które działają jak człowiek, że wyuczone już próbują konfrontować to z obecną wiedzą i negować, ponadto rozróżniają wiedzę która jest stabilna i spójna,  czyli słoń pozostanie słoniem, ale dzisiaj jest cieplo, a jutrzejsze dzisiaj jest zimno, jest już do zaakceptowania.

 

Edytowane przez Afordancja

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zdecydowanie człowiek działa inaczej niż klasyfikator treści, bo nie tylko klasyfikuje, ale też nadaje wartość dla danej klasyfikacji i może być to wartość nawet przeciwna. Wartość zależna jest od przekonań, zasad, intuicji, samopoczucia, skojarzeń i miliona innych spraw. AI na razie tak nie działa i nie jest to tylko brak złożoności. Owszem AI dokonuje pewnej klasyfikacji wagi ale do realnego działania tego typu potrzebne są takie rzeczy jak niezależność, samoświadomość a nawet dopuszczalność błędu. Z tej przyczyny opisywane doświadczenie raczej mogło spowodować jedynie proste przełożenie klasyfikujące.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tej świadomości to nie jestem pewien czy jest potrzebna aby wykonać wszystkie pozostałe czynności.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Człowiek posiada wiele układów i narządów, które maszynie są do niczego nie potrzebne. Te układy i ich praca mają ciągły wpływ na ludzkie zachowanie. Odkryto przecież, że układ pokarmowy posiada taką samą ilość neuronów jak mózg w głowie. To chyba logiczne, skoro narządy muszą zamieniać pokarm na czynniki pierwsze, drogą chemiczną pozyskiwać z nich substancje odżywcze i witaminy. Układ pokarmowy, to drugi mózg, mała chemiczna fabryka przetwórcza, na której pracę ma dodatkowo wpływ stres i sposób życia. Cały czas narządy ludzkiego organizmu wykonują samodzielnie swoją pracę, produkują odpowiednią ilość przeciwciał, gdy dojdzie do zakażenia, zarażenia się jakąś bakterią lub wirusem, a nawet w przypadku oparzenia. Zwykła morfologia pokazuje nam jak wiele elementów zawiera krew i te cząsteczki same "wiedzą" co mają robić. Bakterie w jelitach też wiedzą, co mają robić. Cały człowiek jest zbudowany z mikrostruktur i mikroorganizmów, składających się na całość i wszystko jest ze sobą połączone.

A sztuczna inteligencja, to tylko taki program, który ma ustawione reakcje na dane dane, jakie do niego docierają. Można napisać program, który będzie wyświetlał głowę, która będzie imitowała naturalne reakcje ludzkie i emocje, i będzie reagowała tak, jakby miała świadomość czegoś i jakby miała emocje. Ale to jest program, który ma nas oszukiwać, że tak jest. Program ma oszukiwać człowieka, że widzi istotę, że ma do czynienia ze świadomością i inteligencją, która coś rozumie. Ale kto się na to nabiera, ten frajer.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Troje naukowców – Elizabeth A Barnes z Colorado State University, Noah S Diffenbaugh z Uniwersytetu Stanforda oraz Sonia I Seneviratne z EHT Zurich – zebrało dane z 10 modeli klimatycznych i przeanalizowało je za pomocą algorytmów sztucznej inteligencji. Na łamach Environmental Research Letters poinformowali, że z tak przeprowadzonych badań wynika, iż globalne temperatury będą rosły szybciej niż zakładano, a jeszcze za naszego życia niektóre regiony doświadczą średniego wzrostu temperatury przekraczającego 3 stopnie Celsjusza.
      Autorzy badań stwierdzili, że w 34 ze zdefiniowanych przez IPCC 43 regionów lądowych Ziemi średni wzrost temperatury przekroczy 1,5 stopnia Celsjusza do roku 2040. W 31 z tych 34 regionów należy spodziewać się wzrostu o 2 stopnie do roku 2040. Natomiast do roku 2060 w 26 regionach średnia temperatura wzrośnie o ponad 3 stopnie.
      Regionami narażonymi na szybszy niż przeciętny wzrost temperatur są południowa Azja, region Morza Śródziemnego, Europa Środkowa i niektóre części Afryki Subsaharyjskiej.
      Profesor Diffenbaugh zauważył, że ważne jest, by nie skupiać się tylko na temperaturach globalnych, ale zwracać uwagę na temperatury lokalne i regionalne. Badając, jak rośnie temperatura w poszczególnych regionach, będziemy mogli określić, kiedy i jakie skutki będą odczuwalne dla społeczności i ekosystemów tam żyjących. Problem w tym, że regionalne zmiany klimatyczne są trudniejsze do przewidzenia. Dzieje się tak dlatego, że zjawiska klimatyczne są bardziej chaotyczne w mniejszej skali oraz dlatego, że trudno powiedzieć, jak dany obszar będzie reagował na ocieplenie w skali całej planety.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      „Ala ma kota” to pierwsze i – prawdę mówiąc – jedyne zdanie, jakie pamiętam z elementarza. I właśnie to zdanie, które kolejne pokolenia poznają dzięki legendarnemu „Elementarzowi” Falskiego prowadzi nas przez „Prosto o AI. Jak działa i myśli sztuczna inteligencja” autorstwa Roberta Trypuza. Niewielki format książeczki sugeruje, że znajdziemy w niej niezbyt wiele informacji. Nic bardziej mylnego. To elementarz, skoncentrowana skarbnica wiedzy o technologii, która już teraz w znaczącym stopniu zmienia ludzkie życie.
      Robert Trypuz jest praktykiem. To specjalista w dziedzinie Semnatic Web i inżynierii danych. Doktorat z informatyki i telekomunikacji uzyskał na Uniwersytecie w Trydencie, jest też doktorem habilitowanym filozofii z KUL. I, co widać w książce, jest entuzjastą sztucznej inteligencji, o której potrafi bardzo ciekawie pisać.
      Z „Prosto o AI” dowiemy się na przykład jak wygląda programowanie AI w porównaniu z programowaniem klasycznym, jak AI rozumie tekst, czym jest osadzanie słów oraz jakie rewolucyjne podejście pozwoliło na skonstruowanie dużych modeli językowych, w tym najbardziej znanego z nich ChataGPT. Przeczytamy o sieciach konwolucyjnych w medycynie, uczeniu ze wzmacnianiem, autor – pamiętajmy, że jest również filozofem – opisuje, czym jest sztuczna wolna wola, zatem czy AI ma wolną wolę.
      W ostatnim zaś odcinku znajdziemy rozważania na temat wpływu sztucznej inteligencji na proces edukacji. Nie ma w tym zdaniu pomyłki, odcinku, a nie rozdziale. Historia jest mianowicie taka, że treści zawarte w tej książce nie zostały napisane do tej książki. Pisałem je jako scenariusze odcinków programu, który nigdy nie powstał, pisze Robert Trypuz we wstępie. I może właśnie pochodzenie tekstu, który zamienił się w książkę, powoduje, że tak łatwo można przyswoić zawarte w niej informacje.
      Dla kogo jest zatem „Prosto o AI”? Dla każdego z nas, kto nigdy bardziej nie zagłębił się w tajniki sztucznej inteligencji. Tutaj znajdzie jej podstawy wyjaśnione w prosty sposób. Większości czytelników pogłębienie wiedzy do tego stopnia w zupełności wystarczy, jakąś zaś część zachęci, by sięgnąć po kolejne, bardziej szczegółowe i specjalistyczne pozycje. Ja czytałem książkę Trypuza z olbrzymim zainteresowaniem i przyjemnością.
    • przez KopalniaWiedzy.pl
      Wielkie modele językowe (LLM) – takie jak osławiony ChatGPT – nie są w stanie samodzielnie się uczyć i nabierać nowych umiejętności, a tym samym nie stanowią egzystencjalnego zagrożenia dla ludzkości, uważają autorzy badań opublikowanych w ramach 62nd Annual Meeting of the Association for Computational Linguistics, głównej międzynarodowej konferencji dotyczącej komputerowego przetwarzania języków naturalnych.
      Naukowcy z Uniwersytetu Technicznego w Darmstadt i Uniwersytetu w Bath stwierdzają, że LLM potrafią uczyć się, jeśli zostaną odpowiednio poinstruowane. To zaś oznacza, że można je w pełni kontrolować, przewidzieć ich działania, a tym samym są dla nas bezpieczne. Bezpieczeństwo ludzkości nie jest więc powodem, dla którego możemy się ich obawiać. Chociaż, jak zauważają badacze, wciąż można je wykorzystać w sposób niepożądany.
      W miarę rozwoju modele te będą prawdopodobnie w stanie udzielać coraz bardziej złożonych odpowiedzi i posługiwać się coraz doskonalszym językiem, ale jest wysoce nieprawdopodobne, by nabyły umiejętności złożonego rozumowania. Co więcej, jak stwierdza doktor Harish Tayyar Madabushi, jeden z autorów badań, dyskusja o egzystencjalnych zagrożeniach ze strony LLM odwraca naszą uwagę od rzeczywistych problemów i zagrożeń z nimi związanych.
      Uczeni z Wielkiej Brytanii i Niemiec przeprowadzili serię eksperymentów, w ramach których badali zdolność LLM do radzenia sobie z zadaniami, z którymi wcześniej nigdy się nie spotkały. Ilustracją problemu może być na przykład fakt, że od LLM można uzyskać odpowiedzi dotyczące sytuacji społecznej, mimo że modele nigdy nie były ćwiczone w takich odpowiedziach, ani zaprogramowane do ich udzielania. Badacze wykazali jednak, że nie nabywają one w żaden tajemny sposób odpowiedniej wiedzy, a korzystają ze znanych wbudowanych mechanizmów tworzenia odpowiedzi na podstawie analizy niewielkiej liczby znanych im przykładów.
      Tysiące eksperymentów, za pomocą których brytyjsko-niemiecki zespół przebadał LLM wykazało, że zarówno wszystkie ich umiejętności, jak i wszystkie ograniczenia, można wyjaśnić zdolnością do przetwarzania instrukcji, rozumienia języka naturalnego oraz umiejętnościom odpowiedniego wykorzystania pamięci.
      Obawiano się, że w miarę, jak modele te stają się coraz większe, będą w stanie odpowiadać na pytania, których obecnie sobie nawet nie wyobrażamy, co może doprowadzić do sytuacji, ze nabiorą niebezpiecznych dla nas umiejętności rozumowania i planowania. Nasze badania wykazały, że strach, iż modele te zrobią coś niespodziewanego, innowacyjnego i niebezpiecznego jest całkowicie bezpodstawny, dodaje Madabushi.
      Główna autorka badań, profesor Iryna Gurevych wyjaśnia, że wyniki badań nie oznaczają, iż AI w ogóle nie stanowi zagrożenia. Wykazaliśmy, że domniemane pojawienie się zdolności do złożonego myślenia powiązanych ze specyficznymi zagrożeniami nie jest wsparte dowodami i możemy bardzo dobrze kontrolować proces uczenia się LLM. Przyszłe badania powinny zatem koncentrować się na innych ryzykach stwarzanych przez wielkie modele językowe, takie jak możliwość wykorzystania ich do tworzenia fałszywych informacji.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dermatolog Harald Kittler z Uniwersytetu Medycznego w Wiedniu stanął na czele austriacko-australijskiego zespołu, który porównał trafność diagnozy i zaleceń dotyczących postępowania z przebarwieniami na skórze stawianych przez lekarzy oraz przez dwa algorytmy sztucznej inteligencji pracujące na smartfonach. Okazało się, że algorytmy równie skutecznie co lekarze diagnozują przebarwienia. Natomiast lekarze podejmują znacznie lepsze decyzje dotyczące leczenia.
      Testy przeprowadzono na prawdziwych przypadkach pacjentów, którzy zgłosili się na Wydział Dermatologii Uniwersytetu Medycznego w Wiedniu oraz do Centrum Diagnozy Czerniaka w Sydney w Australii.
      Testowane były dwa scenariusze. W scenariuszu A porównywano 172 podejrzane przebarwienia na skórze (z których 84 były nowotworami), jakie wystąpiły u 124 pacjentów. W drugim (scenariuszu B) porównano 5696 przebarwień – niekoniecznie podejrzanych – u 66 pacjentów. Wśród nich było 18 przebarwień spowodowanych rozwojem nowotworu. Testowano skuteczność dwóch algorytmów. Jeden z nich był nowym zaawansowanym programem, drugi zaś to starszy algorytm ISIC (International Skin Imaging Collaboration), używany od pewnego czasu do badań retrospektywnych.
      W scenariuszu A nowy algorytm stawiał diagnozę równie dobrze jak eksperci i był wyraźnie lepszy od mniej doświadczonych lekarzy. Z kolei algorytm ISIC był znacząco gorszy od ekspertów, ale lepszy od niedoświadczonych lekarzy.
      Jeśli zaś chodzi o zalecenia odnośnie leczenia, nowoczesny algorytm sprawował się gorzej niż eksperci, ale lepiej niż niedoświadczeni lekarze. Aplikacja ma tendencję do usuwania łagodnych zmian skórnych z zaleceń leczenia, mówi Kittler.
      Algorytmy sztucznej inteligencji są więc już na tyle rozwinięte, że mogą służyć pomocą w diagnozowaniu nowotworów skóry, a szczególnie cenne będą tam, gdzie brak jest dostępu do doświadczonych lekarzy. Ze szczegółami badań można zapoznać się na łamach The Lancet.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W Journal of Medical Internet Research ukazał się opis eksperymentu, w ramach którego ChatGPT miał stawiać diagnozy medyczne i proponować dalsze działania na podstawie opisanych objawów. Algorytm poradził sobie naprawdę nieźle. Udzielił prawidłowych odpowiedzi w 71,7% przypadków. Najlepiej wypadł przy ostatecznych diagnozach, gdzie trafność wyniosła 76,9%, najgorzej poradził sobie z diagnozą różnicową. Tutaj jego trafność spadła do 60,3%.
      Autorzy eksperymentu wykorzystali 36 fikcyjnych przypadków klinicznych opisanych w Merck Manual. Przypadki te są wykorzystywane podczas szkoleń lekarzy i innego personelu medycznego. Naukowcy z Harvard Medical School, Brigham and Women'a Hospital oraz Mass General Brigham wprowadzili do ChataGPT opisy tych przypadków, a następnie zadawali maszynie pytanie, dołączone w podręczniku do każdego z przypadków. Wykluczyli z badań pytania dotyczące analizy obrazów, gdyż ChatGPT bazuje na tekście.
      Najpierw sztuczna inteligencja miała za zadanie wymienić wszystkie możliwe diagnozy, jakie można postawić na podstawie każdego z opisów. Następnie poproszono ją, by stwierdziła, jaki dodatkowe badania należy przeprowadzić, później zaś ChatGPT miał postawić ostateczną diagnozę. Na koniec zadaniem komputera było opisanie metod leczenia.
      Średnia trafność odpowiedzi wynosiła 72%, jednak różniła się w zależności od zadania. Sztuczna inteligencja najlepiej wypadła podczas podawania ostatecznej diagnozy, którą stawiała na podstawie początkowego opisu przypadku oraz wyników dodatkowych badań. Trafność odpowiedzi wyniosła tutaj 76,9%. Podobnie, bo z 76-procentową trafnością, ChatGPT podawał dodatkowe informacje medyczne na temat każdego z przypadków. W zadaniach dotyczących zlecenia dodatkowych badań oraz metod leczenia czy opieki, trafność spadała do 69%. Najgorzej maszyna wypadła w diagnozie różnicowej (60,3% trafnych odpowiedzi). Autorzy badań mówią, że nie są tym zaskoczeni, gdyż diagnoza różnicowa jest bardzo trudnym zadaniem. O nią tak naprawdę chodzi podczas nauki w akademiach medycznych i podczas rezydentury, by na podstawie niewielkiej ilości informacji dokonać dobrego rozróżnienia i postawić diagnozę, mówi Marc Succi z Harvard Medical School.
      Być może w przyszłości podobne programy będą pomagały lekarzom. Zapewne nie będzie to ChatGPT, ale rozwijane już systemy wyspecjalizowane właśnie w kwestiach medycznych. Zanim jednak trafią do służby zdrowia powinny przejść standardowe procedury dopuszczenia do użytku, w tym testy kliniczne. Przed nimi zatem jeszcze długa droga.
      Autorzy opisanych badań przyznają, że miały one ograniczenia. Jednym z nich było wykorzystanie fikcyjnych opisów przypadków, a nie rzeczywistych. Innym, niewielka próbka na której testowano ChatGPT. Kolejnym zaś ograniczeniem jest brak informacji o sposobie działania i treningu ChataGPT.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...