Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Sztuczna inteligencja pomogła w rozwiązaniu jednej z zagadek zwojów znad Morza Martwego. Przeprowadzona przez algorytm analiza potwierdziła, że jeden z najstarszych zwojów z Qumran – Wielki Zwój Izajasza, pochodzący z ok. 125 roku p.n.e. – został spisany przez dwie osoby, a nie przez jedną.

Wielki Zwój Izajasza to kopia Księgi Izajasza. Zanim odkryto zwoje z Qumran historię tekstów biblijnych mogliśmy studiować praktycznie wyłącznie ze średniowiecznych manuskryptów z około 1000 roku. Zwoje znad Morza Martwego są jak kapsuła czasu. Pozwalają nam podróżować do czasów, w których Biblia dopiero powstawała. Dają nam więc wyjątkowy wgląd w kulturę i środowisko, które ją wytworzyło, mówi Mladen Popovic z Uniwersytetu w Groningen.

Wielki Zwój Izajasza jest naprawdę wielki. Ma 734 centymetry długości. To największy, jeden z najlepiej zachowanych i jedyny niemal kompletny zwój z Qumran. Dotychczas naukowcy nie byli pewni, czy spisała go jedna czy dwie osoby, gdyż charakter pisma na całym zwoju jest niezwykle podobny.

Popovic i jego zespół zaprzęgli sztuczną inteligencję do analizy zdjęć zwoju. Zadaniem algorytmu było przyjrzenie się literom, przeanalizowanie trudnych do wychwycenia dla człowieka zmian w kroju i stylu liter oraz stwierdzenie, czy Wielki Zwój wyszedł spod jednej ręki, czy też pracowało nad nim więcej osób o podobnym charakterze pisma.

Sztuczną inteligencję zaprzęgnęliśmy do pracy dlatego, że mamy tutaj podobny charakter pisma. Chcieliśmy dowiedzieć się, czy pisały dwie osoby czy jedna, która w pewnym momencie zmieniła narzędzie do pisania, wyjaśnia Charlotte Hempel z University of Birmingham. Teraz możemy zadać sobie jeszcze jedno fascynujące pytanie. Czy tak duże podobieństwo w charakterze pisma dwóch osób wynikało z faktu, iż mamy tutaj do czynienia z  wysokiej klasy profesjonalistą zdolnym do naśladowania charakteru pisma innej osoby i czy obaj skrybowie pochodzili z tego samego kręgu, w którym uczyli się swojej profesji, dodaje Hempel.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie sztuczna inteligencja bo takowe nie istnieją tylko algorytm komputerowy.
Gdyby powstała sztuczna inteligencja to kwestią czasu byłaby technologiczna osobliwość.
Gdzieś kiedyś jakieś sympozjum dotyczyło jednego z tych marketingowych słówek (zapomniałem którego): coś jak sztuczna inteligencja, innowacyjność i takie tam bla bla wymyślane przez teoretyków lub marketingowców.
Pierwszy prelegent zmieszał z błotem ten termin.
Wszyscy następni robili wszystko co mogli żeby zastąpić ten termin zbrukany z błotem jakimś zamiennikiem. Była zabawa, bo prawie każdy w co drugim zdaniu go pierwotnie użył :)
"Musimy innowacyjnie rozwijać innowacyjność naszej gospodarki. Będziemy tu siedzieli i pier**lili (za co nam płacą) chociaż nikt nigdy nie skorzysta w prawdziwej firmie z naszej wiedzy".

Edytowane przez thikim
  • Haha 1
  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To się nazywa narrow AI po angielsku.

Quote

Narrow AI (ANI) is defined as “a specific type of artificial intelligence in which a technology outperforms humans in some very narrowly defined task. Unlike general artificial intelligence, narrow artificial intelligence focuses on a single subset of cognitive abilities and advances in that spectrum.”

https://www.springboard.com/blog/narrow-vs-general-ai/

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 godzin temu, thikim napisał:

Nie sztuczna inteligencja bo takowe nie istnieją tylko algorytm komputerowy.

To trochę nadużycie pojęcia algorytm. Cały algorytm to: tanh(sum(wi*xi)). W skrócie, ten sam 'algorytm' odróżnia jabłko od truskawki od pryszcza od raka. Zwykle różne algorytmy rozwiązują różne zadania.AI rozwiązuje różne zadania jednym (mniej więjcej)  algorytmem. Ale zgadzam się, ciągle jeszcze z AI nie pogadasz o życiu i śmierci, a rano nie zrobi jajecznicy. 

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Kiedyś znajoma w pracy zrobiła krótki wykład o AI (2h). Sam nie jestem ekspertem w tej dziedzinie, to były podstawy podstaw, ale byłem pod wrażeniem ile można zdziałać stosunkowo prostą matematyką w klasyfikacji obiektów.

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeszcze kilka lat temu nazywano te algorytmem maszynowym lub uczeniem maszynowym. Teraz wszędzie już sztuczną inteligencją się zwie, ponieważ to jest bardziej medialne określenie. Ludzie którzy nie siedzą w temacie pomyślą że takie coś już jest. Niestety. Ale cieszmy się że w końcu mamy coraz więcej zastosowań komputera.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie dostrzegałbym przesadnego spisku marketingowców. Wyjdź na ulicę, wytypuj ofiary i zapytaj co to "uczenie maszynowe" oraz co to "sztuczna inteligencja" ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

"Sztuczna inteligencja" chyba jednak bardziej powszechnie występuje w ludzkiej świadomości, niż "uczenie maszynowe", choćby nawet w dowcipach o blondynkach ;) A ile filmów hollywoodzkich o AI nakręcono w ciągu kilku-kilkunastu ostatnich lat w porównaniu z filmami o "uczeniu maszynowym".... :)

Edytowane przez darekp
  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nawet statystyczny deweloper w IT niedawno się dowiedział co to ML i DL. Sam nie kojarzyłem tych określeń przed 2014, o ile mnie pamięć nie myli. Wtedy rozpocząłem pracę w firmie, gdzie była zatrudniona osoba od ML w sąsiednim teamie. W ciągu ostatnich 5 lat kilka osób się w tej samej firmie zainteresowało tematem. Zgadzam się, że jest tak napisane aby było bardziej zrozumiałe, a nie żeby tworzyć złudzenia. Nie wiem czy to wynika z mojej poprzedniej wypowiedzi.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
12 minut temu, cyjanobakteria napisał:

Nawet statystyczny deweloper w IT niedawno się dowiedział co to ML i DL. Sam nie kojarzyłem tych określeń przed 2014,

Bo moc i pamięć. Osiągnęliśmy wystarczający poziom i dziedzina zaczęła się rozwijać lawinowo.  Maleństwa typu Raspberry Pi mogą liczyć w czasie rzeczywistym.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 22.04.2021 o 10:18, thikim napisał:

Nie sztuczna inteligencja bo takowe nie istnieją tylko algorytm komputerowy.

Jest nawet dowód na to, że sztuczna inteligencja nigdy nie powstanie. Bo dotychczas każdy rozwiązany problem z domeny AI stawał się "kolejnym zwykłym softem na komputer", jak dla przykładu szachy czy obecnie zagadnienia klasyfikacyjne. Gdy coś rozwiążemy kolejne, znowu staną się one "zwykłymi algorytmami".

 

W dniu 24.04.2021 o 10:21, cyjanobakteria napisał:

Sam nie kojarzyłem tych określeń przed 2014, o ile mnie pamięć nie myli.

Nic dziwnego, deep learning to była nowość. Teoretycznie badano bardzo głębokie sieci od dawna, ale dopiero niedawno udało się uzyskać "nadludzkie" rezultaty w bardzo szerokiej klasie problemów, głównie dzięki większej mocy obliczeniowej.
Sam nad tym przez krótką chwilę pracowałem, ale raczej od strony znalezienia zupełnie nowych algorytmów które pozwalałyby efektywnie uczyć bardzo głębokie sieci, i w czasie kiedy jeszcze nie było to modne.
Niestety wyszedłem z błędnego założenia, że mózg nie korzysta ze wstecznej propagacji błędów, dlatego żaden pomysł nie miał szansy zadziałać, choć pewne powinny mieć sens w znacznie większych skalach (np. mózg musi wykorzystywać permanentną konkurencję pomiędzy obwodami, i powinny istnieć mechanizmy przypominające wolny rynek)

 

 

W dniu 22.04.2021 o 10:09, KopalniaWiedzy.pl napisał:

Sztuczną inteligencję zaprzęgnęliśmy do pracy dlatego, że mamy tutaj podobny charakter pisma. Chcieliśmy dowiedzieć się, czy pisały dwie osoby czy jedna, która w pewnym momencie zmieniła narzędzie do pisania, wyjaśnia Charlotte Hempel z University of Birmingham. Teraz możemy zadać sobie jeszcze jedno fascynujące pytanie. Czy tak duże podobieństwo w charakterze pisma dwóch osób wynikało z faktu, iż mamy tutaj do czynienia z  wysokiej klasy profesjonalistą zdolnym do naśladowania charakteru pisma innej osoby i czy obaj skrybowie pochodzili z tego samego kręgu, w którym uczyli się swojej profesji, dodaje Hempel.

Wciąż może być to jedna osoba z osobowścią wieloraką :P

Edytowane przez peceed
  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 22.04.2021 o 10:18, thikim napisał:

Nie sztuczna inteligencja bo takowe nie istnieją tylko algorytm komputerowy.

Jak nie istnieje, jak istnieje? Gdyby to się nazywało "komputerowa inteligencja", to można byłoby się zgodzić z tym zdaniem. Ale nie, gdy mowa o sztucznej. Bo co to znaczy sztuczna? Intuicyjnie rozumiemy to jako nienaturalną. Ale też możemy rozumieć to słowo nieco szerzej, a mianowicie wychodząc od słowa "sztuczka", czyli iluzji, możemy przyjąć, że jest to synonim słowa nieprawdziwa, złudna, iluzoryczna inteligencja. Mamy sztuczny miód, a wy powiecie, że sztuczny miód to nie miód, tylko wygląda jak miód. I właśnie dlatego, że wygląda i trudno go odróżnić od miodu, nazywa się go miodem.

2 godziny temu, peceed napisał:

Jest nawet dowód na to, że sztuczna inteligencja nigdy nie powstanie. Bo dotychczas każdy rozwiązany problem z domeny AI stawał się "kolejnym zwykłym softem na komputer", jak dla przykładu szachy czy obecnie zagadnienia klasyfikacyjne. Gdy coś rozwiążemy kolejne, znowu staną się one "zwykłymi algorytmami".

I to właśnie stanowi jakby esencję sztucznej inteligencji. Efekt jest taki sam. Przecież CELEM inteligencji jest wygranie w szachy, a nie SAMO granie. To właśnie SZTUCZKA. I dlatego AI to JEST inteligencja. Na jakiej podstawie w ogóle twierdzisz, że inteligencja to nie jest jakiś algorytm?

Operujecie tzw. heurystykami, prowadzącymi często do błędnego rozumowania (dla programistów - douczyć się o słowie heurystyka, bo nie chodzi o definicję informatyczną). Macie słowo inteligencja i od razu wam się wydaje się, że to musi być zjawisko świadome, a nie zwykły algorytm.

Przypomina mi się ostatnio usłyszany dowcip. Przychodzi Polak do sklepu w Anglii, ale nie umie mówić po angielsku i próbuje wytłumaczyć sprzedawcy co chce kupić. I Polak do niego mówi: Chcę kupić ... i pokazuje mu rękami kształt kuli. Sprzedawca myśli i myśli i nagle wpada: You want to buy a ball? Polak zadowolony krzyczy: yes! Sprzedawca już chce ruszyć po jakąś piłkę, a wtedy Polak do niego: Czekaj. Teraz się skup.  Zaczyna mu pokazywać rękami jakby chciał coś przeciąć piłą. I dodaje: Chodzi o piłkę mechaniczną....

Edytowane przez Antylogik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 godziny temu, Antylogik napisał:

Chodzi o piłkę mechaniczną...

do metalu.

 

Edytowane przez Jajcenty

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Artykuł podsumowujący obecny etap funckjonowania AI vel modeli uczenia maszynowego:

https://mlodytechnik.pl/technika/30612-czego-ai-nie-moze-i-co-ja-blokuje

Jednak naukowcy Google’a wsadzili kij w mrowisko, udowadniając, że nawet najlepsze w swojej klasie metodologie testowania nie dają pewności co do wymaganej wydajności w świecie rzeczywistym. Po testach niektóre modele będą znakomite w świecie rzeczywistym, ale niektóre rozczarują, i nie można tego przewidzieć z wyprzedzeniem.[...]

Społeczność badaczy uczenia maszynowego głęboko poruszył opublikowany w listopadzie 2020 r. artykuł zespołu AI Google pt. "Underspecification Presents Challenges for Credibility in Modern Machine Learning". Dokument zwraca uwagę na szczególnie drażliwy problem polegający na tym, że nawet jeśli modele uczenia maszynowego przechodzą testy dobrze, nie radzą sobie równie dobrze w świecie rzeczywistym. Błędy modeli, które nie osiągają wydajności w testach w świecie rzeczywistym, są znane od dawna, ale ta praca jest pierwszą, która publicznie udowadnia i wymienia ową "underspecification" (co można tłumaczyć jako "niedookreślenie") w roli głównej przyczyny problemów.

Parę lat temu wydawało się, że rewolucja jest tuż za rogiem, co byłoby dla naszego kraju, trapionego głęboką niewydolnością systemu zdrowia, iskierką nadziei. Jednak:

Najbardziej chyba bolesną porażką AI, której nie omawia się i nie opisuje tak szeroko w mediach, jak jeszcze kilka lat temu szumnych zapowiedzi, jest to, co stało się ze sławnym Watsonem firmy IBM, który miał wspierać m.in. diagnostykę raka. Okazało się, że co innego wygrać z ludźmi teleturniej, a co innego dać sobie radę w roli lekarza. Jak pamiętamy, a pisał o tym także przed laty MT, system ten miał nawet "pozbawić lekarzy pracy".

Więcej:

https://mlodytechnik.pl/technika/30614-watson-nie-wygryzl-lekarza-i-bardzo-dobrze

Okazało się jednak, że Watson nie potrafi samodzielnie uzyskać wglądu do literatury medycznej ani też nie może wydobywać informacji z elektronicznej dokumentacji zdrowotnej pacjentów. Jednak najcięższy zarzut wobec niego opierał się na konstatacji, że nie umie sprawnie porównać nowego pacjenta z innymi starszymi przypadkami chorych na raka i odkryć symptomów, które są na pierwszy rzut oka niewidoczne.

Jednak nie wszystko stracone ponieważ:  

są dziedziny, w których okazał się niezwykle przydatny. Produkt Watson for Genomics, który został opracowany we współpracy z Uniwersytetem Karoliny Północnej, Uniwersytetem Yale i innymi instytucjami, jest wykorzystywany przez laboratoria genetyczne do generowania raportów dla onkologów. Watson pobiera plik z listą mutacji genetycznych u pacjenta i w ciągu kilku minut potrafi wygenerować raport, który zawiera sugestie dotyczące wszystkich ważnych leków i badań klinicznych. Watson stosunkowo łatwo radzi sobie z informacjami genetycznymi, ponieważ są prezentowane w ustrukturyzowanych plikach i nie zawierają dwuznaczności - albo mutacja jest, albo jej nie ma.

Ale największa rewolucja to chyba modelowanie  białek. Tu jest pole do popisu co zresztą ma swój praktyczny wymiar w walce z sars-cov-2.

Z obu artykułów wynika, że "sztuczna inteligencja" najbardziej obecnie sprawdza się wycinkowo, co bardziej pasuje do definicji algorytmu. Aczkolwiek taki GPT-3 firmy OpenAi wygląda obiecująco: Tu warto wtrącić, iż akurat GPT-3 może być wyjątkiem, czyli pierwszym przykładem sztucznej inteligencji, która, choć nie jest "ogólna", przekroczyła definicję "wąskiej". Algorytm, choć był szkolony do pisania tekstów, ostatecznie potrafi także tłumaczyć między językami, pisać kod, autouzupełniać obrazy, wykonywać zadania matematyczne i inne zadania związane z językiem

 Z artykułu wynika, że GPT-3  jest "mniejszy" tysiąc razy niż ludzki mózg, to jest kwestią czasu gdy te parametry się zrównają. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 godzin temu, venator napisał:

Dokument zwraca uwagę na szczególnie drażliwy problem polegający na tym, że nawet jeśli modele uczenia maszynowego przechodzą testy dobrze, nie radzą sobie równie dobrze w świecie rzeczywistym.

Tak, jeszcze nie wymyśliłem jak to obejść. Dobry model to 95% poprawnych rozpoznań, oczywiście jest w stanie ocenić gazylion zdjęć. z fałszywymi rozpoznaniami nie ma dużego problemu - te kilka sztuk wyłapie człowiek. Ale co 5% przypadków nierozpoznanych? Wychodzi na to, że i tak człowiek musi zobaczyć wszystkie obrazki. Zatem musi zostać jak jest, robotę robi człowiek, a robota można jedynie użyć do sprawdzenia po człowieku.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Wielkie modele językowe (LLM) – takie jak osławiony ChatGPT – nie są w stanie samodzielnie się uczyć i nabierać nowych umiejętności, a tym samym nie stanowią egzystencjalnego zagrożenia dla ludzkości, uważają autorzy badań opublikowanych w ramach 62nd Annual Meeting of the Association for Computational Linguistics, głównej międzynarodowej konferencji dotyczącej komputerowego przetwarzania języków naturalnych.
      Naukowcy z Uniwersytetu Technicznego w Darmstadt i Uniwersytetu w Bath stwierdzają, że LLM potrafią uczyć się, jeśli zostaną odpowiednio poinstruowane. To zaś oznacza, że można je w pełni kontrolować, przewidzieć ich działania, a tym samym są dla nas bezpieczne. Bezpieczeństwo ludzkości nie jest więc powodem, dla którego możemy się ich obawiać. Chociaż, jak zauważają badacze, wciąż można je wykorzystać w sposób niepożądany.
      W miarę rozwoju modele te będą prawdopodobnie w stanie udzielać coraz bardziej złożonych odpowiedzi i posługiwać się coraz doskonalszym językiem, ale jest wysoce nieprawdopodobne, by nabyły umiejętności złożonego rozumowania. Co więcej, jak stwierdza doktor Harish Tayyar Madabushi, jeden z autorów badań, dyskusja o egzystencjalnych zagrożeniach ze strony LLM odwraca naszą uwagę od rzeczywistych problemów i zagrożeń z nimi związanych.
      Uczeni z Wielkiej Brytanii i Niemiec przeprowadzili serię eksperymentów, w ramach których badali zdolność LLM do radzenia sobie z zadaniami, z którymi wcześniej nigdy się nie spotkały. Ilustracją problemu może być na przykład fakt, że od LLM można uzyskać odpowiedzi dotyczące sytuacji społecznej, mimo że modele nigdy nie były ćwiczone w takich odpowiedziach, ani zaprogramowane do ich udzielania. Badacze wykazali jednak, że nie nabywają one w żaden tajemny sposób odpowiedniej wiedzy, a korzystają ze znanych wbudowanych mechanizmów tworzenia odpowiedzi na podstawie analizy niewielkiej liczby znanych im przykładów.
      Tysiące eksperymentów, za pomocą których brytyjsko-niemiecki zespół przebadał LLM wykazało, że zarówno wszystkie ich umiejętności, jak i wszystkie ograniczenia, można wyjaśnić zdolnością do przetwarzania instrukcji, rozumienia języka naturalnego oraz umiejętnościom odpowiedniego wykorzystania pamięci.
      Obawiano się, że w miarę, jak modele te stają się coraz większe, będą w stanie odpowiadać na pytania, których obecnie sobie nawet nie wyobrażamy, co może doprowadzić do sytuacji, ze nabiorą niebezpiecznych dla nas umiejętności rozumowania i planowania. Nasze badania wykazały, że strach, iż modele te zrobią coś niespodziewanego, innowacyjnego i niebezpiecznego jest całkowicie bezpodstawny, dodaje Madabushi.
      Główna autorka badań, profesor Iryna Gurevych wyjaśnia, że wyniki badań nie oznaczają, iż AI w ogóle nie stanowi zagrożenia. Wykazaliśmy, że domniemane pojawienie się zdolności do złożonego myślenia powiązanych ze specyficznymi zagrożeniami nie jest wsparte dowodami i możemy bardzo dobrze kontrolować proces uczenia się LLM. Przyszłe badania powinny zatem koncentrować się na innych ryzykach stwarzanych przez wielkie modele językowe, takie jak możliwość wykorzystania ich do tworzenia fałszywych informacji.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dermatolog Harald Kittler z Uniwersytetu Medycznego w Wiedniu stanął na czele austriacko-australijskiego zespołu, który porównał trafność diagnozy i zaleceń dotyczących postępowania z przebarwieniami na skórze stawianych przez lekarzy oraz przez dwa algorytmy sztucznej inteligencji pracujące na smartfonach. Okazało się, że algorytmy równie skutecznie co lekarze diagnozują przebarwienia. Natomiast lekarze podejmują znacznie lepsze decyzje dotyczące leczenia.
      Testy przeprowadzono na prawdziwych przypadkach pacjentów, którzy zgłosili się na Wydział Dermatologii Uniwersytetu Medycznego w Wiedniu oraz do Centrum Diagnozy Czerniaka w Sydney w Australii.
      Testowane były dwa scenariusze. W scenariuszu A porównywano 172 podejrzane przebarwienia na skórze (z których 84 były nowotworami), jakie wystąpiły u 124 pacjentów. W drugim (scenariuszu B) porównano 5696 przebarwień – niekoniecznie podejrzanych – u 66 pacjentów. Wśród nich było 18 przebarwień spowodowanych rozwojem nowotworu. Testowano skuteczność dwóch algorytmów. Jeden z nich był nowym zaawansowanym programem, drugi zaś to starszy algorytm ISIC (International Skin Imaging Collaboration), używany od pewnego czasu do badań retrospektywnych.
      W scenariuszu A nowy algorytm stawiał diagnozę równie dobrze jak eksperci i był wyraźnie lepszy od mniej doświadczonych lekarzy. Z kolei algorytm ISIC był znacząco gorszy od ekspertów, ale lepszy od niedoświadczonych lekarzy.
      Jeśli zaś chodzi o zalecenia odnośnie leczenia, nowoczesny algorytm sprawował się gorzej niż eksperci, ale lepiej niż niedoświadczeni lekarze. Aplikacja ma tendencję do usuwania łagodnych zmian skórnych z zaleceń leczenia, mówi Kittler.
      Algorytmy sztucznej inteligencji są więc już na tyle rozwinięte, że mogą służyć pomocą w diagnozowaniu nowotworów skóry, a szczególnie cenne będą tam, gdzie brak jest dostępu do doświadczonych lekarzy. Ze szczegółami badań można zapoznać się na łamach The Lancet.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W Journal of Medical Internet Research ukazał się opis eksperymentu, w ramach którego ChatGPT miał stawiać diagnozy medyczne i proponować dalsze działania na podstawie opisanych objawów. Algorytm poradził sobie naprawdę nieźle. Udzielił prawidłowych odpowiedzi w 71,7% przypadków. Najlepiej wypadł przy ostatecznych diagnozach, gdzie trafność wyniosła 76,9%, najgorzej poradził sobie z diagnozą różnicową. Tutaj jego trafność spadła do 60,3%.
      Autorzy eksperymentu wykorzystali 36 fikcyjnych przypadków klinicznych opisanych w Merck Manual. Przypadki te są wykorzystywane podczas szkoleń lekarzy i innego personelu medycznego. Naukowcy z Harvard Medical School, Brigham and Women'a Hospital oraz Mass General Brigham wprowadzili do ChataGPT opisy tych przypadków, a następnie zadawali maszynie pytanie, dołączone w podręczniku do każdego z przypadków. Wykluczyli z badań pytania dotyczące analizy obrazów, gdyż ChatGPT bazuje na tekście.
      Najpierw sztuczna inteligencja miała za zadanie wymienić wszystkie możliwe diagnozy, jakie można postawić na podstawie każdego z opisów. Następnie poproszono ją, by stwierdziła, jaki dodatkowe badania należy przeprowadzić, później zaś ChatGPT miał postawić ostateczną diagnozę. Na koniec zadaniem komputera było opisanie metod leczenia.
      Średnia trafność odpowiedzi wynosiła 72%, jednak różniła się w zależności od zadania. Sztuczna inteligencja najlepiej wypadła podczas podawania ostatecznej diagnozy, którą stawiała na podstawie początkowego opisu przypadku oraz wyników dodatkowych badań. Trafność odpowiedzi wyniosła tutaj 76,9%. Podobnie, bo z 76-procentową trafnością, ChatGPT podawał dodatkowe informacje medyczne na temat każdego z przypadków. W zadaniach dotyczących zlecenia dodatkowych badań oraz metod leczenia czy opieki, trafność spadała do 69%. Najgorzej maszyna wypadła w diagnozie różnicowej (60,3% trafnych odpowiedzi). Autorzy badań mówią, że nie są tym zaskoczeni, gdyż diagnoza różnicowa jest bardzo trudnym zadaniem. O nią tak naprawdę chodzi podczas nauki w akademiach medycznych i podczas rezydentury, by na podstawie niewielkiej ilości informacji dokonać dobrego rozróżnienia i postawić diagnozę, mówi Marc Succi z Harvard Medical School.
      Być może w przyszłości podobne programy będą pomagały lekarzom. Zapewne nie będzie to ChatGPT, ale rozwijane już systemy wyspecjalizowane właśnie w kwestiach medycznych. Zanim jednak trafią do służby zdrowia powinny przejść standardowe procedury dopuszczenia do użytku, w tym testy kliniczne. Przed nimi zatem jeszcze długa droga.
      Autorzy opisanych badań przyznają, że miały one ograniczenia. Jednym z nich było wykorzystanie fikcyjnych opisów przypadków, a nie rzeczywistych. Innym, niewielka próbka na której testowano ChatGPT. Kolejnym zaś ograniczeniem jest brak informacji o sposobie działania i treningu ChataGPT.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Inżynierowie z Politechniki Federalnej w Lozannie (EPFL) wykorzystali ChatGPT-3 do zaprojektowania robotycznego ramienia do zbierania pomidorów. To pierwszy przykład użycia sztucznej inteligencji do pomocy w projektowaniu robotów. Eksperyment przeprowadzony przez Josie Hughes, dyrektor Laboratorium Obliczeniowego Projektowania i Wytwarzania Robotów na Wydziale Inżynierii EPFL, doktoranta Francesco Stellę i Cosimo Della Santinę z Uniwersytetu Technicznego w Delfcie, został opisany na łamach Nature Machine Intelligence.
      Naukowcy opisali korzyści i ryzyka związane z wykorzystaniem systemów sztucznej inteligencji (SI) do projektowania robotów. Mimo tego, że ChatGPT to model językowy i generuje tekst, to dostarczył nam on istotnych wskazówek odnośnie fizycznego projektu i wykazał się wielkim potencjałem pobudzania ludzkiej kreatywności, mówi Hughes.
      Naukowcy najpierw „przedyskutowali” z ChatGPT samą ideę robota, określili, czemu ma on służyć, opisali jego parametry i specyfikację. Na tym etapie rozmawiali z SI na temat przyszłych wyzwań stojących przed ludzkością oraz robotów-ogrodników, które mogą rozwiązać problem niedoborów siły roboczej przy uprawie roślin. Następnie, korzystając z faktu, że ChatGPT ma dostęp do danych naukowych, podręczników i innych źródeł, zadawali mu pytania o to na przykład, jakimi cechami powinien charakteryzować się przyszły robot-ogrodnik.
      Gdy już cechy te zostały opisane i zdecydowano, że chodzi o robotyczne ramię zbierające pomidory, przyszedł czas na zapytanie się sztucznej inteligencji o takie szczegóły jak np. kształt chwytaka oraz poproszenie jej o dane techniczne ramienia oraz kod, za pomocą którego byłoby ono kontrolowane. Przeprowadzone przez SI obliczenia posłużyły nam głównie do pomocy inżynierom w implementacji rozwiązań technicznych. Jednak po raz pierwszy sztuczna inteligencja sformułowała tutaj nowe pomysły, mamy tutaj zatem do czynienia ze zautomatyzowaniem procesów wyższych poziomów poznawczych. Rola człowieka w całym procesie przesunęła się bardziej w stronę techniczną, mówi Stella.
      Naukowcy zwracają też uwagę na problemy związane z wykorzystaniem podobnych systemów. Są to zarówno podnoszone już wątpliwości dotyczące plagiatów czy praw autorskich, jak i np. pytanie o to, na ile innowacyjna jest sztuczna inteligencja i na ile ulega schematom. ChatGPT zaproponował ramię do zbierania pomidorów, gdyż uznał pomidory za najbardziej wartościową uprawę, dla której warto zaprojektować robota. To zaś może po prostu oznaczać, że wybrał tą roślinę, która jest najczęściej opisywana, a nie tę, która jest najbardziej potrzebna.
      Pomimo różnych zastrzeżeń uczeni uważają, że podobne do ChatGPT modele językowe mogą spełniać niezwykle użyteczną rolę. Specjaliści od robotyki muszą się zastanowić, jak wykorzystać te narzędzia w sposób etyczny i przynoszący korzyść społeczeństwu, mówi Hughes.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Wraz z rozwojem coraz doskonalszych generatorów tekstu, takich jak ChatGPT, coraz częściej pojawiają się głosy o potrzebie opracowania metod wykrywania tekstów stworzonych przez sztuczną inteligencję. Metody takie przydałyby się nauczycielom czy wykładowcom akademickim, którzy mogliby identyfikować prace pisemne przyniesione przez nieuczciwych uczniów i studentów, przedstawiających wygenerowany przez komputer tekst jako własne dzieło. Mówi się o kursach z wykrywania oszustw i o tworzeniu odpowiednich narzędzi. Takie narzędzia – bazujące na sztucznej inteligencji – już powstają. Problem w tym, że nie są one zbyt wiarygodne.
      Naukowcy z Uniwersytetu Stanforda przyjrzeli się kilku algorytmom sztucznej inteligencji, które mają określać, czy zaprezentowany tekst został stworzony przez człowieka czy też przez inną sztuczną inteligencję. O ile jednak takie algorytmy sprawdzają się „niemal doskonale” podczas analizy tekstów pisanych przez 13-14-latków urodzonych w USA, to już zawodzą tam, gdzie mają do czynienia z angielskim tekstem napisanym przez osobę, dla której angielski nie jest językiem ojczystym. Okazało się bowiem, że gdy systemy te miały ocenić, kto jest autorem tekstu napisanego w ramach egzaminu TOEFL (Test of English as a Foreign Language), w aż 61,22% uznały, że to SI stworzyła tekst, który został napisany przez człowieka. W rzeczywistości jest jednak jeszcze gorzej. Aż 19% prac napisanych przez nastolatków, dla których angielski nie jest językiem ojczystym, zostało uznanych za stworzone przez SI przez wszystkie 7 badanych narzędzi do wykrywania fałszywek. A aż 97% napisanych przez ludzi prac zostało uznane za fałszywe przez co najmniej jeden z systemów.
      Problem tkwi tutaj w sposobie pracy systemów wykrywających tekst napisany przez Si. Opierają się one bowiem na złożoności użytego języka. Oczywistym jest, że przeciętna osoba, która nie jest rodzimym użytkownikiem języka angielskiego ma mniejszy zasób słownictwa, a tworzone przez nią zdania są prostsze pod względem gramatycznym i składniowym od zdań rodzimego użytkownika angielskiego. Sztuczna inteligencja, próbując wykryć fałszywki, uznaje ten niższy poziom złożoności za znak, że tekst został stworzony przez sztuczną inteligencję. To poważny problem, gdyż uczeń czy student, który urodził się poza USA, może w ten sposób zostać uznany przez nauczyciela za oszusta, mimo że sam napisał pracę.
      Co więcej, naukowcy ze Stanforda zauważyli, że takie systemy łatwo jest oszukać nawet rodzimemu użytkownikowi angielskiego. Okazuje się bowiem, że wystarczy wygenerować tekst za pomocą ChataGPT, a następnie wydać maszynie polecenie, by poprawiła ten tekst dodając doń słownictwo literackie.
      Obecne wykrywacze są niewiarygodne i łatwo je oszukać, dlatego też należy używać ich bardzo ostrożnie w roli remedium na oszukiwanie za pomocą sztucznej inteligencji, mówi jeden z autorów badań, profesor James Zou.
      Uczony uważa, że w najbliższej przyszłości nie należy ufać takim wykrywaczom, szczególnie w tych szkołach i uczelniach, gdzie mamy dużo uczniów, dla których angielski nie jest językiem macierzystym. Po drugie, twórcy narzędzi do wykrywania muszą zrezygnować ze złożoności jako głównego wyznacznika analizy tekstu i opracować bardziej zaawansowane techniki. Ponadto ich systemy powinny być bardziej odporne na obejście. Być może rozwiązanie problemu leży po stronie twórców takich systemów jak ChatGPT. Zou sugeruje, że tego typu generatory mogłyby dodawać do tekstu rodzaj znaku wodnego, którym byłyby subtelne sygnały, oczywiste dla systemów wykrywających, stanowiące niejako podpis generatora i wskazujące, że to on jest autorem.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...