Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Sztuczna inteligencja przerobi zdjęcie na klasyczny portret mistrza pędzla

Rekomendowane odpowiedzi

Inżynierowie z MIT-IBM Watson Lab zaprzęgli do pracy sztuczną inteligencję i stworzyli narzędzie, które zamienia selfie w klasyczne portrety malowane ręką wielkich mistrzów. AIPortraits.com, w przeciwieństwie do popularnej ostatnio aplikacji FaceApp, nie wykorzystuje prostej sztuczki z nakładaniem pewnych elementów na istniejący obraz. Algorytmy, które były trenowane na 45 000 różnych klasycznych portretów, od podstaw tworzą nowe elementy, które będą pasowały do obrazu.

Twórcy AIPortraits wykorzystali techniki głębokiego uczenia się, za pomocą których trenowali modele Generative Adversarial Network (GAN). Efekt jest znacznie lepszy niż proste filtry używane przez programy w stylu FaceApp. AIPortraits.com, opierając się na wysłanym zdjęciu, maluje cały portret od podstaw. Algorytm korzysta z wielu różnych stylów charakterystycznych dla mistrzów pędzla: od Rembrandat przez Tycjana po van Gogha. Opierając się na naszym zdjęciu, algorytm decyduje o wyborze stylu tak, by podkreślić elegancję orlego nosa czy szlachetny wygląd czoła.

Twórcy AIPortraits.com zapewniają, że nie przechowują przesłanych zdjęć. Służą one jedynie namalowaniu portretu, po czym są natychmiast usuwane.

Niestety, nie mogliśmy sprawdzić działania programu. Użytkownicy przeciążyli witrynę i w chwili pisania tekstu była ona wyłączona.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, KopalniaWiedzy.pl napisał:

. Efekt jest znacznie lepszy niż proste filtry używane przez programy w stylu FaceApp

 

Godzinę temu, KopalniaWiedzy.pl napisał:

przeciwieństwie do popularnej ostatnio aplikacji FaceApp, nie wykorzystuje prostej sztuczki z nakładaniem pewnych elementów na istniejący obraz.

ale faceapp nie stosuje żadnej prostej sztuczki z nakładaniem elementów na istniejący obraz. stosuje bardzo podobne metody do powyżej metody tylko mają inny cel

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 minut temu, Astro napisał:

AI już robi za mistrzów - szkoda mi tej cywilizacji, ale idzie na dno; ewidentnie. ;)

eee przesadzasz, nie robi za to kolejny równoległy gadżet. 

Jest potrzeba będzie rynek.
Mamy już aplikację postarzającą (odmładfzającą) ba nawet i zmienia płeć -face app
mamy tworzącą portrety - ta wyżej
mamy rozbierającą panie z bikini

ale czy to od razu sztuka? Raczej nie. Gadżety.
Z resztą cóż to jest sztuka, że gość portret namalował w jakimś tam stylu? dla jednych tak dla innych nie. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Astro napisał:

AI już robi za mistrzów - szkoda mi tej cywilizacji, ale idzie na dno; ewidentnie.

 

2 godziny temu, Afordancja napisał:

eee przesadzasz,

i nie bój się.:)

          To będzie tylko odtwórcze "dzieło" w stylu mistrza, czyli rzemiosło. Artysta tworzy dzieło wg swojej unikalnej koncepcji, co nadaje charakterystyczny ton jego pracom. Mistrz to artysta wyjątkowy (i jeszcze musi zdobyć uznanie), inaczej to zwykły twórca-wyrobnik.

(konsultowane z moją lepszą połową, która realizuje się w tej sferze).

Edytowane przez 3grosze

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

3grosze dobrze gada. Sztuka=1szt. Jak są 2 sztuki czegokolwiek to już.nie jest sztuka

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, 3grosze napisał:

Artysta tworzy dzieło wg swojej unikalnej koncepcji, co nadaje charakterystyczny ton jego pracom

A możesz dopytać czym się różni ton od stylu? (poważnie pytam, bo się nie znam)

I czy mogę ja (osobiście ja) stworzyć dzieło bez unikalnej koncepcji?  rysuję sobie z dziećmi twarze od czasu do czasu i wychodzi mi zawsze inaczej niż chciałem ale mi się ostatecznie co jakiś czas podoba, ale osoba postronna nie może wiedzieć czy taka była koncepcja czy inna.

I idąc tym tropem, mam 2 scenariusze.

Mam automat który maluje tak, ze patrząc na ten obraz dostrzegamy koncepcję (jako obserwatorzy) i styl (i ton?) też że moglibyśmy powiedzieć, ze wyszło z pod "pędzla" mistrza to sztuka czy jeszcze nie?

A bardziej prawdopodobne, taki automat jest wyuczony na podstawie N stylów, tak, że może tworzyć swój indywidualny styl i niech będzie, że maluje portrety (czy malując porterety można mieć koncepcję? i być artystą?) a koncepcję odgadują obserwatorzy (prawie jak z interpretacją wiersza, co autor miał na myśli). to bez znajomości autora możemy stwierdzić, zę to prawdziwy artysta? a gdy dowiemy się że automat to czar pryska bo na pewno koncepcji tam nie było? 


(mam myślotok ;) )
inaczej, czy patrząc na tylko na obraz można powidzieć, czy ktoś jest artystą czy nie? Bo koncepcję w sumie my (obserwatorzy) wymyślamy. Tonu prac nie znamy bo znamy jeden obraz

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
18 minut temu, tempik napisał:

3grosze dobrze gada. Sztuka=1szt. Jak są 2 sztuki czegokolwiek to już.nie jest sztuka

Hej! To moja definicja! Atrybutem Sztuki jest niepowtarzalność, jeśli każdy może namalować konia jak żywego to mamy do czynienia z rzemiosłem. Niestety moja Lepsza połowa nie zgadza się z tym. Umiem namalować kółka Kandinsky'ego, ale jego twory są Sztuką. A moje bezmyślną kopią. Podobno stoi za tymi obrazami pomysł i idea. Tak jak moja Żona za mną teraz. Nie uwierzycie ile poprawek musiałem wprowadzić do tego posta..... Och, przepraszam nie poprawek  "tylko tak sobie pytała ". Przyleciała tutaj na haslo : rozmawiam o sztuce....

 

edit BTW GANs to całḱowite spełnienie marzeń leniwca: Nie dość że same mysłi to jeszcze kto inny to uczy - zero wysiłku, normalnie raj zbieracza polowacza :) 

Edytowane przez Jajcenty

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
54 minuty temu, Afordancja napisał:

A możesz dopytać czym się różni ton od stylu?

W użytym tutaj  kontekście to synonimy.:) Używanie w bliskim sąsiedztwie wyrazów często używanych to stylistyczny błąd powtórzenia. Nieestetyczność też jakaś. 

54 minuty temu, Afordancja napisał:

I czy mogę ja (osobiście ja) stworzyć dzieło bez unikalnej koncepcji?  rysuję sobie z dziećmi twarze od czasu do czasu i wychodzi mi zawsze inaczej niż chciałem ale mi się ostatecznie co jakiś czas podoba, ale osoba postronna nie może wiedzieć czy taka była koncepcja czy inna.

Dzieło z pewnością, ale czy to będzie dzieło sztuki, to zależy jak operowaliście światłem, perspektywą i prowadziliście kreskę, jak subtelnie zestroiliście barwy i operowaliście ich nasyceniem, jaką metaforę niesie  transformacja Waszych (malowanych) twarzy. Na koniec ogólne wrażenie. ( z podsłuchów to wiem). Dużo zmiennych (które poznaje się studiując sztukę) składa się na dzieło, więc nie znając zasad, trudno przypadkiem;) stworzyć dzieło sztuki. Np. malarze prymitywiści, też artyści, ale popełniają błędy formalne, których nie wypada:D robić malarzom wykształconym.

Nie wiem, czy AI kiedyś to opanuje, a jak opanuje, to jeżeli będzie miała dobrych marszandów, to  MISTRZEM i tak zostanie po swojej śmierci.;)

 

Edytowane przez 3grosze
  • Lubię to (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 godziny temu, Jajcenty napisał:

edit BTW GANs to całḱowite spełnienie marzeń leniwca: Nie dość że same mysłi to jeszcze kto inny to uczy - zero wysiłku, normalnie raj zbieracza polowacza

Ostatnio zastanawiałem się do czego bardziej praktycznego (wiem, dla wielu to powyższe jest już praktyczne) można by użyć takiego GANa  i przyznam się, że miałem problem  wymyśleniem. No bo szeroko rozumiana sztuka, mnie jakoś nie zachwyca, muzyka, obróbka zdjęc/filmów, czy też generowanie  jakoś nie wydaje mi się super super.

 

Ostatnio szumne tytuły o generowaniu wszechświata, ale (dla mnie) to była lipa i nie GAN tylko prościutka sieć, nie zrobiło na mnie wrażenia, to zwykła aproksymacja funkcji i zyskali na wydajności (kosztem jakości).

Potem pomyślałem o chemii, fizyce, ale okazuje się, że za cienki jestem z tego i nie wiedziałem co by to mogło "kreować", związki? białka? ale jakie? "losowe|? możliwe do stworzenia? No za slaby jestem. No i tak sobie rozmyślałem, rozmyślałem i nic większego nie wymyśliłem po za banałami ;) 

Ale urlop, muszę do tego wrócić :) 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 godzin temu, 3grosze napisał:

Dzieło z pewnością, ale czy to będzie dzieło sztuki, to zależy jak operowaliście światłem, perspektywą i prowadziliście kreskę, jak subtelnie zestroiliście barwy i operowaliście ich nasyceniem, jaką metaforę niesie  transformacja Waszych (malowanych) twarzy.

Przerażasz mnie ;)

7 godzin temu, 3grosze napisał:

Artysta tworzy dzieło wg swojej unikalnej koncepcji, co nadaje charakterystyczny ton jego pracom. Mistrz to artysta wyjątkowy (i jeszcze musi zdobyć uznanie), inaczej to zwykły twórca-wyrobnik.

Tak, gorzej, że zdobycie tego uznania jest raczej uznaniowe. Krytyk sztuki to podobna fucha jak magik, imho, no, ale przyznaję, że się na sztuce nie znam :)

6 godzin temu, Jajcenty napisał:

Umiem namalować kółka Kandinsky'ego, ale jego twory są Sztuką. A moje bezmyślną kopią. Podobno stoi za tymi obrazami pomysł i idea.

No, powiedzmy, że trzeba docenić nowy pomysł na coś, nazwijmy go nawet innowacyjnym, nie mniej jednak "zdobycia uznania" i tak jest to chyba zupełnie... uznaniowe? :)

Do tego nie można chyba powiedzieć, że jak ktoś skopiuje styl Picasso to obrazy Picassa przestają być sztuką, bo to jednak była jego koncepcja, jego pomysł i wykonanie, a że ktoś potem może go naśladować.

Macie teścik: https://joemonster.org/art/25222

6 godzin temu, Afordancja napisał:

A bardziej prawdopodobne, taki automat jest wyuczony na podstawie N stylów, tak, że może tworzyć swój indywidualny styl i niech będzie, że maluje portrety (czy malując porterety można mieć koncepcję? i być artystą?) a koncepcję odgadują obserwatorzy (prawie jak z interpretacją wiersza, co autor miał na myśli). to bez znajomości autora możemy stwierdzić, zę to prawdziwy artysta? a gdy dowiemy się że automat to czar pryska bo na pewno koncepcji tam nie było? 

To jest bardzo prawdopodobne, bo jest to uznaniowe, jak większość "humanistycznych" rzeczy, po prostu nie policzysz. Nie wiem jak z negowaniem po odkryciu, że to automat, ale uznanie czegoś za sztukę to widzi mi się obserwatora (pytanie jaką moc sprawczą ma jego opinia, uznany krytyk sztuki, kolekcjoner, czy zwykły miłośnik).

6 godzin temu, Jajcenty napisał:

edit BTW GANs to całḱowite spełnienie marzeń leniwca: Nie dość że same mysłi to jeszcze kto inny to uczy - zero wysiłku, normalnie raj zbieracza polowacza :) 

A czym to się różni od każdego innego narzędzia? Czy to samochód czy młotek. Ktoś robi, wszyscy inni używają. W IT tak samo, gotowe frameworki prawie(?) w każdym języku wysokiego poziomu, w pythonie gotowe biblioteki do ML, a na to wszystko inne gotowe biblioteki, które jeszcze bardziej upraszczają proces (np. keras na tensorflow, a to wszystko na numpy, etc). Jeszcze trochę i będzie tylko drag and drop (czy tam już jest, zobacz na databricks mlflow i automl). A kto i do czego wytrenuje GANa to... właśnie(!) może to już jest sztuką samo w sobie? :)

2 godziny temu, Afordancja napisał:

Ostatnio zastanawiałem się do czego bardziej praktycznego (wiem, dla wielu to powyższe jest już praktyczne) można by użyć takiego GANa 

To ten deepnude Ci nie wystarcza? ;)

Generalnie są dwa nurty, content generation oraz automatyka i robotyka, a czy coś jeszcze? Ten co wymyśli może być bogaty (bo pierwszy założy start-upa i będzie kosił piniądz) :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
9 godzin temu, Afordancja napisał:

statnio zastanawiałem się do czego bardziej praktycznego (wiem, dla wielu to powyższe jest już praktyczne) można by użyć takiego GANa  i przyznam się, że miałem problem  wymyśleniem. No bo szeroko rozumiana sztuka, mnie jakoś nie zachwyca, muzyka, obróbka zdjęc/filmów, czy też generowanie  jakoś nie wydaje mi się super super.

Mam podobny problem. Postarzanie czy naśladowanie stylu traktuję raczej jako pijarowy proof of concept. Niemniej wiki podaje trochę zastosowań. Zatem dobrze byłby wiedzieć w czym GAN jest lepsza od innych rozwiązań. Ostatnio moi koledzy trenowali NN do dość trudnego OCRa i zajęło im to tygodnie liczenia na jakiejś odjechanej maszynie (GPU). A może GAN załatwiłby sprawę między poranną kawą a lanczem.

6 godzin temu, radar napisał:

A czym to się różni od każdego innego narzędzia? Czy to samochód czy młotek. Ktoś robi, wszyscy inni używają. W IT tak samo, gotowe frameworki prawie(?) w każdym języku wysokiego poziomu, w pythonie gotowe biblioteki do ML, a na to wszystko inne gotowe biblioteki

To prawda. Jednak to trochę wymóżdża. Zaczynałem swoją przygodę z IT od papierowej taśmy i kart perforowanych. Miałem własne procedury kompilowania, linkowania - całkowicie panowałem nad procesem w każdym jego aspekcie. Teraz wgram jakiegoś nugeta, posypie się konfiguracja czy wersje i mam pozamiatane - jestem bezradny jak dziecko. Od paru miesięcy zajmuję się obróbką obrazu (python + opencv) i widzę że mamy tendencje do magicznego myślenia. Jak tylko pojawia się problem, bo szum, bo zła jakość wideo, natychmiast skręcamy w magię NN.

Obawiam się, że najtrudniejsze zadanie, myślenie, zostawimy maszynom, a sami wreszcie będziemy mogli zasiąść z piweczkiem przed TV. Nasza NFR to piwo, czipsy, TV i cukrzyca z lustrzycą :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 godzin temu, radar napisał:

To ten deepnude Ci nie wystarcza?

Pomysł biznesowy wg. mnie świetny, ale jak tak pomyśleć to o co właściwie chodzi, o to aby kogoś znanego sobie tym "obrobić" (bo nieznanych to nie trzeba za bardzo szukać), jednak masz świadomość, że to trochę lepsze niż przyklejanie głowy  z jednego zdjęcia do drugiego. (PS. nie używayłem tego, bo akurat nie moje klimaty, ale czytałem, że w sumie to słąbo działało jedynie z bikini)

 

7 godzin temu, radar napisał:

Generalnie są dwa nurty, content generation oraz automatyka i robotyka, a czy coś jeszcze? Ten co wymyśli może być bogaty (bo pierwszy założy start-upa i będzie kosił piniądz)

I ta ścieżka mi się podoba :D

 

26 minut temu, Jajcenty napisał:

Ostatnio moi koledzy trenowali NN do dość trudnego OCRa i zajęło im to tygodnie liczenia na jakiejś odjechanej maszynie (GPU). A może GAN załatwiłby sprawę między poranną kawą a lanczem.

hm... za rano może jest, ale nie widzę jakoś przewagi GANa jeśli chodzi o obliczenia (w sumie to jest więcej bo są w sumie 2 sieci)

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, Afordancja napisał:

m... za rano może jest, ale nie widzę jakoś przewagi GANa jeśli chodzi o obliczenia (w sumie to jest więcej bo są w sumie 2 sieci)

Duża robota to przygotowanie zestawu treningowego. Może GAN potrafi sam sobie opisać dane wejściowe? ;) Nie wiem, nie mam pojęcia jakie są przewagi GAN

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
9 minut temu, Jajcenty napisał:

Duża robota to przygotowanie zestawu treningowego. Może GAN potrafi sam sobie opisać dane wejściowe? ;) Nie wiem, nie mam pojęcia jakie są przewagi GAN

hm..raczej nie potrafi. Przewaga GAN jest w tym do czego zostały stworzone, czyli w generowaniu danych wyjściowych, na podstawie hm..nawet i szumu.. JEdnak z rano jest dla mnie. zero sensownych myśli :P 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, Jajcenty napisał:

Może GAN potrafi sam sobie opisać dane wejściowe?

Nie, trash in, trash out.

Godzinę temu, Afordancja napisał:

Przewaga GAN jest w tym do czego zostały stworzone, czyli w generowaniu danych wyjściowych, na podstawie hm..nawet i szumu

Tak, ale pamiętajmy, że GAN sam z siebie nic nie generuje (nie tworzy). Trenujemy ją do generowania jakiś konkretnych rzeczy. Kluczowa jest tu sieć dyskryminatora, która na "szum" nakłada wytrenowane "ground truth". To jest tylko wariacja na temat, a różnica pomiędzy innymi architekturami polega na tym, że nie musisz nic podawać na wejście w procesie generowania (generujemy szum dowolną liczbę razy, ile potrzebujemy i mamy na wyjściu ileś "czegoś"), ale za to proces uczenia jest podobny, i tak musisz podać zestaw uczący, testowy etc etc.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
10 minut temu, radar napisał:

ak, ale pamiętajmy, że GAN sam z siebie nic nie generuje (nie tworzy). Trenujemy ją do generowania jakiś konkretnych rzeczy. Kluczowa jest tu sieć dyskryminatora, która na "szum" nakłada wytrenowane "ground truth". To jest tylko wariacja na temat, a różnica pomiędzy innymi architekturami polega na tym, że nie musisz nic podawać na wejście w procesie generowania (generujemy szum dowolną liczbę razy, ile potrzebujemy i mamy na wyjściu ileś "czegoś"), ale za to proces uczenia jest podobny, i tak musisz podać zestaw uczący, testowy etc etc.

TAk, tak, pełna zgoda.  proces jest prawie takich sam, GAN nie jest jakimś mega skokiem technologicznym jest sprytnym trickiem a mianowicie sam proces poprawiania błędu (uczenia) poprzez połączenie sieci dyskryinatora i generatora to jest cały majstersztyk. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 minut temu, Astro napisał:

Tak. Po ludzku eliminujemy głupiego homo w przekazywaniu danych z wyjścia na wejście. Jest trochę szybciej.

eeee. No nie. (w ogóle nie na tym polega usprawnienie w stosunku do innch koncepcji z tej materii

Edytowane przez Afordancja

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 minuty temu, Astro napisał:

Tak. Po ludzku eliminujemy głupiego homo w przekazywaniu danych z wyjścia na wejście. Jest trochę szybciej.

To nawet nie tak, że głupiego. Homo by to zrobił lepiej, ale ponieważ staliśmy się więźniami ilości (bo potrzeba milionów danych trenujących) to po prostu nie wyrabiamy. 

Ja największy potencjał widzę w automatyce, bo i generowanie tekstu imho za daleko na razie nie zajdzie. Owszem LSTM i jej wariacje z pamięcią zewnętrzną i "uwagą" poprawiają statystyki, ale jednak słabo. Czy to streszczenia czy właśnie rozwinięcia to brakuje tu jednej istotnej rzeczy, którą ma człowiek pisząc tekst, a której na razie nie sposób zaimplementować, a mianowicie intencji. Człowiek decyduje, co chce napisać, potem ewentualnie jak i całość nabiera sensu. Tekst generowany wygląda jak wygląda, widać po nagłówkach i krótkich notkach w necie :/

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 minuty temu, radar napisał:

Tekst generowany wygląda jak wygląda, widać po nagłówkach i krótkich notkach w necie :/

To wiele wyjaśnia. Sądziłem że mam do czynienia z wysypem stażystów na wolontariacie czekającymi na możliwość powtórzenia matury z polskiego.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
9 minut temu, radar napisał:

Tekst generowany wygląda jak wygląda, widać po nagłówkach i krótkich notkach w necie :/

Swoją drogą, powstałą już nawet (nie wiem czy było na kopalni) książka z jakiejś dziedziny napisana przez AI "streszczająca" jakąś większą wiedzę. Nie potrafię jednak określić (nie znam się) jej poziomu.

Dla mnie jednak nawet bez intencji jak by działało to na większą skalę było by super. 

Edytowane przez Afordancja

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 minut temu, Astro napisał:

Kiedyś, gdy system pisało trzech ludków z wagonem kawy i fajek to miało sens... Dziś już nie.

:)

Z jednej strony masz rację, z drugiej nie. Jeśli chodzi o pisanie systemów to tamten był też prostszy, nie, że prymitywniejszy, ale nie musiał radzić sobie czy to z kompatybilnością wsteczna z (wymienić dowolne) czy z innymi rzeczami. Poziom skomplikowania (też i durnoty) się zmienił, bo musi być user friendly etc etc etc.

Do tego mamy trochę większą wiedzę o inżynierii oprogramowania, o testowaniu itd. Tak, masz rację, mimo to błędów jest dużo, ale i do pisania więcej. Że dzisiejsi programiści są "mniej wyedukowani" niż wcześniej (kto zna teraz choćby assemblera? o kartach perforowanych nie wspomnę, bo pewnie zaczniemy się spierać o "programowaniu" wzorów dywanów ;) ) to prawda, ale... w tym akurat przypadku (generowanie zbiorów uczących) jakiejś magicznej wiedzy nie trzeba. Kurde, mam pomysł, ale ekolodzy mnie zjedzą, bo chciałem napisać, że dałoby się wytrenować do tego małpy :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Niewielki wargatek sanitarnik to niezwykła ryba. Żywi się pasożytami skóry innych ryb, które przypływają do „stacji sanitarnych” wargatków na czyszczenie. Wcześniejsze badania wykazały, że wargatki potrafią zapamiętać ponad 100 „klientów”. W 2018 roku uczeni odkryli, że potrafią rozpoznać się w lustrze, co jest jednym z przejawów samoświadomości. Z kolei w ubiegłym roku dowiedzieliśmy się, że wargatki rozpoznają się też na fotografii po tym, jak obejrzały się w lustrze. Teraz japońscy uczeni donoszą, że wargatki potrafią wykorzystać lustro podczas... walki o terytorium.
      Wspomniane na wstępie „stacje sanitarne” obsługiwane są przez parę dorosłych i grupę młodych lub grupę samic, którym przewodzi samiec. Jeśli samiec znika, jego rolę przejmuje jedna z samic. Część dorosłych wargatków żyje jednak samotnie i są terytorialne. Bronią swojego terenu przed intruzami. I właśnie ten aspekt ich życia postanowili wykorzystać naukowcy z Japonii. Chcieli sprawdzić, na ile dobrą reprezentację ciała mają wargatki.
      Podczas pierwszej fazy eksperymentu naukowcy, których pracami kierował Taiga Kobayashi, pokazywali rybom trzymanym w akwarium zdjęcia innych wargatków. Ryby na zdjęciach były o 10% mniejsze i o 10% większe od osobnika w akwarium. W tym przypadku, bez względu na wielkość ryby, wargatki próbowały atakować intruza.
      Następnie przy akwarium ustawiono lustro. Wówczas wargatki zmieniły swoje zachowanie. Atakowały mniejszych intruzów podpływania do lustra, ale gdy ryba na zdjęciu była większa, wargatki kilkukrotnie podpływały do lustra, by dobrze ocenić własne rozmiary i nie atakowały wyraźnie większych przeciwników.
      Nasze odkrycie wskazuje, że ryby zmniejszyły swój poziom agresji nie dlatego, że przyzwyczaiły się do prezentowanego im po raz drugi zdjęcia, ale dlatego, że dzięki ustawieniu lustra były w stanie dostrzec 10-procentową różnicę w wielkości, stwierdzają badacze.
      Oczywiście musimy pamiętać, że w naturze lustra nie występują. A to oznacza, że wargatki nauczyły się używać narzędzia dostarczonego przez człowieka.
      Na zdjęciach, dostarczonych przez Taigę Kobayashiego, możemy zobaczyć wargatki w naturalnym środowisku oraz podczas eksperymentu.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Wielkie modele językowe (LLM) – takie jak osławiony ChatGPT – nie są w stanie samodzielnie się uczyć i nabierać nowych umiejętności, a tym samym nie stanowią egzystencjalnego zagrożenia dla ludzkości, uważają autorzy badań opublikowanych w ramach 62nd Annual Meeting of the Association for Computational Linguistics, głównej międzynarodowej konferencji dotyczącej komputerowego przetwarzania języków naturalnych.
      Naukowcy z Uniwersytetu Technicznego w Darmstadt i Uniwersytetu w Bath stwierdzają, że LLM potrafią uczyć się, jeśli zostaną odpowiednio poinstruowane. To zaś oznacza, że można je w pełni kontrolować, przewidzieć ich działania, a tym samym są dla nas bezpieczne. Bezpieczeństwo ludzkości nie jest więc powodem, dla którego możemy się ich obawiać. Chociaż, jak zauważają badacze, wciąż można je wykorzystać w sposób niepożądany.
      W miarę rozwoju modele te będą prawdopodobnie w stanie udzielać coraz bardziej złożonych odpowiedzi i posługiwać się coraz doskonalszym językiem, ale jest wysoce nieprawdopodobne, by nabyły umiejętności złożonego rozumowania. Co więcej, jak stwierdza doktor Harish Tayyar Madabushi, jeden z autorów badań, dyskusja o egzystencjalnych zagrożeniach ze strony LLM odwraca naszą uwagę od rzeczywistych problemów i zagrożeń z nimi związanych.
      Uczeni z Wielkiej Brytanii i Niemiec przeprowadzili serię eksperymentów, w ramach których badali zdolność LLM do radzenia sobie z zadaniami, z którymi wcześniej nigdy się nie spotkały. Ilustracją problemu może być na przykład fakt, że od LLM można uzyskać odpowiedzi dotyczące sytuacji społecznej, mimo że modele nigdy nie były ćwiczone w takich odpowiedziach, ani zaprogramowane do ich udzielania. Badacze wykazali jednak, że nie nabywają one w żaden tajemny sposób odpowiedniej wiedzy, a korzystają ze znanych wbudowanych mechanizmów tworzenia odpowiedzi na podstawie analizy niewielkiej liczby znanych im przykładów.
      Tysiące eksperymentów, za pomocą których brytyjsko-niemiecki zespół przebadał LLM wykazało, że zarówno wszystkie ich umiejętności, jak i wszystkie ograniczenia, można wyjaśnić zdolnością do przetwarzania instrukcji, rozumienia języka naturalnego oraz umiejętnościom odpowiedniego wykorzystania pamięci.
      Obawiano się, że w miarę, jak modele te stają się coraz większe, będą w stanie odpowiadać na pytania, których obecnie sobie nawet nie wyobrażamy, co może doprowadzić do sytuacji, ze nabiorą niebezpiecznych dla nas umiejętności rozumowania i planowania. Nasze badania wykazały, że strach, iż modele te zrobią coś niespodziewanego, innowacyjnego i niebezpiecznego jest całkowicie bezpodstawny, dodaje Madabushi.
      Główna autorka badań, profesor Iryna Gurevych wyjaśnia, że wyniki badań nie oznaczają, iż AI w ogóle nie stanowi zagrożenia. Wykazaliśmy, że domniemane pojawienie się zdolności do złożonego myślenia powiązanych ze specyficznymi zagrożeniami nie jest wsparte dowodami i możemy bardzo dobrze kontrolować proces uczenia się LLM. Przyszłe badania powinny zatem koncentrować się na innych ryzykach stwarzanych przez wielkie modele językowe, takie jak możliwość wykorzystania ich do tworzenia fałszywych informacji.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dermatolog Harald Kittler z Uniwersytetu Medycznego w Wiedniu stanął na czele austriacko-australijskiego zespołu, który porównał trafność diagnozy i zaleceń dotyczących postępowania z przebarwieniami na skórze stawianych przez lekarzy oraz przez dwa algorytmy sztucznej inteligencji pracujące na smartfonach. Okazało się, że algorytmy równie skutecznie co lekarze diagnozują przebarwienia. Natomiast lekarze podejmują znacznie lepsze decyzje dotyczące leczenia.
      Testy przeprowadzono na prawdziwych przypadkach pacjentów, którzy zgłosili się na Wydział Dermatologii Uniwersytetu Medycznego w Wiedniu oraz do Centrum Diagnozy Czerniaka w Sydney w Australii.
      Testowane były dwa scenariusze. W scenariuszu A porównywano 172 podejrzane przebarwienia na skórze (z których 84 były nowotworami), jakie wystąpiły u 124 pacjentów. W drugim (scenariuszu B) porównano 5696 przebarwień – niekoniecznie podejrzanych – u 66 pacjentów. Wśród nich było 18 przebarwień spowodowanych rozwojem nowotworu. Testowano skuteczność dwóch algorytmów. Jeden z nich był nowym zaawansowanym programem, drugi zaś to starszy algorytm ISIC (International Skin Imaging Collaboration), używany od pewnego czasu do badań retrospektywnych.
      W scenariuszu A nowy algorytm stawiał diagnozę równie dobrze jak eksperci i był wyraźnie lepszy od mniej doświadczonych lekarzy. Z kolei algorytm ISIC był znacząco gorszy od ekspertów, ale lepszy od niedoświadczonych lekarzy.
      Jeśli zaś chodzi o zalecenia odnośnie leczenia, nowoczesny algorytm sprawował się gorzej niż eksperci, ale lepiej niż niedoświadczeni lekarze. Aplikacja ma tendencję do usuwania łagodnych zmian skórnych z zaleceń leczenia, mówi Kittler.
      Algorytmy sztucznej inteligencji są więc już na tyle rozwinięte, że mogą służyć pomocą w diagnozowaniu nowotworów skóry, a szczególnie cenne będą tam, gdzie brak jest dostępu do doświadczonych lekarzy. Ze szczegółami badań można zapoznać się na łamach The Lancet.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      NASA pokazała pierwsze zdjęcia i ujawniła wyniki wstępnej analizy próbek asteroidy Bennu, które trafiły niedawno za sprawą misji OSIRIS-REx. Badania pokazały, że Bennu zawiera bardzo dużo węgla i wody, co sugeruje, że w próbkach mogą znajdować się składniki, dzięki którym na Ziemi istnieje życie. Próbki dostarczone przez OSIRIS-REx to największa ilość fragmentów asteroidy bogatego w węgiel, jaka kiedykolwiek została przywieziona na Ziemię. Pozwolą one nam oraz przyszłym pokoleniom prowadzić prace nad początkiem życia na naszej planecie, stwierdził dyrektor NASA Bill Nelson.
      Celem misji OSIRIS-REx było przywiezienie na Ziemię 60 gramów materiału. Misja padła jednak ofiarą własnego sukcesu, próbek pobrano więcej i już w przestrzeni kosmicznej pojawiły się problemy. Przez większą niż przewidywano ilość próbek, proces rozładowywania się opóźnił. W ciągu pierwszych dwóch tygodni naukowcy dokonali szybkiej analizy za pomocą skaningowego mikroskopu elektronowego, badań w podczerwieni, rozpraszania promieni rentgenowskich i analizy chemicznej pierwiastków. Wykorzystali też tomografię komputerową do stworzenia trójwymiarowych modeli komputerowych próbek. Już te wczesne badania pokazały wysoką zawartość węgla i wody.
      Bardziej szczegółowe analizy potrwają kolejne dwa lata. Co najmniej 70% próbek Bennu będzie przechowywanych w Johnson Space Center na potrzeby przyszłych badań. Będą one udostępniane też uczonym z zagranicy. Już teraz wiadomo, że ich analizą zainteresowanych jest ponad 200 obcokrajowców.
      Asteroida Bennu ma około 4,5 miliarda lat. Jedna z hipotez dotyczących początków życia na Ziemi mówi, że to właśnie tego typu i podobne obiekty przyniosły na naszą planetę składniki, potrzebne do jego powstania. Dlatego naukowcy mają nadzieję, że badając próbki pobrane bezpośrednio z asteroid pozwolą nam zajrzeć w przeszłość i dowiedzieć się, w jaki sposób powstało życie.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W Journal of Medical Internet Research ukazał się opis eksperymentu, w ramach którego ChatGPT miał stawiać diagnozy medyczne i proponować dalsze działania na podstawie opisanych objawów. Algorytm poradził sobie naprawdę nieźle. Udzielił prawidłowych odpowiedzi w 71,7% przypadków. Najlepiej wypadł przy ostatecznych diagnozach, gdzie trafność wyniosła 76,9%, najgorzej poradził sobie z diagnozą różnicową. Tutaj jego trafność spadła do 60,3%.
      Autorzy eksperymentu wykorzystali 36 fikcyjnych przypadków klinicznych opisanych w Merck Manual. Przypadki te są wykorzystywane podczas szkoleń lekarzy i innego personelu medycznego. Naukowcy z Harvard Medical School, Brigham and Women'a Hospital oraz Mass General Brigham wprowadzili do ChataGPT opisy tych przypadków, a następnie zadawali maszynie pytanie, dołączone w podręczniku do każdego z przypadków. Wykluczyli z badań pytania dotyczące analizy obrazów, gdyż ChatGPT bazuje na tekście.
      Najpierw sztuczna inteligencja miała za zadanie wymienić wszystkie możliwe diagnozy, jakie można postawić na podstawie każdego z opisów. Następnie poproszono ją, by stwierdziła, jaki dodatkowe badania należy przeprowadzić, później zaś ChatGPT miał postawić ostateczną diagnozę. Na koniec zadaniem komputera było opisanie metod leczenia.
      Średnia trafność odpowiedzi wynosiła 72%, jednak różniła się w zależności od zadania. Sztuczna inteligencja najlepiej wypadła podczas podawania ostatecznej diagnozy, którą stawiała na podstawie początkowego opisu przypadku oraz wyników dodatkowych badań. Trafność odpowiedzi wyniosła tutaj 76,9%. Podobnie, bo z 76-procentową trafnością, ChatGPT podawał dodatkowe informacje medyczne na temat każdego z przypadków. W zadaniach dotyczących zlecenia dodatkowych badań oraz metod leczenia czy opieki, trafność spadała do 69%. Najgorzej maszyna wypadła w diagnozie różnicowej (60,3% trafnych odpowiedzi). Autorzy badań mówią, że nie są tym zaskoczeni, gdyż diagnoza różnicowa jest bardzo trudnym zadaniem. O nią tak naprawdę chodzi podczas nauki w akademiach medycznych i podczas rezydentury, by na podstawie niewielkiej ilości informacji dokonać dobrego rozróżnienia i postawić diagnozę, mówi Marc Succi z Harvard Medical School.
      Być może w przyszłości podobne programy będą pomagały lekarzom. Zapewne nie będzie to ChatGPT, ale rozwijane już systemy wyspecjalizowane właśnie w kwestiach medycznych. Zanim jednak trafią do służby zdrowia powinny przejść standardowe procedury dopuszczenia do użytku, w tym testy kliniczne. Przed nimi zatem jeszcze długa droga.
      Autorzy opisanych badań przyznają, że miały one ograniczenia. Jednym z nich było wykorzystanie fikcyjnych opisów przypadków, a nie rzeczywistych. Innym, niewielka próbka na której testowano ChatGPT. Kolejnym zaś ograniczeniem jest brak informacji o sposobie działania i treningu ChataGPT.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...