Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Sztuczna inteligencja przerobi zdjęcie na klasyczny portret mistrza pędzla

Recommended Posts

Inżynierowie z MIT-IBM Watson Lab zaprzęgli do pracy sztuczną inteligencję i stworzyli narzędzie, które zamienia selfie w klasyczne portrety malowane ręką wielkich mistrzów. AIPortraits.com, w przeciwieństwie do popularnej ostatnio aplikacji FaceApp, nie wykorzystuje prostej sztuczki z nakładaniem pewnych elementów na istniejący obraz. Algorytmy, które były trenowane na 45 000 różnych klasycznych portretów, od podstaw tworzą nowe elementy, które będą pasowały do obrazu.

Twórcy AIPortraits wykorzystali techniki głębokiego uczenia się, za pomocą których trenowali modele Generative Adversarial Network (GAN). Efekt jest znacznie lepszy niż proste filtry używane przez programy w stylu FaceApp. AIPortraits.com, opierając się na wysłanym zdjęciu, maluje cały portret od podstaw. Algorytm korzysta z wielu różnych stylów charakterystycznych dla mistrzów pędzla: od Rembrandat przez Tycjana po van Gogha. Opierając się na naszym zdjęciu, algorytm decyduje o wyborze stylu tak, by podkreślić elegancję orlego nosa czy szlachetny wygląd czoła.

Twórcy AIPortraits.com zapewniają, że nie przechowują przesłanych zdjęć. Służą one jedynie namalowaniu portretu, po czym są natychmiast usuwane.

Niestety, nie mogliśmy sprawdzić działania programu. Użytkownicy przeciążyli witrynę i w chwili pisania tekstu była ona wyłączona.


« powrót do artykułu

Share this post


Link to post
Share on other sites
Godzinę temu, KopalniaWiedzy.pl napisał:

. Efekt jest znacznie lepszy niż proste filtry używane przez programy w stylu FaceApp

 

Godzinę temu, KopalniaWiedzy.pl napisał:

przeciwieństwie do popularnej ostatnio aplikacji FaceApp, nie wykorzystuje prostej sztuczki z nakładaniem pewnych elementów na istniejący obraz.

ale faceapp nie stosuje żadnej prostej sztuczki z nakładaniem elementów na istniejący obraz. stosuje bardzo podobne metody do powyżej metody tylko mają inny cel

Share this post


Link to post
Share on other sites
10 minut temu, Afordancja napisał:

stosuje bardzo podobne metody do powyżej metody tylko mają inny cel

Dokładnie tak, tyle, że ma to być "ręką wielkich mistrzów". :D:D:D
AI już robi za mistrzów - szkoda mi tej cywilizacji, ale idzie na dno; ewidentnie. ;)

Share this post


Link to post
Share on other sites
5 minut temu, Astro napisał:

AI już robi za mistrzów - szkoda mi tej cywilizacji, ale idzie na dno; ewidentnie. ;)

eee przesadzasz, nie robi za to kolejny równoległy gadżet. 

Jest potrzeba będzie rynek.
Mamy już aplikację postarzającą (odmładfzającą) ba nawet i zmienia płeć -face app
mamy tworzącą portrety - ta wyżej
mamy rozbierającą panie z bikini

ale czy to od razu sztuka? Raczej nie. Gadżety.
Z resztą cóż to jest sztuka, że gość portret namalował w jakimś tam stylu? dla jednych tak dla innych nie. 

Share this post


Link to post
Share on other sites
2 godziny temu, Astro napisał:

AI już robi za mistrzów - szkoda mi tej cywilizacji, ale idzie na dno; ewidentnie.

 

2 godziny temu, Afordancja napisał:

eee przesadzasz,

i nie bój się.:)

          To będzie tylko odtwórcze "dzieło" w stylu mistrza, czyli rzemiosło. Artysta tworzy dzieło wg swojej unikalnej koncepcji, co nadaje charakterystyczny ton jego pracom. Mistrz to artysta wyjątkowy (i jeszcze musi zdobyć uznanie), inaczej to zwykły twórca-wyrobnik.

(konsultowane z moją lepszą połową, która realizuje się w tej sferze).

Edited by 3grosze

Share this post


Link to post
Share on other sites

3grosze dobrze gada. Sztuka=1szt. Jak są 2 sztuki czegokolwiek to już.nie jest sztuka

  • Haha 1

Share this post


Link to post
Share on other sites
Godzinę temu, 3grosze napisał:

Artysta tworzy dzieło wg swojej unikalnej koncepcji, co nadaje charakterystyczny ton jego pracom

A możesz dopytać czym się różni ton od stylu? (poważnie pytam, bo się nie znam)

I czy mogę ja (osobiście ja) stworzyć dzieło bez unikalnej koncepcji?  rysuję sobie z dziećmi twarze od czasu do czasu i wychodzi mi zawsze inaczej niż chciałem ale mi się ostatecznie co jakiś czas podoba, ale osoba postronna nie może wiedzieć czy taka była koncepcja czy inna.

I idąc tym tropem, mam 2 scenariusze.

Mam automat który maluje tak, ze patrząc na ten obraz dostrzegamy koncepcję (jako obserwatorzy) i styl (i ton?) też że moglibyśmy powiedzieć, ze wyszło z pod "pędzla" mistrza to sztuka czy jeszcze nie?

A bardziej prawdopodobne, taki automat jest wyuczony na podstawie N stylów, tak, że może tworzyć swój indywidualny styl i niech będzie, że maluje portrety (czy malując porterety można mieć koncepcję? i być artystą?) a koncepcję odgadują obserwatorzy (prawie jak z interpretacją wiersza, co autor miał na myśli). to bez znajomości autora możemy stwierdzić, zę to prawdziwy artysta? a gdy dowiemy się że automat to czar pryska bo na pewno koncepcji tam nie było? 


(mam myślotok ;) )
inaczej, czy patrząc na tylko na obraz można powidzieć, czy ktoś jest artystą czy nie? Bo koncepcję w sumie my (obserwatorzy) wymyślamy. Tonu prac nie znamy bo znamy jeden obraz

Share this post


Link to post
Share on other sites
18 minut temu, tempik napisał:

3grosze dobrze gada. Sztuka=1szt. Jak są 2 sztuki czegokolwiek to już.nie jest sztuka

Hej! To moja definicja! Atrybutem Sztuki jest niepowtarzalność, jeśli każdy może namalować konia jak żywego to mamy do czynienia z rzemiosłem. Niestety moja Lepsza połowa nie zgadza się z tym. Umiem namalować kółka Kandinsky'ego, ale jego twory są Sztuką. A moje bezmyślną kopią. Podobno stoi za tymi obrazami pomysł i idea. Tak jak moja Żona za mną teraz. Nie uwierzycie ile poprawek musiałem wprowadzić do tego posta..... Och, przepraszam nie poprawek  "tylko tak sobie pytała ". Przyleciała tutaj na haslo : rozmawiam o sztuce....

 

edit BTW GANs to całḱowite spełnienie marzeń leniwca: Nie dość że same mysłi to jeszcze kto inny to uczy - zero wysiłku, normalnie raj zbieracza polowacza :) 

Edited by Jajcenty

Share this post


Link to post
Share on other sites
54 minuty temu, Afordancja napisał:

A możesz dopytać czym się różni ton od stylu?

W użytym tutaj  kontekście to synonimy.:) Używanie w bliskim sąsiedztwie wyrazów często używanych to stylistyczny błąd powtórzenia. Nieestetyczność też jakaś. 

54 minuty temu, Afordancja napisał:

I czy mogę ja (osobiście ja) stworzyć dzieło bez unikalnej koncepcji?  rysuję sobie z dziećmi twarze od czasu do czasu i wychodzi mi zawsze inaczej niż chciałem ale mi się ostatecznie co jakiś czas podoba, ale osoba postronna nie może wiedzieć czy taka była koncepcja czy inna.

Dzieło z pewnością, ale czy to będzie dzieło sztuki, to zależy jak operowaliście światłem, perspektywą i prowadziliście kreskę, jak subtelnie zestroiliście barwy i operowaliście ich nasyceniem, jaką metaforę niesie  transformacja Waszych (malowanych) twarzy. Na koniec ogólne wrażenie. ( z podsłuchów to wiem). Dużo zmiennych (które poznaje się studiując sztukę) składa się na dzieło, więc nie znając zasad, trudno przypadkiem;) stworzyć dzieło sztuki. Np. malarze prymitywiści, też artyści, ale popełniają błędy formalne, których nie wypada:D robić malarzom wykształconym.

Nie wiem, czy AI kiedyś to opanuje, a jak opanuje, to jeżeli będzie miała dobrych marszandów, to  MISTRZEM i tak zostanie po swojej śmierci.;)

 

Edited by 3grosze
  • Like (+1) 1

Share this post


Link to post
Share on other sites
3 godziny temu, Jajcenty napisał:

edit BTW GANs to całḱowite spełnienie marzeń leniwca: Nie dość że same mysłi to jeszcze kto inny to uczy - zero wysiłku, normalnie raj zbieracza polowacza

Ostatnio zastanawiałem się do czego bardziej praktycznego (wiem, dla wielu to powyższe jest już praktyczne) można by użyć takiego GANa  i przyznam się, że miałem problem  wymyśleniem. No bo szeroko rozumiana sztuka, mnie jakoś nie zachwyca, muzyka, obróbka zdjęc/filmów, czy też generowanie  jakoś nie wydaje mi się super super.

 

Ostatnio szumne tytuły o generowaniu wszechświata, ale (dla mnie) to była lipa i nie GAN tylko prościutka sieć, nie zrobiło na mnie wrażenia, to zwykła aproksymacja funkcji i zyskali na wydajności (kosztem jakości).

Potem pomyślałem o chemii, fizyce, ale okazuje się, że za cienki jestem z tego i nie wiedziałem co by to mogło "kreować", związki? białka? ale jakie? "losowe|? możliwe do stworzenia? No za slaby jestem. No i tak sobie rozmyślałem, rozmyślałem i nic większego nie wymyśliłem po za banałami ;) 

Ale urlop, muszę do tego wrócić :) 

Share this post


Link to post
Share on other sites
5 godzin temu, 3grosze napisał:

Dzieło z pewnością, ale czy to będzie dzieło sztuki, to zależy jak operowaliście światłem, perspektywą i prowadziliście kreskę, jak subtelnie zestroiliście barwy i operowaliście ich nasyceniem, jaką metaforę niesie  transformacja Waszych (malowanych) twarzy.

Przerażasz mnie ;)

7 godzin temu, 3grosze napisał:

Artysta tworzy dzieło wg swojej unikalnej koncepcji, co nadaje charakterystyczny ton jego pracom. Mistrz to artysta wyjątkowy (i jeszcze musi zdobyć uznanie), inaczej to zwykły twórca-wyrobnik.

Tak, gorzej, że zdobycie tego uznania jest raczej uznaniowe. Krytyk sztuki to podobna fucha jak magik, imho, no, ale przyznaję, że się na sztuce nie znam :)

6 godzin temu, Jajcenty napisał:

Umiem namalować kółka Kandinsky'ego, ale jego twory są Sztuką. A moje bezmyślną kopią. Podobno stoi za tymi obrazami pomysł i idea.

No, powiedzmy, że trzeba docenić nowy pomysł na coś, nazwijmy go nawet innowacyjnym, nie mniej jednak "zdobycia uznania" i tak jest to chyba zupełnie... uznaniowe? :)

Do tego nie można chyba powiedzieć, że jak ktoś skopiuje styl Picasso to obrazy Picassa przestają być sztuką, bo to jednak była jego koncepcja, jego pomysł i wykonanie, a że ktoś potem może go naśladować.

Macie teścik: https://joemonster.org/art/25222

6 godzin temu, Afordancja napisał:

A bardziej prawdopodobne, taki automat jest wyuczony na podstawie N stylów, tak, że może tworzyć swój indywidualny styl i niech będzie, że maluje portrety (czy malując porterety można mieć koncepcję? i być artystą?) a koncepcję odgadują obserwatorzy (prawie jak z interpretacją wiersza, co autor miał na myśli). to bez znajomości autora możemy stwierdzić, zę to prawdziwy artysta? a gdy dowiemy się że automat to czar pryska bo na pewno koncepcji tam nie było? 

To jest bardzo prawdopodobne, bo jest to uznaniowe, jak większość "humanistycznych" rzeczy, po prostu nie policzysz. Nie wiem jak z negowaniem po odkryciu, że to automat, ale uznanie czegoś za sztukę to widzi mi się obserwatora (pytanie jaką moc sprawczą ma jego opinia, uznany krytyk sztuki, kolekcjoner, czy zwykły miłośnik).

6 godzin temu, Jajcenty napisał:

edit BTW GANs to całḱowite spełnienie marzeń leniwca: Nie dość że same mysłi to jeszcze kto inny to uczy - zero wysiłku, normalnie raj zbieracza polowacza :) 

A czym to się różni od każdego innego narzędzia? Czy to samochód czy młotek. Ktoś robi, wszyscy inni używają. W IT tak samo, gotowe frameworki prawie(?) w każdym języku wysokiego poziomu, w pythonie gotowe biblioteki do ML, a na to wszystko inne gotowe biblioteki, które jeszcze bardziej upraszczają proces (np. keras na tensorflow, a to wszystko na numpy, etc). Jeszcze trochę i będzie tylko drag and drop (czy tam już jest, zobacz na databricks mlflow i automl). A kto i do czego wytrenuje GANa to... właśnie(!) może to już jest sztuką samo w sobie? :)

2 godziny temu, Afordancja napisał:

Ostatnio zastanawiałem się do czego bardziej praktycznego (wiem, dla wielu to powyższe jest już praktyczne) można by użyć takiego GANa 

To ten deepnude Ci nie wystarcza? ;)

Generalnie są dwa nurty, content generation oraz automatyka i robotyka, a czy coś jeszcze? Ten co wymyśli może być bogaty (bo pierwszy założy start-upa i będzie kosił piniądz) :)

Share this post


Link to post
Share on other sites
9 godzin temu, Afordancja napisał:

statnio zastanawiałem się do czego bardziej praktycznego (wiem, dla wielu to powyższe jest już praktyczne) można by użyć takiego GANa  i przyznam się, że miałem problem  wymyśleniem. No bo szeroko rozumiana sztuka, mnie jakoś nie zachwyca, muzyka, obróbka zdjęc/filmów, czy też generowanie  jakoś nie wydaje mi się super super.

Mam podobny problem. Postarzanie czy naśladowanie stylu traktuję raczej jako pijarowy proof of concept. Niemniej wiki podaje trochę zastosowań. Zatem dobrze byłby wiedzieć w czym GAN jest lepsza od innych rozwiązań. Ostatnio moi koledzy trenowali NN do dość trudnego OCRa i zajęło im to tygodnie liczenia na jakiejś odjechanej maszynie (GPU). A może GAN załatwiłby sprawę między poranną kawą a lanczem.

6 godzin temu, radar napisał:

A czym to się różni od każdego innego narzędzia? Czy to samochód czy młotek. Ktoś robi, wszyscy inni używają. W IT tak samo, gotowe frameworki prawie(?) w każdym języku wysokiego poziomu, w pythonie gotowe biblioteki do ML, a na to wszystko inne gotowe biblioteki

To prawda. Jednak to trochę wymóżdża. Zaczynałem swoją przygodę z IT od papierowej taśmy i kart perforowanych. Miałem własne procedury kompilowania, linkowania - całkowicie panowałem nad procesem w każdym jego aspekcie. Teraz wgram jakiegoś nugeta, posypie się konfiguracja czy wersje i mam pozamiatane - jestem bezradny jak dziecko. Od paru miesięcy zajmuję się obróbką obrazu (python + opencv) i widzę że mamy tendencje do magicznego myślenia. Jak tylko pojawia się problem, bo szum, bo zła jakość wideo, natychmiast skręcamy w magię NN.

Obawiam się, że najtrudniejsze zadanie, myślenie, zostawimy maszynom, a sami wreszcie będziemy mogli zasiąść z piweczkiem przed TV. Nasza NFR to piwo, czipsy, TV i cukrzyca z lustrzycą :D

Share this post


Link to post
Share on other sites
16 minut temu, Jajcenty napisał:

Obawiam się, że najtrudniejsze zadanie, myślenie, zostawimy maszynom, a sami wreszcie będziemy mogli zasiąść z piweczkiem przed TV. Nasza NFR to piwo, czipsy, TV i cukrzyca z lustrzycą :D

Witaj w klubie. :D

Od lat niezmiennie forsuję powrót do korzeni (niekoniecznie na drzewa ;)), ale wiem, że to już mission impossible. Niestety.
Również pamiętam karty perforowane (po "przemianie" kupa została w instytutowej bibliotece jako zakładki, fiszki itp., nic się nie marnowało ;)) i zadziwiać może ten rozwój. Cóż jednak z tego, gdy nie istnieje rozwój naszych centralnych jednostek obliczeniowych (mózgi); właściwie niespecjalnie zmieniły się od dziesiątek tysięcy lat. ;)

ed: GAN i DM, słyszałem, ale nie wnikałem w szczegóły; ciekawy temat, chyba poczytam ;)

ed: zapomniałem

14 godzin temu, tempik napisał:

Sztuka=1szt. Jak są 2 sztuki czegokolwiek to już.nie jest sztuka

Każdy dostanie sztukę siebie i będzie sztuka; pomijam bliźniaki jednojajowe itp.

Edited by Astro

Share this post


Link to post
Share on other sites
6 godzin temu, radar napisał:

To ten deepnude Ci nie wystarcza?

Pomysł biznesowy wg. mnie świetny, ale jak tak pomyśleć to o co właściwie chodzi, o to aby kogoś znanego sobie tym "obrobić" (bo nieznanych to nie trzeba za bardzo szukać), jednak masz świadomość, że to trochę lepsze niż przyklejanie głowy  z jednego zdjęcia do drugiego. (PS. nie używayłem tego, bo akurat nie moje klimaty, ale czytałem, że w sumie to słąbo działało jedynie z bikini)

 

7 godzin temu, radar napisał:

Generalnie są dwa nurty, content generation oraz automatyka i robotyka, a czy coś jeszcze? Ten co wymyśli może być bogaty (bo pierwszy założy start-upa i będzie kosił piniądz)

I ta ścieżka mi się podoba :D

 

26 minut temu, Jajcenty napisał:

Ostatnio moi koledzy trenowali NN do dość trudnego OCRa i zajęło im to tygodnie liczenia na jakiejś odjechanej maszynie (GPU). A może GAN załatwiłby sprawę między poranną kawą a lanczem.

hm... za rano może jest, ale nie widzę jakoś przewagi GANa jeśli chodzi o obliczenia (w sumie to jest więcej bo są w sumie 2 sieci)

 

 

Share this post


Link to post
Share on other sites
2 minuty temu, Afordancja napisał:

m... za rano może jest, ale nie widzę jakoś przewagi GANa jeśli chodzi o obliczenia (w sumie to jest więcej bo są w sumie 2 sieci)

Duża robota to przygotowanie zestawu treningowego. Może GAN potrafi sam sobie opisać dane wejściowe? ;) Nie wiem, nie mam pojęcia jakie są przewagi GAN

Share this post


Link to post
Share on other sites
9 minut temu, Jajcenty napisał:

Duża robota to przygotowanie zestawu treningowego. Może GAN potrafi sam sobie opisać dane wejściowe? ;) Nie wiem, nie mam pojęcia jakie są przewagi GAN

hm..raczej nie potrafi. Przewaga GAN jest w tym do czego zostały stworzone, czyli w generowaniu danych wyjściowych, na podstawie hm..nawet i szumu.. JEdnak z rano jest dla mnie. zero sensownych myśli :P 

Share this post


Link to post
Share on other sites
Godzinę temu, Jajcenty napisał:

Może GAN potrafi sam sobie opisać dane wejściowe?

Nie, trash in, trash out.

Godzinę temu, Afordancja napisał:

Przewaga GAN jest w tym do czego zostały stworzone, czyli w generowaniu danych wyjściowych, na podstawie hm..nawet i szumu

Tak, ale pamiętajmy, że GAN sam z siebie nic nie generuje (nie tworzy). Trenujemy ją do generowania jakiś konkretnych rzeczy. Kluczowa jest tu sieć dyskryminatora, która na "szum" nakłada wytrenowane "ground truth". To jest tylko wariacja na temat, a różnica pomiędzy innymi architekturami polega na tym, że nie musisz nic podawać na wejście w procesie generowania (generujemy szum dowolną liczbę razy, ile potrzebujemy i mamy na wyjściu ileś "czegoś"), ale za to proces uczenia jest podobny, i tak musisz podać zestaw uczący, testowy etc etc.

Share this post


Link to post
Share on other sites
6 minut temu, radar napisał:

Nie, trash in, trash out.

Drzewiej, za moich czasów mówiło się inaczej. Ówno na wejściu, ówno na wyjściu.

Share this post


Link to post
Share on other sites
10 minut temu, radar napisał:

ak, ale pamiętajmy, że GAN sam z siebie nic nie generuje (nie tworzy). Trenujemy ją do generowania jakiś konkretnych rzeczy. Kluczowa jest tu sieć dyskryminatora, która na "szum" nakłada wytrenowane "ground truth". To jest tylko wariacja na temat, a różnica pomiędzy innymi architekturami polega na tym, że nie musisz nic podawać na wejście w procesie generowania (generujemy szum dowolną liczbę razy, ile potrzebujemy i mamy na wyjściu ileś "czegoś"), ale za to proces uczenia jest podobny, i tak musisz podać zestaw uczący, testowy etc etc.

TAk, tak, pełna zgoda.  proces jest prawie takich sam, GAN nie jest jakimś mega skokiem technologicznym jest sprytnym trickiem a mianowicie sam proces poprawiania błędu (uczenia) poprzez połączenie sieci dyskryinatora i generatora to jest cały majstersztyk. 

Share this post


Link to post
Share on other sites
4 minuty temu, Afordancja napisał:

to jest cały majstersztyk

Tak. Po ludzku eliminujemy głupiego homo w przekazywaniu danych z wyjścia na wejście. Jest trochę szybciej.

Share this post


Link to post
Share on other sites
7 minut temu, Astro napisał:

Tak. Po ludzku eliminujemy głupiego homo w przekazywaniu danych z wyjścia na wejście. Jest trochę szybciej.

eeee. No nie. (w ogóle nie na tym polega usprawnienie w stosunku do innch koncepcji z tej materii

Edited by Afordancja

Share this post


Link to post
Share on other sites
4 minuty temu, Astro napisał:

Tak. Po ludzku eliminujemy głupiego homo w przekazywaniu danych z wyjścia na wejście. Jest trochę szybciej.

To nawet nie tak, że głupiego. Homo by to zrobił lepiej, ale ponieważ staliśmy się więźniami ilości (bo potrzeba milionów danych trenujących) to po prostu nie wyrabiamy. 

Ja największy potencjał widzę w automatyce, bo i generowanie tekstu imho za daleko na razie nie zajdzie. Owszem LSTM i jej wariacje z pamięcią zewnętrzną i "uwagą" poprawiają statystyki, ale jednak słabo. Czy to streszczenia czy właśnie rozwinięcia to brakuje tu jednej istotnej rzeczy, którą ma człowiek pisząc tekst, a której na razie nie sposób zaimplementować, a mianowicie intencji. Człowiek decyduje, co chce napisać, potem ewentualnie jak i całość nabiera sensu. Tekst generowany wygląda jak wygląda, widać po nagłówkach i krótkich notkach w necie :/

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites
4 minuty temu, radar napisał:

Tekst generowany wygląda jak wygląda, widać po nagłówkach i krótkich notkach w necie :/

To wiele wyjaśnia. Sądziłem że mam do czynienia z wysypem stażystów na wolontariacie czekającymi na możliwość powtórzenia matury z polskiego.

Share this post


Link to post
Share on other sites
9 minut temu, radar napisał:

Tekst generowany wygląda jak wygląda, widać po nagłówkach i krótkich notkach w necie :/

Swoją drogą, powstałą już nawet (nie wiem czy było na kopalni) książka z jakiejś dziedziny napisana przez AI "streszczająca" jakąś większą wiedzę. Nie potrafię jednak określić (nie znam się) jej poziomu.

Dla mnie jednak nawet bez intencji jak by działało to na większą skalę było by super. 

Edited by Afordancja

Share this post


Link to post
Share on other sites

Słusznie Panowie, macie rację, tylko... Wiesz co radar, nie jestem jedynie pewien tego:

14 minut temu, radar napisał:

Homo by to zrobił lepiej

:)

Kiedyś, gdy system pisało trzech ludków z wagonem kawy i fajek to miało sens... Dziś już nie.

Edited by Astro

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Firma DeepMind, której system sztucznej inteligencji zdobył rozgłos pokonując mistrza Go, a niedawno zapowiedział rewolucję na polu nauk biologicznych, poszła o krok dalej. Stworzyła system MuZero, który uczy się zasad gry od podstaw, bez żadnych informacji wstępnych. Celem DeepMind jest spowodowanie, by MuZero uczył się tak, jak robi to dziecko, metodą prób i błędów.
      MuZero rozpoczyna naukę reguł gry od spróbowania jakiegoś działania. Później próbuje czegoś innego. Jednocześnie sprawdza, czy jego działanie jest dozwolone i jaki jest jego skutek. Do dalszej pracy wybiera te z działań, które przynoszą najlepszy rezultat. W szachach będzie to doprowadzenie do szach-mata, w Pac-Manie zaś połknięcie kropki. Następnie algorytm tak zmienia swoje działania by pożądane rezultaty osiągnąć najniższym kosztem. Taki sposób nauki, poprzez obserwację, jest idealną metodą w przypadku SI. Chcemy bowiem zadać sztucznej inteligencji pytania i poprosić o rozwiązywanie problemów, których nie można łatwo zdefiniować. Ponadto w świecie rzeczywistym, gdzie nie obowiązują stałe i jasne reguły gry, SI co chwila będzie napotykała na przeszkody, z którymi musi sobie poradzić.
      Obecnie MuZero uczy się kompresji wideo. W przypadku AlphaZero nauczenie się tego zadania byłoby bardzo kosztowne, mówią autorzy algorytmu. Już teraz zastanawiają się nad wdrożeniem MuZero do nauczenia się jazdy samochodem. Myślą też o zaprzęgnięciu algorytmu do projektowania białek. Przypomnijmy, że siostrzany algorytm AlphaFold udowodnił ostatnio, że świetnie sobie radzi z zawijaniem białek. MuZero mógłby zaś projektować białka od podstaw. Dzięki temu, mając do dyspozycji np. szczegółową wiedzę o wirusie czy bakterii, którą białko ma niszczyć, byłby w stanie zaprojektować nowe lekarstwa.
      MuZero, dzięki jednoczesnemu uczeniu się reguł gry i udoskonalaniu swoich działań pracuje znacznie bardziej ekonomicznie, niż jego poprzednicy stworzeni przez DeepMind. Radzi sobie świetnie nawet wówczas, gdy twórcy celowo ograniczą jego możliwości. Podczas nauki zasad Pac-Mana, gdy na każdy rozważany ruch MuZero mógł przeprowadzić nie więcej niż 7 symulacji skutków swoich działań – co jest liczbą zdecydowanie zbyt małą, by rozważyć wszystkie opcje – algorytm i tak całkiem dobrze sobie poradził.
      Twórcy MuZero mówią, że taki system potrzebuje sporych mocy obliczeniowych, by nauczyć się zasad. Gdy jednak już je pozna, podejmowanie kolejnych decyzji wymaga już tak niewielu obliczeń, że całe działania mogą być przeprowadzone na smartfonie. Jednak nawet nauka nie jest bardzo wymagająca. MuZero nauczył się od podstaw zasad Pac-Mana w ciągu 2-3 tygodni, korzystając przy tym z jednego GPU, mówi Julian Schrittwieser, jeden ze współautorów algorytmu.
      Jednym z elementów powodujących, że wymagania MuZero są nieduże w porównaniu z innymi systemami jest fakt, iż algorytm bierze pod uwagę tylko elementy istotne w procesie podejmowania decyzji. Wiedza, że parasol ochroni cię przed deszczem jest bardziej użyteczna, niż umiejętność modelowania ruchu kropel wody w powietrzu, czytamy w oświadczeniu DeepMind.
      Celem twórców MuZero jest spowodowanie, by ich system potrafił odrzucić wszystko to, co w danym momencie nie jest potrzebne, by skupił się na kwestiach istotnych. Mówią tutaj o dziecku, które po zaledwie kilkukrotnym doświadczeniu jest w stanie generalizować wiedzę na dany temat i połączyć np. kroplę wody z potężnym wodospadem, widząc powiązanie pomiędzy nimi.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      AlphaFold, sieć sztucznej inteligencji zbudowana w oparciu o słynny DeepMind dokonała olbrzymiego kroku w kierunku poradzenia sobie z jednym z najpoważniejszych wyzwań nauk biologicznych – określeniem kształtu białek z sekwencji ich aminokwasów. To zmieni medycynę, zmieni bioinżynierię. Zmieni wszystko, mówi Andrei Lupas, biolog ewolucyjny z Instytutu Biologii Rozwojowej im. Maxa Plancka w Tybindze, który oceniał możliwości podobnych programów. Lupas dobrze zna AlphaFold. Program pomógł określić mu strukturę białka, z którym jego laboratorium nie mogło sobie poradzić od dekady.
      Możliwość określenia prawidłowej struktury białek pozwoli zarówno na lepsze zrozumienie życia, jak i na szybsze opracowywanie supernowoczesnych leków. Obecnie znamy 200 milionów białek, ale w pełni rozumiemy strukturę i funkcję niewielkiego ułamka z nich. Jednak nawet opisanie tej niewielkiej liczby dobrze poznanych białek zajęło nauce wiele lat, a do ich badań konieczny był wyspecjalizowany sprzęt warty miliony dolarów.
      AlphaFold pokonał około 100 innych programów, które wraz z nim stanęły do zawodów CASP (Critical Assesment of Structure Prediction). Zawody odbywają się co dwa lata, a AlphaFold wystartował w nich po raz pierwszy w 2018 roku i od razu trafił na szczyt klasyfikacji. Jednak w tym roku jego możliwości zaskoczyły specjalistów. Nie dość, że znacząco wyprzedził konkurencję, to jego osiągnięcia były tak imponujące, iż mogą zwiastować rewolucję w biologii.
      W niektórych przypadkach wyniki uzyskane za pomocą AlphaFold nie różniły się niczym od tych osiąganych za pomocą metod eksperymentalnych stanowiących złoty standard, takich jak krystalografia rentgenowska czy mikroskopia krioelektronowa. Naukowcy mówią, że AlphaFold nie zastąpi – przynajmniej na razie – tych metod, ale już teraz pozwoli na badanie struktur biologicznych w zupełnie nowy sposób.
      Białka to podstawowe budulce organizmów żywych. Odpowiedzialne są za większość procesów zachodzących w komórkach. O tym, jak działają i co robią, decyduje ich struktura 3D. Odpowiedni kształt przyjmują one bez żadnej instrukcji, kierowane jedynie prawami fizyki.
      Od dziesięcioleci główną metodą określania kształtów białek były metody eksperymentalne. Badania tego problemu rozpoczęto w latach 50. ubiegłego wieku korzystając z metod krystalografii rentgenowskiej. W ostatniej dekadzie preferowanym narzędziem badawczym stała się mikroskopia krioelektronowa.
      W latach 80. i 90. zaczęto prace nad wykorzystaniem komputerów do określania kształtu protein. Jednak nie szło to zbyt dobrze. Metody, które sprawdzały się przy jednych białkach nie zdawały egzaminu przy badaniu innych. John Moult, biolog obliczeniowy z University of Maryland, wraz z kolegami wpadł na pomysł zorganizowania CASP, zawodów, które miały uporządkować prace nad wykorzystaniem komputerów do badania kształtów białek. W ramach tych zawodów przed zespołami naukowymi stawia się zadanie określenia właściwej struktury protein, których to struktura została wcześniej określona metodami eksperymentalnymi, ale wyniki tych badań nie zostały jeszcze upublicznione.
      Moult mówi, że eksperyment ten – uczony unika słowa „zawody” – znakomicie przysłużył się badaniom na tym polu, pozwolił na uporządkowanie metod i odrzucenie wielu nieprawdziwych twierdzeń. Tutaj naprawdę możemy przekonać się, która metoda jest obiecująca, która działa, a którą należy odrzucić, stwierdza.
      W 2018 roku na CASP13 po raz pierwszy pojawił się AlphaFold. To algorytm sztucznej inteligencji bazujący na słynnym DeepMind, który pokonał mistrza go Lee Sedola, przełamując kolejną ważną barierę dla sztucznej inteligencji.
      Już w 2018 roku AlphaFold zyskał sobie uznanie specjalistów. Jednak wówczas korzystał z bardzo podobnych technik, co inne programy. Najpierw wykorzystywał metody głębokiego uczenia się oraz dane strukturalne i genetyczne do określenia odległości pomiędzy parami aminokwasów w proteinie, a następnie – już bez użycia SI – wypracowywał „konsensus” dotyczący ostatecznego wyglądu proteiny. Twórcy AlphaFolda próbowali to udoskonalać korzystając z takiego właśnie modelu, ale natrafili na przeszkody nie do pokonania.
      Zmienili więc taktykę i stworzyli sieć sztucznej inteligencji, która wykorzystywała też informacje o fizycznych i geometrycznych ograniczeniach w zawijaniu białek. Ponadto nowy model zamiast przewidywać zależności pomiędzy poszczególnymi aminokwasami miał do zrobienia coś znacznie trudniejszego – przewidzieć ostateczny kształt białka.
      CASP trwa kilka miesięcy. Biorące w nim udział zespoły regularnie otrzymują niezbędne informacje o proteinach lub ich fragmentach – w sumie jest ich około 100 – i mają określić ich strukturę. Wyniki pracy tych zespołów oceniają niezależni eksperci, którzy sprawdzają, na ile wyniki uzyskane na komputerach są zgodne z rzeczywistą strukturą białek określoną wcześniej metodami eksperymentalnymi. Oceniający nie wiedzą, czyją pracę oceniają. Wyniki są anonimizowane. Dane z AlphaFold były w bieżącym roku opisane jako „grupa 427”. Jednak niektóre z przewidywań dostarczonych przez tę grupę były tak dokładne, że wielu sędziów domyśliło się, kto jest autorem pracy. Zgadłem, że to AlphaFold. Większość zgadła, mówi Lupas.
      AlphaFold nie sprawował się równo. Raz radził sobie lepiej, raz gorzej. Ale niemal 2/3 jego przewidywań dorównywało wynikom uzyskanym metodami eksperymentalnymi. Czasami nie było wiadomo, czy różnica wynika z niedoskonałości AlphaFold czy metod eksperymentalnych. Jak mówi Moult, największą różnicę pomiędzy AlphaFold a metodami eksperymentalnymi było widać, gdy rzeczywisty wygląd proteiny określano za pomocą rezonansu jądrowego. Jednak różnica ta może wynikać ze sposobu obróbki surowych danych uzyskanych tą metodą. AlphaFold słabo sobie radził też w określaniu indywidualnych struktur w grupach protein, gdzie kształt białka mógł być zaburzany obecnością innego białka.
      Ogólnie rzecz biorąc średnia wydajność modeli biorących udział w tegorocznym CASP była lepsza niż przed dwoma laty, a za większość postępu odpowiadał AlphaFold. Na przykład tam, gdzie proteiny określano jako średnio trudne najlepsze modele uzyskiwały 75 na 100 możliwych punktów, a AlphaFold uzyskał tam 90 punktów. Przekroczenie granicy 90 punktów uznaje się za dorównanie metodom eksperymentalnym.
      Mohammed AlQuraishi, biolog obliczeniowy z Columbia University, który też brał udział w CASP chwali osiągnięcie AlphaFold: myślę, że trzeba uczciwie powiedzieć, iż osiągnięcie to wstrząśnie dziedziną badania struktur białek. Sądzę, że wielu specjalistów przestanie się tym zajmować, gdyż główny problem został rozwiązany. To olbrzymi przełom, jedno z najważniejszych osiągnięć naukowych, jakie widziałem w swoim życiu.
      O tym, jak wielkie możliwości ma AlphaFold i jak olbrzymia rewolucja może nadchodzić niech świadczy przykład badań, jakie prowadził zespół Andreia Lupasa. Niemcy od dawna próbowali określić strukturę białka pewnej bakterii. Za pomocą krystalografii rentgenowskiej uzyskali surowe dane, jednak ich przełożenie na odpowiednią strukturę wymagało pewnych informacji o kształcie proteiny. Wszelkie próby rozwiązania zagadnienia spaliły na panewce. Spędziliśmy dekadę próbując wszystkiego. Model opracowany przez group 427 dostarczył nam tę strukturę w ciągu pół godziny, mówi Lupas.
      Demis Hassabis, współzałożyciel i szef firmy DeepMind, która obecnie należy do Google'a, mówi, że jego firma dopiero zaczyna rozumieć, czego biolodzy chcą od AlphaFold.
      AlphaFold już zresztą przydaje się w praktyce. Na początku 2020 roku algorytm opisał strukturę kilku białek wirusa SARS-CoV-2. Później okazało się, że przewidywania dotyczące białka Orf3a zgadzają się z wynikami uzyskanymi eksperymentalnie.
      Rozpowszechnienie się AlphaFold raczej nie doprowadzi do zamknięcia laboratoriów. Jednak dzięki niemu do określenia struktury protein wystarczą gorszej jakości, a więc i łatwiejsze do uzyskania, dane. Możemy się też spodziewać olbrzymiej liczby odkryć, gdyż już w tej chwili dysponujemy olbrzymią liczbą danych, które program będzie mógł wykorzystać. Dodatkową korzyścią jest fakt, że będzie można prowadzić bardziej zaawansowane badania. Nowa generacja biologów molekularnych będzie mogła zadać bardziej złożone pytania. Będą mogli skupić się bardziej na myśleniu niż na prowadzeniu eksperymentów, mówi Lupas.
      Naukowcy mają nadzieję, że dzięki AlphaFold poznamy funkcje tysięcy białek tworzących ludzkie DNA, a to z kolei pozwoli nam poznać przyczyny wielu chorób.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Cerebras Systems, twórca niezwykłego olbrzymiego procesora dla sztucznej inteligencji, poinformował, że jest on szybszy niż procesy fizyczne, które symuluje. W symulacji, składającej się z 500 milionów zmiennych CS-1 zmierzył się z superkomputerem Joule, 69. najpotężniejszą maszyną na świecie. I wykonał swoje zadanie 200-krotnie szybciej niż ona.
      O powstaniu niezwykłego procesora oraz wyzwaniach inżynieryjnych z nim związanych informowaliśmy na początku bieżącego roku. Wówczas jego twórcy obiecywali, że do końca roku przekonamy się o jego wydajności. I słowa dotrzymali.
      CS-1 symulował proces spalania w elektrowniach węglowych. I przeprowadził symulację tego procesu szybciej, niż zachodzi sam proces. Firma Cerebras i jej partnerzy z US National Energy Technology Center (NETL) mówią, że CS-1 jest znacznie szybszy od jakiegokolwiek superkomputera bazującego na tradycyjnych układach CPU czy GPU.
      Jak wyjaśnia dyrektor Cerebras, Andrew Feldman, prognozowanie pogody, projektowanie skrzydeł samolotu, przewidywanie rozkładu temperatur w reaktorze jądrowym i wiele innych złożonych problemów jest rozwiązywanych poprzez badanie ruchu cieczy w przestrzeni i czasie. W czasie takiej symulacji dzieli się przestrzeń na sześciany, modeluje ruch cieczy w każdym z sześcianów i określa interakcje pomiędzy sześcianami. W symulacji może być milion lub więcej sześcianów i 500 000 zmiennych.
      Przeprowadzenie odpowiednich obliczeń wymaga olbrzymiej mocy, wielu rdzeni, olbrzymiej ilości pamięci umieszczonej jak najbliżej rdzeni obliczeniowych, wydajnych połączeń pomiędzy rdzeniami oraz pomiędzy rdzeniami a układami pamięci. Wymaga też długotrwałego trenowania odpowiednich modeli sieci neuronowych.
      Układ CS-1 na pojedynczym kawałku krzemu mieści 400 000 rdzeni, 18 gigabajtów pamięci oraz łącza umożliwiające przesyłanie pomiędzy rdzeniami danych z prędkością 100 Pb/s, a przesył pomiędzy rdzeniami a układami pamięci odbywa się z prędkością 9 PB/s.
      Specjaliści z NETL postanowili porównać możliwości superkomputera Joule z możliwościami CS-1. Joule korzysta z 84 000 rdzeni CPU i do pracy potrzebuje 450 KW. Cerebras używa zaledwie 20 KW. Joule przeprowadził odpowiednie obliczenia w ciągu 2,1 milisekundy. CS-1 zajęły one 6 mikrosekund, był więc ponad 200-krotnie szybszy.
      Jak mówi Feldman, olbrzymia wydajność CS-1 niesie ze sobą dwa wnioski. Po pierwsze obecnie nie istnieje żaden superkomputer zdolny do pokonania CS-1 w rozwiązywaniu tego typu problemów. Wynika to z faktu, że takie symulacje nie skalują się dobrze. Dokładanie kolejnych rdzeni do współczesnych superkomputerów nie tylko nie pomoże, ale może nawet spowalniać tak wyspecjalizowane obliczenia. Dowiodło tego chociażby porównanie CS-1 i Joule'a. Superkomputer pracował najbardziej wydajnie, gdy używał 16 384 z 84 000 dostępnych rdzeni. Problemy takie wynikają z połączeń pomiędzy rdzeniami i pomiędzy rdzeniami a układami pamięci.
      Jeśli chcemy na przykład symulować układ składający się z zestawu 370x370x370 sześcianów to CS-1 mapuje warstwy na sąsiadujące ze sobą rdzenie. Komunikacja między rdzeniami odbywa się błyskawicznie, więc szybko wymieniają one dane dotyczące sąsiadujących sześcianów, a obliczenia dla każdej z warstw są przechowywane w znajdujących się na tym samym krzemie układach pamięci, więc rdzenie również mają do niej bezpośredni dostęp.
      Dodatkowo, jako że CS-1 jest w stanie przeprowadzić symulacje procesów fizycznych szybciej niż te procesy się odbywają, może zostać też wykorzystany do kontrolowania pracy złożonych systemów obliczeniowych.
      Feldman poinformował, że wśród klientów korzystających z SC-1 są m.in. GlaxoSmithKline, Argonne National Laboratory, Lawrence Livermore National Laboratory, Pittsburgh Supercomputing Centre oraz niewymienione z nazwy firmy i instytucje z branż wojskowej, wywiadowczej oraz przemysłu ciężkiego.
      Co więcej Cerebras ma już gotowego następcę CS-1. Został on wykonany w technologii 7nm (CS-1 zbudowano w technologi 16nm), korzysta z 40 GB pamięci (CS-1 z 20 GB) i 850 000 rdzeni (CS-1 ma 400 000 rdzeni).

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Henrique Andrade, student z brazylijskiego Escola Politécnica da Universidade de Pernambuco od wielu lat interesuje się starymi mapami swojego rodzinnego miasta Recife. Zgromadziłem wiele cyfrowych kopii takich map i odkryłem o swoim mieście rzeczy, które nie są powszechnie znane. Ludziom z Recife odebrano dostęp do przeszłości, przez co mają problem ze zrozumieniem, kim są i co mogą zrobić dla swojej przyszłości, mówi Andrade. Student wpadł jednak na bardzo interesujący pomysł.
      Młody człowiek namówił profesora Bruno Fernandesa do stworzenia algorytmu maszynowego uczenia się, który przetwarzałby stare mapy na obrazy satelitarne takie, jaki widzimy w serwisie Google Maps. Zdaniem Andrade pomoże to zrozumieć ludziom, jak ich otoczenie zmieniało się z czasem, w tym jaki wpływ społeczny i ekonomiczny miała urbanizacja.
      Obaj uczeni wykorzystali istniejące narzędzie do sztucznej inteligencji zwane Pix2pix, które opiera się na dwóch sieciach neuronowych. Pierwsza z nich tworzy obrazy na podstawie danych, które otrzymuje, a druga decyduje, czy obraz jest prawdziwy czy nie. Obie sieci zostały tak wytrenowane, by próbowały nawzajem się oszukać. Ostatecznyme efektem ich pracy są realistycznie wyglądające obrazy.
      Andrade i Fernandes opublikowali szczegóły w piśmie IEEE Geoscience and Remote Sensing Letters. Na potrzeby swojej pracy stworzyli „satelitarny” obraz Recife na podstawie mapy z 1808 roku i zestawili go z obecnym obrazem satelitarnym tego samego obszaru. Gdy patrzysz na te obrazy, lepiej pojmujesz, jak zmieniło się miasto w ciągu ostatnich 200 lat. Widać dramatyczne zmiany jego geografii. Zbiorniki wody zostały zasypane odpadami, ludzie usunęli też tereny zielone, mówi Andrade.
      Młody uczony dodaje, że dużą zaletą zastosowanej techniki jest fakt, że SI potrzebuje stosunkowo niewiele danych. Jednak muszą być one umieszczone w kontekście historycznym, a rozdzielczość wygenerowanych obrazów jest mniejsza, niż życzyliby sobie naukowcy. Pracujemy nad poprawieniem rozdzielczości i eksperymentujemy z różnymi danymi, zapewnia Andrade.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Naukowcy i studenci z Politechniki Gdańskiej (PG) opracowali nowatorski system do rozpoznawania złośliwości guzów nerek. Dzięki niemu możliwa będzie dokładniejsza diagnoza, a także zmniejszenie liczby niepotrzebnych operacji narażających zdrowie i życie pacjentów.
      Większość pacjentów z guzami nerek to osoby starsze, dla których operacja usunięcia guza może okazać się wysoce ryzykowna. Zdaniem lekarzy, jeśli guz nie jest złośliwy, bezpieczniej jest nie wykonywać operacji i pozostawić guz jedynie do dalszej obserwacji.
      Określenie złośliwości guza nie jest jednak prostym zadaniem. Szacuje się, że obecnie w Polsce 15-20 proc. operacji usunięcia nerki po wykryciu w niej guza wykonuje się niepotrzebnie, bo guz, początkowo określony jako złośliwy, po operacji i zbadaniu histopatologicznym okazuje się łagodny.
      Rocznie w Polsce jest to około 900 operacji, które bez potrzeby narażają zdrowie pacjentów i znacząco pogarszają komfort ich życia, a problem ten będzie w przyszłości tylko narastać. Przyczynić do tego może się również pandemia wirusa SARS-CoV-2, który powoduje choroby nerek nawet u 15 proc. zarażonych nim pacjentów.
      System opracowany przez naukowców, lekarzy i studentów
      Z pomocą w rozwiązaniu tego problemu przyszli naukowcy i studenci PG. Opracowali oni system TITAN (Technology In Tumor ANalysis), który przy użyciu technologii uczenia maszynowego i algorytmów sztucznej inteligencji określa prawdopodobieństwo złośliwości guza nerki na podstawie zdjęcia tomografii komputerowej jamy brzusznej.
      W zespole Radiato.ai, który stoi za projektem TITAN, udało się połączyć kompetencje i możliwości pracowników badawczo-dydaktycznych Wydziału FTiMS PG - dr. inż. Patryka Jasika (Team Leader) oraz dr. inż. Pawła Sytego (Product Owner) - a także studentów Wydziałów FTiMS i ETI: Aleksandra Obuchowskiego (Head AI Architect), Romana Karskiego (Data Scientist), Barbary Klaudel (Medical Image Specialist), Bartosza Rydzińskiego (Backend Developer) i Mateusza Anikieja (Devops). W zespole pracował również lekarz Mateusz Glembin z Oddziału Urologii Szpitala św. Wojciecha w Gdańsku.
      Sztuczna inteligencja pomocna w ocenie złośliwości guzów
      System informatyczny TITAN wykorzystuje sztuczną inteligencję do oceny złośliwości guzów nerek na podstawie zdjęcia tomografii komputerowej (TK), osiągając skuteczność na poziomie 87 proc. Aby stworzyć bazujący na metodach uczenia maszynowego autorski model predykcyjny, zdobyto ponad 15 tys. zdjęć tomografii komputerowej z niemal 400 przypadków medycznych.
      Przy opracowywaniu naszego algorytmu przykładaliśmy szczególną uwagę do rozpoznawania guzów łagodnych, gdyż to właśnie poprawne ich wykrycie może potencjalnie uratować życie pacjenta – tłumaczy Aleksander Obuchowski. Nie było to łatwe zadanie, gdyż guzy łagodne stanowiły tylko 26 proc. naszej bazy danych. Po przeanalizowaniu dziesiątek architektur sieci neuronowych i metod przetwarzania obrazów udało się nam jednak osiągnąć wynik 10/10 poprawnie rozpoznanych guzów łagodnych.
      To pozwoliło z kolei na zbudowanie bazy wiedzy, na której wytrenowane zostały algorytmy wykorzystujące głębokie sieci neuronowe, osiągające tak wysoką skuteczność przy jednoczesnym wychwytywaniu 10 na 10 guzów łagodnych. W rezultacie może się to przełożyć na ocalenie nerek i ograniczenie liczby niepotrzebnych operacji.
      Dzięki wykorzystaniu systemu TITAN lekarz uzyskuje dodatkową opinię w postaci sugestii algorytmu w ciągu zaledwie kilkunastu sekund – wyjaśnia dr inż. Patryk Jasik. System nie zastępuje jednak diagnozy lekarskiej, a jedynie zwraca uwagę na to, które przypadki mogły zostać błędnie zaklasyfikowane. Dzięki systemowi lekarze są w stanie uważniej przyjrzeć się takim guzom, skonsultować diagnozę z innymi specjalistami bądź skierować pacjenta na dalsze badania. Taka selekcja w rezultacie może znacząco ograniczyć liczbę błędnie zdiagnozowanych guzów.
      Dodatkowo, jeżeli w badaniu histopatologicznym okaże się, że guz faktycznie był złośliwy, lekarz może dodać taki przypadek do bazy wiedzy, co usprawni działanie algorytmu w przyszłości.
      Pierwsze testy w gdańskim szpitalu
      System został stworzony w ramach programu e-Pionier (jest on prowadzony przez Excento, spółkę celową Politechniki Gdańskiej), który łączy zespoły młodych programistów z instytucjami publicznymi w przygotowywaniu innowacyjnych rozwiązań z branży ICT. Problem braku narzędzi diagnostycznych wykorzystujących technologie informatyczne został zgłoszony z ramienia spółki Copernicus Podmiot Leczniczy oraz Szpitala św. Wojciecha w Gdańsku przez dr. n. med. Wojciecha Narożańskiego.
      System będzie w najbliższym czasie testowo wdrożony w Szpitalu św. Wojciecha w Gdańsku, gdzie lekarze wykorzystywać go będą w diagnozie bieżących przypadków guzów nerek. Jest to pierwszy tego typu system w Polsce, który będzie wykorzystywany w praktyce.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...