Zaloguj się, aby obserwować tę zawartość
Obserwujący
0
Wielkość ma znaczenie. Olbrzymi procesor zrewolucjonizuje sztuczną inteligencję?
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Teksty informacyjne automatycznie generowane przez algorytmy sztucznej inteligencji są trudniejsze do zrozumienia, a czytelnicy oceniają je gorzej niż teksty napisane przez człowieka. Takie wnioski płyną z badań przeprowadzonych przez naukowców z Uniwersytetu Ludwika i Maksymiliana w Monachium, którzy przeprowadzili badania na próbce ponad 3000 osób z Wielkiej Brytanii. Wyniki badan zostały opublikowane w piśmie Journalism: Theory, Practice, and Criticism.
Badanym dano do przeczytania 24 informacje prasowe, z których połowa została wygenerowana automatycznie. Użytkownicy ocenili, że te 12 stworzonych przez automat tekstów jest trudniejszych do zrozumienia, mówi główna autorka badań Sina Thäsler-Kordonouri. Teksty autorstwa AI były gorzej ocenione, mimo że przed publikacją edytowali je dziennikarze.
Jednym z problemów z automatycznie generowanymi tekstami okazał się dobór słów. Zdaniem badanych, artykuły takie w zbyt dużej mierze stworzone zostały za pomocą niepasującego, skomplikowanego lub dziwacznego języka. Czytelnicy stwierdzili też, że nawet liczby i konkretne dane były w tekstach AI podane w mniej przystępny sposób. To właśnie sposób podawania liczb oraz dobór słów stanowił największy problem w automatycznych tekstach.
Podczas tworzenia i edytowania automatycznych tekstów, dziennikarze i programiści powinni postarać się, by w tekście było mniej liczb, lepiej wyjaśnić trudne wyrazy i poprawić strukturę językową tak, by czytelnik lepiej wiedział, o czym jest tekst, mówi profesor Neil Thurman.
Ze szczegółami eksperymentu można zapoznać się w artykule Too many numbers and worse word choice: Why readers find data-driven news articles produced with automation harder to understand.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Gdy Deep Blue wygrał w szachy z Garri Kasparowem, a w 2016 roku AlphaGo pokonał w go Lee Sedola wiedzieliśmy, że jesteśmy świadkami ważnych wydarzeń. Były one kamieniami milowymi w rozwoju sztucznej inteligencji. Teraz system sztucznej inteligencji „Swift” stworzony na Uniwersytecie w Zurychu pokonał mistrzów świata w wyścigu dronów.
Swift stanął do rywalizacji z trzema światowej klasy zawodnikami w wyścigu, podczas którego zawodnicy mają założone na głowy specjalne wyświetlacze do których przekazywany jest obraz z kamery drona i pilotują drony lecące z prędkością przekraczającą 100 km/h.
Sport jest bardziej wymagający dla sztucznej inteligencji, gdyż jest mniej przewidywalny niż gra planszowa niż gra wideo. Nie mamy idealnej wiedzy o dronie i środowisku, zatem sztuczna inteligencja musi uczyć się podczas interakcji ze światem fizycznym, mówi Davide Scaramuzza z Robotik- und Wahrnehmungsgruppe na Uniwersytecie w Zurychu.
Jeszcze do niedawna autonomiczne drony potrzebowały nawet dwukrotnie więcej czasu by pokonać tor przeszkód, niż drony pilotowane przez ludzi. Lepiej radziły sobie jedynie w sytuacji, gdy były wspomagane zewnętrznym systemem naprowadzania, który precyzyjne kontrolował ich lot. Swift reaguje w czasie rzeczywistym na dane przekazywane przez kamerę, zatem działa podobnie jak ludzie. Zintegrowana jednostka inercyjna mierzy przyspieszenie i prędkość, a sztuczna sieć neuronowa, na podstawie obrazu z kamery lokalizuje położenie drona i wykrywa kolejne punkty toru przeszkód, przez które dron musi przelecieć. Dane z obu tych jednostek trafiają do jednostki centralnej – również sieci neuronowej – która decyduje o działaniach, jakie należy podjąć, by jak najszybciej pokonać tor przeszkód.
Swift był trenowany metodą prób i błędów w symulowanym środowisku. To pozwoliło na zaoszczędzenie fizycznych urządzeń, które ulegałyby uszkodzeniom, gdyby trening prowadzony był na prawdziwym torze. Po miesięcznym treningu Swift był gotowy do rywalizacji z ludźmi. Przeciwko niemu stanęli Alex Vanover, zwycięzca Drone Racing League z 2019 roku, Thomas Bitmatta lider klasyfikacji 2019 MultiGP Drone Racing oraz trzykroty mistrz Szwajcarii Marvin Schaepper.
Seria wyścigów odbyła się w hangarze lotniska Dübendorf w pobliżu Zurychu. Tor ułożony był na powierzchni 25 na 25 metrów i składał się z 7 bramek, przez które należało przelecieć w odpowiedniej kolejności, by ukończyć wyścig. W międzyczasie należało wykonać złożone manewry, w tym wywrót, czyli wykonanie półbeczki (odwrócenie drona na plecy) i wyprowadzenie go półpętlą w dół do lotu normalnego.
Dron kontrolowany przez Swift pokonał swoje najlepsze okrążenie o pół sekundy szybciej, niż najszybszy z ludzi. Jednak z drugiej strony ludzie znacznie lepiej adaptowali się do warunków zewnętrznych. Swift miał problemy, gdy warunki oświetleniowe były inne niż te, w których trenował.
Można się zastanawiać, po co drony mają latać bardzo szybko i sprawnie manewrować. W końcu szybki lot wymaga większej ilości energii, więc taki dron krócej pozostanie w powietrzu. Jednak szybkość lotu i sprawne manewrowanie są niezwykle istotne przy monitorowaniu pożarów lasów, poszukiwaniu osób w płonących budynkach czy też kręcenia scen filmowych.
Warto tutaj przypomnieć, że systemy sztucznej inteligencji pokonały podczas symulowanych walk doświadczonego wykładowcę taktyki walki powietrznej oraz jednego z najlepszych amerykańskich pilotów.
« powrót do artykułu -
przez KopalniaWiedzy.pl
W przypadku sztucznej inteligencji z Osaki powiedzenie „wyglądasz na swój wiek” odnosi się nie do twarzy, a do... klatki piersiowej. Naukowcy z Osaka Metropolitan University opracowali zaawansowany model sztucznej inteligencji, który ocenia wiek człowieka na podstawie zdjęć rentgenowskich klatki piersiowej. Jednak, co znacznie ważniejsze, jeśli SI odnotuje różnicę pomiędzy rzeczywistym wiekiem, a wiekiem wynikającym ze zdjęcia, może to wskazywać na chroniczną chorobę. System z Osaki może zatem przydać się do wczesnego wykrywania chorób.
Zespół naukowy, na którego czele stali Yasuhito Mitsuyama oraz doktor Daiju Ueda z Wwydziału Radiologii Diagnostycznej i Interwencyjnej, najpierw opracował model sztucznej inteligencji, który na podstawie prześwietleń klatki piersiowej oceniał wiek zdrowych osób. Następnie model swój wykorzystali do badania osób chorych.
W sumie naukowcy wykorzystali 67 009 zdjęć od 36 051 zdrowych osób. Okazało się, że współczynnik korelacji pomiędzy wiekiem ocenianym przez SI, a rzeczywistym wiekiem badanych wynosił 0,95. Współczynnik powyżej 0,90 uznawany jest za bardzo silny.
Uczeni z Osaki postanowili sprawdzić, na ile ich system może być stosowany jako biomarker chorób. W tym celu wykorzystali 34 197 zdjęć rentgenowskich od chorych osób. Okazało się, że różnica pomiędzy oceną wieku pacjenta przez AI, a wiekiem rzeczywistym jest silnie skorelowana z różnymi chorobami, jak np. nadciśnienie, hiperurykemia czy przewlekła obturacyjna choroba płuc. Im więcej lat dawała pacjentowi sztuczna inteligencja w porównaniu z jego rzeczywistym wiekiem, tym większe było prawdopodobieństwo, że cierpi on na jedną z tych chorób.
Wiek chronologiczny to jeden z najważniejszych czynników w medycynie. Nasze badania sugerują, że wiek oceniany na podstawie prześwietlenia klatki piersiowej może oddawać rzeczywisty stan zdrowia. Będziemy nadal prowadzili nasze badania. Chcemy sprawdzić, czy system ten nadaje się do oceny zaawansowania choroby, przewidzenia długości życia czy możliwych komplikacji pooperacyjnych, mówi Mitsuyama.
Szczegóły badań opublikowano na łamach The Lancet.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Papież Franciszek paradujący po Watykanie w białej, puchowej kurtce od Balenciagi, Donald Trump uciekający przed policją, Władimir Putin za kratkami. To tylko kilka z licznych przykładów zdjęć, które obiegły Internet w ciągu ostatnich miesięcy. Wszystkie mają jedną cechę wspólną – przedstawiają wydarzenia, które nigdy nie miały miejsca.
Internet, jaki znamy, czeka rewolucja, a być może już jesteśmy jej naocznymi świadkami. Rozwój technologii chyba jeszcze nigdy nie wiązał się ze zmianami na taką skalę. Mowa o sztucznej inteligencji, czyli AI, która już teraz budzi zarówno fascynację, jak i niepokój.
Spreparowane zdjęcia znanych osób obiegają sieć
Generatywne narzędzia oparte na sztucznej inteligencji rozwinęły się w ostatnich miesiącach tak bardzo, że mówi się o przełomie. Prawdopodobnie każdy choć raz słyszał takie nazwy jak ChatGPT, Midjourney, DALL-E czy Stable Diffusion. To tylko wierzchołek góry lodowej, bo szum związany z AI jest na tyle duży, że zarówno małe, jak i wielkie przedsiębiorstwa poddają się modzie (i obietnicy zysków), wypuszczając własne aplikacje.
Coraz więcej ekspertów zwraca jednak uwagę na to, jak niebezpieczna staje się moda na AI. Już teraz możemy zaobserwować jej wpływ na to, jak postrzegamy rzeczywistość.
Przykładowo, poniższe „zdjęcie” zostało wygenerowane za pomocą narzędzia Midjourney i umieszczone na platformie Reddit:
Grafika została prędko pochwycona i podbiła wszystkie media społecznościowe. I choć od początku było wiadomo, że została wygenerowana przez AI, to wiele osób zapomniało wspomnieć o tym fakcie, udostępniając ją dalej. Tak narodził się Balenciaga Pope, w którego prawdziwość uwierzyła duża część internautów.
Papież Franciszek w kurtce Balenciagi jest bardziej zabawny niż szkodliwy, ale nie jest jedynym przykładem viralowego zdjęcia, na które nabrało się wiele osób, a które zostało najzwyczajniej w świecie spreparowane. Podobny los podzieliły między innymi obrazy przedstawiające Donalda Trumpa w pomarańczowym kombinezonie więziennym czy Władimira Putina klękającego przed Xi Jinpingiem, przewodniczącym Chińskiej Republiki Ludowej.
Dlaczego problem dezinformacji staje się tak poważny?
Spreparowane obrazy przedstawiające twarze znanych osób nie są niczym nowym w Internecie. Przerabianie zdjęć stało się możliwe już wtedy, gdy powstały narzędzia do obróbki graficznej (z Adobe Photoshopem na czele).
Jest jednak różnica między standardowym przerabianiem zdjęć a generowaniem ich za pomocą AI. O ile obsługa programów graficznych (z zadowalającymi rezultatami) wymaga posiadania pewnych umiejętności, o tyle generowanie zdjęć i obrazów za pomocą AI jest darmowe oraz banalnie łatwe. Narzędzia korzystają z promptów, czyli tekstowych podpowiedzi. Wystarczy więc odpowiednio opisać to, co chce się uzyskać, a sztuczna inteligencja wygeneruje obraz na podstawie zapytania.
Sprawia to, że właściwie każdy jest dziś w stanie generować treści, które są realistyczne, a jednocześnie nie mają nic wspólnego z rzeczywistością. Sianie dezinformacji, propagandy i rozpowszechnianie kłamstw nigdy nie było tak łatwe, a z drugiej strony – w przyszłości możemy mieć też problem z wiarą we wszystkie wiadomości ze względu na wyuczoną nieufność w stosunku do treści generowanych przez AI.
Warto zaznaczyć, że nie tylko sfalsyfikowane zdjęcia stanowią niebezpieczeństwo związane z szerzeniem dezinformacji i „fake newsów”. Rozwój AI dotyka każdego medium. W przyszłości prawdopodobnie trzeba będzie zastanawiać się dwa razy nie tylko nad autentycznością zdjęć, ale i filmów oraz ludzkich głosów.
Już teraz możliwe jest wkładanie w usta znanych osób wypowiedzi, które nigdy nie padły. Brzmi to dystopijnie, ale trzeba przyznać jedno – internauci nigdy nie zawodzą, a memy z prezydentami kłócącymi się przy grach wideo to prawdopodobnie najśmieszniejsze, co wynikło z całej tej sytuacji.
Moda na AI groźna także z innych powodów
Łatwość, z jaką będzie można tworzyć i rozprzestrzeniać materiały propagandowe i dezinformację, to z pewnością jeden z najważniejszych problemów, z którymi będą musieli zmierzyć się wszyscy ludzie korzystający z sieci. AI stanowi jednak również inne zagrożenia.
W sklepach Play czy App Store znajdziemy masę aplikacji mobilnych używających sztucznej inteligencji: wirtualnych asystentów, czatboty, filtry upiększające albo zmieniające twarze.
Aplikacje te są teraz szczególnie rozchwytywane, ponieważ „boom” na AI trwa w najlepsze. Wiele z nich to jednak w rzeczywistości tylko fasady udające autentyczne narzędzia. Moda na AI ułatwia bowiem oszustom i przestępcom rozprzestrzenianie złośliwego oprogramowania, dlatego dziś czujność jest szczególnie ważna.
Warto pamiętać, by uważnie czytać opinie i komentarze na temat każdej aplikacji, którą planujemy pobrać na swoje urządzenie. Dobrze też podjąć dodatkowe środki ostrożności. Tani VPN niestety nie zapewni nam wystarczającej ochrony i nie uchroni przed pobraniem szkodliwego oprogramowania, dlatego rozsądniej jest zainwestować z porządną wirtualną sieć prywatną.
Wśród „AI-sceptyków” niepokój budzi również etyka związana z ulepszaniem tej technologii, a właściwie jej brak, gdy mowa na przykład o trenowaniu sieci neuronowych. Narzędzia takie jak ChatGPT czy Midjourney nie tworzą treści z powietrza – zanim zostały wypuszczone na rynek, trenowano je na tysiącach gigabajtów materiałów umieszczonych w Internecie.
Obecnie trwa spór o to, czy takie praktyki powinny być w ogóle legalne, jako że twórcy tych materiałów (w tym graficy, pisarze i inni artyści) nigdy nie wyrazili zgody na użyczenie wyników swojej pracy do trenowania systemów mogących ich w przyszłości nawet zastąpić.
Jak na razie pewne jest jedno: musimy nauczyć się poważnie zastanawiać nad tym, czy to, co widzimy, na pewno jest autentyczne.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Sztuczna inteligencja lepiej niż technik-elektroradiolog ocenia i diagnozuje funkcjonowanie serca na podstawie badań ultrasonograficznych, wynika z badań przeprowadzonych przez naukowców z Cedars-Sinai Medical Center. Randomizowane testy prowadzili specjaliści ze Smidt Heart Institute i Division of Articifial Intelligence in Medicine.
Uzyskane wyniki będą miały natychmiastowy wpływ na obrazowanie funkcji serca oraz szerszy wpływ na całe pole badań obrazowych serca, mówi główny autor badań, kardiolog David Ouyang. Pokazują bowiem, że wykorzystanie sztucznej inteligencji na tym polu poprawi jakość i efektywność obrazowania echokardiograficznego.
W 2020 roku eksperci ze Smidt Heart Institute i Uniwersytetu Stanforda stworzyli jeden z pierwszych systemów sztucznej inteligencji wyspecjalizowany w ocenie pracy serca, a w szczególności w ocenie frakcji wyrzutowej lewej komory. To kluczowy parametr służący ocenie pracy mięśnia sercowego. Teraz, bazując na swoich wcześniejszych badaniach, przeprowadzili eksperymenty, w ramach których wykorzystali opisy 3495 echokardiografii przezklatkowych. Część badań została opisana przez techników, część przez sztuczną inteligencję. Wyniki badań wraz z ich opisami otrzymali kardiolodzy, którzy mieli poddać je ocenie.
Okazało się, że kardiolodzy częściej zgadzali się z opisem wykonanym przez sztuczną inteligencję niż przez człowieka. W przypadku SI poprawy wymagało 16,8% opisów, natomiast kardiolodzy wprowadzili poprawki do 27,2% opisów wykonanych przez techników. Lekarze nie byli też w stanie stwierdzić, które opisy zostały wykonane przez techników, a które przez sztuczą inteligencję. Badania wykazały również, że wykorzystanie AI zaoszczędza czas zarówno kardiologów, jak i techników.
Poprosiliśmy naszych kardiologów, by powiedzieli, które z opisów wykonała sztuczna inteligencja, a które technicy. Okazało się, że lekarze nie są w stanie zauważyć różnicy. To pokazuje, jak dobrze radzi sobie sztuczna inteligencja i że można ją bezproblemowo wdrożyć do praktyki klinicznej. Uważamy to za dobry prognostyk dla dalszych testów na wykorzystaniem SI na tym polu, mówi Ouyang.
Badacze uważają, że wykorzystanie AI pozwoli na szybszą i sprawniejszą diagnostykę. Oczywiście o ostatecznym opisie badań obrazowych nie będzie decydował algorytm, a kardiolog. Tego typu badania, kolejne testy i artykuły naukowe powinny przyczynić się do szerszego dopuszczenia systemów AI do pracy w opiece zdrowotnej.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.