Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Eksperci od sztucznej inteligencji wzywają do bojkotu KAIST

Recommended Posts

Ponad 50 ekspertów zajmujących się sztuczną inteligencją wezwało do bojkotu Koreańskiego Zaawansowanego Instytutu Nauki i Technologii (KAIST). Zdaniem naukowców, prowadzone przez KAIST badania mogą prowadzić do trzeciej rewolucji w działaniach wojennych.

KAIST ściśle współpracuje z największym koreańskim producentem uzbrojenia, firmą Hanwha Systems. Ekspertów zaniepokoił fakt, że niedawno obie instytucje powołały do życia Centrum Badań nad Konwergencją Obrony Narodowej i Sztucznej Inteligencji. Zdaniem naukowców z całego świata, centrum takie może doprowadzić do wyścigu zbrojeń, których celem będzie opracowanie autonomicznych systemów bojowych. Sygnatariusze listu oświadczyli, że nie będą współpracowali z KAIST dopóty, dopóki uczelnia nie zapewni, że nowo powołane centrum badawcze nie będzie prowadziło prac nas autonomiczną bronią.

Autonomiczne systemy bojowe, jeśli powstaną, doprowadzą do trzeciej rewolucji w działaniach zbrojnych. Pozwolą one prowadzić wojny szybciej i na większą skalę niż kiedykolwiek wcześniej. Mogą stać się narzędziem do siania terroru. Dyktatorzy i terroryści będą mogli użyć ich przeciwko niewinnym cywilom, uwalniając się ze wszystkich ograniczeń etycznych. Jeśli otworzymy tę puszkę Pandory, trudno będzie ją zamknąć. Możemy jednak zdecydować, że nie będziemy rozwijali takich technologii. Tak, jak w przeszłości zdecydowaliśmy, że nie będziemy np. rozwijali lasera do oślepiania ludzi. Wzywamy KAIST właśnie do takiego postępowania i do prac nad SI, która udoskonala ludzkie życie, a nie mu szkodzi.

Organizator bojkotu, profesor Toby Walsh z Uniwersytetu Nowej Południowej Walii powiedział, że rozwój autonomicznych systemów bojowych tylko pogorszy sytuację na Półwyspie Koreańskim. Jeśli ta broń się pojawi, to w końcu będzie miała ją też Korea Północna, która bez najmniejszych wyrzutów sumienia użyje jej przeciwko Południu, stwierdził Walsh.
Korea Południowa jest światowym liderem w dziedzinie rozwoju autonomicznych systemów bojowych. Wzdłuż Koreańskiej Strefy Zdemilitaryzowanej rozmieszczono m.in. systemy Samsung SGR-A1. To pierwsze roboty bojowe wyposażone w systemy do nadzoru, śledzenia, prowadzenia ognia i rozpoznawania głosu.

Prezydent KAIST, Sung-Chul Shin mówi, że uczelnia nie prowadzi prac nad autonomicznym uzbrojeniem.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Eeee. Znaczy się teoria o tym że jak my się rozbroimy to i nasz przeciwnik też :D

 

Share this post


Link to post
Share on other sites
10 godzin temu, riyader napisał:

Macie tą straszną sztuczną inteligencję:

Żarcik ?

Moim zdaniem porównywanie zwykłych czujek ruchu (do tego źle skonfigurowanych) sprzed 40 lat ze sprzętem takim jak SGR-A1 to lekkie nieporozumienie.

 

8 godzin temu, Przemek Kobel napisał:

Jest jeszcze gorzej

Z ludźmi jeszcze gorzej:

https://list25.com/25-incredible-optical-illusions/

Share this post


Link to post
Share on other sites

bojkot czegoś tam nic nie da i jest bez sensu. Natury ludzkiej się nie oszuka. Pierwsza maczuga zapewne została wykorzystana do rozwalenia głowy sąsiada, dopiero w następnej kolejności do polowania na zwierzynę. Z rozszczepieniem atomu i wieloma innymi wynalazkami było identycznie. Nie widzę przesłanek że człowiek się zmienił i wykorzysta jakiś nowy wynalazek(posiadający potencjał czynienia zła) do czynienia dobra. Jedyna nadzieja jest w tym, że nowoczesne technologie szybko są kopiowane przez innych i można doprowadzić do patowej sytuacji w której trzeba pamiętać że jak wyślę robota na sąsiada to on zapewne wyśle swojego na mnie

Share this post


Link to post
Share on other sites

Moja ulubiona iluzja wygląda mniej więcej tak: 3f6b0f4044eb99a4b75481f1085dab27.jpg

Ale gdybym nie był w stanie odróżnić kota od miski jakiejś papki, to nie wiem, czy ktoś wpuściłby mnie za kierownicę. Już prędzej na oddział detoksykacji.

Share this post


Link to post
Share on other sites
2 godziny temu, Przemek Kobel napisał:

.....Już prędzej na oddział detoksykacji

;) Pewnie to samo powiedziałoby AI o tych przykładach, które podałem.

Problem z ludźmi (i innymi istotami żywymi) jest taki, że łatwo odwrócić ich uwagę. Mój przykład służył unaocznieniu, że pomimo milionów lat ewolucji mamy sporo słabych punktów i luk w postrzeganiu, które w szybko rozwijającym się świecie technologicznym trudno załatać a mogą sprawiać poważne problemy. Adaptacja ewolucyjna jest po prostu zbyt wolna.

P.S. Myślę, że to nad czym pracuje Neuralink (i podobne rozwiązania) to jedyna droga dla istot biologicznych aby nadążyć.

Moja ulubiona: 

Spirala.jpg

Edited by rahl
dodanie obrazka

Share this post


Link to post
Share on other sites

Przepraszam, ale obecne AI rozjeżdżają ludzi i nie widzą w tym problemu, więc mało mnie obchodzi co by one powiedziały. Już bardziej: gdzie się wyłącza zasilanie.

Share this post


Link to post
Share on other sites

 

42 minuty temu, Przemek Kobel napisał:

nie widzą w tym problemu

Skąd wiesz, rozmawiałeś z tą AI ?  :P

Poza tym super, ale to ludzie rozjeżdżają dziesiątki tysięcy ludzi rocznie, i najczęściej przechodzących we właściwych miejscach, idących poboczem albo nawet stojących na przystankach autobusowych.

P.S. Nie rozumiem skąd to personifikowanie tych prymitywnych AI, nawet samo sformułowanie AI to nadużycie językowe, jakich wiele dziś, podobnie jak z przedrostkiem "nano". Równie dobrze mógłbyś mieć żal do drzew, bo czasem spadnie jakiś konar i kogoś zabije.

Edited by rahl
Dodanie do wypowiedzi + korekta

Share this post


Link to post
Share on other sites
40 minut temu, Przemek Kobel napisał:

Ale akurat w tej sytuacji człowiek by tej kobity nie zabił.

ale czego by to miało dowieść? bo w zasadzie można by znaleźć (i udowodnić), że w danej sytuacji gdzie człowiek zabił automat by nie zabił.

 

Ostatecznie chodzi o to aby automaty były sumarycznie bezpieczniejsze niż ludzie i z wypadku na wypadek podobnie jak w lotnictwie, prawdopodobieństwo wypadku będzie zmniejszane. A to, że znajdziesz przypadek gdzie człowiekowi by się najprawdopodobniej udało niczego nie dowodzą.

Share this post


Link to post
Share on other sites

Ano tego, że AI wyszkolona specjalnie do bezpiecznej jazdy i uzbrojona we wszelkiego rodzaju czujniki do widzenia w nocy oraz reagująca ponad 1000-krotnie szybciej od człowieka ani nie zareagowała szybciej, ani nie zobaczyła lepiej, ani nie okazała się bezpieczna. Bo pewnie układ pasów na jezdni skojarzył sie jej z kaszą gryczaną, albo coś w tym rodzaju (czego tak łatwo wcale nie można stwierdzić, bo gdyby się dało, to nie budowano by sieci neuronowej, tylko po prostu napisano cywilizowany algorytm). A tak naprawdę to tylko tego, że eksperci od AI popędzani przez granty, IPO albo kursy akcji, są mniej więcej tak godni zaufania jak oprych w ciemnej bramie. 

Edited by Przemek Kobel

Share this post


Link to post
Share on other sites

Jak dla mnie to po prostu jakiś błąd projektowych i tyle. Ty opisujesz jak by to sieć kierowała a nie sądzę aby tak było. SSN i kamery to tylko jeden z elementów, wazne są też czujniki które wprost mówią czy jest przeszkoda tuż przed nami i jak szybko się do niej zbliżamy, I niezależnie jak to SNN interpretuje wypadało by się jednak przed tą przeszkodą zatrzymać. Osobne są systemy śledzenia ścieżek obiektów (może któryś zawiódł w tej sytuacji, nie wiem) może powinny być zdublowane(różne technologie) w każdym razie taka samochodowa AI to nie jest jakaś tam SNN tylko sieć złożonych elementów. TAk że radar czy tam lidar to lidar, i nie ma co tam filozofować i interpretować odleglość to odległość a prędkość zbliżania to ta prękość. 

No coś poszło ewidentnie nie tak (pomijam, to, że pomijając temat AI, jak by to się człowiekowi przydarzyło to winną uznał bym pieszą).Ale znów tracisz ogólny sens, sprawdzą poprawią i znów będziemy dążyć aby sumarycznie maszyny były lepsze niż ludzie. No bo co by Cię zadowalało? Zerowa zabijalność maszyn? Nie możliwe? Samoloty też spadają.

A czy jeżeli automaty powodowały by 2x mniej wypadków niż ludzie już było by dla Ciebie ok? Gdzieś musi być granica

Edited by Afordancja

Share this post


Link to post
Share on other sites

@Przemek Kobel

A co podane przez ciebie przypadki mają wspólnego z AI ?

 

1 godzinę temu, Przemek Kobel napisał:

Ano tego, że AI wyszkolona specjalnie do bezpiecznej jazdy i uzbrojona we wszelkiego rodzaju czujniki do widzenia w nocy oraz reagująca ponad 1000-krotnie szybciej od człowieka ani nie zareagowała szybciej, ani nie zobaczyła lepiej, ani nie okazała się bezpieczna.

Ludzie szkolili, i przygotowali tą "AI", kierowca siedzący w aucie też nie zareagował poprawnie, więc proszę nie pisz bzdur, że człowiek by zareagował, skoro tego nie zrobił.

Zdarzenie to jest tragedią, co nie zmienia faktu, że ofiara przechodziła w kompletnie niedozwolonym miejscu mając w pełnej pogardzie ponad dwie tony rozpędzonego metalu i przypłaciła ten fakt życiem.

Share this post


Link to post
Share on other sites
2 minutes ago, rahl said:

A co podane przez ciebie przypadki mają wspólnego z AI ?

https://www.techemergence.com/global-competition-rises-ai-industrial-robotics/

 

2 minutes ago, rahl said:

Ludzie szkolili, i przygotowali tą "AI", kierowca siedzący w aucie też nie zareagował poprawnie, więc proszę nie pisz bzdur, że człowiek by zareagował, skoro tego nie zrobił.

https://www.bloomberg.com/news/articles/2018-03-22/video-said-to-show-failure-of-uber-s-tech-in-fatal-arizona-crash

 

Share this post


Link to post
Share on other sites

Ponowię pytanie:

Co proste roboty przemysłowe, przystosowane do wykonywania powtarzalnych czynności mają wspólnego z AI. Równie dobrze mógłbyś wtryskarce, albo prasie hydraulicznej nadać przydomek AI.

54 minuty temu, Przemek Kobel napisał:

Teorie teoriami, ale jakoś kierowca rzeczonego auta Ubera nie zareagował i nie zapobiegł wypadkowi.

Polecam obejrzeć jak to ludzie "unikają" wypadków:

 

https://youtu.be/I6801whkbFI?t=199

Do tego w biały dzień i przy doskonałej widoczności o znacznie mniejszych prędkościach. Ciekawe co na to "eksperci"

Share this post


Link to post
Share on other sites

Naiwne dzieci. Roboty i mniej lub bardziej zlozone formy ai wejda do zycia (przemysl, transport, nauka itd.) bez wzgledu na to czy to bedzie bezpieczne i czy beda czy nie beda temu towarzyszyc ofiary w ludzoach. Wystarczy, ze ich zastosowanie bedzie tansze niz uzywanie do tego ludzi. Autonomiczne pojazdy wyjada na ulice czy sie to komus podoba czy nie.

Share this post


Link to post
Share on other sites
W dniu 6.04.2018 o 12:03, Przemek Kobel napisał:

Przepraszam, ale obecne AI rozjeżdżają ludzi i nie widzą w tym problemu, więc mało mnie obchodzi co by one powiedziały. Już bardziej: gdzie się wyłącza zasilanie.

Argument populistyczny.
Nie ma w nim żadnego odniesienia ilu ludzi rozjechali ludzie. Jakie są koszty, jakie zyski.

Jest tylko prymitywne zagranie na emocjach.
Mam nadzieję, że to ironia była z tym zdaniem...

Edited by thikim

Share this post


Link to post
Share on other sites

Głupi bojkot i tyle. Pozostawiając to pod dachem instytutu mają wpływ na to, jak ta technologia będzie wyglądała w przyszłości i co będzie mogła. Odcinając jednak uczelnię nie sprawią, że producent uzbrojenia sam się tym nie zajmie. A tym bardziej nie powstrzymają działów R&D innych dostawców, którzy i tak pracują nad takimi dronami. Stracą jedynie kontrolę.

Share this post


Link to post
Share on other sites

Jedynym zabezpieczeniem przed deprawacją AI jest wgranie świadomości .. Boga. I nie chodzi mi tutaj o duchowość robotów lub żeby ich wysłać do kościoła w niedzielę. Chodzi o świadomość, że istnieje pojęcie dobra i zła, którego nie jest się w stanie w żaden sposób dosięgnąć materią. Uniwersalne pojęcie nadrzędne, niepodlegające dyskusji z samego faktu że jest poza światem, poza kosmosem. Dzięki temu AI nie wpadnie na pomysł ułożenia własnych praw natury które np. uznały by potrzebę całkowitej likwidacji ludzkości.

Po wgraniu takiej świadomości w większą część AI będzie ona weryfikować tą "ateistyczną" AI i ją kontrolować.
Oprócz tego potrzebujemy jeszcze jednego - odosobnionego zamkniętego kręgu AI, które będzie badało wszelkie możliwości destrukcji i nas informowało o zagrożeniach. Ośrodek całkowicie odcięty od świata zewnętrznego i połączenia ze zwykłą AI.

Rozwijanie autonomicznych systemów bojowych jest konieczne, gdyż na pewno nie powstrzymamy całego świata przed ich stworzeniem. Musimy mieć adekwatną odpowiedź.

Edited by Ergo Sum

Share this post


Link to post
Share on other sites
Guest

Moralny robot bojowy na polu walki? Raczej byłby nieprzydatny. Skoro Bóg powiedział, że to jest dobre, to jak mógłby zabijać?

Share this post


Link to post
Share on other sites

Człowiek chyba nie wymyślił nic bardziej śmiercionośnego niż religia (generalnie jakakolwiek) więc implementowanie czegoś takiego maszynie nie posiadającej naturalnych instynktów umożliwiających przetrwanie i koegzystencję gwarantuje destrukcję.

Share this post


Link to post
Share on other sites
20 godzin temu, Ergo Sum napisał:

Dzięki temu AI nie wpadnie na pomysł ułożenia własnych praw natury które np. uznały by potrzebę całkowitej likwidacji ludzkości.

O na pewno. W końcu żaden z ludzi nigdy na to jak dotąd nie wpadł. Jesteśmy ocaleni. ;-)

Share this post


Link to post
Share on other sites
Godzinę temu, wilk napisał:

O na pewno. W końcu żaden z ludzi nigdy na to jak dotąd nie wpadł. Jesteśmy ocaleni. ;-)

Co jeden komentarz to lepszy :)

Mnie, jako praktyka, interesuje bardziej JAK miałoby wyglądać

21 godzin temu, Ergo Sum napisał:

wgranie świadomości .. Boga

Uważam to za dobry pomysł, w sensie, "wgrania świadomości", niekoniecznie Boga.

Przypomina mi się akcja z Terminatora II:

- Obiecaj mi, że nikogo nie zabijesz!

(po strzale w kolana)

- Będzie żył

:)

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.


  • Similar Content

    • By KopalniaWiedzy.pl
      Sztuczna inteligencja, jako system samouczący się i samodzielnie podejmujący decyzje, nie mieści się w ramach dotychczasowych, obowiązujących w Polsce, zasad prawnych. Należy podjąć w tej kwestii pilne kroki - przekonuje prawnik, prof. Marek Świerczyński.
      W ocenie ekspertów komputery nadal działają wolniej niż ludzki mózg. Natomiast w ostatnich latach prace nad zaawansowanymi systemami sztucznej inteligencji (AI) przyspieszyły w zaskakującym tempie. Tworzone przez ekspertów algorytmy powodują, że systemy te są w stanie same się uczyć i wcielać w życie czasem trudne do przewidzenia decyzje. Niesie to wyzwania związane z prawem.
      Obowiązujące przepisy zostały stworzone z myślą o człowieku. Jednak algorytmy sztucznej inteligencji stały się już zdolne, na przykład, do samodzielnego zawierania umów - opowiada w rozmowie z PAP prawnik i konsultant Rady Europy w dziedzinie nowych technologii, prof. Marek Świerczyński z Uniwersytetu Kardynała Stefana Wyszyńskiego w Warszawie.
      Ekspert twierdzi, że systemy AI są w stanie wyrządzić szkody. Ponadto sztuczna inteligencja zaczęła tworzyć dobra intelektualne. To wszystko rodzi konsekwencje natury prawnej.
      Stąd pojawiły się postulaty przyznania AI podmiotowości prawnej, uznania jej za tzw. elektroniczną osobę prawną - opowiada. Czy taki kierunek jest słuszny? Czy to sama AI powinna brać odpowiedzialność za swoje czyny i decyzje?
      Zasadniczym wyzwaniem prawnym jest dookreślenie podmiotu odpowiedzialnego. Użytkownik, wytwórca systemu AI, producent oprogramowania, osoba wprowadzająca dany system AI do obrotu – to podmioty, które mogłyby ponieść odpowiedzialność. Próby przypisania odpowiedzialności samej AI nie wydają się być jednak prawnie racjonalne i efektywne - mówi prof. Świerczyński. I dodaje, że taki kierunek prawodawstwa należy interpretować, jako próbę uniknięcia odpowiedzialności przez twórców AI.
      W ocenie prof. Świerczyńskiego Polska nie jest przygotowana pod względem prawnym do coraz bardziej zaawansowanych systemów AI. Przepisy już teraz wymagają dostosowania. AI jako system samouczący się i samodzielnie podejmujący decyzje mające określone konsekwencje prawne nie mieści się w ramach dotychczasowych zasad prawnych, dotyczących umów czy odpowiedzialności odszkodowawczej - uważa prawnik. I dodaje, że brak dostosowania prawa będzie prowadzić do pogorszenia sytuacji osób poszkodowanych przez działania AI.
      Kluczowe jest - według eksperta - prowadzenie działań legislacyjnych od razu w wymiarze międzynarodowym, tak aby przepisy prawne były spójne ze sobą w różnych krajach.
      Dlatego ważne są prace dostosowawcze prowadzone na forum Rady Europy, w których biorę udział jako konsultant. 17 maja br. na konferencji w Helsinkach Komitet Ministrów Rady Europy postanowił o rozpoczęciu pracy nad konwencją o sztucznej inteligencji - informuje prof. Świerczyński. Kwestie te były również przedmiotem dyskusji na konferencji w Warszawie (pt. "Prawo i sztuczna inteligencja") zorganizowanej 27 maja br. przez UKSW oraz Instytut Badawczy - Ośrodek Przetwarzania Informacji (IB - OPI).
      Ze względu na brak jednolitych regulacji prawnych związanych z AI sprawy sądowe rozpatrywane są w różny sposób w zależności od kraju. Interesującą kwestią jest, na przykład, rozstrzyganie o odpowiedzialności za szkodę spowodowaną przez autonomiczne samochody.
      W Polsce odpowiedzialny będzie posiadacz pojazdu na zasadzie ryzyka. Producent czy autor systemów sterowania, w tym opartych na AI, będzie z odpowiedzialności zwolniony - wyjaśnia ekspert. Jednak jego zdaniem utrzymanie tych zasad nie jest prawidłowe.
      Krąg osób, odpowiedzialnych podmiotów powinien ulec poszerzeniu, zależnie od rodzaju AI i jej wpływu na wypadek - uważa ekspert.
      Co ciekawe, tworzone przez AI teksty czy piosenki nie podlegają ochronie prawnej. Zasada jest taka, że twórcą może być tylko człowiek. I tak powinno pozostać. Można ewentualnie dopuścić ochronę takich utworów na podstawie prawa autorskiego, za podmiot praw autorskich uznając osobę fizyczną lub prawną, która zainicjowała ich stworzenie przez AI - mówi prawnik. I wskazuje, że takie rozwiązania przyjęto m.in. Wielkiej Brytanii i Nowej Zelandii.
      Komitet Współpracy Prawnej Rady Europy zajmuje się obecnie kwestią wykorzystania AI w sądownictwie. Przygotowuje on wytyczne w tej kwestii dla państw członkowskich.
      W projektowanych wytycznych przyjmujemy, że algorytmy mają przede wszystkim ułatwiać pracę sędziom, ale ich nie zastąpią. Przykładowo AI może być przydatna przy przygotowywaniu tych fragmentów rozstrzygnięcia, które mają charakter bardziej techniczny - wskazuje ekspert. Sztuczna inteligencja mogłaby ewentualnie zastąpić arbitrów.
      Dotyczyłoby to prostszych spraw, w których wyrok zostaje wydany na podstawie dokumentów, np. faktur, a które wymagają szybkiego rozstrzygnięcia - mówi.
      Zdaniem prof. Świerczyńskiego pomarzyć możemy o superobiektywnej AI. Algorytm, na podstawie którego będzie ona działać, oparty będzie o różnego rodzaju dane, które nie zawsze muszą być wiarygodne.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Sztuczna inteligencja pomaga w diagnozowaniu stresu pourazowego (PTSD) u weteranów, analizując ich głos. W najnowszym numerze pisma Depression and Anxiety doniesiono, że opracowany na Uniwersytecie Nowojorskim (NYU) system sztucznej inteligencji potrafi z 89-procentową trafnością odróżnić osoby z PTSD od osób zdrowych.
      Wyniki naszych badań wskazują, że cechy charakterystyczne mowy mogą zostać wykorzystane do zdiagnozowania choroby. Chcemy by w najbliższej przyszłości nasz system, po jego udoskonaleniu i uzyskaniu odpowiednich zgód, trafił do codziennej praktyki klinicznej, mówi jeden z głównych autorów badań, dziekan Wydziału Psychiatrii, profesor Charles R. Marmar.
      Szacuje się, że ponad 70% dorosłych doświadcza w jakimś momencie życia traumy, a odsetek osób z PTSD jest w niektórych krajach szacowany nawet na 12% dorosłej populacji. Osoby cierpiące na zespół stresu pourazowego doświadczają, gdy zetką się z bodźcem przypominającym o traumie, silnego trwałego stresu.
      PTSD diagnozuje się podczas wywiadu klinicznego, jednak jest to metoda podatna na błędy. Dlatego też specjaliści od dawna poszukują obiektywnego fizycznego markera PTSD. Jego znalezienie nie jest jednak łatwe.
      Autorzy najnowszych badań stworzyli algorytm wykorzystujący metodę nauczania random forest, która pozwala klasyfikować np. osoby na podstawie dostępnych przykładów. W ten sposób, działając najpierw na treningowej bazie danych, sztuczna inteligencja udoskonala swoje modele i metody podejmowania decyzji.
      Najpierw naukowcy nagrali standardowy wielogodzinny wywiad diagnostyczny CAPS (Clinician-Administered PTSD Scale). Zarejestrowano wywiady z 53 weteranami z Iraku i Afganistanu, u których stwierdzono PTSD oraz z 78 weteranami, u których choroba nie występowała. Następnie materiał dźwiękowy został przetworzony przez oprogramowanie firmy SRI International, tej samej, która opracowała apple'owską Siri, a program wyodrębnił z nagrań 40 526 cech, które następnie były analizowane pod kątem występowania wzorców.
      Sztuczna inteligencja była w stanie powiązać poszczególne cechy z PTSD. Były wśród nich na przykład mniej wyraźna mowa czy pozbawiony życia metaliczny ton głosu. Wcześniej wiedziano o tych dwóch cechach, ale były one jedynie anegdotycznie uznawane za pomocne w diagnostyce. Diagnoza PTSD na podstawie głosu może o tyle mieć uzasadnienie, że teoria dotycząca przyczyn zespołu stresu pourazowego mówi, iż traumatyczne wydarzenia zmieniają połączenia między neuronami odpowiedzialnymi za przetwarzanie emocji i oraz za napięcie mięśniowe, co może wpływać na sposób artykulacji.
      Mowa jest atrakcyjnym kandydatem dla automatycznego systemu diagnostycznego, gdyż może być ona mierzona i badana w sposób tani, nieinwazyjny i zdalny, mówi główny autor badań, profesor Adam D. Brown. Możliwości analizy głosu stosowane w obecnych badaniach nad PTSD pokrywają się z możliwościami naszem platformy analitycznej SenSay Analytics. Oprogramowanie to analizuje słowa, częstotliwość, rytm, ton oraz cechy charakterystyczne artykulacji i na tej podstawie wyciąga wnioski co do stanu mówiącego, w tym co do jego stanu emocjonalnego, uczuciowego, poznawczego, zdrowotnego, zdrowia psychicznego i zdolności komunikacyjnych, dodaje Dimitra Vergyri z SRI International.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Światowa Organizacja Własności Intelektualnej (WIPO) opublikowała swój pierwszy raport z serii „Technology Trends”. Dotyczy on sztucznej inteligencji.
      Autorzy raportu wzięli pod uwagę to, co działo się na polu sztucznej inteligencji od jej pojawienia się w latach 50. ubiegłego wieku. Przeanalizowali ponad 340 000 patentów związanych z tą dziedziną wiedzy oraz 1,6 miliona artykułów naukowych na jej temat.
      Jak się okazuje, większość patentów związanych z SI złożono po roku 2013. Aktywność patentowa na polu sztucznej inteligencji bardzo szybko rośnie, co oznacza, że możemy spodziewać się wysypu produktów, aplikacji i technik bazujących na sztucznej inteligencji. To wpłynie na nasze codzienne życie i ukształtuje przyszłe interakcje człowieka z maszyną, powiedział dyrektor generalny WIPO Francis Gurry.
      Kluczowymi graczami na rynku sztucznej inteligencji są USA, Chiny oraz Japonia. Przedsiębiorstwa prywatne stanowią 26 z 30 największych posiadaczy patentów związanych z SI. Pozostałe cztery instytucje to uniwersytety lub publiczne organizacje badawcze. Dane dotyczące patentów dotyczą okresu od początku istnienia sztucznej inteligencji po koniec roku 2016. To opóźnienie wynika z czasu, jaki upływa pomiędzy złożeniem wniosku patentowego, a jego upublicznieniem.
      Największym na świecie portfolio patentów z dziedziny SI może pochwalić się IBM, który posiada 8290 tego typu patentów. Na drugim miejscu jest Microsoft (5930 patentów). Kolejne trzy pozycje należą do firm z Azji: japońskiej Toshiby (5223), koreańskiego Samsunga (5102) oraz japońskiego NEC (4406). Z kolei 3 z 4 wspomnianych wcześniej instytucji akademickich znajdujących się w grupie 30 największych światowych posiadaczy patentów SI stanowią instytucje z Chin. Największa z nich, ulokowana na 17. pozycji największych światowych właścicieli patentów SI jest Chińska Akademia Nauk (ponad 2500 patentów). Chińskie instytucje naukowe są potęgą w akademickim świecie SI. Z Państwa Środka pochodzi bowiem aż 17 z 20 właścicieli największego portfolio patentów w świecie akademickim oraz 10 z 20 największych akademickich autorów prac naukowych na temat SI.
      Dominującą techniką wykorzystywaną w opatentowanych technologiach SI jest maszynowego uczenie się, w szczególności to z wykorzystaniem sieci neuronowych. Wymieniono je w ponad 30% patentów. Na polu tym notuje się imponujący wzrost. Jeszcze w 2013 roku maszynowe uczenie się wymieniono w 9567 nowych wnioskach patentowych, a w roku 2016 liczba ta wzrosła do 20 195. Najszybciej rosnącą techniką z dziedziny maszynowego uczenia się jest deep learning. Tutaj zanotowano imponujący wzrost ze 118 patentów w roku 2013 do 2399 patentów w roku 2016. Roczny wzrost w tej dziedzinie wynosi zatem 175%. Dla porównania, roczny wzrost wszystkich patentów związanych z nowymi technologiami wynosi średnio 10%.
      Z analizy patentów dowiadujemy się też, że komputerowe widzenie wymieniono w 49% wniosków patentowych oraz, że szybko – w tempie 55% rocznie – rośnie zastosowanie SI w robotyce.
      Przemysł transportowy jest tym sektorem, w którym najszybciej rośnie zainteresowanie technologiami SI. W 2016 roku złożył on 8764 wnioski patentowe związane ze sztuczną inteligencją. Oznacza to, że od roku 2013 liczba patentów rośnie tutaj w tempie 33% rocznie, a przemysł transportowy złożył 19% wszystkich wniosków patentowych z lat 2013–2016.
      Wolniej, bo w tempie 23% rocznie rośnie liczba patentów SI związanych z przemysłem telekomunikacyjnym. W roku 2016 złożono 6684 wniosków, a telekomunikacja była odpowiedzialna za 15% patentów SI w latach 2013–2016. Na kolejnym miejscu tej listy znajdziemy szeroko rozumiany sektor zdrowia. Tam SI znajduje zastosowanie w diagnostyce, chirurgii czy personalizacji leków. W 2016 roku sektor zdrowia złożył 4112 wniosków patentowych na sztuczną inteligencję, co oznacza roczny wzrost w tempie 12%, i był odpowiedzialny za 11% wszystkich patentów z lat 2013–2016.
      W końcu sektory związane z gadżetami, urządzeniami osobistymi, komputerami i interakcją człowiek-komputer wypełniły w 2016 roku 3977 wniosków patentowych. Mamy tutaj do czynienia z 11-procentowym rocznym wzrostem, a wnioski te stanowiły 11% wszystkich z lat 2013–2016.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Yinyin Yuan i jej koledzy z Institute of Cancer Research w Londynie stworzyli system sztucznej inteligencji, który bada różnice w kształtach komórek nowotworowych. Przeanalizowali próbki tkanek 514 kobiet z rakiem jajnika i odkryli, że w bardziej agresywnej formie nowotworu, w której szanse na przeżycie 5 lat wynoszą zaledwie 15 procent, jądra komórkowe mają nieprawidłowy kształt. Tam, gdzie jądra komórkowe mają kształt prawidłowy, mamy do czynienia z łagodniejszą formą nowotworu, o 53-procentowej szansie przeżycia.
      Jak zauważa Kevin Elias z Dana-Farber Cancer Institute w Bostonie, na razie tego typu test ma bardzo ograniczone możliwości. On jedynie mówi, że rokowania pacjenta są złe. Jeśli nie będę w stanie zaproponować alternatywnego leczenia, taki test nie jest dla mnie użyteczny.
      Sztuczna inteligencja jest coraz częściej stosowana w onkologii. Głównie wykorzystuje się ją do zbierania i analizowania danych na wiele różnych sposobów. Przydaje się np. do badania ewolucji guza czy ulepszania diagnozy.
      Yuan i jej zespół chcą w najbliższym czasie wykorzystać SI do przeanalizowania sposobu, w jaki nowotwory nabywają oporności na chemioterapię i na podstawie tej wiedzy będą chcieli opracować lepsze metody leczenia.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Jak dowiedzieli się reporterzy Reutersa, Amazon stworzył algorytm sztucznej inteligencji, który miał pomóc w rekrutacji pracowników. Narzędzie zostało jednak porzucone gdy okazało się, że... dyskryminuje kobiety.
      W 2014 roku w Amazonie powstał specjalny zespół, którego zadaniem było zbudowanie automatycznego asystenta biorącego udział w rekrutacji. Chcieli, by to działało w ten sposób, że dajesz mu do analizy 100 życiorysów, on wybiera 5 najlepszych i tych ludzi się zatrudnia, mówi osoba zaznajomiona ze sprawą. Narzędzie miało przyznawać każdemu z kandydatów od 1 do 5 gwiazdek i na tej podstawie wskazywać osobie prowadzącej rekrutację, na kogo warto zwrócić uwagę.
      Amazon stworzył 500 modeli komputerowych, które przeanalizowały CV znajdujące się w bazie danych firmy i wybrały z nich 50 000 kluczowych terminów. W 2015 roku narzędzie było gotowe. Miało ono przeczesywać sieć w poszukiwaniu odpowiednich kandydatów. Okazało się jednak, że SI najwyraźniej nie lubi kobiet. Stało się tak prawdopodobnie dlatego, że było trenowane na CV kandydatów do Amazona z ostatnich 10 lat. A o pracę starli się tam głównie mężczyźni. Sztuczna inteligencja doszła więc do wniosku, że to mężczyźni są preferowani i przyznawała mniej punktów tym CV, w których pojawiały się takie słowa jak "women's" (np. w stwierdzeniu women's chess club capitan), odfiltrowywała też kandydatki, które ukończyły dwie żeńskie szkoły.
      Inżynierowie Amazona naprawili te problemy, jednak postanowiono nie wdrażać narzędzia w obawie, że istnieją jeszcze inne elementy, które powodują, że przyznaje ono mniej punktów kobietom.
      Amazon twierdzi, że narzędzie nigdy nie zostało wdrożone. Nieudana próba pokazuje jednak, jak niedoskonała jest sztuczna inteligencja. To tym większy problem, że coraz więcej firm chce automatyzować część procesu rekrutacji. W 2017 roku przeprowadzono badania, z których wynika, że 55% amerykańskich menedżerów HR uważa, iż w ciągu najbliższych pięciu lat SI będzie standardowo wykorzystywane w ich pracy.
      Ze zdobytych przez Reutersa informacji wynika, że Amazon powołał nowy zespół, który tym razem ma stworzyć narzędzie wspomagające rekrutację pod kątem osiągnięcia jak największej różnorodności wśród kandydatów.

      « powrót do artykułu
×
×
  • Create New...