Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Eksperci od sztucznej inteligencji wzywają do bojkotu KAIST

Recommended Posts

Ponad 50 ekspertów zajmujących się sztuczną inteligencją wezwało do bojkotu Koreańskiego Zaawansowanego Instytutu Nauki i Technologii (KAIST). Zdaniem naukowców, prowadzone przez KAIST badania mogą prowadzić do trzeciej rewolucji w działaniach wojennych.

KAIST ściśle współpracuje z największym koreańskim producentem uzbrojenia, firmą Hanwha Systems. Ekspertów zaniepokoił fakt, że niedawno obie instytucje powołały do życia Centrum Badań nad Konwergencją Obrony Narodowej i Sztucznej Inteligencji. Zdaniem naukowców z całego świata, centrum takie może doprowadzić do wyścigu zbrojeń, których celem będzie opracowanie autonomicznych systemów bojowych. Sygnatariusze listu oświadczyli, że nie będą współpracowali z KAIST dopóty, dopóki uczelnia nie zapewni, że nowo powołane centrum badawcze nie będzie prowadziło prac nas autonomiczną bronią.

Autonomiczne systemy bojowe, jeśli powstaną, doprowadzą do trzeciej rewolucji w działaniach zbrojnych. Pozwolą one prowadzić wojny szybciej i na większą skalę niż kiedykolwiek wcześniej. Mogą stać się narzędziem do siania terroru. Dyktatorzy i terroryści będą mogli użyć ich przeciwko niewinnym cywilom, uwalniając się ze wszystkich ograniczeń etycznych. Jeśli otworzymy tę puszkę Pandory, trudno będzie ją zamknąć. Możemy jednak zdecydować, że nie będziemy rozwijali takich technologii. Tak, jak w przeszłości zdecydowaliśmy, że nie będziemy np. rozwijali lasera do oślepiania ludzi. Wzywamy KAIST właśnie do takiego postępowania i do prac nad SI, która udoskonala ludzkie życie, a nie mu szkodzi.

Organizator bojkotu, profesor Toby Walsh z Uniwersytetu Nowej Południowej Walii powiedział, że rozwój autonomicznych systemów bojowych tylko pogorszy sytuację na Półwyspie Koreańskim. Jeśli ta broń się pojawi, to w końcu będzie miała ją też Korea Północna, która bez najmniejszych wyrzutów sumienia użyje jej przeciwko Południu, stwierdził Walsh.
Korea Południowa jest światowym liderem w dziedzinie rozwoju autonomicznych systemów bojowych. Wzdłuż Koreańskiej Strefy Zdemilitaryzowanej rozmieszczono m.in. systemy Samsung SGR-A1. To pierwsze roboty bojowe wyposażone w systemy do nadzoru, śledzenia, prowadzenia ognia i rozpoznawania głosu.

Prezydent KAIST, Sung-Chul Shin mówi, że uczelnia nie prowadzi prac nad autonomicznym uzbrojeniem.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Eeee. Znaczy się teoria o tym że jak my się rozbroimy to i nasz przeciwnik też :D

 

Share this post


Link to post
Share on other sites
10 godzin temu, riyader napisał:

Macie tą straszną sztuczną inteligencję:

Żarcik ?

Moim zdaniem porównywanie zwykłych czujek ruchu (do tego źle skonfigurowanych) sprzed 40 lat ze sprzętem takim jak SGR-A1 to lekkie nieporozumienie.

 

8 godzin temu, Przemek Kobel napisał:

Jest jeszcze gorzej

Z ludźmi jeszcze gorzej:

https://list25.com/25-incredible-optical-illusions/

Share this post


Link to post
Share on other sites

bojkot czegoś tam nic nie da i jest bez sensu. Natury ludzkiej się nie oszuka. Pierwsza maczuga zapewne została wykorzystana do rozwalenia głowy sąsiada, dopiero w następnej kolejności do polowania na zwierzynę. Z rozszczepieniem atomu i wieloma innymi wynalazkami było identycznie. Nie widzę przesłanek że człowiek się zmienił i wykorzysta jakiś nowy wynalazek(posiadający potencjał czynienia zła) do czynienia dobra. Jedyna nadzieja jest w tym, że nowoczesne technologie szybko są kopiowane przez innych i można doprowadzić do patowej sytuacji w której trzeba pamiętać że jak wyślę robota na sąsiada to on zapewne wyśle swojego na mnie

Share this post


Link to post
Share on other sites

Moja ulubiona iluzja wygląda mniej więcej tak: 3f6b0f4044eb99a4b75481f1085dab27.jpg

Ale gdybym nie był w stanie odróżnić kota od miski jakiejś papki, to nie wiem, czy ktoś wpuściłby mnie za kierownicę. Już prędzej na oddział detoksykacji.

Share this post


Link to post
Share on other sites
2 godziny temu, Przemek Kobel napisał:

.....Już prędzej na oddział detoksykacji

;) Pewnie to samo powiedziałoby AI o tych przykładach, które podałem.

Problem z ludźmi (i innymi istotami żywymi) jest taki, że łatwo odwrócić ich uwagę. Mój przykład służył unaocznieniu, że pomimo milionów lat ewolucji mamy sporo słabych punktów i luk w postrzeganiu, które w szybko rozwijającym się świecie technologicznym trudno załatać a mogą sprawiać poważne problemy. Adaptacja ewolucyjna jest po prostu zbyt wolna.

P.S. Myślę, że to nad czym pracuje Neuralink (i podobne rozwiązania) to jedyna droga dla istot biologicznych aby nadążyć.

Moja ulubiona: 

Spirala.jpg

Edited by rahl
dodanie obrazka

Share this post


Link to post
Share on other sites

Przepraszam, ale obecne AI rozjeżdżają ludzi i nie widzą w tym problemu, więc mało mnie obchodzi co by one powiedziały. Już bardziej: gdzie się wyłącza zasilanie.

Share this post


Link to post
Share on other sites

 

42 minuty temu, Przemek Kobel napisał:

nie widzą w tym problemu

Skąd wiesz, rozmawiałeś z tą AI ?  :P

Poza tym super, ale to ludzie rozjeżdżają dziesiątki tysięcy ludzi rocznie, i najczęściej przechodzących we właściwych miejscach, idących poboczem albo nawet stojących na przystankach autobusowych.

P.S. Nie rozumiem skąd to personifikowanie tych prymitywnych AI, nawet samo sformułowanie AI to nadużycie językowe, jakich wiele dziś, podobnie jak z przedrostkiem "nano". Równie dobrze mógłbyś mieć żal do drzew, bo czasem spadnie jakiś konar i kogoś zabije.

Edited by rahl
Dodanie do wypowiedzi + korekta

Share this post


Link to post
Share on other sites
40 minut temu, Przemek Kobel napisał:

Ale akurat w tej sytuacji człowiek by tej kobity nie zabił.

ale czego by to miało dowieść? bo w zasadzie można by znaleźć (i udowodnić), że w danej sytuacji gdzie człowiek zabił automat by nie zabił.

 

Ostatecznie chodzi o to aby automaty były sumarycznie bezpieczniejsze niż ludzie i z wypadku na wypadek podobnie jak w lotnictwie, prawdopodobieństwo wypadku będzie zmniejszane. A to, że znajdziesz przypadek gdzie człowiekowi by się najprawdopodobniej udało niczego nie dowodzą.

Share this post


Link to post
Share on other sites

Ano tego, że AI wyszkolona specjalnie do bezpiecznej jazdy i uzbrojona we wszelkiego rodzaju czujniki do widzenia w nocy oraz reagująca ponad 1000-krotnie szybciej od człowieka ani nie zareagowała szybciej, ani nie zobaczyła lepiej, ani nie okazała się bezpieczna. Bo pewnie układ pasów na jezdni skojarzył sie jej z kaszą gryczaną, albo coś w tym rodzaju (czego tak łatwo wcale nie można stwierdzić, bo gdyby się dało, to nie budowano by sieci neuronowej, tylko po prostu napisano cywilizowany algorytm). A tak naprawdę to tylko tego, że eksperci od AI popędzani przez granty, IPO albo kursy akcji, są mniej więcej tak godni zaufania jak oprych w ciemnej bramie. 

Edited by Przemek Kobel

Share this post


Link to post
Share on other sites

Jak dla mnie to po prostu jakiś błąd projektowych i tyle. Ty opisujesz jak by to sieć kierowała a nie sądzę aby tak było. SSN i kamery to tylko jeden z elementów, wazne są też czujniki które wprost mówią czy jest przeszkoda tuż przed nami i jak szybko się do niej zbliżamy, I niezależnie jak to SNN interpretuje wypadało by się jednak przed tą przeszkodą zatrzymać. Osobne są systemy śledzenia ścieżek obiektów (może któryś zawiódł w tej sytuacji, nie wiem) może powinny być zdublowane(różne technologie) w każdym razie taka samochodowa AI to nie jest jakaś tam SNN tylko sieć złożonych elementów. TAk że radar czy tam lidar to lidar, i nie ma co tam filozofować i interpretować odleglość to odległość a prędkość zbliżania to ta prękość. 

No coś poszło ewidentnie nie tak (pomijam, to, że pomijając temat AI, jak by to się człowiekowi przydarzyło to winną uznał bym pieszą).Ale znów tracisz ogólny sens, sprawdzą poprawią i znów będziemy dążyć aby sumarycznie maszyny były lepsze niż ludzie. No bo co by Cię zadowalało? Zerowa zabijalność maszyn? Nie możliwe? Samoloty też spadają.

A czy jeżeli automaty powodowały by 2x mniej wypadków niż ludzie już było by dla Ciebie ok? Gdzieś musi być granica

Edited by Afordancja

Share this post


Link to post
Share on other sites

@Przemek Kobel

A co podane przez ciebie przypadki mają wspólnego z AI ?

 

1 godzinę temu, Przemek Kobel napisał:

Ano tego, że AI wyszkolona specjalnie do bezpiecznej jazdy i uzbrojona we wszelkiego rodzaju czujniki do widzenia w nocy oraz reagująca ponad 1000-krotnie szybciej od człowieka ani nie zareagowała szybciej, ani nie zobaczyła lepiej, ani nie okazała się bezpieczna.

Ludzie szkolili, i przygotowali tą "AI", kierowca siedzący w aucie też nie zareagował poprawnie, więc proszę nie pisz bzdur, że człowiek by zareagował, skoro tego nie zrobił.

Zdarzenie to jest tragedią, co nie zmienia faktu, że ofiara przechodziła w kompletnie niedozwolonym miejscu mając w pełnej pogardzie ponad dwie tony rozpędzonego metalu i przypłaciła ten fakt życiem.

Share this post


Link to post
Share on other sites
2 minutes ago, rahl said:

A co podane przez ciebie przypadki mają wspólnego z AI ?

https://www.techemergence.com/global-competition-rises-ai-industrial-robotics/

 

2 minutes ago, rahl said:

Ludzie szkolili, i przygotowali tą "AI", kierowca siedzący w aucie też nie zareagował poprawnie, więc proszę nie pisz bzdur, że człowiek by zareagował, skoro tego nie zrobił.

https://www.bloomberg.com/news/articles/2018-03-22/video-said-to-show-failure-of-uber-s-tech-in-fatal-arizona-crash

 

Share this post


Link to post
Share on other sites

Ponowię pytanie:

Co proste roboty przemysłowe, przystosowane do wykonywania powtarzalnych czynności mają wspólnego z AI. Równie dobrze mógłbyś wtryskarce, albo prasie hydraulicznej nadać przydomek AI.

54 minuty temu, Przemek Kobel napisał:

Teorie teoriami, ale jakoś kierowca rzeczonego auta Ubera nie zareagował i nie zapobiegł wypadkowi.

Polecam obejrzeć jak to ludzie "unikają" wypadków:

 

https://youtu.be/I6801whkbFI?t=199

Do tego w biały dzień i przy doskonałej widoczności o znacznie mniejszych prędkościach. Ciekawe co na to "eksperci"

Share this post


Link to post
Share on other sites

Naiwne dzieci. Roboty i mniej lub bardziej zlozone formy ai wejda do zycia (przemysl, transport, nauka itd.) bez wzgledu na to czy to bedzie bezpieczne i czy beda czy nie beda temu towarzyszyc ofiary w ludzoach. Wystarczy, ze ich zastosowanie bedzie tansze niz uzywanie do tego ludzi. Autonomiczne pojazdy wyjada na ulice czy sie to komus podoba czy nie.

Share this post


Link to post
Share on other sites
W dniu 6.04.2018 o 12:03, Przemek Kobel napisał:

Przepraszam, ale obecne AI rozjeżdżają ludzi i nie widzą w tym problemu, więc mało mnie obchodzi co by one powiedziały. Już bardziej: gdzie się wyłącza zasilanie.

Argument populistyczny.
Nie ma w nim żadnego odniesienia ilu ludzi rozjechali ludzie. Jakie są koszty, jakie zyski.

Jest tylko prymitywne zagranie na emocjach.
Mam nadzieję, że to ironia była z tym zdaniem...

Edited by thikim

Share this post


Link to post
Share on other sites

Głupi bojkot i tyle. Pozostawiając to pod dachem instytutu mają wpływ na to, jak ta technologia będzie wyglądała w przyszłości i co będzie mogła. Odcinając jednak uczelnię nie sprawią, że producent uzbrojenia sam się tym nie zajmie. A tym bardziej nie powstrzymają działów R&D innych dostawców, którzy i tak pracują nad takimi dronami. Stracą jedynie kontrolę.

Share this post


Link to post
Share on other sites

Jedynym zabezpieczeniem przed deprawacją AI jest wgranie świadomości .. Boga. I nie chodzi mi tutaj o duchowość robotów lub żeby ich wysłać do kościoła w niedzielę. Chodzi o świadomość, że istnieje pojęcie dobra i zła, którego nie jest się w stanie w żaden sposób dosięgnąć materią. Uniwersalne pojęcie nadrzędne, niepodlegające dyskusji z samego faktu że jest poza światem, poza kosmosem. Dzięki temu AI nie wpadnie na pomysł ułożenia własnych praw natury które np. uznały by potrzebę całkowitej likwidacji ludzkości.

Po wgraniu takiej świadomości w większą część AI będzie ona weryfikować tą "ateistyczną" AI i ją kontrolować.
Oprócz tego potrzebujemy jeszcze jednego - odosobnionego zamkniętego kręgu AI, które będzie badało wszelkie możliwości destrukcji i nas informowało o zagrożeniach. Ośrodek całkowicie odcięty od świata zewnętrznego i połączenia ze zwykłą AI.

Rozwijanie autonomicznych systemów bojowych jest konieczne, gdyż na pewno nie powstrzymamy całego świata przed ich stworzeniem. Musimy mieć adekwatną odpowiedź.

Edited by Ergo Sum

Share this post


Link to post
Share on other sites
Guest

Moralny robot bojowy na polu walki? Raczej byłby nieprzydatny. Skoro Bóg powiedział, że to jest dobre, to jak mógłby zabijać?

Share this post


Link to post
Share on other sites

Człowiek chyba nie wymyślił nic bardziej śmiercionośnego niż religia (generalnie jakakolwiek) więc implementowanie czegoś takiego maszynie nie posiadającej naturalnych instynktów umożliwiających przetrwanie i koegzystencję gwarantuje destrukcję.

Share this post


Link to post
Share on other sites
20 godzin temu, Ergo Sum napisał:

Dzięki temu AI nie wpadnie na pomysł ułożenia własnych praw natury które np. uznały by potrzebę całkowitej likwidacji ludzkości.

O na pewno. W końcu żaden z ludzi nigdy na to jak dotąd nie wpadł. Jesteśmy ocaleni. ;-)

Share this post


Link to post
Share on other sites
Godzinę temu, wilk napisał:

O na pewno. W końcu żaden z ludzi nigdy na to jak dotąd nie wpadł. Jesteśmy ocaleni. ;-)

Co jeden komentarz to lepszy :)

Mnie, jako praktyka, interesuje bardziej JAK miałoby wyglądać

21 godzin temu, Ergo Sum napisał:

wgranie świadomości .. Boga

Uważam to za dobry pomysł, w sensie, "wgrania świadomości", niekoniecznie Boga.

Przypomina mi się akcja z Terminatora II:

- Obiecaj mi, że nikogo nie zabijesz!

(po strzale w kolana)

- Będzie żył

:)

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Sztuczna inteligencja lepiej niż technik-elektroradiolog ocenia i diagnozuje funkcjonowanie serca na podstawie badań ultrasonograficznych, wynika z badań przeprowadzonych przez naukowców z Cedars-Sinai Medical Center. Randomizowane testy prowadzili specjaliści ze Smidt Heart Institute i Division of Articifial Intelligence in Medicine.
      Uzyskane wyniki będą miały natychmiastowy wpływ na obrazowanie funkcji serca oraz szerszy wpływ na całe pole badań obrazowych serca, mówi główny autor badań, kardiolog David Ouyang. Pokazują bowiem, że wykorzystanie sztucznej inteligencji na tym polu poprawi jakość i efektywność obrazowania echokardiograficznego.
      W 2020 roku eksperci ze Smidt Heart Institute i Uniwersytetu Stanforda stworzyli jeden z pierwszych systemów sztucznej inteligencji wyspecjalizowany w ocenie pracy serca, a w szczególności w ocenie frakcji wyrzutowej lewej komory. To kluczowy parametr służący ocenie pracy mięśnia sercowego. Teraz, bazując na swoich wcześniejszych badaniach, przeprowadzili eksperymenty, w ramach których wykorzystali opisy 3495 echokardiografii przezklatkowych. Część badań została opisana przez techników, część przez sztuczną inteligencję. Wyniki badań wraz z ich opisami otrzymali kardiolodzy, którzy mieli poddać je ocenie.
      Okazało się, że kardiolodzy częściej zgadzali się z opisem wykonanym przez sztuczną inteligencję niż przez człowieka. W przypadku SI poprawy wymagało 16,8% opisów, natomiast kardiolodzy wprowadzili poprawki do 27,2% opisów wykonanych przez techników. Lekarze nie byli też w stanie stwierdzić, które opisy zostały wykonane przez techników, a które przez sztuczą inteligencję. Badania wykazały również, że wykorzystanie AI zaoszczędza czas zarówno kardiologów, jak i techników.
      Poprosiliśmy naszych kardiologów, by powiedzieli, które z opisów wykonała sztuczna inteligencja, a które technicy. Okazało się, że lekarze nie są w stanie zauważyć różnicy. To pokazuje, jak dobrze radzi sobie sztuczna inteligencja i że można ją bezproblemowo wdrożyć do praktyki klinicznej. Uważamy to za dobry prognostyk dla dalszych testów na wykorzystaniem SI na tym polu, mówi Ouyang.
      Badacze uważają, że wykorzystanie AI pozwoli na szybszą i sprawniejszą diagnostykę. Oczywiście o ostatecznym opisie badań obrazowych nie będzie decydował algorytm, a kardiolog. Tego typu badania, kolejne testy i artykuły naukowe powinny przyczynić się do szerszego dopuszczenia systemów AI do pracy w opiece zdrowotnej.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Na University of Leeds powstał system sztucznej inteligencji (SI), który analizuje skany oczu wykonywane podczas rutynowych wizyt u okulisty czy optyka i wskazuje osoby narażone na... wysokie ryzyko ataku serca. System analizuje zmiany w miniaturowych naczyniach krwionośnych siatkówki, o kórych wiemy, że wskazują na szerszy problem z układem krążenia.
      Specjaliści z Leeds wykorzystali techniki głębokiego uczenia się, by przeszkolić SI w automatycznym odczytywaniu skanów oraz wyławianiu osób, które w ciągu najbliższego roku mogą doświadczyć ataku serca.
      System, który został opisany na łamach Nature Machine Intelligence, wyróżnia się dokładnością rzędu 70–80 procent i zdaniem jego twórców może być wykorzystany przy diagnostyce chorób układu krążenia.
      Choroby układu krążenia, w tym ataki serca, to główne przyczyny zgonów na całym świecie i druga przyczyna zgonów w Wielkiej Brytanii. To choroby chroniczne, obniżające jakość życia. Ta technika może potencjalnie zrewolucjonizować diagnostykę. Skanowanie siatkówki to tani i rutynowy proces stosowany w czasie wielu badań oczu, mówi profesor Alex Frangi, który nadzorował rozwój nowego systemu. Osoby badane przez okulistę czy optometrystę mogą niejako przy okazji dowiedzieć się, czy nie rozwija się u nich choroba układu krążenia. Dzięki temu leczenie można będzie zacząć wcześniej, zanim pojawią się inne objawy.
      System sztucznej inteligencji trenowano na danych okulistycznych i kardiologicznych ponad 5000 osób. Uczył się odróżniania stanów patologicznych od prawidłowych. Gdy już się tego nauczył, na podstawie samych skanów siatkówki był w stanie określić wielkość oraz wydajność pracy lewej komory serca. Powiększona komora jest powiązana z większym ryzykiem chorób serca. Następnie SI, łącząc dane o stanie lewej komory serca z informacjami o wieku i płci pacjenta, może przewidzieć ryzyko ataku serca w ciągu najbliższych 12 miesięcy.
      Obecnie rozmiar i funkcjonowanie lewej komory serca jesteśmy w stanie określić za pomocą echokardiografii czy rezonansu magnetycznego. To specjalistyczne i kosztowne badania, które są znacznie gorzej dostępne niż badania prowadzone w gabinetach okulistycznych czy optycznych. Nowy system nie tylko obniży koszty i poprawi dostępność wczesnej diagnostyki kardiologicznej, ale może odegrać olbrzymią rolę w krajach o słabiej rozwiniętym systemie opieki zdrowotnej, gdzie specjalistyczne badania są bardzo trudno dostępne.
      Ten system sztucznej inteligencji to wspaniałe narzędzie do ujawniania wzorców istniejących w naturze. I właśnie to robi, łączy wzorce zmian w siatkówce ze zmianami w sercu, cieszy się profesor Sven Plein, jeden z autorów badań.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Zróżnicowanie komórek mózgowych może prowadzić do szybszego uczenia się, odkryli naukowcy z Imperial College London (ICL). Spostrzeżenie to może zwiększyć wydajność systemów sztucznej inteligencji. Uczeni zauważyli, że gdy w symulowanych sieciach neuronowych indywidualnie dobierali właściwości elektryczne poszczególnych komórek, sieci takie uczyły się szybciej, niż sieci złożone z komórek o identycznych parametrach.
      Okazało się również, że gdy mamy zróżnicowane komórki, sieć neuronowa potrzebuje ich mniej, a całość zużywa mniej energii niż sieć o identycznych komórkach.
      Zdaniem autorów badań, może to wyjaśniać, dlaczego mózgi tak efektywnie potrafią się uczyć. Mózg musi być wydajny energetycznie, a jednocześnie zdolnym do rozwiązywania złożonych zadań. Nasza praca sugeruje, że zróżnicowanie neuronów – zarówno w mózgach jak i w systemach sztucznej inteligencji – pozwala spełnić oba warunki, mówi główny autor badań, doktorant Nicolas Perez z Wydziału Inżynierii Elektrycznej i elektronicznej.
      Odkrycie powinno też zachęcić twórców sieci neuronowych do budowania ich tak, by były bardziej podobne do mózgu. Nasze mózgi składają się z neuronów. Pozornie są one identyczne, ale przy bliższym przyjrzeniu się, widoczne są liczne różnice. Z kolei każda komórka sztucznych sieci neuronowych jest identyczna, różnią się one tylko połączeniami. Pomimo dużych postępów w rozwoju systemów sztucznej inteligencji, bardzo daleko im do mózgów. Dlatego też uczeni z ICL zastanawiali się, czy przyczyną nie jest brak zróżnicowania komórek sztucznych sieci neuronowych.
      Rozpoczęli więc badania, w ramach których emulowali różne właściwości komórek składających się na siec sztucznej inteligencji. Zauważyli, że zróżnicowanie komórek spowodowało zwiększenie szybkości uczenia się i spadek zapotrzebowania na energię. Ewolucja dała nam niesamowicie funkcjonujący mózg. Dopiero zaczynamy rozumieć, jak on działa, stwierdził doktor Dan Goodman.
      W ramach badań uczeni manipulowali „stałą czasową”, czyli tym, jak szybko każda komórka sztucznej sieci neuronowej decyduje, co ma zrobić w zależności od tego, co robią połączone z nią komórki. Niektóre z tak manipulowanych komórek podejmowały decyzję bardzo szybko, natychmiast po tym, jak działania podjęły komórki z nimi połączone. Inne zaś odczekały chwilę i podejmowały decyzję na podstawie tego, co przez pewien czas robiły komórki z nimi połączone.
      Po zróżnicowaniu „stałej czasowej” swoich komórek, naukowcy przeprowadzili zestaw testów dla uczenia maszynowego się, takich jak rozpoznawanie gestów, pogrupowanie ubrań czy ręcznie napisanych cyfr oraz zidentyfikowanie wypowiadanych komend oraz cyfr.
      Eksperymenty pokazały, że połączenie komórek o różnej „stałej czasowej” powoduje, że cała sieć lepiej rozwiązuje złożone zadania. Okazało się przy okazji, że najlepiej sprawuje się sieć o takiej konfiguracji, której zróżnicowanie jest najbliższe zróżnicowaniu komórek w mózgu. To z kolei sugeruje, że nasz mózg ewoluował w kierunku osiągnięcia najlepszego poziomu zróżnicowania dla optymalnego uczenia się.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Rynkowy sukces lub porażka układu scalonego zależą w dużej mierze od etapu jego projektowania. Wtedy właśnie zostają podjęte decyzje odnośnie umiejscowienia na krzemie modułów pamięci i elementów logicznych. Dotychczas zadania tego nie udawało się zautomatyzować, a etap projektowania zajmuje inżynierom całe tygodnie lub miesiące. Inżynierowie Google'a poinformowali właśnie, że stworzony przez nich system sztucznej inteligencji poradził sobie z częściowym zaprojektowaniem chipa w ciągu godzin.
      Współczesne układy scalone składają się z miliardów tranzystorów, dziesiątek milionów bramek logicznych, tysiące bloków logicznych i łączących je kilometrów ścieżek. Lokalizacja poszczególnych układów i bloków logicznych odgrywa kluczową rolę dla przyszłej wydajności chipa. Specjaliści od dziesięcioleci pracują nad rozwiązaniami pozwalającymi zautomatyzować proces projektowania.
      Jako że bloki logiczne to duże elementy, tysiące i miliony razy większe od bramek logicznych, bardzo trudno jest jednocześnie umieszczać bloki i bramki. Dlatego współcześni projektanci układów najpierw umieszczają na krzemie bloki, a wolne miejsca zostają zapełnione pozostałymi bramkami logicznymi.
      Już samo rozmieszczenie bloków jest niezwykle wymagające. Eksperci Google'a obliczyli, że liczba możliwych kombinacji rozmieszczenia makrobloków, które brali pod uwagę w swoich badaniach, wynosi 102500.
      Planując rozmieszczenie bloków, inżynierowie muszą pamiętać o pozostawieniu miejsca na inne elementy i ich łączenie. Azalia Mirhoseini i jej zespół poinformowali na łamach Nature o stworzeniu metody automatycznego wstępnego projektowania chipa w czasie krótszym niż 6 godzin, które swoimi wynikami dorównuje lub nawet przewyższa to, co potrafią doświadczeni inżynierowie.
      naukowcy z Google'a wykorzystali techniki maszynowego uczenia się do wytrenowania swojego programu tak, by rozmieszczał na planie makrobloki. Po umieszczeniu każdego z nich program dokonuje oceny całego chipa, a następnie wykorzystuje to, czego się nauczył, do zaplanowania jak najlepszego kolejnego kroku.
      Co interesujące, projekty tworzone przez google'owską SI znacząco różnią się od tego, jak projektuje człowiek. Sztuczna inteligencja rozpoczyna od największych makrobloków. Ponadto w jakiś sposób unika ciągłego poprawiania tego, co już zostało zrobione. Inżynierowie, po umieszczeniu kolejnych bloków, bardzo często poprawiają rozmieszczenie następnych. SI tego nie robi. Mimo to udało jej się zaprojektować układy, w których sygnał pomiędzy poszczególnymi elementami biegnie równie sprawnie, co między układami zaprojektowanymi przez ludzi.
      Google już stosuje metody opracowane prze Mirhoseini do projektowania układów dla przyszłej generacji systemów sztucznej inteligencji. Tymczasem producenci układów scalonych próbują odtworzyć osiągnięcie Google'a i wdrożyć podobne rozwiązania do własnego procesu projektowania.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Unia Europejska pracuje nad regulacjami dotyczącymi użycia sztucznej inteligencji. Regulacje takie mają na celu stworzenie przejrzystych reguł wykorzystania AI i zwiększenie zaufania do najnowocześniejszych technologii.
      Nowe zasady mają regulować nie tylko używanie sztucznej inteligencji na terenie UE, ale również prace nad nią. Unia chce bowiem stać się jednym z głównych centrów rozwoju bezpiecznej, godnej zaufania i nakierowanej na człowieka sztucznej inteligencji.
      Regulacje skupiają się przede wszystkim na tych zastosowania AI, które mogą nieść ze sobą ryzyko naruszania praw czy prywatności. Wchodzą tutaj w grę przepisy dotyczące identyfikacji biometrycznej i kategoryzowania ludzi, egzekwowania prawa, zarządzania kwestiami azylowymi i granicznymi, migracji, edukacji i innych pól, na których AI może znaleźć zastosowanie.
      Eurourzędnicy chcą zakazać stosowania technologii, które mogą stanowić potencjalne zagrożenie dla bezpieczeństwa i podstawowych praw człowieka. Przepisy mają np. zapobiegać społecznemu kategoryzowaniu ludzi przez sztuczną inteligencję, jak ma to miejsce w Chinach czy USA. Zakazane ma być np. stosowanie sztucznej inteligencji do tworzenia reklam nakierowanych na konkretnego odbiorcę. Unia Europejska chce również, by przedsiębiorstwa mały obowiązek informowania użytkowników, gdy AI będzie wykorzystywana do określania ludzkich emocji czy klasyfikowania ludzi ze względu na niektóre dane biometryczne.
      Wysunięte propozycje obejmują bardzo szeroki zakres działalności AI, do samochodów autonomicznych poprzez reklamę bo bankowe systemy decydujące o przyznaniu kredytu. To bardzo ważny globalny przekaz mówiący, że pewne zastosowania sztucznej inteligencji są niedopuszczalne w krajach demokratycznych, praworządnych, przestrzegających praw człowieka, mówi Daniel Leufer, analityk z organizacji Access Now.
      Na razie propozycje są dość ogólne, ale i pełne luk, pozwalające na sporą interpretację. Z pewnością jednak działaniom UE będą przyglądały się firmy z całego świata, gdyż proponowane przepisy będą bezpośrednio dotyczyły tego, w jaki sposób przedsiębiorstwa będą mogły wykorzystywać AI na terenie Unii.
      Avi Gesser, partner w amerykańskiej firmie Debevoise mówi, że unijne regulacje – mimo że do czasu ich wprowadzenia z pewnością miną całe lata – wpłyną na przepisy na całym świecie. Zwykle prawodawcy nie palą się do wprowadzania tego typu przepisów. Raz, że uważają, iż AI to kwestia ściśle techniczna, dwa, że boją się zablokować swoimi przepisami rozwój. Jeśli więc pojawią się przepisy unijne, prawdopodobnie będą się na nich wzorowali prawodawcy z innych krajów.
      Do rozwiązania zaś pozostają tak poważne kwestie, jak np. problem manipulacji ludzkimi zachowaniami. Cała reklama polega na manipulacji. Prawdziwym wyzwaniem jest więc określenie, jakie manipulacje są dopuszczalne, a jakie niedopuszczalne, zauważa Gesser.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...