Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Eksperci od sztucznej inteligencji wzywają do bojkotu KAIST

Recommended Posts

Ponad 50 ekspertów zajmujących się sztuczną inteligencją wezwało do bojkotu Koreańskiego Zaawansowanego Instytutu Nauki i Technologii (KAIST). Zdaniem naukowców, prowadzone przez KAIST badania mogą prowadzić do trzeciej rewolucji w działaniach wojennych.

KAIST ściśle współpracuje z największym koreańskim producentem uzbrojenia, firmą Hanwha Systems. Ekspertów zaniepokoił fakt, że niedawno obie instytucje powołały do życia Centrum Badań nad Konwergencją Obrony Narodowej i Sztucznej Inteligencji. Zdaniem naukowców z całego świata, centrum takie może doprowadzić do wyścigu zbrojeń, których celem będzie opracowanie autonomicznych systemów bojowych. Sygnatariusze listu oświadczyli, że nie będą współpracowali z KAIST dopóty, dopóki uczelnia nie zapewni, że nowo powołane centrum badawcze nie będzie prowadziło prac nas autonomiczną bronią.

Autonomiczne systemy bojowe, jeśli powstaną, doprowadzą do trzeciej rewolucji w działaniach zbrojnych. Pozwolą one prowadzić wojny szybciej i na większą skalę niż kiedykolwiek wcześniej. Mogą stać się narzędziem do siania terroru. Dyktatorzy i terroryści będą mogli użyć ich przeciwko niewinnym cywilom, uwalniając się ze wszystkich ograniczeń etycznych. Jeśli otworzymy tę puszkę Pandory, trudno będzie ją zamknąć. Możemy jednak zdecydować, że nie będziemy rozwijali takich technologii. Tak, jak w przeszłości zdecydowaliśmy, że nie będziemy np. rozwijali lasera do oślepiania ludzi. Wzywamy KAIST właśnie do takiego postępowania i do prac nad SI, która udoskonala ludzkie życie, a nie mu szkodzi.

Organizator bojkotu, profesor Toby Walsh z Uniwersytetu Nowej Południowej Walii powiedział, że rozwój autonomicznych systemów bojowych tylko pogorszy sytuację na Półwyspie Koreańskim. Jeśli ta broń się pojawi, to w końcu będzie miała ją też Korea Północna, która bez najmniejszych wyrzutów sumienia użyje jej przeciwko Południu, stwierdził Walsh.
Korea Południowa jest światowym liderem w dziedzinie rozwoju autonomicznych systemów bojowych. Wzdłuż Koreańskiej Strefy Zdemilitaryzowanej rozmieszczono m.in. systemy Samsung SGR-A1. To pierwsze roboty bojowe wyposażone w systemy do nadzoru, śledzenia, prowadzenia ognia i rozpoznawania głosu.

Prezydent KAIST, Sung-Chul Shin mówi, że uczelnia nie prowadzi prac nad autonomicznym uzbrojeniem.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Eeee. Znaczy się teoria o tym że jak my się rozbroimy to i nasz przeciwnik też :D

 

Share this post


Link to post
Share on other sites
10 godzin temu, riyader napisał:

Macie tą straszną sztuczną inteligencję:

Żarcik ?

Moim zdaniem porównywanie zwykłych czujek ruchu (do tego źle skonfigurowanych) sprzed 40 lat ze sprzętem takim jak SGR-A1 to lekkie nieporozumienie.

 

8 godzin temu, Przemek Kobel napisał:

Jest jeszcze gorzej

Z ludźmi jeszcze gorzej:

https://list25.com/25-incredible-optical-illusions/

Share this post


Link to post
Share on other sites

bojkot czegoś tam nic nie da i jest bez sensu. Natury ludzkiej się nie oszuka. Pierwsza maczuga zapewne została wykorzystana do rozwalenia głowy sąsiada, dopiero w następnej kolejności do polowania na zwierzynę. Z rozszczepieniem atomu i wieloma innymi wynalazkami było identycznie. Nie widzę przesłanek że człowiek się zmienił i wykorzysta jakiś nowy wynalazek(posiadający potencjał czynienia zła) do czynienia dobra. Jedyna nadzieja jest w tym, że nowoczesne technologie szybko są kopiowane przez innych i można doprowadzić do patowej sytuacji w której trzeba pamiętać że jak wyślę robota na sąsiada to on zapewne wyśle swojego na mnie

Share this post


Link to post
Share on other sites

Moja ulubiona iluzja wygląda mniej więcej tak: 3f6b0f4044eb99a4b75481f1085dab27.jpg

Ale gdybym nie był w stanie odróżnić kota od miski jakiejś papki, to nie wiem, czy ktoś wpuściłby mnie za kierownicę. Już prędzej na oddział detoksykacji.

Share this post


Link to post
Share on other sites
2 godziny temu, Przemek Kobel napisał:

.....Już prędzej na oddział detoksykacji

;) Pewnie to samo powiedziałoby AI o tych przykładach, które podałem.

Problem z ludźmi (i innymi istotami żywymi) jest taki, że łatwo odwrócić ich uwagę. Mój przykład służył unaocznieniu, że pomimo milionów lat ewolucji mamy sporo słabych punktów i luk w postrzeganiu, które w szybko rozwijającym się świecie technologicznym trudno załatać a mogą sprawiać poważne problemy. Adaptacja ewolucyjna jest po prostu zbyt wolna.

P.S. Myślę, że to nad czym pracuje Neuralink (i podobne rozwiązania) to jedyna droga dla istot biologicznych aby nadążyć.

Moja ulubiona: 

Spirala.jpg

Edited by rahl
dodanie obrazka

Share this post


Link to post
Share on other sites

Przepraszam, ale obecne AI rozjeżdżają ludzi i nie widzą w tym problemu, więc mało mnie obchodzi co by one powiedziały. Już bardziej: gdzie się wyłącza zasilanie.

Share this post


Link to post
Share on other sites

 

42 minuty temu, Przemek Kobel napisał:

nie widzą w tym problemu

Skąd wiesz, rozmawiałeś z tą AI ?  :P

Poza tym super, ale to ludzie rozjeżdżają dziesiątki tysięcy ludzi rocznie, i najczęściej przechodzących we właściwych miejscach, idących poboczem albo nawet stojących na przystankach autobusowych.

P.S. Nie rozumiem skąd to personifikowanie tych prymitywnych AI, nawet samo sformułowanie AI to nadużycie językowe, jakich wiele dziś, podobnie jak z przedrostkiem "nano". Równie dobrze mógłbyś mieć żal do drzew, bo czasem spadnie jakiś konar i kogoś zabije.

Edited by rahl
Dodanie do wypowiedzi + korekta

Share this post


Link to post
Share on other sites
40 minut temu, Przemek Kobel napisał:

Ale akurat w tej sytuacji człowiek by tej kobity nie zabił.

ale czego by to miało dowieść? bo w zasadzie można by znaleźć (i udowodnić), że w danej sytuacji gdzie człowiek zabił automat by nie zabił.

 

Ostatecznie chodzi o to aby automaty były sumarycznie bezpieczniejsze niż ludzie i z wypadku na wypadek podobnie jak w lotnictwie, prawdopodobieństwo wypadku będzie zmniejszane. A to, że znajdziesz przypadek gdzie człowiekowi by się najprawdopodobniej udało niczego nie dowodzą.

Share this post


Link to post
Share on other sites

Ano tego, że AI wyszkolona specjalnie do bezpiecznej jazdy i uzbrojona we wszelkiego rodzaju czujniki do widzenia w nocy oraz reagująca ponad 1000-krotnie szybciej od człowieka ani nie zareagowała szybciej, ani nie zobaczyła lepiej, ani nie okazała się bezpieczna. Bo pewnie układ pasów na jezdni skojarzył sie jej z kaszą gryczaną, albo coś w tym rodzaju (czego tak łatwo wcale nie można stwierdzić, bo gdyby się dało, to nie budowano by sieci neuronowej, tylko po prostu napisano cywilizowany algorytm). A tak naprawdę to tylko tego, że eksperci od AI popędzani przez granty, IPO albo kursy akcji, są mniej więcej tak godni zaufania jak oprych w ciemnej bramie. 

Edited by Przemek Kobel

Share this post


Link to post
Share on other sites

Jak dla mnie to po prostu jakiś błąd projektowych i tyle. Ty opisujesz jak by to sieć kierowała a nie sądzę aby tak było. SSN i kamery to tylko jeden z elementów, wazne są też czujniki które wprost mówią czy jest przeszkoda tuż przed nami i jak szybko się do niej zbliżamy, I niezależnie jak to SNN interpretuje wypadało by się jednak przed tą przeszkodą zatrzymać. Osobne są systemy śledzenia ścieżek obiektów (może któryś zawiódł w tej sytuacji, nie wiem) może powinny być zdublowane(różne technologie) w każdym razie taka samochodowa AI to nie jest jakaś tam SNN tylko sieć złożonych elementów. TAk że radar czy tam lidar to lidar, i nie ma co tam filozofować i interpretować odleglość to odległość a prędkość zbliżania to ta prękość. 

No coś poszło ewidentnie nie tak (pomijam, to, że pomijając temat AI, jak by to się człowiekowi przydarzyło to winną uznał bym pieszą).Ale znów tracisz ogólny sens, sprawdzą poprawią i znów będziemy dążyć aby sumarycznie maszyny były lepsze niż ludzie. No bo co by Cię zadowalało? Zerowa zabijalność maszyn? Nie możliwe? Samoloty też spadają.

A czy jeżeli automaty powodowały by 2x mniej wypadków niż ludzie już było by dla Ciebie ok? Gdzieś musi być granica

Edited by Afordancja

Share this post


Link to post
Share on other sites

@Przemek Kobel

A co podane przez ciebie przypadki mają wspólnego z AI ?

 

1 godzinę temu, Przemek Kobel napisał:

Ano tego, że AI wyszkolona specjalnie do bezpiecznej jazdy i uzbrojona we wszelkiego rodzaju czujniki do widzenia w nocy oraz reagująca ponad 1000-krotnie szybciej od człowieka ani nie zareagowała szybciej, ani nie zobaczyła lepiej, ani nie okazała się bezpieczna.

Ludzie szkolili, i przygotowali tą "AI", kierowca siedzący w aucie też nie zareagował poprawnie, więc proszę nie pisz bzdur, że człowiek by zareagował, skoro tego nie zrobił.

Zdarzenie to jest tragedią, co nie zmienia faktu, że ofiara przechodziła w kompletnie niedozwolonym miejscu mając w pełnej pogardzie ponad dwie tony rozpędzonego metalu i przypłaciła ten fakt życiem.

Share this post


Link to post
Share on other sites
2 minutes ago, rahl said:

A co podane przez ciebie przypadki mają wspólnego z AI ?

https://www.techemergence.com/global-competition-rises-ai-industrial-robotics/

 

2 minutes ago, rahl said:

Ludzie szkolili, i przygotowali tą "AI", kierowca siedzący w aucie też nie zareagował poprawnie, więc proszę nie pisz bzdur, że człowiek by zareagował, skoro tego nie zrobił.

https://www.bloomberg.com/news/articles/2018-03-22/video-said-to-show-failure-of-uber-s-tech-in-fatal-arizona-crash

 

Share this post


Link to post
Share on other sites

Ponowię pytanie:

Co proste roboty przemysłowe, przystosowane do wykonywania powtarzalnych czynności mają wspólnego z AI. Równie dobrze mógłbyś wtryskarce, albo prasie hydraulicznej nadać przydomek AI.

54 minuty temu, Przemek Kobel napisał:

Teorie teoriami, ale jakoś kierowca rzeczonego auta Ubera nie zareagował i nie zapobiegł wypadkowi.

Polecam obejrzeć jak to ludzie "unikają" wypadków:

 

https://youtu.be/I6801whkbFI?t=199

Do tego w biały dzień i przy doskonałej widoczności o znacznie mniejszych prędkościach. Ciekawe co na to "eksperci"

Share this post


Link to post
Share on other sites

Naiwne dzieci. Roboty i mniej lub bardziej zlozone formy ai wejda do zycia (przemysl, transport, nauka itd.) bez wzgledu na to czy to bedzie bezpieczne i czy beda czy nie beda temu towarzyszyc ofiary w ludzoach. Wystarczy, ze ich zastosowanie bedzie tansze niz uzywanie do tego ludzi. Autonomiczne pojazdy wyjada na ulice czy sie to komus podoba czy nie.

Share this post


Link to post
Share on other sites
W dniu 6.04.2018 o 12:03, Przemek Kobel napisał:

Przepraszam, ale obecne AI rozjeżdżają ludzi i nie widzą w tym problemu, więc mało mnie obchodzi co by one powiedziały. Już bardziej: gdzie się wyłącza zasilanie.

Argument populistyczny.
Nie ma w nim żadnego odniesienia ilu ludzi rozjechali ludzie. Jakie są koszty, jakie zyski.

Jest tylko prymitywne zagranie na emocjach.
Mam nadzieję, że to ironia była z tym zdaniem...

Edited by thikim

Share this post


Link to post
Share on other sites

Głupi bojkot i tyle. Pozostawiając to pod dachem instytutu mają wpływ na to, jak ta technologia będzie wyglądała w przyszłości i co będzie mogła. Odcinając jednak uczelnię nie sprawią, że producent uzbrojenia sam się tym nie zajmie. A tym bardziej nie powstrzymają działów R&D innych dostawców, którzy i tak pracują nad takimi dronami. Stracą jedynie kontrolę.

Share this post


Link to post
Share on other sites

Jedynym zabezpieczeniem przed deprawacją AI jest wgranie świadomości .. Boga. I nie chodzi mi tutaj o duchowość robotów lub żeby ich wysłać do kościoła w niedzielę. Chodzi o świadomość, że istnieje pojęcie dobra i zła, którego nie jest się w stanie w żaden sposób dosięgnąć materią. Uniwersalne pojęcie nadrzędne, niepodlegające dyskusji z samego faktu że jest poza światem, poza kosmosem. Dzięki temu AI nie wpadnie na pomysł ułożenia własnych praw natury które np. uznały by potrzebę całkowitej likwidacji ludzkości.

Po wgraniu takiej świadomości w większą część AI będzie ona weryfikować tą "ateistyczną" AI i ją kontrolować.
Oprócz tego potrzebujemy jeszcze jednego - odosobnionego zamkniętego kręgu AI, które będzie badało wszelkie możliwości destrukcji i nas informowało o zagrożeniach. Ośrodek całkowicie odcięty od świata zewnętrznego i połączenia ze zwykłą AI.

Rozwijanie autonomicznych systemów bojowych jest konieczne, gdyż na pewno nie powstrzymamy całego świata przed ich stworzeniem. Musimy mieć adekwatną odpowiedź.

Edited by Ergo Sum

Share this post


Link to post
Share on other sites
Guest

Moralny robot bojowy na polu walki? Raczej byłby nieprzydatny. Skoro Bóg powiedział, że to jest dobre, to jak mógłby zabijać?

Share this post


Link to post
Share on other sites

Człowiek chyba nie wymyślił nic bardziej śmiercionośnego niż religia (generalnie jakakolwiek) więc implementowanie czegoś takiego maszynie nie posiadającej naturalnych instynktów umożliwiających przetrwanie i koegzystencję gwarantuje destrukcję.

Share this post


Link to post
Share on other sites
20 godzin temu, Ergo Sum napisał:

Dzięki temu AI nie wpadnie na pomysł ułożenia własnych praw natury które np. uznały by potrzebę całkowitej likwidacji ludzkości.

O na pewno. W końcu żaden z ludzi nigdy na to jak dotąd nie wpadł. Jesteśmy ocaleni. ;-)

Share this post


Link to post
Share on other sites
Godzinę temu, wilk napisał:

O na pewno. W końcu żaden z ludzi nigdy na to jak dotąd nie wpadł. Jesteśmy ocaleni. ;-)

Co jeden komentarz to lepszy :)

Mnie, jako praktyka, interesuje bardziej JAK miałoby wyglądać

21 godzin temu, Ergo Sum napisał:

wgranie świadomości .. Boga

Uważam to za dobry pomysł, w sensie, "wgrania świadomości", niekoniecznie Boga.

Przypomina mi się akcja z Terminatora II:

- Obiecaj mi, że nikogo nie zabijesz!

(po strzale w kolana)

- Będzie żył

:)

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Sztuczna inteligencja w zastosowaniach wojskowych kojarzy się z autonomicznymi systemami broni czy androidami jak Terminator. Jednak amerykańscy eksperci twierdzą, że rzeczywistość będzie mniej spektakularna, a potęga militarnej SI nie będzie opierała się na zabójczych robotach.
      Pułkownik Brad Boyd, szef Joint Warfighting Operations w Joint Artificial Intelligence Center (JAIC) amerykańskiego Departamentu Obrony mówi, że znacznie ważniejsze od budowy najlepszej broni autonomicznej jest wykorzystanie sztucznej inteligencji do gromadzenia, analizowanie oraz przesyłania danych oraz ich wykorzystania podczas treningu nowych bądź udoskonalania starych systemów.
      Najbardziej intensywnie pracujemy nad infrastrukturą, bo to ona zdecyduje, kto za 20 lat wygra wojnę, powiedział Boyd podczas konferencji prasowej. I nie chodzi tu o to, kto będzie miał najlepsze algorytmy, one za 20 lat i tak będą przestarzałe. Chodzi o to, kto będzie dysponował najlepszą infrastrukturą bo z niej wciąż będziemy korzystali za 50 lat.
      W ubiegłym miesiącu JAIC przyznało firmie Deloitte Consulting kontrakt o wartości do 106 milionów dolarów. Za te pieniądze w ciągu czterech lat ma powstać specjalna platforma dla chmur obliczeniowych – Joint Common Foundation (JCF) – zaprojektowana pod kątem potrzeb Pentagonu. Zadaniem Deloitte Consulting jest znalezienie odpowiednich kontrahentów, którzy wykonają poszczególne elementy JCF.
      JCF będzie działała jak scentralizowany hub zawierający dane i narzędzia, dzięki którym kontrahenci Pentagonu będą tworzyli i testowali produkty na potrzeby amerykańskich sił zbrojnych. Zbudowana z myślą o współpracy z przemysłem platforma ma być pomyślana tak, by była możliwa jej integracja z innymi elementami, takimi jak np. chmura JEDI, którą kosztem 10 miliardów USD ma dla Pentagonu stworzyć Microsoft.
      Umieszczenie wszystkich danych i narzędzi w jednym wspólnym repozytorium, jakim ma być JCF, ułatwi tworzenie i testowanie nowych algorytmów. SI ma kolosalny apetyt na dane. Właściwie nie ma momentu, w którym można powiedzieć, że algorytm SI został ukończony. On jest ciągle udoskonalany i testowany, mówi Nand Mulchandani, p.o. dyrektora JAIC. Również wdrożenie algorytmu nie jest łatwe, gdyż jego wydajność i możliwości mogą zależeć od lokalizacji geograficznej, w której jest wdrażany. Nie możesz wdrożyć algorytmu w jednej części świata i oczekiwać, że będzie działał w innej części. Trzeba mu zapewnić dostęp do lokalnych danych, by przystosować się do specyficznej lokalizacji czy zadań. Mulchandani nazywa ten proces cyklem ponownego treningu i stwierdza to coś, w czym musimy być naprawdę dobrzy.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Jeden z najlepszych amerykańskich pilotów myśliwców przegrał 5:0 w serii symulowanych walk powietrznych ze sztuczną inteligencją. O pilocie, który zmierzył się z SI wiemy tylko, że jego znak wywoławczy to „Banger” i ukończył on kurs instruktorski obsługi broni pokładowej, do którego dopuszczani są wyłącznie najlepsi piloci. Jego pogromca, SI autorstwa niewielkiej firmy Heron Systems, pokonał wcześniej kilka innych systemów sztucznej inteligencji.
      Symulowane walki odbywały sie w ramach prowadzonego przez DARPA (Agencja Badawcza Zaawansowanych Systemów Obronnych) programu AlphaDogfight Trials. Program składał się z czterech etapów. W pierwszym z nich osiem algorytmów SI kontrolujących myśliwiec F-16 zmierzyło się z pięcioma algorytmami stworzonymi przez naukowców z Applied Physics Laboratory na Uniwersytecie Johnsa Hopkinsa. W drugim etapie osiem wspomnianych algorytmów – autorstwa Aurora Flight Sciences, EpiSys Science, Georgia Tech Research Institute, Heron Systems, Lockheed Martin, Perspecta Labs, PhysicsAI i SoarTech – starło się każdy z każdym. Na tej podstawie wyłoniono cztery najlepsze algorytmy, które zmierzyły się o prawo do walki z ludzkim przeciwnikiem. W półfinale algorytm Heron Systems pokonał sztuczną inteligencję twórcy F-16, firmy Lockheed Martin.
      Tym samym SI Heron System zakwalifikował się do walki z jednym z czołowych pilotów US Air Force. Rozegrano 5 symulowanych pojedynków. Łącznie trwały one nie dłużej niż 2 minuty. Człowiek przegrał wszystkie.
      W czasie pojedynków pilot miał hełm, który dawał mu taki sam widok, jak podczas prawdziwej walki. Symulowano samoloty poruszające się z prędkością ponad 800 km/h i przeciążenia dochodzące do 9G. Każdy z wirtualnych samolotów był uzbrojony w laser, który symulował broń pokładową.
      Chociaż SI odniosła miażdżące zwycięstwo, eksperci mówią, że niekoniecznie stałoby się tak w rzeczywistej walce. Warunki eksperymentu były bowiem ściśle kontrolowane. Pułkownik Daniel Javorsek, który nadzoruje w DARPA projekt rozwojów SI pilotujących samoloty stwierdził: My piloci, nigdy nie wierzymy do końca samym symulacjom i modelom komputerowym.
      Jednym z celów prowadzenia tego typu badań jest rozwój systemów sztucznej inteligencji, które będą wspomagały pilotów w walce. Program komputerowy potrafi bowiem znacznie szybciej niż człowiek zareagować na manewry przeciwnika. Systemy SI mogą też zwiększyć możliwości wojskowych dronów, które wciąż wymagają zdalnego pilotażu.
      Jak zauważyli specjaliści, jednym z elementów, który zapewnił SI Heron Systems zwycięstwo, była umiejętność lepszego celowania podczas szybko odbywającego się pojedynku. Jednak nie tylko. Jak przyznał „Banger” system był trudnym przeciwnikiem. Standardowe manewry, jakie wykorzystują piloci myśliwców, nie działały. Pilot zauważył, że SI potrafiła znacznie łatwiej usiąść mu na ogonie, niż jest to w stanie wykonać ludzki przeciwnik.
      Przed czterema laty sensacją było doniesienie, że algorytm sztucznej inteligencji pokonał doświadczonego pilota i wykładowcę taktyki walki myśliwców, pułkownika Lee.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Fizycy z Chin zaprezentowali wersję gry go opierającą się na mechanice kwantowej. W swojej symulacji naukowcy wykorzystali splątane fotony do ustawiania kamieni na planszy, zwiększając w ten sposób trudność gry. Ich technologia może posłużyć jako pole testowe dla sztucznej inteligencji.
      Wielkim wydarzeniem końca XX wieku było pokonanie arcymistrza szachowego Garry'ego Kasparowa przez superkomputer Deep Blue. Jednak go stanowiło znacznie trudniejsze wyzwanie. Ta gra o bardzo prostych zasadach posiada bowiem więcej kombinacji niż szachy. Jednak 20 lat później, w 2016 roku dowiedzieliśmy się, że SI pokonała mistrza go.
      Jednak szachy i go to gry o tyle łatwe dla komputerów, że na bieżąco znany jest stan rozgrywki. Nie ma tutaj ukrytych elementów. Wiemy co znajduje się na planszy i co znajduje się poza nią. Zupełnie inne wyzwanie stanowią takie gry jak np. poker czy mahjong, gdzie dochodzi element losowy, nieznajomość aktualnego stanu rozgrywki – nie wiemy bowiem, co przeciwnik ma w ręku – czy też w końcu blef. Także i tutaj maszyny radzą sobie lepiej. Przed rokiem informowaliśmy, że sztuczna inteligencja wygrała w wieloosobowym pokerze.
      Xian-Min Jin z Szanghajskiego Uniwersytetu Jiao Tong i jego koledzy postanowili dodać element niepewności do go. Wprowadzili więc doń mechanikę kwantową. „Kwantowe go” zostało po raz pierwszy zaproponowane w 2016 roku przez fizyka Andre Ranchina do celów edukacyjnych. Chińczycy wykorzystali tę propozycję do stworzenia systemu, który ma podnosić poprzeczkę sztucznej inteligencji wyspecjalizowanej w grach.
      W standardowej wersji go mamy planszę z 19 liniami poziomymi i 19 pionowymi. Na przecięciach linii gracze na przemian układają swoje kamienie, starając się ograniczyć nimi jak największy obszar planszy. W kwantowej wersji go ustawiana jest natomiast para splątanych kamieni. Oba kamienie pozostają na planszy dopóty, dopóki nie zetkną się z kamieniem z sąsiadującego pola. Wówczas dochodzi do „pomiaru”, superpozycja kamieni zostaje zniszczona i na planszy pozostaje tylko jeden kamień, a nie splątana para.
      W go gracz może zbić kamienie przeciwnika wówczas, gdy ustawi swoje kamienie na wszystkich sąsiadujących z przeciwnikiem polach. Jednak by do takiej sytuacji doszło w „kwantowym go” wszystkie otoczone kamienie przeciwnika muszą być kamieniami klasycznymi, żaden z nich nie może pozostawać w superpozycji z innym kamieniem na planszy. Jednak gracze nie wiedzą, który z kamieni w jakim stanie się znajduje, dopóki nie dokonają pomiaru.
      Jin i jego koledzy wyjaśniają, że ich symulacja pozwala na dostrojenie procesu pomiaru poprzez manipulacje splątaniem. Jeśli kamienie w danej parze są splątane w sposób maksymalny, to wynik pomiaru będzie całkowicie przypadkowy, nie potrafimy przewidzieć, który z kamieni po pomiarze pozostanie na planszy. Jeśli jednak splątanie będzie mniej doskonałe, jeden z kamieni będzie miał większą szansę na pozostanie na planszy. To prawdopodobieństwo będzie znane tylko temu graczowi, do którego kamień należy. Gra traci w tym momencie swoją całkowitą nieprzewidywalność, jednak pozostaje w niej duży element niedoskonałej informacji.
      Chińczycy przekuli teorię na praktykę tworząc pary splątanych fotonów, które były wysyłane do rozdzielacza wiązki, a wynik takiego działania był mierzony za pomocą czterech wykrywaczy pojedynczych fotonów. Jeden zestaw wyników reprezentował „0” a inny „1”. W ten sposób oceniano prawdopodobieństwo zniknięcia jednej z części pary wirtualnych kamieni ustawianych na przypadkowo wybranych przecięciach linii przez internetowe boty.
      Poprzez ciągłe generowanie splątanych fotonów i przechowywaniu wyników pomiarów naukowcy zebrali w ciągu godziny około 100 milionów możliwych wyników zniknięcia stanu splątanego. Taka ilość danych pozwala na przeprowadzenie dowolnej rozgrywki w go. Uczeni, analizując rozkład zer i jedynek w czasie potwierdzili, że nie występuje znacząca korelacja pomiędzy następującymi po sobie danymi. Tym samym, dane są rzeczywiście rozłożone losowo.
      Jin mówi, że rzeczywista złożoność i poziom trudności kwantowego go pozostają kwestią otwartą. Jednak, zwiększając rozmiary wirtualnej planszy i włączając do tego splątanie, można – jego zdaniem – zwiększyć trudność samej gry do takiego stopnia, by dorównywała ona takim grom jak mahjong, gdzie większość informacji jest ukrytych. Dzięki temu kwantowe go może stać się obiecującą platformą do testowania nowych algorytmów sztucznej inteligencji.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Naukowcy z Korea Advanced Institute of Science and Technology (KAIST) postanowili sprawdzić, w jaki sposób kwaśne i słodkie napoje wpływają na szkliwo zębów w skali nano. By ocenić zmiany mechaniczne i morfologiczne zachodzące w czasie indukowanej napojami erozji szkliwa, zespół posłużył się mikroskopem sił atomowych (AFM).
      Nieleczona, utrata szkliwa może prowadzić do różnych problemów, w tym przebarwień, pęknięć czy nadwrażliwości. Raz uszkodzone szkliwo nigdy się już nie odbuduje, dlatego badania wyjaśniające, jak erozja szkliwa się rozpoczyna i rozwija, zwłaszcza w najwcześniejszych etapach, mają spore znaczenie dla utrzymania zdrowia zębów.
      Doktorzy Panpan Li i Chungik Oh wybrali do badań 3 popularne napoje: Coca-colę, Sprite'a i sok pomarańczowy. Za pomocą AFM badano topografię powierzchni i sporządzano mapę modułu sprężystości.
      Od ochotników w wieku 20-35 lat, którzy odwiedzili KAIST Clinic, pozyskano 5 zdrowych zębów trzonowych. Po wyrwaniu trzymano je w wodzie destylowanej. Napoje kupiono i otwarto tuż przed eksperymentem z zanurzaniem.
      Naukowcy zaobserwowali, że wraz z czasem zaburzenia chropowatość powierzchni szkliwa znacząco rosła, a moduł sprężystości drastycznie spadał. Zademonstrowano, na przykład, że po 5 min przebywania w cieczy moduł sprężystości był 5-krotnie niższy.
      Dodatkowo Koreańczycy zaobserwowali preferencyjne wytrawianie uszkodzonego szkliwa. Zbyt mocne szczotkowanie zębów i pasty z cząsteczkami polerującymi, które są reklamowane jako sposób na usunięcie biofilmu, mogą zaś powodować zadrapania szkliwa.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Autorzy badań opublikowanych na łamach PNAS ostrzegają, że nie można ufać technikom obrazowania medycznego rekonstruowanym za pomocą sztucznej inteligencji. Międzynarodowy zespół naukowy pracujący pod kierunkiem Andersa Hansena z Uniwersytetu w Cambridge stwierdził, że narzędzia do głębokiego uczenia się, które rekonstruują obrazy wysokiej jakości na podstawie szybkich skanów, tworzą liczne przekłamania i artefakty, które mogą wpływać na diagnozę.
      Jak niejednokrotnie informowaliśmy, systemy sztucznej inteligencji są już na tyle zaawansowane, że równie dobrze jak radiolodzy, a często i lepiej, potrafią opisywać zdjęcia RTG, obrazy tomografii komputerowej czy rezonansu magnetycznego. W związku z tym pojawił się pomysł, by SI zaprząc do rekonstrukcji obrazów.
      Pomysł polega na tym, by wykonywać obrazowanie o niższej rozdzielczości, czyli pobierać dane z mniejszej liczby punktów, a następnie, by wytrenowane systemy algorytmy sztucznej inteligencji rekonstruowały na tej postawie obraz o wysokiej rozdzielczości. W ten sposób można by zaoszczędzić czas i pieniądze potrzebny na wykonanie badania. Wykorzystywane tutaj algorytmy były trenowana na dużej bazie danych obrazów wysokiej jakości, co stanowi znaczne odejście od klasycznych technik rekonstrukcji bazujących na teoriach matematycznych.
      Okazuje się jednak, że takie systemy SI mają poważne problemy. Mogą one bowiem przegapić niewielkie zmiany strukturalne, takie jak małe guzy nowotworowe, podczas gdy niewielkie, niemal niewidoczne zakłócenia spowodowane np. poruszeniem się pacjenta, mogą zostać odtworzone jako poważne artefakty na obrazie wyjściowym.
      Zespół w skład którego weszli Vegard Antun z Uniwersytetu w Oslo, Francesco Renna z Uniwersytetu w Porto, Clarice Poon z Uniwersytetu w Bath, Ben Adcock z Simon Fraser University oraz wspomniany już Anders Hansen, przetestował sześć sieci neuronowych, wykorzystywanych do rekonstrukcji obrazów tomografii i rezonansu. Sieciom zaprezentowano dane odpowiadają trzem potencjalnym problemom, które mogą się pojawić: niewielkim zakłóceniom, niewielkim zmianom strukturalnym oraz zmianom w próbkowaniu w porównaniu z danymi, na których system był trenowany.
      Wykazaliśmy, że niewielkie zakłócenia, których nie widać gołym okiem, mogą nagle stać się poważnym artefaktem, który pojawia się na obrazie, albo coś zostaje przez nie usunięte. Dostajemy więc fałszywie pozytywne i fałszywie negatywne dane, wyjaśnia Hansen.
      Uczeni, chcą sprawdzić zdolność systemu do wykrycia niewielkich zmian, dodali do skanów niewielkie litery i symbole z kart do gry. Tylko jedna z sieci była w stanie je prawidłowo zrekonstruować. Pozostałe sieci albo pokazały w tym miejscu niewyraźny obraz, albo usunęły te dodatki.
      Okazało się też, że tylko jedna sieć neuronowa radziła sobie ze zwiększaniem tempa skanowania i tworzyła lepszej jakości obrazy niż wynikałoby to z otrzymanych przez nią danych wejściowych. Druga z sieci nie była w stanie poprawić jakości obrazów i pokazywała skany niskiej jakości, a trzy inne rekonstruowały obrazy w gorszej jakości niż otrzymały do obróbki. Ostatni z systemów nie pozwalał na zwiększenie szybkości skanowania.
      Hansen stwierdza też, że badacze muszą zacząć testować stabilność takich systemów. Wówczas przekonają się, że wiele takich systemów jest niestabilnych. Jednak największym problemem jest fakt, że nie potrafimy w sposób matematyczny zrozumieć, jak działają tego typu systemy. Są one dla nas tajemnicą. Jeśli ich porządnie nie przetestujemy, możemy otrzymać katastrofalnie złe wyniki.
      Na szczęście takie systemy nie są jeszcze wykorzystywane w praktyce klinicznej. Zespół Hansena stworzył odpowiednie testy do ich sprawdzenia. Uczeni mówią, że nie chcą, by takie systemy zostały dopuszczone do użycia jeśli nie przejdą szczegółowych testów.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...