Jump to content
Forum Kopalni Wiedzy

Search the Community

Showing results for tags 'sztuczna inteligencja'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Found 24 results

  1. Sztuczna inteligencja w zastosowaniach wojskowych kojarzy się z autonomicznymi systemami broni czy androidami jak Terminator. Jednak amerykańscy eksperci twierdzą, że rzeczywistość będzie mniej spektakularna, a potęga militarnej SI nie będzie opierała się na zabójczych robotach. Pułkownik Brad Boyd, szef Joint Warfighting Operations w Joint Artificial Intelligence Center (JAIC) amerykańskiego Departamentu Obrony mówi, że znacznie ważniejsze od budowy najlepszej broni autonomicznej jest wykorzystanie sztucznej inteligencji do gromadzenia, analizowanie oraz przesyłania danych oraz ich wykorzystania podczas treningu nowych bądź udoskonalania starych systemów. Najbardziej intensywnie pracujemy nad infrastrukturą, bo to ona zdecyduje, kto za 20 lat wygra wojnę, powiedział Boyd podczas konferencji prasowej. I nie chodzi tu o to, kto będzie miał najlepsze algorytmy, one za 20 lat i tak będą przestarzałe. Chodzi o to, kto będzie dysponował najlepszą infrastrukturą bo z niej wciąż będziemy korzystali za 50 lat. W ubiegłym miesiącu JAIC przyznało firmie Deloitte Consulting kontrakt o wartości do 106 milionów dolarów. Za te pieniądze w ciągu czterech lat ma powstać specjalna platforma dla chmur obliczeniowych – Joint Common Foundation (JCF) – zaprojektowana pod kątem potrzeb Pentagonu. Zadaniem Deloitte Consulting jest znalezienie odpowiednich kontrahentów, którzy wykonają poszczególne elementy JCF. JCF będzie działała jak scentralizowany hub zawierający dane i narzędzia, dzięki którym kontrahenci Pentagonu będą tworzyli i testowali produkty na potrzeby amerykańskich sił zbrojnych. Zbudowana z myślą o współpracy z przemysłem platforma ma być pomyślana tak, by była możliwa jej integracja z innymi elementami, takimi jak np. chmura JEDI, którą kosztem 10 miliardów USD ma dla Pentagonu stworzyć Microsoft. Umieszczenie wszystkich danych i narzędzi w jednym wspólnym repozytorium, jakim ma być JCF, ułatwi tworzenie i testowanie nowych algorytmów. SI ma kolosalny apetyt na dane. Właściwie nie ma momentu, w którym można powiedzieć, że algorytm SI został ukończony. On jest ciągle udoskonalany i testowany, mówi Nand Mulchandani, p.o. dyrektora JAIC. Również wdrożenie algorytmu nie jest łatwe, gdyż jego wydajność i możliwości mogą zależeć od lokalizacji geograficznej, w której jest wdrażany. Nie możesz wdrożyć algorytmu w jednej części świata i oczekiwać, że będzie działał w innej części. Trzeba mu zapewnić dostęp do lokalnych danych, by przystosować się do specyficznej lokalizacji czy zadań. Mulchandani nazywa ten proces cyklem ponownego treningu i stwierdza to coś, w czym musimy być naprawdę dobrzy. « powrót do artykułu
  2. Jeden z najlepszych amerykańskich pilotów myśliwców przegrał 5:0 w serii symulowanych walk powietrznych ze sztuczną inteligencją. O pilocie, który zmierzył się z SI wiemy tylko, że jego znak wywoławczy to „Banger” i ukończył on kurs instruktorski obsługi broni pokładowej, do którego dopuszczani są wyłącznie najlepsi piloci. Jego pogromca, SI autorstwa niewielkiej firmy Heron Systems, pokonał wcześniej kilka innych systemów sztucznej inteligencji. Symulowane walki odbywały sie w ramach prowadzonego przez DARPA (Agencja Badawcza Zaawansowanych Systemów Obronnych) programu AlphaDogfight Trials. Program składał się z czterech etapów. W pierwszym z nich osiem algorytmów SI kontrolujących myśliwiec F-16 zmierzyło się z pięcioma algorytmami stworzonymi przez naukowców z Applied Physics Laboratory na Uniwersytecie Johnsa Hopkinsa. W drugim etapie osiem wspomnianych algorytmów – autorstwa Aurora Flight Sciences, EpiSys Science, Georgia Tech Research Institute, Heron Systems, Lockheed Martin, Perspecta Labs, PhysicsAI i SoarTech – starło się każdy z każdym. Na tej podstawie wyłoniono cztery najlepsze algorytmy, które zmierzyły się o prawo do walki z ludzkim przeciwnikiem. W półfinale algorytm Heron Systems pokonał sztuczną inteligencję twórcy F-16, firmy Lockheed Martin. Tym samym SI Heron System zakwalifikował się do walki z jednym z czołowych pilotów US Air Force. Rozegrano 5 symulowanych pojedynków. Łącznie trwały one nie dłużej niż 2 minuty. Człowiek przegrał wszystkie. W czasie pojedynków pilot miał hełm, który dawał mu taki sam widok, jak podczas prawdziwej walki. Symulowano samoloty poruszające się z prędkością ponad 800 km/h i przeciążenia dochodzące do 9G. Każdy z wirtualnych samolotów był uzbrojony w laser, który symulował broń pokładową. Chociaż SI odniosła miażdżące zwycięstwo, eksperci mówią, że niekoniecznie stałoby się tak w rzeczywistej walce. Warunki eksperymentu były bowiem ściśle kontrolowane. Pułkownik Daniel Javorsek, który nadzoruje w DARPA projekt rozwojów SI pilotujących samoloty stwierdził: My piloci, nigdy nie wierzymy do końca samym symulacjom i modelom komputerowym. Jednym z celów prowadzenia tego typu badań jest rozwój systemów sztucznej inteligencji, które będą wspomagały pilotów w walce. Program komputerowy potrafi bowiem znacznie szybciej niż człowiek zareagować na manewry przeciwnika. Systemy SI mogą też zwiększyć możliwości wojskowych dronów, które wciąż wymagają zdalnego pilotażu. Jak zauważyli specjaliści, jednym z elementów, który zapewnił SI Heron Systems zwycięstwo, była umiejętność lepszego celowania podczas szybko odbywającego się pojedynku. Jednak nie tylko. Jak przyznał „Banger” system był trudnym przeciwnikiem. Standardowe manewry, jakie wykorzystują piloci myśliwców, nie działały. Pilot zauważył, że SI potrafiła znacznie łatwiej usiąść mu na ogonie, niż jest to w stanie wykonać ludzki przeciwnik. Przed czterema laty sensacją było doniesienie, że algorytm sztucznej inteligencji pokonał doświadczonego pilota i wykładowcę taktyki walki myśliwców, pułkownika Lee. « powrót do artykułu
  3. Fizycy z Chin zaprezentowali wersję gry go opierającą się na mechanice kwantowej. W swojej symulacji naukowcy wykorzystali splątane fotony do ustawiania kamieni na planszy, zwiększając w ten sposób trudność gry. Ich technologia może posłużyć jako pole testowe dla sztucznej inteligencji. Wielkim wydarzeniem końca XX wieku było pokonanie arcymistrza szachowego Garry'ego Kasparowa przez superkomputer Deep Blue. Jednak go stanowiło znacznie trudniejsze wyzwanie. Ta gra o bardzo prostych zasadach posiada bowiem więcej kombinacji niż szachy. Jednak 20 lat później, w 2016 roku dowiedzieliśmy się, że SI pokonała mistrza go. Jednak szachy i go to gry o tyle łatwe dla komputerów, że na bieżąco znany jest stan rozgrywki. Nie ma tutaj ukrytych elementów. Wiemy co znajduje się na planszy i co znajduje się poza nią. Zupełnie inne wyzwanie stanowią takie gry jak np. poker czy mahjong, gdzie dochodzi element losowy, nieznajomość aktualnego stanu rozgrywki – nie wiemy bowiem, co przeciwnik ma w ręku – czy też w końcu blef. Także i tutaj maszyny radzą sobie lepiej. Przed rokiem informowaliśmy, że sztuczna inteligencja wygrała w wieloosobowym pokerze. Xian-Min Jin z Szanghajskiego Uniwersytetu Jiao Tong i jego koledzy postanowili dodać element niepewności do go. Wprowadzili więc doń mechanikę kwantową. „Kwantowe go” zostało po raz pierwszy zaproponowane w 2016 roku przez fizyka Andre Ranchina do celów edukacyjnych. Chińczycy wykorzystali tę propozycję do stworzenia systemu, który ma podnosić poprzeczkę sztucznej inteligencji wyspecjalizowanej w grach. W standardowej wersji go mamy planszę z 19 liniami poziomymi i 19 pionowymi. Na przecięciach linii gracze na przemian układają swoje kamienie, starając się ograniczyć nimi jak największy obszar planszy. W kwantowej wersji go ustawiana jest natomiast para splątanych kamieni. Oba kamienie pozostają na planszy dopóty, dopóki nie zetkną się z kamieniem z sąsiadującego pola. Wówczas dochodzi do „pomiaru”, superpozycja kamieni zostaje zniszczona i na planszy pozostaje tylko jeden kamień, a nie splątana para. W go gracz może zbić kamienie przeciwnika wówczas, gdy ustawi swoje kamienie na wszystkich sąsiadujących z przeciwnikiem polach. Jednak by do takiej sytuacji doszło w „kwantowym go” wszystkie otoczone kamienie przeciwnika muszą być kamieniami klasycznymi, żaden z nich nie może pozostawać w superpozycji z innym kamieniem na planszy. Jednak gracze nie wiedzą, który z kamieni w jakim stanie się znajduje, dopóki nie dokonają pomiaru. Jin i jego koledzy wyjaśniają, że ich symulacja pozwala na dostrojenie procesu pomiaru poprzez manipulacje splątaniem. Jeśli kamienie w danej parze są splątane w sposób maksymalny, to wynik pomiaru będzie całkowicie przypadkowy, nie potrafimy przewidzieć, który z kamieni po pomiarze pozostanie na planszy. Jeśli jednak splątanie będzie mniej doskonałe, jeden z kamieni będzie miał większą szansę na pozostanie na planszy. To prawdopodobieństwo będzie znane tylko temu graczowi, do którego kamień należy. Gra traci w tym momencie swoją całkowitą nieprzewidywalność, jednak pozostaje w niej duży element niedoskonałej informacji. Chińczycy przekuli teorię na praktykę tworząc pary splątanych fotonów, które były wysyłane do rozdzielacza wiązki, a wynik takiego działania był mierzony za pomocą czterech wykrywaczy pojedynczych fotonów. Jeden zestaw wyników reprezentował „0” a inny „1”. W ten sposób oceniano prawdopodobieństwo zniknięcia jednej z części pary wirtualnych kamieni ustawianych na przypadkowo wybranych przecięciach linii przez internetowe boty. Poprzez ciągłe generowanie splątanych fotonów i przechowywaniu wyników pomiarów naukowcy zebrali w ciągu godziny około 100 milionów możliwych wyników zniknięcia stanu splątanego. Taka ilość danych pozwala na przeprowadzenie dowolnej rozgrywki w go. Uczeni, analizując rozkład zer i jedynek w czasie potwierdzili, że nie występuje znacząca korelacja pomiędzy następującymi po sobie danymi. Tym samym, dane są rzeczywiście rozłożone losowo. Jin mówi, że rzeczywista złożoność i poziom trudności kwantowego go pozostają kwestią otwartą. Jednak, zwiększając rozmiary wirtualnej planszy i włączając do tego splątanie, można – jego zdaniem – zwiększyć trudność samej gry do takiego stopnia, by dorównywała ona takim grom jak mahjong, gdzie większość informacji jest ukrytych. Dzięki temu kwantowe go może stać się obiecującą platformą do testowania nowych algorytmów sztucznej inteligencji. « powrót do artykułu
  4. Autorzy badań opublikowanych na łamach PNAS ostrzegają, że nie można ufać technikom obrazowania medycznego rekonstruowanym za pomocą sztucznej inteligencji. Międzynarodowy zespół naukowy pracujący pod kierunkiem Andersa Hansena z Uniwersytetu w Cambridge stwierdził, że narzędzia do głębokiego uczenia się, które rekonstruują obrazy wysokiej jakości na podstawie szybkich skanów, tworzą liczne przekłamania i artefakty, które mogą wpływać na diagnozę. Jak niejednokrotnie informowaliśmy, systemy sztucznej inteligencji są już na tyle zaawansowane, że równie dobrze jak radiolodzy, a często i lepiej, potrafią opisywać zdjęcia RTG, obrazy tomografii komputerowej czy rezonansu magnetycznego. W związku z tym pojawił się pomysł, by SI zaprząc do rekonstrukcji obrazów. Pomysł polega na tym, by wykonywać obrazowanie o niższej rozdzielczości, czyli pobierać dane z mniejszej liczby punktów, a następnie, by wytrenowane systemy algorytmy sztucznej inteligencji rekonstruowały na tej postawie obraz o wysokiej rozdzielczości. W ten sposób można by zaoszczędzić czas i pieniądze potrzebny na wykonanie badania. Wykorzystywane tutaj algorytmy były trenowana na dużej bazie danych obrazów wysokiej jakości, co stanowi znaczne odejście od klasycznych technik rekonstrukcji bazujących na teoriach matematycznych. Okazuje się jednak, że takie systemy SI mają poważne problemy. Mogą one bowiem przegapić niewielkie zmiany strukturalne, takie jak małe guzy nowotworowe, podczas gdy niewielkie, niemal niewidoczne zakłócenia spowodowane np. poruszeniem się pacjenta, mogą zostać odtworzone jako poważne artefakty na obrazie wyjściowym. Zespół w skład którego weszli Vegard Antun z Uniwersytetu w Oslo, Francesco Renna z Uniwersytetu w Porto, Clarice Poon z Uniwersytetu w Bath, Ben Adcock z Simon Fraser University oraz wspomniany już Anders Hansen, przetestował sześć sieci neuronowych, wykorzystywanych do rekonstrukcji obrazów tomografii i rezonansu. Sieciom zaprezentowano dane odpowiadają trzem potencjalnym problemom, które mogą się pojawić: niewielkim zakłóceniom, niewielkim zmianom strukturalnym oraz zmianom w próbkowaniu w porównaniu z danymi, na których system był trenowany. Wykazaliśmy, że niewielkie zakłócenia, których nie widać gołym okiem, mogą nagle stać się poważnym artefaktem, który pojawia się na obrazie, albo coś zostaje przez nie usunięte. Dostajemy więc fałszywie pozytywne i fałszywie negatywne dane, wyjaśnia Hansen. Uczeni, chcą sprawdzić zdolność systemu do wykrycia niewielkich zmian, dodali do skanów niewielkie litery i symbole z kart do gry. Tylko jedna z sieci była w stanie je prawidłowo zrekonstruować. Pozostałe sieci albo pokazały w tym miejscu niewyraźny obraz, albo usunęły te dodatki. Okazało się też, że tylko jedna sieć neuronowa radziła sobie ze zwiększaniem tempa skanowania i tworzyła lepszej jakości obrazy niż wynikałoby to z otrzymanych przez nią danych wejściowych. Druga z sieci nie była w stanie poprawić jakości obrazów i pokazywała skany niskiej jakości, a trzy inne rekonstruowały obrazy w gorszej jakości niż otrzymały do obróbki. Ostatni z systemów nie pozwalał na zwiększenie szybkości skanowania. Hansen stwierdza też, że badacze muszą zacząć testować stabilność takich systemów. Wówczas przekonają się, że wiele takich systemów jest niestabilnych. Jednak największym problemem jest fakt, że nie potrafimy w sposób matematyczny zrozumieć, jak działają tego typu systemy. Są one dla nas tajemnicą. Jeśli ich porządnie nie przetestujemy, możemy otrzymać katastrofalnie złe wyniki. Na szczęście takie systemy nie są jeszcze wykorzystywane w praktyce klinicznej. Zespół Hansena stworzył odpowiednie testy do ich sprawdzenia. Uczeni mówią, że nie chcą, by takie systemy zostały dopuszczone do użycia jeśli nie przejdą szczegółowych testów. « powrót do artykułu
  5. Microsoft zwolni kilkudziesięciu pracowników zatrudnionych na umowach-zleceniach. Stracą oni pracę na rzecz... sztucznej inteligencji, która będzie zajmowała się w portalu MSN publikowaniem najświeższych wiadomości. Umowy zostaną rozwiązane 30 czerwca. Pracownicy ci, 50 z USA i 27 z Wielkiej Brytanii, są obecnie odpowiedzialni za wybieranie, edytowanie i przygotowywanie newsow do publikacji. Przedstawiciele Microsoftu oświadczyli, że firma na bieżąco dokonuje zmian w sposobie prowadzeni biznesu. Dodali, że likwidacja stanowisk nie ma związku z pandemią. Nie od dzisiaj mówi się, że sztuczna inteligencja mogłaby wybierać gotowe informacje, a może nawet samodzielnie pisać własne krótkie teksty. Tutaj, prawdopodobnie po raz pierwszy w historii, mamy przykład dużego portalu internetowego, w którym ludzie tracą pracę przy redakcji tekstu i zostają zastąpieni automatem. Microsoft, kończąc współpracę z kilkudziesięcioma osobami i zastępując ich SI, chce z jednej strony przetestować możliwości sztucznej inteligencji na dużą skalę, z drugiej zaś liczy na obniżenie kosztów. « powrót do artykułu
  6. Algorytmy sztucznej inteligencji znacznie lepiej niż ludzie przewidują, którzy ze skazanych popełnią w przyszłości przestępstwo. Przeprowadzone właśnie badania pokazują, że programy takie jak COMPAS mogą być niezwykle przydatnym narzędziem dla sędziów i innych pracowników systemu sprawiedliwości i więziennictwa. Co prawda ludzie w warunkach testowych również radzą sobie z tym zadaniem dobrze i gdy znają kilka podstawowych zmiennych, to nawet osoba bez odpowiedniego przygotowania jest w stanie, w kontrolowanym środowisku, dorównać złożonym narzędziom oceny ryzyka, mówią naukowcy z Uniwersytetu Stanforda i Uniwersytetu Kalifornijskiego w Berkeley. Jednak zupełnie inaczej ma się sprawa z rzeczywistymi wydarzeniami i problemami, z którymi mierzy się wymiar sprawiedliwości. Tutaj zmiennych jest olbrzymia liczba. A przeprowadzone właśnie badania wykazały, że algorytmy potrafią nawet z 90-procentową trafnością przewidzieć, który z podsądnych zostanie w przyszłości zatrzymany za inne przestępstwo. Ludzie potrafią to ocenić ze znacznie niższą, bo zaledwie 60-procentową trafnością. Ocena ryzyka od dawna jest częścią procesu podejmowania decyzji w sądownictwie kryminalnym. Ostatnio toczą się dyskusje na temat wykorzystywania narzędzi opierających się na algorytmach komputerowych. Nasze badania wykazały, że w sytuacji rzeczywistych przypadków karnych algorytmy sztucznej inteligencji dokonują często lepszej oceny ryzyka niż ludzie. Wyniki te są zgodne z wieloma innymi badaniami porównującymi wyniki uzyskiwane przez narzędzia statystyczne z wynikami uzyskiwanymi przez ludzi, mówi Jennifer Skeem, psycholog specjalizującą się w przestępczości kryminalnej. Sprawdzone narzędzia do oceny ryzyka mogą pomóc sędziom i innym pracownikom wymiaru sprawiedliwości w podejmowaniu lepszych decyzji. Na przykład narzędzia te mogą sędziemu wskazać, który ze skazanych stwarza niewielkie ryzyko i w związku z tym można go przedterminowo zwolnić z więzienia. Oczywiście, podobnie jak inne narzędzia, także i te do oceny ryzyka, muszą zostać połączone z rozsądną polityką oraz muszą być nadzorowane przez człowieka, dodaje Sharad Goel z Uniwersytetu Stanforda, statystyk specjalizujący się w dziedzinie nauk społecznych. Lepsze narzędzia do oceny ryzyka są niezwykle potrzebne, szczególnie w USA. Stany Zjednoczone mają bowiem największy na świecie odsetek liczby uwięziony i największą na świecie liczbę osób w więzieniach. Od lat toczy się tam dyskusja na temat zmiany tego stanu rzeczy, ale trzeba zrównoważyć to z potrzebą zapewnienia bezpieczeństwa. Ocena, którego z więźniów można bez ryzyka wypuścić, jest więc niezwykle istotna. Narzędzia do oceny ryzyka są w USA bardzo szeroko rozpowszechnione w medycynie, bankowości czy szkolnictwie wyższym. Od dawna też używane są w miarze sprawiedliwości. Jednak w 2018 roku Dartmouth College przeprowadzono badania, w których poddano w wątpliwość skuteczność takich narzędzi. Wynikało z nich bowiem, że i ludzie i algorytmy równie dobrze (z 66% trafnością) oceniają ryzyko. Badania były szeroko komentowane i wiele osób stwierdziło, że w takiej sytuacji nie powinno się używać algorytmów. Autorzy najnowszych badań powtórzyli badania przeprowadzone przez Dartmouth i stwierdzili, że posługiwano się podczas nich ograniczonym zestawem danych. Wzięto bowiem pod uwagę jedynie płeć oskarżonych, ich wiek, przestępstwo z które zostali ostatnio skazani oraz całą ich wcześniejszą kartotekę policyjną. Tymczasem sędziowie mają do dyspozycji znacznie więcej informacji. Korzystają z dokumentów ze śledztwa, opinii adwokatów, zeznań ofiar, na ich ocenę wpływa zachowanie i sposób bycia sprawców oraz ofiar. To często są informacje nie mające wpływu na ryzyko recydywy, są niespójne, z łatwością mogą powodować błędną ocenę, wyjaśniają autorzy najnowszych badań. Dlatego też rozszerzyli zestaw danych, którymi posługiwali się badacze z Dartmouth. Do wykorzystanych przez nich czynników, dodali 10 nowych, takich jak informacje o zatrudnieniu, zażywaniu używek czy zdrowiu psychicznym. Zmieniono też metodologię. Po każdym z eksperymentów nie mówiono ludziom, których wyniki porównywano z maszyną, czy dokonali dobrej oceny. Sędziowie nie mają przecież informacji o tym, czy osoba, której skrócili karę, popełni w przyszłości przestępstwo. Wyniki pokazały, że w takiej sytuacji, gdy zasady eksperymentu bardziej odpowiadają rzeczywistości, ludzie wypadają znacznie gorzej niż algorytm COMPAS. Takie narzędzia mogą być więc przydatnym uzupełnieniem pracy sędziów, kuratorów, lekarzy i innych osób, które mają wpływ na decyzję o wcześniejszym zwolnieniu przestępcy. « powrót do artykułu
  7. Trenowanie systemów sztucznej inteligencji trwa obecnie wiele tygodni. Firma Cerebras Systems twierdzi, że potrafi skrócić ten czas do kilku godzin. Pomysł polega na tym, by móc testować więcej pomysłów, niż obecnie. Jeśli moglibyśmy wytrenować sieć neuronową w ciągu 2-3 godzin, to rocznie możemy przetestować tysiące rozwiązań, mówi Andrew Feldman, dyrektor i współzałożyciel Cerebras. Jeśli chcemy wytrenować sieć sztucznej inteligencji, która np. ma zarządzać autonomicznym samochodem, potrzebujemy wielu tygodni i olbrzymiej mocy obliczeniowej. Sieć musi przeanalizować olbrzymią liczbę zdjęć czy materiałów wideo, by nauczyć się rozpoznawania istotnych obiektów na drodze. Klienci Cerebras skarżą się, że obecnie trenowanie dużej sieci neuronowej może trwać nawet 6 tygodni. W tym tempie firma może wytrenować około 6 sieci rocznie. To zdecydowanie zbyt mało dla przedsiębiorstw, które chcą sprawdzić wiele nowych pomysłów za pomocą SI. Rozwiązaniem problemu ma być komputer CS-1, a właściwie jego niezwykły procesor. Maszyny CS-1 mają wysokość 64 centymetrów, a każda z nich potrzebuje do pracy 20 kW. Jednak 3/4 obudowy każdego z komputerów zajmuje układ chłodzenia, a tym, co najbardziej rzuca się w oczy jest olbrzymi układ scalony. Zajmuje on powierzchnię 46 255 milimetrów kwadratowych, czyli około 50-krotnie więcej niż tradycyjny procesor. Zawiera 1,2 biliona tranzystorów, 400 000 rdzeni obliczeniowych i 18 gigabajtów pamięci SRAM. Procesor o nazwie Wafer Scale Engine (WSE) wypada znacznie lepiej niż podobne systemy. Jak zapewniają przedstawiciele Cerebras, ich maszyna, w porównaniu z klastrem TPU2 wykorzystywanym przez Google'a do trenowania SI, zużywa 5-krotnie mniej energii i zajmuje 30-krotnie mniej miejsca, a jest przy tym 3-krotnie bardziej wydajna. Takie zestawienie brzmi imponująco, a na ile rzeczywiście WSE jest lepszy od dotychczasowych rozwiązań powinno ostatecznie okazać się w bieżącym roku. Jak zauważa analityk Mike Demler, sieci neuronowe stają się coraz bardziej złożone, więc możliwość szybkiego ich trenowania jest niezwykle ważna. Trzeba jednak przyznać, że w twierdzeniach Cerebras musi być ziarno prawdy. Wśród klientów firmy jest m.in. Argonne National Laboratory, które ma już maszyny CS-1 u siebie. Zapewne już wkrótce dowiemy się, czy rzeczywiście zapewniają one tak wielką wydajność i pozwalają tak szybko trenować sieci neuronowe. Twórcami Cerebras są specjaliści, którzy pracowali w firmie Sea Micro, przejętej przez AMD. Pomysł stworzenia komputera wyspecjalizowanego w sztucznej inteligencji zaczął kiełkować w ich głowach w 2015 roku. Stwierdzili, że odpowiedni procesor musi być w stanie szybko przesyłać duże ilości danych, układy pamięci muszą znajdować się blisko rdzenia, a same rdzenie nie powinny zajmować się danymi, którymi już zajmują się inne rdzenie. To zś oznaczało, że tego typu układ musi składać się z olbrzymiej liczby niewielkich rdzeni wyspecjalizowanych w obliczeniach z zakresu sieci neuronowych, połączenia między rdzeniami muszą być szybkie i zużywać niewiele energii, a wszystkie dane muszą być dostępne na procesorze, a nie w osobnych układach pamięci. Twórcy Cerebras uznali, że tym, czego potrzebują, jest chip niemalże wielkości całego plastra krzemowego. Udało im się taki układ skonstruować, chociaż nie było to łatwe zadanie i wciąż muszą poradzić sobie z licznymi problemami. Jednym z nich było poradzenie sobie z filozofią tworzenia współczesnych plastrów krzemowych. Obecnie z pojedynczego plastra tworzy się wiele procesorów. Po ich przygotowaniu, plaster, zawierający wiele identycznych układów, jest cięty. W procesie przygotowywania plastra do produkcji tworzy się na nim specjalne linie, wzdłuż których przebiegają cięcia. Tymczasem Cerebras potrzebowało takiego plastra w całości, z połączeniami pomiędzy poszczególnymi rdzeniami. To zaś wymagało nawiązania współpracy z TSMC i opracowania metody przeprowadzenia połączeń przez linie. Wysiłek się opłacił. Poszczególne rdzenie komunikują się między sobą z prędkością 1000 Pb/s, a komunikacja pomiędzy pamięcią a rdzeniami przebiega w tempie do 9 PB/s. To nie jest trochę więcej. To o cztery rzędy wielkości więcej, gdyż wszystko odbywa się w ramach tego samego plastra, cieszy się Feldman. Jednak przeprowadzenie połączeń przez linie nie był jedynym problemem. Trzeba było zmodyfikować cały proces projektowania i produkcji układów. Nawet oprogramowanie do projektowania procesorów jest przygotowane pod niewielkie układy. Każda zasada, każde narzędzie i każde urządzenie jest obecnie dostosowana do produkcji układów scalonych o zwyczajowych rozmiarach. My zaś potrzebujemy czegoś znacznie większego, dlatego też musieliśmy na nowo opracować każdy element, dodaje Feldman. Jeszcze innym problemem okazało się zasilanie takiego układu. Każdy z 1,2 biliona tranzystorów potrzebuje 0,8 wolta. To standardowe napięcie, ale tranzystorów jest tak dużo, że do układu należy doprowadzić prąd o natężeniu 20 000 amperów. Uzyskanie w całym plastrze 20 000 amperów bez znacznego spadku napięcia było kolejnym wyzwaniem inżynieryjnym, mówią przedstawiciele Cerebras. Doprowadzenie prądu do krawędzi WSE nie wchodziło w rachubę, gdyż opory spowodowałyby spadek napięcia do zera zanim prąd osiągnąłby środek układu. Rozwiązaniem okazało się prostopadłe podłączenie od góry. Inżynierowie Cerebras zaprojektowali specjalny zestaw składający się z setek układów wyspecjalizowanych w kontrolowaniu przepływu prądu. Za pomocą miliona miedzianych połączeń dostarcza on zasilanie do WSE. Cerebras nie podaje żadnych danych odnośnie testów wydajności swojego rozwiązania w porównaniu z innymi systemami. Zamiast tego firma zachęca swoich klientów, by po prostu sprawdzili, czy  CS-1 i WSE sprawują się lepiej w zadaniach, których ci klienci potrzebują. Nie ma w tym jednak nic dziwnego. Każdy korzysta z własnych modeli dostosowanych do własnych potrzeb. To jedyne co się liczy dla klienta, mówi analityk Karl Freund. Jednym z takich klientów jest właśnie Argonne National Laboratory. Ma ono dość specyficzne potrzeby. Wykorzystuje sieci neuronowe do rozpoznawania różnych rodzajów fal grawitacyjnych w czasie rzeczywistym. Pracujący tam specjaliści wolą więc samodzielnie przekonać się, czy nowe urządzenie lepiej sprawdzi się w tych zastosowaniach niż dotychczas stosowane superkomputery. « powrót do artykułu
  8. Zdaniem autorów nowych badań oraz algorytmu sztucznej inteligencji, jedno z masowych ziemskich wymierań, wymieranie dewońskie, nigdy nie miało miejsca. Obecnie uważa się, że przed około 375 milionami lat oceany stały się toksyczne, co doprowadziło do masowego wymierania. Wyginęły wówczas m.in. niemal wszystkie trylobity. Jednak grupa naukowców twierdzi, że nie było to masowe wymieranie, a stopniowy proces rozciągnięty na 50 milionów lat. Wymieranie dewońskie nie miało miejsca. Ziemia doświadczyła powolnego spadku bioróżnorodności, co zresztą niektórzy naukowcy już wcześniej sugerowali, mówi Doug Erwin z Narodowego Muzeum Historii Naturalnej w Waszyngtonie. Badanie historii bioróżnorodności nie jest łatwym zadaniem. Większość gatunków istnieje zaledwie kilka milionów lat. Jeśli więc widzimy skamieniałości gatunku w różnych miejscach, to pochodzą one z mniej więcej tego samego okresu. Podczas dotychczasowych badań nad bioróżnorodnością skupiano się na okresach liczących około 10 milionów lat. Jednak Shuzhong Shen z Instytutu Geologii i Paleontologii w Nankinie oraz jego koledzy i współpracujący z nimi Erwin byli w stanie przeprowadzić badania, w czasie których przyjrzeli się okresom trwającym zaledwie 26 000 lat. Dokonali tego za pomocą opracowanych przed dekadą metod analizy statystycznej, które wykorzystali do analizy 100 000 rekordów dotyczących skamieniałości 11 000 gatunków morskich znalezionych w Chinach i Europie. Obliczenia były tak złożone, że naukowcy musieli opracować specjalny algorytm sztucnej inteligencji i uruchomić go na czwartym najpotężniejszym superkomputerze świata, Tianhe-2A. Badaniami objęto okres 300 milionów lat,od początku kambru po początek triasu. Jak mówią obrazowo uczeni, poprawienie rozdzielczości czasowej badań pozwoliło na przejście od stwierdzenia, że wszyscy ludzie żyjący w tym samym wieku byli sobie współcześni, po uznanie za współczesnych sobie tylko ludzi, żyjących w tym samym półroczu. Spadek bioróżnorodności w dewonie jest wciąż jasno widoczny, ale następował on przez cały późny dewon, a nie był pojedynczym skoncentrowanym wydarzeniem, mówi emerytowany paleontolog Richard Bambach, autor pracy naukowej z 2004 roku, w której argumentował, że w dewonie nie doszło do masowego wymierania. Pomysł, że na Ziemi doszło do 5 masowych wymierań pojawił się po raz pierwszy w 1982 roku. Od tamtego czasu autorzy różnych badań argumentowali, że wymierań było od 3 do 20. Nie istnieje formalna definicja masowego wymierania, jednak większość specjalistów zgadza się, że takim mianem należy określić znaczne zwiększenie liczby gatunków ginących w krótkim czasie. Na przykład w okresie wymierania permskiego większość gatunków wyginęła w ciągu 63 000 lat. W roku 2004 Bambach argumentował również, że nie było wymierania triasowego. Jednak od tamtej pory pojawiło się więcej dowodów, iż miało ono jednak miejsce. Bambach przyznaje, że w tej kwestii się mylił. Wszystko jednak wskazuje na to, że Ziemia doświadczyła czterech, a nie pięciu, okresów masowego wymierania. « powrót do artykułu
  9. Mówiąc wprost, to prezent dla Unii Europejskiej. Dobiega końca prezydencja Finlandii w UE i nasz kraj zdecydował się przetłumaczyć ten kurs na oficjalny język każdego państwa Unii Europejskiej i udostępnić go obywatelom w prezencie. Nie będzie żadnych ograniczeń geograficznych, a zatem tak naprawdę to prezent dla całego świata, stwierdzili przedstawiciele Finlandii. Mowa tutaj o kursie o podstawach sztucznej inteligencji. Niewielki nordycki kraj, który nie może konkurować w rozwoju sztucznej inteligencji z takimi potęgami jak USA czy Chiny, zdecydował, że nauczy podstaw tej technologii jak największą liczbę swoich obywateli. W styczniu bieżącego roku udostępniono więc online'owy kurs, w którym znalazły zagadnienia od kwestii filozoficznych i etycznych przez sieci neuronowe i uczenie maszynowe po prawdopodobieństwo subiektywne. Kurs składa się z kilku sekcji, nauka w każdej z nich trwa 5–10 godzin, a całość kursu jest rozpisana na sześć tygodni. Podstawy SI odniosły w Finlandii spory sukces. W kursie wzięło udział ponad 1% populacji kraju. Teraz Finowie chcą, by i inni z niego skorzystali. W tej chwili kurs jest dostępny w językach angielskim, niemieckim, szwedzkim, fińskim i estońskim. Zgodnie z zapowiedzią za jakiś czas powinniśmy doczekać się też wersji polskiej. Twórcy kursu, Uniwersytet w Helsinkach i firma Reaktor, stwierdzili, że SI to zbyt poważna kwestia, by pozostawiać ją w ręku wąskiej grupy programistów. Stąd też pomysł na świąteczny prezent dla obywateli Unii Europejskiej. Z kursu można skorzystać na stronie elementstofai.com. « powrót do artykułu
  10. Sztuczna inteligencja, jako system samouczący się i samodzielnie podejmujący decyzje, nie mieści się w ramach dotychczasowych, obowiązujących w Polsce, zasad prawnych. Należy podjąć w tej kwestii pilne kroki - przekonuje prawnik, prof. Marek Świerczyński. W ocenie ekspertów komputery nadal działają wolniej niż ludzki mózg. Natomiast w ostatnich latach prace nad zaawansowanymi systemami sztucznej inteligencji (AI) przyspieszyły w zaskakującym tempie. Tworzone przez ekspertów algorytmy powodują, że systemy te są w stanie same się uczyć i wcielać w życie czasem trudne do przewidzenia decyzje. Niesie to wyzwania związane z prawem. Obowiązujące przepisy zostały stworzone z myślą o człowieku. Jednak algorytmy sztucznej inteligencji stały się już zdolne, na przykład, do samodzielnego zawierania umów - opowiada w rozmowie z PAP prawnik i konsultant Rady Europy w dziedzinie nowych technologii, prof. Marek Świerczyński z Uniwersytetu Kardynała Stefana Wyszyńskiego w Warszawie. Ekspert twierdzi, że systemy AI są w stanie wyrządzić szkody. Ponadto sztuczna inteligencja zaczęła tworzyć dobra intelektualne. To wszystko rodzi konsekwencje natury prawnej. Stąd pojawiły się postulaty przyznania AI podmiotowości prawnej, uznania jej za tzw. elektroniczną osobę prawną - opowiada. Czy taki kierunek jest słuszny? Czy to sama AI powinna brać odpowiedzialność za swoje czyny i decyzje? Zasadniczym wyzwaniem prawnym jest dookreślenie podmiotu odpowiedzialnego. Użytkownik, wytwórca systemu AI, producent oprogramowania, osoba wprowadzająca dany system AI do obrotu – to podmioty, które mogłyby ponieść odpowiedzialność. Próby przypisania odpowiedzialności samej AI nie wydają się być jednak prawnie racjonalne i efektywne - mówi prof. Świerczyński. I dodaje, że taki kierunek prawodawstwa należy interpretować, jako próbę uniknięcia odpowiedzialności przez twórców AI. W ocenie prof. Świerczyńskiego Polska nie jest przygotowana pod względem prawnym do coraz bardziej zaawansowanych systemów AI. Przepisy już teraz wymagają dostosowania. AI jako system samouczący się i samodzielnie podejmujący decyzje mające określone konsekwencje prawne nie mieści się w ramach dotychczasowych zasad prawnych, dotyczących umów czy odpowiedzialności odszkodowawczej - uważa prawnik. I dodaje, że brak dostosowania prawa będzie prowadzić do pogorszenia sytuacji osób poszkodowanych przez działania AI. Kluczowe jest - według eksperta - prowadzenie działań legislacyjnych od razu w wymiarze międzynarodowym, tak aby przepisy prawne były spójne ze sobą w różnych krajach. Dlatego ważne są prace dostosowawcze prowadzone na forum Rady Europy, w których biorę udział jako konsultant. 17 maja br. na konferencji w Helsinkach Komitet Ministrów Rady Europy postanowił o rozpoczęciu pracy nad konwencją o sztucznej inteligencji - informuje prof. Świerczyński. Kwestie te były również przedmiotem dyskusji na konferencji w Warszawie (pt. "Prawo i sztuczna inteligencja") zorganizowanej 27 maja br. przez UKSW oraz Instytut Badawczy - Ośrodek Przetwarzania Informacji (IB - OPI). Ze względu na brak jednolitych regulacji prawnych związanych z AI sprawy sądowe rozpatrywane są w różny sposób w zależności od kraju. Interesującą kwestią jest, na przykład, rozstrzyganie o odpowiedzialności za szkodę spowodowaną przez autonomiczne samochody. W Polsce odpowiedzialny będzie posiadacz pojazdu na zasadzie ryzyka. Producent czy autor systemów sterowania, w tym opartych na AI, będzie z odpowiedzialności zwolniony - wyjaśnia ekspert. Jednak jego zdaniem utrzymanie tych zasad nie jest prawidłowe. Krąg osób, odpowiedzialnych podmiotów powinien ulec poszerzeniu, zależnie od rodzaju AI i jej wpływu na wypadek - uważa ekspert. Co ciekawe, tworzone przez AI teksty czy piosenki nie podlegają ochronie prawnej. Zasada jest taka, że twórcą może być tylko człowiek. I tak powinno pozostać. Można ewentualnie dopuścić ochronę takich utworów na podstawie prawa autorskiego, za podmiot praw autorskich uznając osobę fizyczną lub prawną, która zainicjowała ich stworzenie przez AI - mówi prawnik. I wskazuje, że takie rozwiązania przyjęto m.in. Wielkiej Brytanii i Nowej Zelandii. Komitet Współpracy Prawnej Rady Europy zajmuje się obecnie kwestią wykorzystania AI w sądownictwie. Przygotowuje on wytyczne w tej kwestii dla państw członkowskich. W projektowanych wytycznych przyjmujemy, że algorytmy mają przede wszystkim ułatwiać pracę sędziom, ale ich nie zastąpią. Przykładowo AI może być przydatna przy przygotowywaniu tych fragmentów rozstrzygnięcia, które mają charakter bardziej techniczny - wskazuje ekspert. Sztuczna inteligencja mogłaby ewentualnie zastąpić arbitrów. Dotyczyłoby to prostszych spraw, w których wyrok zostaje wydany na podstawie dokumentów, np. faktur, a które wymagają szybkiego rozstrzygnięcia - mówi. Zdaniem prof. Świerczyńskiego pomarzyć możemy o superobiektywnej AI. Algorytm, na podstawie którego będzie ona działać, oparty będzie o różnego rodzaju dane, które nie zawsze muszą być wiarygodne. « powrót do artykułu
  11. Sztuczna inteligencja pomaga w diagnozowaniu stresu pourazowego (PTSD) u weteranów, analizując ich głos. W najnowszym numerze pisma Depression and Anxiety doniesiono, że opracowany na Uniwersytecie Nowojorskim (NYU) system sztucznej inteligencji potrafi z 89-procentową trafnością odróżnić osoby z PTSD od osób zdrowych. Wyniki naszych badań wskazują, że cechy charakterystyczne mowy mogą zostać wykorzystane do zdiagnozowania choroby. Chcemy by w najbliższej przyszłości nasz system, po jego udoskonaleniu i uzyskaniu odpowiednich zgód, trafił do codziennej praktyki klinicznej, mówi jeden z głównych autorów badań, dziekan Wydziału Psychiatrii, profesor Charles R. Marmar. Szacuje się, że ponad 70% dorosłych doświadcza w jakimś momencie życia traumy, a odsetek osób z PTSD jest w niektórych krajach szacowany nawet na 12% dorosłej populacji. Osoby cierpiące na zespół stresu pourazowego doświadczają, gdy zetką się z bodźcem przypominającym o traumie, silnego trwałego stresu. PTSD diagnozuje się podczas wywiadu klinicznego, jednak jest to metoda podatna na błędy. Dlatego też specjaliści od dawna poszukują obiektywnego fizycznego markera PTSD. Jego znalezienie nie jest jednak łatwe. Autorzy najnowszych badań stworzyli algorytm wykorzystujący metodę nauczania random forest, która pozwala klasyfikować np. osoby na podstawie dostępnych przykładów. W ten sposób, działając najpierw na treningowej bazie danych, sztuczna inteligencja udoskonala swoje modele i metody podejmowania decyzji. Najpierw naukowcy nagrali standardowy wielogodzinny wywiad diagnostyczny CAPS (Clinician-Administered PTSD Scale). Zarejestrowano wywiady z 53 weteranami z Iraku i Afganistanu, u których stwierdzono PTSD oraz z 78 weteranami, u których choroba nie występowała. Następnie materiał dźwiękowy został przetworzony przez oprogramowanie firmy SRI International, tej samej, która opracowała apple'owską Siri, a program wyodrębnił z nagrań 40 526 cech, które następnie były analizowane pod kątem występowania wzorców. Sztuczna inteligencja była w stanie powiązać poszczególne cechy z PTSD. Były wśród nich na przykład mniej wyraźna mowa czy pozbawiony życia metaliczny ton głosu. Wcześniej wiedziano o tych dwóch cechach, ale były one jedynie anegdotycznie uznawane za pomocne w diagnostyce. Diagnoza PTSD na podstawie głosu może o tyle mieć uzasadnienie, że teoria dotycząca przyczyn zespołu stresu pourazowego mówi, iż traumatyczne wydarzenia zmieniają połączenia między neuronami odpowiedzialnymi za przetwarzanie emocji i oraz za napięcie mięśniowe, co może wpływać na sposób artykulacji. Mowa jest atrakcyjnym kandydatem dla automatycznego systemu diagnostycznego, gdyż może być ona mierzona i badana w sposób tani, nieinwazyjny i zdalny, mówi główny autor badań, profesor Adam D. Brown. Możliwości analizy głosu stosowane w obecnych badaniach nad PTSD pokrywają się z możliwościami naszem platformy analitycznej SenSay Analytics. Oprogramowanie to analizuje słowa, częstotliwość, rytm, ton oraz cechy charakterystyczne artykulacji i na tej podstawie wyciąga wnioski co do stanu mówiącego, w tym co do jego stanu emocjonalnego, uczuciowego, poznawczego, zdrowotnego, zdrowia psychicznego i zdolności komunikacyjnych, dodaje Dimitra Vergyri z SRI International. « powrót do artykułu
  12. Światowa Organizacja Własności Intelektualnej (WIPO) opublikowała swój pierwszy raport z serii „Technology Trends”. Dotyczy on sztucznej inteligencji. Autorzy raportu wzięli pod uwagę to, co działo się na polu sztucznej inteligencji od jej pojawienia się w latach 50. ubiegłego wieku. Przeanalizowali ponad 340 000 patentów związanych z tą dziedziną wiedzy oraz 1,6 miliona artykułów naukowych na jej temat. Jak się okazuje, większość patentów związanych z SI złożono po roku 2013. Aktywność patentowa na polu sztucznej inteligencji bardzo szybko rośnie, co oznacza, że możemy spodziewać się wysypu produktów, aplikacji i technik bazujących na sztucznej inteligencji. To wpłynie na nasze codzienne życie i ukształtuje przyszłe interakcje człowieka z maszyną, powiedział dyrektor generalny WIPO Francis Gurry. Kluczowymi graczami na rynku sztucznej inteligencji są USA, Chiny oraz Japonia. Przedsiębiorstwa prywatne stanowią 26 z 30 największych posiadaczy patentów związanych z SI. Pozostałe cztery instytucje to uniwersytety lub publiczne organizacje badawcze. Dane dotyczące patentów dotyczą okresu od początku istnienia sztucznej inteligencji po koniec roku 2016. To opóźnienie wynika z czasu, jaki upływa pomiędzy złożeniem wniosku patentowego, a jego upublicznieniem. Największym na świecie portfolio patentów z dziedziny SI może pochwalić się IBM, który posiada 8290 tego typu patentów. Na drugim miejscu jest Microsoft (5930 patentów). Kolejne trzy pozycje należą do firm z Azji: japońskiej Toshiby (5223), koreańskiego Samsunga (5102) oraz japońskiego NEC (4406). Z kolei 3 z 4 wspomnianych wcześniej instytucji akademickich znajdujących się w grupie 30 największych światowych posiadaczy patentów SI stanowią instytucje z Chin. Największa z nich, ulokowana na 17. pozycji największych światowych właścicieli patentów SI jest Chińska Akademia Nauk (ponad 2500 patentów). Chińskie instytucje naukowe są potęgą w akademickim świecie SI. Z Państwa Środka pochodzi bowiem aż 17 z 20 właścicieli największego portfolio patentów w świecie akademickim oraz 10 z 20 największych akademickich autorów prac naukowych na temat SI. Dominującą techniką wykorzystywaną w opatentowanych technologiach SI jest maszynowego uczenie się, w szczególności to z wykorzystaniem sieci neuronowych. Wymieniono je w ponad 30% patentów. Na polu tym notuje się imponujący wzrost. Jeszcze w 2013 roku maszynowe uczenie się wymieniono w 9567 nowych wnioskach patentowych, a w roku 2016 liczba ta wzrosła do 20 195. Najszybciej rosnącą techniką z dziedziny maszynowego uczenia się jest deep learning. Tutaj zanotowano imponujący wzrost ze 118 patentów w roku 2013 do 2399 patentów w roku 2016. Roczny wzrost w tej dziedzinie wynosi zatem 175%. Dla porównania, roczny wzrost wszystkich patentów związanych z nowymi technologiami wynosi średnio 10%. Z analizy patentów dowiadujemy się też, że komputerowe widzenie wymieniono w 49% wniosków patentowych oraz, że szybko – w tempie 55% rocznie – rośnie zastosowanie SI w robotyce. Przemysł transportowy jest tym sektorem, w którym najszybciej rośnie zainteresowanie technologiami SI. W 2016 roku złożył on 8764 wnioski patentowe związane ze sztuczną inteligencją. Oznacza to, że od roku 2013 liczba patentów rośnie tutaj w tempie 33% rocznie, a przemysł transportowy złożył 19% wszystkich wniosków patentowych z lat 2013–2016. Wolniej, bo w tempie 23% rocznie rośnie liczba patentów SI związanych z przemysłem telekomunikacyjnym. W roku 2016 złożono 6684 wniosków, a telekomunikacja była odpowiedzialna za 15% patentów SI w latach 2013–2016. Na kolejnym miejscu tej listy znajdziemy szeroko rozumiany sektor zdrowia. Tam SI znajduje zastosowanie w diagnostyce, chirurgii czy personalizacji leków. W 2016 roku sektor zdrowia złożył 4112 wniosków patentowych na sztuczną inteligencję, co oznacza roczny wzrost w tempie 12%, i był odpowiedzialny za 11% wszystkich patentów z lat 2013–2016. W końcu sektory związane z gadżetami, urządzeniami osobistymi, komputerami i interakcją człowiek-komputer wypełniły w 2016 roku 3977 wniosków patentowych. Mamy tutaj do czynienia z 11-procentowym rocznym wzrostem, a wnioski te stanowiły 11% wszystkich z lat 2013–2016. « powrót do artykułu
  13. Yinyin Yuan i jej koledzy z Institute of Cancer Research w Londynie stworzyli system sztucznej inteligencji, który bada różnice w kształtach komórek nowotworowych. Przeanalizowali próbki tkanek 514 kobiet z rakiem jajnika i odkryli, że w bardziej agresywnej formie nowotworu, w której szanse na przeżycie 5 lat wynoszą zaledwie 15 procent, jądra komórkowe mają nieprawidłowy kształt. Tam, gdzie jądra komórkowe mają kształt prawidłowy, mamy do czynienia z łagodniejszą formą nowotworu, o 53-procentowej szansie przeżycia. Jak zauważa Kevin Elias z Dana-Farber Cancer Institute w Bostonie, na razie tego typu test ma bardzo ograniczone możliwości. On jedynie mówi, że rokowania pacjenta są złe. Jeśli nie będę w stanie zaproponować alternatywnego leczenia, taki test nie jest dla mnie użyteczny. Sztuczna inteligencja jest coraz częściej stosowana w onkologii. Głównie wykorzystuje się ją do zbierania i analizowania danych na wiele różnych sposobów. Przydaje się np. do badania ewolucji guza czy ulepszania diagnozy. Yuan i jej zespół chcą w najbliższym czasie wykorzystać SI do przeanalizowania sposobu, w jaki nowotwory nabywają oporności na chemioterapię i na podstawie tej wiedzy będą chcieli opracować lepsze metody leczenia. « powrót do artykułu
  14. Jak dowiedzieli się reporterzy Reutersa, Amazon stworzył algorytm sztucznej inteligencji, który miał pomóc w rekrutacji pracowników. Narzędzie zostało jednak porzucone gdy okazało się, że... dyskryminuje kobiety. W 2014 roku w Amazonie powstał specjalny zespół, którego zadaniem było zbudowanie automatycznego asystenta biorącego udział w rekrutacji. Chcieli, by to działało w ten sposób, że dajesz mu do analizy 100 życiorysów, on wybiera 5 najlepszych i tych ludzi się zatrudnia, mówi osoba zaznajomiona ze sprawą. Narzędzie miało przyznawać każdemu z kandydatów od 1 do 5 gwiazdek i na tej podstawie wskazywać osobie prowadzącej rekrutację, na kogo warto zwrócić uwagę. Amazon stworzył 500 modeli komputerowych, które przeanalizowały CV znajdujące się w bazie danych firmy i wybrały z nich 50 000 kluczowych terminów. W 2015 roku narzędzie było gotowe. Miało ono przeczesywać sieć w poszukiwaniu odpowiednich kandydatów. Okazało się jednak, że SI najwyraźniej nie lubi kobiet. Stało się tak prawdopodobnie dlatego, że było trenowane na CV kandydatów do Amazona z ostatnich 10 lat. A o pracę starli się tam głównie mężczyźni. Sztuczna inteligencja doszła więc do wniosku, że to mężczyźni są preferowani i przyznawała mniej punktów tym CV, w których pojawiały się takie słowa jak "women's" (np. w stwierdzeniu women's chess club capitan), odfiltrowywała też kandydatki, które ukończyły dwie żeńskie szkoły. Inżynierowie Amazona naprawili te problemy, jednak postanowiono nie wdrażać narzędzia w obawie, że istnieją jeszcze inne elementy, które powodują, że przyznaje ono mniej punktów kobietom. Amazon twierdzi, że narzędzie nigdy nie zostało wdrożone. Nieudana próba pokazuje jednak, jak niedoskonała jest sztuczna inteligencja. To tym większy problem, że coraz więcej firm chce automatyzować część procesu rekrutacji. W 2017 roku przeprowadzono badania, z których wynika, że 55% amerykańskich menedżerów HR uważa, iż w ciągu najbliższych pięciu lat SI będzie standardowo wykorzystywane w ich pracy. Ze zdobytych przez Reutersa informacji wynika, że Amazon powołał nowy zespół, który tym razem ma stworzyć narzędzie wspomagające rekrutację pod kątem osiągnięcia jak największej różnorodności wśród kandydatów. « powrót do artykułu
  15. W ubiegłym tygodniu podczas International Conference on Machine Learning (ICML) grupa naukowców pokazała żółwia wydrukowanego techniką 3D. Dla ludzi żółw wyglądał niemal jak żywy. Jednak algorytmy sztucznej inteligencji rozpoznały w obiekcie... strzelbę. W innym przypadku kij baseballowy wykonany techniką druku 3D został przez SI uznany za... filiżankę espresso. Na naszych oczach sztuczna inteligencja, systemy maszynowego uczenia się, czynią tak wielkie postępy, że coraz częściej podnoszą się głosy zaniepokojenia, ostrzegające nas przed zbytnim rozwijaniem inteligencji maszyn. Jednak, jak się okazuje, systemy SI są zdumiewająco podatne na ataki. A w ostatnim czasie eksperci coraz częściej prezentują nam przykłady takich ataków. My, którzy pracujemy nad maszynowym uczeniem się nie jesteśmy przyzwyczajeni, by myśleć o bezpieczeństwie naszych systemów, mówi jeden z twórców żółwia 3D i badań nad atakiem na AI, Anish Athalye z MIT. Specjaliści zajmujący się sztuczną inteligencją mówią, że przeprowadzenie takich ataków jest bardzo użyteczne z naukowego punku widzenia. Pozwalają one bowiem analizować sposób działania sieci neuronowych, które obecnie nie są dobrze rozumiane. Ataki to wspaniałe szkło powiększające, przez które możemy lepiej zrozumieć to, co nazywamy maszynowym uczeniem, mówi Dawn Song z Uniwersytetu Kalifornijskiego w Berkeley. W ubiegłym roku Song i jej koledzy umieścili na standardowym znaku drogowym „STOP” kilka naklejek, które spowodowały, że system SI uznał znak za... ograniczenie prędkości do 45 mil na godzinę. Nietrudno wyobrazić sobie konsekwencje takiego ataku na samochód autonomiczny. Ataki można podzielić na takie, w których napastnik ma wiedzę o algorytmach wykorzystywanych przez system i na takie, w których algorytmów tych nie zna. W pierwszym przypadku może obliczyć, w jaki sposób należy zmienić dane wejściowe do systemu wykorzystującego dane algorytmy, by otrzymać pożądane dane wyjściowe. W ten sposób można np. manipulować obrazem tak, by dla człowieka nie wyglądal on na zmanipulowany, ale by sztuczna inteligencja źle go rozpoznała. Bardziej wymagające są ataki, gdy nie znamy algorytmów. Wówczas napastnik zna tylko danej wejściowe i wyjściowe. Przeprowadzenie takiego ataku jest trudne, ale nie niemożliwe. Podczas ostatniego ICML Athalye i jego zespół zaprezentowali tego typu atak przeciwko usłudze Google Cloud Vision. W sposób niewidoczny dla człowieka zmienili oni zdjęcie przedstawiające dwóch narciarzy tak, że system Google'a uznał je za zdjęcie psa. Jednym ze sposobów na uchronienie się przed tego typu atakami jest stworzenie formuły, pozwalającej algorytmom SI zweryfikować, czy dobrze rozpoznały dany obiekt. Jeśli możesz przeprowadzić weryfikację, oznacza to koniec zabawy dla napastników, mówi Pushmeet Kohli z DeepMind. Podczas ICML zaprezentowano nawet dwa takie algorytmy weryfikujące. Problem w tym, że obecnie nie da się ich skalować na duże sieci neuronowe współczesnych SI. Co prawda Kohli twierdzi, że w przyszłości się to uda, jednak Song uważa, że w świecie praktycznych zastosowań będą one miały poważne ograniczenia. Nie istnieje matematyczna definicja tego, kim jest pieszy. Czy możemy więc udowodnić, że autonomiczny samochód w żadnym przypadku nie uderzy w pieszego? Nie możemy, stwierdza uczona. « powrót do artykułu
  16. Ponad 50 ekspertów zajmujących się sztuczną inteligencją wezwało do bojkotu Koreańskiego Zaawansowanego Instytutu Nauki i Technologii (KAIST). Zdaniem naukowców, prowadzone przez KAIST badania mogą prowadzić do trzeciej rewolucji w działaniach wojennych. KAIST ściśle współpracuje z największym koreańskim producentem uzbrojenia, firmą Hanwha Systems. Ekspertów zaniepokoił fakt, że niedawno obie instytucje powołały do życia Centrum Badań nad Konwergencją Obrony Narodowej i Sztucznej Inteligencji. Zdaniem naukowców z całego świata, centrum takie może doprowadzić do wyścigu zbrojeń, których celem będzie opracowanie autonomicznych systemów bojowych. Sygnatariusze listu oświadczyli, że nie będą współpracowali z KAIST dopóty, dopóki uczelnia nie zapewni, że nowo powołane centrum badawcze nie będzie prowadziło prac nas autonomiczną bronią. Autonomiczne systemy bojowe, jeśli powstaną, doprowadzą do trzeciej rewolucji w działaniach zbrojnych. Pozwolą one prowadzić wojny szybciej i na większą skalę niż kiedykolwiek wcześniej. Mogą stać się narzędziem do siania terroru. Dyktatorzy i terroryści będą mogli użyć ich przeciwko niewinnym cywilom, uwalniając się ze wszystkich ograniczeń etycznych. Jeśli otworzymy tę puszkę Pandory, trudno będzie ją zamknąć. Możemy jednak zdecydować, że nie będziemy rozwijali takich technologii. Tak, jak w przeszłości zdecydowaliśmy, że nie będziemy np. rozwijali lasera do oślepiania ludzi. Wzywamy KAIST właśnie do takiego postępowania i do prac nad SI, która udoskonala ludzkie życie, a nie mu szkodzi. Organizator bojkotu, profesor Toby Walsh z Uniwersytetu Nowej Południowej Walii powiedział, że rozwój autonomicznych systemów bojowych tylko pogorszy sytuację na Półwyspie Koreańskim. Jeśli ta broń się pojawi, to w końcu będzie miała ją też Korea Północna, która bez najmniejszych wyrzutów sumienia użyje jej przeciwko Południu, stwierdził Walsh. Korea Południowa jest światowym liderem w dziedzinie rozwoju autonomicznych systemów bojowych. Wzdłuż Koreańskiej Strefy Zdemilitaryzowanej rozmieszczono m.in. systemy Samsung SGR-A1. To pierwsze roboty bojowe wyposażone w systemy do nadzoru, śledzenia, prowadzenia ognia i rozpoznawania głosu. Prezydent KAIST, Sung-Chul Shin mówi, że uczelnia nie prowadzi prac nad autonomicznym uzbrojeniem. « powrót do artykułu
  17. Naukowcy z University of Washington i Allen Institute for AI nauczyli system sztucznej inteligencji reagować jak pies. Wykorzystali przy tym dane zebrane od prawdziwego zwierzęcia. Szczegóły badań zostaną przedstawione podczas Conference on Computer Vision and Pattern Recognition. Celem badaczy było stworzenie systemu reagującego w określonych warunkach jak prawdziwy pies. Modelowym zwierzęciem był malamut, którego wyposażono w kamerą GoPro i mikrofon na głowie, czujniki ruchu na całym ciele oraz komputer Arduino, który zbierał i przetwarzał dane. Na ich podstawie SI miała za zadanie przewidzieć przyszłe zachowania zwierzęcia, zaplanować zadanie i nauczyć się psiego zachowania. Naukowcy chcieli w ten sposób sprawdzić, czy ich SI będzie w stanie przewidzieć, co zrobi pies np. po spotkaniu w parku wiewiórki. W sumie nagrano 24500 klatek wideo, które zsynchronizowano z dźwiękiem i ruchmi ciała. Do nauki SI wykorzystano 21000 klatek, a resztę użyto podczas testów. Autorzy badań donoszą, że cały system działa bardzo dobrze, a zadania, które uznano za najbardziej wymagające, wykonuje lepiej niż przewidziano. Na razie jednak SI nie była połączona z żadnym robotem. Całość prac prowadzono na komputerze. Najprawdopodobniej jednak w niedalekiej przyszłości powstanie pies-robot, który dzięki systemowi sztucznej inteligencji będzie zachowywał się jak prawdziwy pies. « powrót do artykułu
  18. W realność powstania sztucznej inteligencji niektórzy powątpiewają, inni są o jej powstaniu przekonani, spodziewając się nawet, że przewyższy ona poziom człowieka. Trudno jednak zweryfikować jej ewentualne powstanie, czy choćby ocenić, czy zbliżamy się do celu, skoro nie istnieją żadne testy potrafiące ocenić inteligencję maszyny, nie mówiąc już o porównaniu jej z inteligencją człowieka. Istnieje oczywiście zaproponowany dawno temu „test Turinga", ale jest on mocno umowny, nie daje żadnej odpowiedzi na temat stopnia rozwoju, nie pozwala nawet ocenić, czy dzisiejsze programy są inteligentniejsze od wczorajszych. Testy IQ przeznaczone dla ludzi nadają się zaś tylko dla ludzi. Co w tej sytuacji zrobić? Należy stworzyć lepsze, uniwersalne zestawy testów na inteligencję - orzekli hiszpańscy i australijscy naukowcy zrzeszeni w projekcie „Anytime Universal Intelligence" i tak też zrobili. Ich metoda badania ma odmienne założenia niż tradycyjny test psychometryczny, czy test na przekroczenie pewnego poziomu - jak test Turinga. Test, który opracowali José Hernández-Orallo z Polytechnic University of Valencia i David L. Dowe z Monash University w Clayton opiera się o koncepcje matematyczne i obliczeniowe. Korzysta on z interaktywnych zadań, których pozom trudności oceniany jest poprzez liczenie tzw. złożoności Kołmogorowa - czyli ilości zasobów obliczeniowych, koniecznych do pisania obiektu lub informacji. Jak opisują wyjątkowe cechy swojego testu jego autorzy: nie wymaga on wyczerpania określonej serii zadań, lecz może być przerwany w dowolnym momencie - jednak im dłuższy czas wykonywania, tym większa jego dokładność. Druga zaleta jest taka, że można go zaaplikować każdemu: zarówno człowiekowi (czy to dorosłemu, czy nie), zwierzęciu, jak też bytowi niebiologicznemu: robotowi czy programowi, a w przyszłości nawet istotom pozaziemskim. No i oczywiście da się dzięki niemu uchwycić ten moment, kiedy ewentualnie inteligencja maszynowa prześcignie ludzką. Ale wtedy pewnie to ona będzie badać nas.
  19. Zaledwie trzynaście lat temu komputer stworzony przez IBM pobił w tej królewskiej grze ludzkiego arcymistrza: Garrego Kasparowa. W przyszłym roku program o nazwie „Watson" rzuci wyzwanie ludzkim mistrzom teleturnieju Jeopardy! Podobno po przegranym z komputerem turnieju arcymistrz Garry Kasparow miał mówić, że chwilami miał wrażenie, że gra z człowiekiem. Mimo to, od stworzenia programu do skutecznej gry w szachy - grę o wielu kombinacjach ale prostych regułach - do prawdziwej sztucznej inteligencji droga jeszcze daleka. Czy trzynaście lat to wystarczający czas? Być może przekonamy się o tym w lutym przyszłego roku. Wówczas napisany przez IBM program „Watson" (nazwany na cześć twórcy firmy, Thomasa J. Watsona) stanie do walki z ludźmi w popularnym teleturnieju Jeopardy! (ang. ryzyko). W Polsce teleturniej ten znany był pod nazwą Va Banque (prowadził go Kazimierz Kaczor). Sztuka rozumienia zadanego w naturalnym języku pytania i udzielenia odpowiedzi w takimże języku jest już wystarczająco trudna, Jeopardy! stwarza jednak dodatkowe wyzwanie: w tym programie dostaje się odpowiedź i należy ułożyć do niej poprawne pytanie. Rozwiązań może być zatem więcej i mogą one być formułowane w różny sposób, dodatkowo liczy się prędkość, ponieważ nagrodę zgarnia najszybszy gracz. Najlepsi z najlepszych - po obu stronach Do rywalizacji w imieniu ludzkości stają również nie zwykle zjadacze chleba i uczestnicy teleturniejów, ale najwięksi mistrzowie: Ken Jennings, który wygrał aż 74 turnieje pod rząd w sezonie 2004-2005, oraz Brad Rutter, zdobywca największej wygranej (niemal 3,3 miliona dolarów) podczas czterech turniejów. Poza prestiżem i chwałą do wzięcia w pokazowej grze jest okrągły milion dolarów. Niezależnie od wyniku zwycięzcą będą instytucje charytatywne - IBM zobowiązał się do przekazania na cele dobroczynne całej ewentualnej wygranej, Jennings i Rutter - połowę uzyskanej sumy. Mecz Watson kontra Jennings kontra Rutter będzie emitowany w dniach 14-16 lutego 2011. Obok ludzi pojawi się zatem komputerowy awatar. Wiadomo, że rozegrano już pięćdziesiąt próbnych i testowych turniejów pomiędzy sztuczną inteligencją rodem z IBM a ludzkimi zwycięzcami, ale obie strony milczą o ich wyniku. Jednak fakt rzucenia przez zespół programistów rękawicy zdaje się wskazywać, że są oni przekonani o dużych szansach na co najmniej równorzędną rywalizację. O wyniku przekonamy się za dwa miesiące. Znawcy zagadnienia sztucznej inteligencji za probierz siły algorytmicznego myślenia uważają często grę Go - w której rzeczywiście mimo prostych reguł najlepsze programy nie dorównują wyższej klasy zawodnikom. Jednak stworzenie programu potrafiącego nie tylko szybko i sprawnie sięgać do bazy danych, ale rozumieć i komunikować się w naturalnym języku, będzie nie tylko przełomem, ale zaoferuje wiele praktycznych korzyści. A także, nie da się ukryć, będzie wyjątkowo atrakcyjne medialnie. http://www.youtube.com/watch?v=FC3IryWr4c8
  20. Zapobieganie rozwojowi choroby Alzheimera wymaga rozpoznania jej wczesnych symptomów. Najczęściej zaczyna się od łagodnego upośledzenia funkcji poznawczych (mild cognitive impairment, MCI). Jednak nie u każdego pacjenta z MCI ta przypadłość rozwija się, w wielu przypadkach pozostaje ona na stałym poziomie. Jak zidentyfikować i odróżnić te przypadki? Doktor Sven Haller, radiolog z University Hospitals of Geneva zaprzągł do diagnozowania nową, specjalistyczną technologię podatnościozależnego rezonansu magnetycznego (susceptibility weighted imaging, SWI) oraz... sztuczną inteligencję. W przygotowawczym badaniu wzięło udział 69 pacjentów w wieku przeciętnie 65 lat płci obojga ze zdiagnozowanym MCI oraz grupa kontrolna 35 osób. Zaburzenia poznawcze zidentyfikowano za pomocą standardowego zestawi testów psychologicznych, wszystkich badanych poddano obrazowaniu nową technologią rezonansu magnetycznego. Po roku badania powtórzono, identyfikując 27 pacjentów z pogłębiającym się stanem MCI. Badanie SWI pozwoliło na dokładną analizę nawet niewielkich naczyń krwionośnych, połączoną z identyfikacją mikrowylewów, a także na porównanie stężenia żelaza w różnych obszarach mózgu. Liczba odkrytych mikrowylewów była znacząco wyższa u osób z narastającym upośledzeniem zdolności poznawczych (54%) niż u osób ze stabilną dolegliwością (33%). W grupie kontrolnej wskaźnik ten wyniósł jedynie 14%. Obrazowanie pokazało również, że osoby ze zdiagnozowanym MCI miały zwiększoną koncentrację żelaza w niektórych głębszych strukturach mózgu (w jądrze podkorowym) a zmniejszoną w innych. Zakłócenia w dystrybucji żelaza mogą być zatem uznane za dodatkowy indykator upośledzenia funkcji mózgu. Nie koniec na tym, bowiem dr Haller dokonał analizy zgromadzonych danych przy pomocy oprogramowania klasyfikującego z algorytmami sztucznej inteligencji. Komputerowa ocena, który z pacjentów zagrożony jest postępującym upośledzeniem sprawdziła się w 85 procentach. Jak na pierwsze rezultaty wynik jest bardziej niż obiecujący, doktor Sven Haller zamierza kontynuować poszukiwania oznak pozwalających bezbłędnie identyfikować osoby zagrożone chorobą Alzheimera i innymi chorobami neurodegeneracyjnymi.
  21. Naukowcy z Cornell University stworzyli program, dzięki któremu komputer jest w stanie wykorzystać dane z obserwacji do stworzenia ogólnego prawa. To, co dotychczas było efektem pracy genialnych umysłów, stało się dostępne dla maszyn. Przełomowa praca to dzieło profesora mechaniki i inżynierii kosmicznej Hoda Lipsona oraz doktoranta Michaela Schmidta, specjalizującego się w tworzeniu oprogramowania dla nauk biologicznych. Program pozwala maszynie na analizowanie surowych niedokładnych danych i na odkrycie na ich podstawie praw rządzących naturą. Jednym z największych problemów współczesnej nauki jest analizowanie olbrzymich zbiorów danych i odkrywanie fundamentalnych praw tam, gdzie istnieją luki w teoriach ich dotyczących - mówi Lipson. Oprogramowanie z Cornell University potrafi porównywać olbrzymią liczbę zmiennych, szukać w nich zależności i wyodrębniać pewne stałe zależności pomiędzy nimi. Tworzy na tej podstawie równania, których prawdziwość sprawdza w oparciu o dostępne informacje. Pozostawia następnie te równania, które najlepiej się sprawdzają, a inne odrzuca. Czynności te powtarza tak długo, aż w końcu znajdzie algorytm, który dokładnie opisuje zachowanie analizowanego przez siebie systemu. W ten sposób komputer znajduje stałe, które leżą u podstaw praw fizyki. Po włączeniu maszyna Schmidta i Lipsona potrafiła jedynie określić jaka korelacja zachodzi pomiędzy obserwowanymi danymi i stwierdzić, które z nich są ważne, a które należy odrzucić. Korzystając z danych z oscylatora harmonicznego, wahadła i podwójnego wahadła, ale bez znajomości jakichkolwiek zasad fizyki, geometrii czy kinematyki, maszyna samodzielnie stworzyła prawa zachowania energii, pędu i drugą zasadę dynamiki. Nie oznacza to, że naukowcy wkrótce staną się niepotrzebni, gdyż zastąpią ich komputery. Jednak nowe oprogramowanie umożliwi uczonym na znacznie szybsze wyodrębnienie istotnych danych i skupienie się właśnie na nich. Warto wspomnieć, że uczeni z Cornell nie są jedynymi, którzy w ostatnim czasie przeprowadzili tak znaczące prace. W Wielkiej Brytanii profesor Ross King z Aberystwyth University stworzył automatycznego naukowca imieniem Adam. Maszyna samodzielnie stworzyła hipotezę o istnieniu genów w drożdżach i o enzymach produkowanych przez te geny. Następnie zaprojektowała i przeprowadziła eksperyment, który miał potwierdzić hipotezę. Następnie, korzystając z wyników eksperymentu, Adam skorygował hipotezę i przeprowadził kolejne eksperymenty, na podstawie których opracował teorię. Naukowcy powtórzyli następnie eksperymenty Adama i okazało się, że robot doszedł do prawidłowych wniosków.
  22. Naukowcy z teksańskiego Instytutu Badań nad Grupami Zbrojnymi (Institute for the Study of Violent Groups - ISVG), opracowali program komputerowy, którego zadaniem jest analiza doniesień prasowych i odgadywanie, jaka grupa stoi za konkretnym atakiem czy zamachem terrorystycznym. Oprogramowanie napisano w języku Python. Analizuje ono doniesienia i wychwytuje takie informacje, jak np. użyta broń, rodzaj celu, taktyka ataku. Na tej podstawie stara się określić, jaka grupa jest odpowiedzialna za zamach. Prace nad oprogramowaniem, wykorzystującym techniki sztucznej inteligencji, trwały przez 18 miesięcy, i brali w nich udział naukowcy z Rice University. Program korzysta z olbrzymiej bazy danych, w której specjaliści z ISVG na bieżąco umieszczają wszelkie informacje o działających grupach zbrojnych. Pierwszy prawdziwy test program przeszedł niedawno, analizując dane dotyczące ataku na hotele w Bombaju. Natychmiast po atakach specjaliści wprowadzili do komputerów kilka informacji. Oprogramowanie poznało więc używaną broń (karabiny maszynowe, granaty, materiały wybuchowe), cel (miejsca publiczne) oraz taktykę (bezpośredni atak, ostrzał, zasadzka). Co ciekawe, programu nie poinformowano, gdzie nastąpił atak. Na podstawie dostępnych informacji stwierdził on, że za zamachem mogą stać następujące organizacje: Al-Kaida, Tygrysy-Wyzwoliciele Tamilskiego Eelamu (Sri Lanka), Hamas (Palestyna), partyzantka czeczeńska lub Zjednoczony Front Wyzwolenia Assamu (Indie). Odpowiedź była więc oczywista i, jak pokazała przyszłość, w stu procentach prawdziwa.
  23. Amerykańska firma badawcza Novamante stworzyła oprogramowanie, które uczy się poprzez kontrolowania postaci w wirtualnych światach. Wkrótce światy takie, jak chociażby gra Second Life, będą wykorzystywane jako poligony treningowe dla sztucznej inteligencji (AI). Początkowo mechanizmy AI będą wbudowywane w wirtualne zwierzęta, które będą uczyły się od swoich wirtualnych właścicieli, którymi sterują ludzie. Na dalszym etapie prac Novamante chce stworzyć oprogramowanie, które pozwoli na samodzielny byt gadającej papudze, czy nawet dziecku. Firma opracowała odpowiedni „kognitywny engine”, który działa jak część myślącej sztucznej inteligencji. Engine posiada duże możliwości samouczenia się od innych awatarów, może podejmować własne decyzje, które pozwalają na osiągnięcie założonych celów. Doktor Ben Goertzel mówi, że gry podobne do Second Life są bardzo dobrym miejscem do rozwoju sztucznej inteligencji. Są również świetnym rynkiem. Wielu graczy z pewnością byłoby skłonnych zapłacić za inteligentnego psiaka. W tej chwili w Second Life jest wiele zwierząt domowych, ale nie są one zbyt mądre. W tej chwili mamy już nieźle funkcjonujący mózg zwierzęcy i rozpoczynamy wprowadzanie go do różnych wirtualnych światów. Jestem pewien, że możemy stworzyć interesujące inteligentne zwierzęta – mówi Goertzel.
  24. Zwycięzcy ostatnich Grand Challenge, sponsorowanych przez DARPA (Defense Advanced Research Project Agency – Agencja Zaawansowanych Projektów Obronnych) zawodów, w których biorą udział samochody bez kierowców, staną w bieżącym roku przed nowym wyzwaniem. Urban Grand Challenge będzie ni mniej, ni więcej tylko zawodami rozgrywającymi się na ulicach miasta. Wcześniej samochody ścigały się jedynie na pustyni. Ponad 86 pojazdów będzie miało do przejechania 160 kilometrów. Właściciel zwycięskiego pojazdu otrzyma 2 miliony dolarów. Za zajęcie drugiego miejsca przewidziano nagrodę w wysokości miliona USD, a trzecie miejsce będzie premiowane 500 tysiącami dolarów. Wyścig będzie miał miejsce 3 listopada 2007 roku. Sądzę, że największym wyzwaniem dla wszystkich załóg będzie interakcja z innymi samochodami. Ze stałymi przeszkodami można sobie bez problemu poradzić i trzymać się swojego pasa. Jednak zatrzymanie się na światłach, branie pod uwagę sąsiednich samochodów czy zmiana pasa, by uniknąć kolizji, będzie sporym problemem – stwierdził Mike Montemerlo, badacz z Laboratorium Sztucznej Inteligencji Uniwersytetu Stanforda, którego pojazd "Junior”, zwycięzca Grand Challenge, też będzie brał udział w zawodach. "Juniorowi” (Volkswagen Passat) w wykonaniu zadania pomogą dwu- i czterordzeniowe procesory Intela oraz specjalne oprogramowanie, pisane wspólnie przez pracowników Uniwersytetu i koncernu Intel. Samochód za pomocą laserów i kamer bez przerwy monitoruje swoje otoczenie. Na podstawie zebranych danych tworzony jest model otaczającej go przestrzeni, który zostaje następnie wysłany do elementów sterujących pojazdu.
×
×
  • Create New...