Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów ' Sztuczna inteligencja' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 57 wyników

  1. Obecnie wykorzystywane technologie rozpoznawania obrazów bazują na sztucznej inteligencji. Komputery uczą się odróżniać na zdjęciach i filmach różne przedmioty, ludzi czy zwierzęta. Problem jednak w tym, że proces ten wymaga dużych mocy obliczeniowej i dużych ilości energii, przez co systemy takie nie będą nadawały się np. do przyszłych przenośnych urządzeń medycznych. Naukowcy z Uniwersytetu Stanforda zaprojektowali system, który potrafi znacznie szybciej klasyfikować obrazy, używając przy tym znacznie mniej energii. Samochody autonomiczne mają pod masą dość duże, dość powolne i zużywające dużo energii komputery, mówi profesor Gordon Wetzstein, który stał na czele grupy badawczej. W przyszłości będziemy potrzebowali czegoś szybszego i mniejszego. Wetzstein i Julie Chang postanowili wykonać taki właśnie krok ku przyszłości, tworząc rodzaj optyczno-elektrycznego komputera wyspecjalizowanego w analizie obrazów. Pierwszą warstwą ich prototypowej kamery jest warstwa optyczna, która wstępnie przetwarza obraz. Warstwa druga to tradycyjny komputer. W warstwie optycznej ma miejsce fizyczne przetwarzanie danych z obrazu, który jest po prostu filtrowany na różne sposoby. Jako, że proces ten ma miejsce w miarę przechodzenia światła przez kolejne filtry, całość odbywa się z olbrzymią prędkością i nie wymaga zasilania. Przekazaliśmy optyce część zadań wykonywanych dotychczas przez procesory i sztuczną inteligencję, mówi Chang. W wyniku takiego podejścia cały system ma do przeprowadzenia znacznie mniej obliczeń, znacznie rzadziej odwołuje się do pamięci, a całość trwa znacznie szybciej. Dzięki pominięciu wstępnego przetwarzania obrazu przez procesor osiągnięto wiele korzyści. Pominęliśmy miliony obliczeń, a wszystko to z prędkością światła, mówi Wetzstein. Testy pokazały, że zbudowany prototyp może konkurować pod względem prędkości i dokładności z obecnie używanymi systemami rozpoznawania obrazu. I wystarczy mu do tego znacznie mniej obliczeń. Bez problemu rozpoznawał samoloty, samochody, koty, psy i wiele innych obiektów. Prototyp jest duży, jednak jesto twórcy nie wykluczają, że w przyszłości zostanie zminiaturyzowany na tyle, by mieścić się w kamerze wideo. Przyszłe wersje naszego systemu będzie można wykorzystać do szybkiego podejmowania decyzji np. przez samochody autonomiczne, dodaje Wetzstein. « powrót do artykułu
  2. Samsung zapowiedział inwestycje w wysokości... 161 miliardów dolarów. Dzięki tej olbrzymiej kwocie koncern chce zwiększyć swoje możliwości wytwórcze oraz zaoferować produkty, które zapewnią rozwój w przyszłości. Koreańska firma zainwestuje w sztuczną inteligencję, sieci bezprzewodowe piątej generacji, biofarmację, wyświetlacze, półprzewodniki i "inne kluczowe programy", poinformowali przedstawiciele Samsunga. Kolosalna kwota zostanie wydana w ciągu zaledwie trzech lat, a niemal 3/4 pieniędzy będą inwestowane w Korei Południowej. Samsung od dawna ma opinię firmy, która agresywnie inwestuje, nawet w czasach, gdy konkurencja zmniejsza poziom inwestycji. Dzięki takiej polityce stał się jednym z największych na świecie producentów układów scalonych. Dobrym przykładem jest właśnie wybudowana przez Samsunga największa na świecie fabryka smartfonów. Powstała ona, pomimo że udziały koreańskiej firmy w chińskim rynku uległy zmniejszeniu. Władze Samsunga uważają, że dzięki inwestycjom w sztuczną inteligencję ich firma stanie się jeszcze bardziej innowacyjna, a inwestycje w technologię 5G wspomogą rozwój Internet of Things, robotyki i autonomicznych samochodów. Dlatego też w swoich AI Centers Samsung chce zwiększyć liczbę naukowców do 1000 i ma zamiar stać się światowym potentatem na rynku układów scalonych, urządzeń i wyposażenia 5G. Chce też stać się liderem układów scalonych na rynku autonomicznych samochodów. Firma zainwestuje też w badania podstawowe, które mają w przyszłości wspomóc rozwój technologii, którymi jest zainteresowana. Wspólnie z rządem Korei Samsung założy też i będzie prowadził centra programistyczne w całym kraju. Ma w nich pobierać naukę 10 000 osób. Firma zacieśni też współpracę z czołowymi krajowymi instytutami naukowymi. Oświadczenie o wielkich inwestycjach zostało wydane kilka dni po spotkaniu rządzącego de facto Samsungiem Lee Jae-yonga z koreańskim ministrem finansów Kim Dong-yeonem. « powrót do artykułu
  3. Podczas International Joint Conference On Artificial Intelligence, która odbywa się właśnie w Sztokholmie, Future of Life Insitute zaprezentował dokument, którego sygnatariusze zobowiązali się do nieprowadzenia prac nad śmiercionośnymi autonomicznymi systemami bojowymi. Dokument podpisało ponad 160 organizacji i ponad 2400 osób. Wśród sygnatariuszy znajdziemy m.in. google'owskie DeepMind u jego założyciele czy Elona Muska. DeepMind to twórca algorytmów sztucznej inteligencji, które pokonały człowieka w go. My, podpisani poniżej, uznajemy, że decyzja o odebraniu życia człowiekowi nigdy nie powinna być podejmowana przez maszynę. Moralnym uzasadnieniem takiego stanowiska jest przekonanie, że decyzja o odebraniu życia nie może zostać podjęta przez maszynę, za którą to decyzję odpowiedzialni będą inni lub nikt. Argument praktyczny zaś brzmi: wprowadzenie do użytku śmiercionośnej, autonomicznej broni, która będzie wybierała cele bez interwencji człowieka, będzie miało destabilizujący efekt zarówno na państwa jak i na poszczególnych ludzi, czytamy w oświadczeniu. My, niżej podpisani, wzywamy rządy do stworzenia międzynarodowego prawa zabraniającego istnienia autonomicznych systemów bojowych. [...] nie będziemy nigdy uczestniczyli ani wspierali rozwoju, wytwarzania, handlu ani użycia śmiercionośnych autonomicznych systemów bojowych. Wzywamy firmy technologiczne, organizacje, liderów politycznych i społecznych oraz prawodawców i wszystkich innych ludzi do przyłączenia się do nas. Niezależnie od powyższego apelu 26 państw wezwało do nałożenia światowego zakazu tworzenia śmiercionośnych autonomicznych systemów bojowych. Państwa te to Algieria, Argentyna, Austria, Boliwia, Brazylia, Chile, Chiny, Kolumbia, Kostaryka, Kuba, Dżibuti, Ekwador, Egipt, Ghana, Gwatemala, Watykan, Irak, Meksyk, Nikaragua, Panama, Pakistan, Peru, Palestyna, Uganda, Wenezuela i Zimbabwe. Wśród instytucji podpisanych pod zobowiązaniem znajdziemy University College London, Europejskie Stowarzyszenie Sztucznej Inteligencji, portugalski Universidade NOVA czy Polskie Stowarzyszenie Sztucznej Inteligencji. Apel podpisało wielu naukowców zajmujących się robotami, informatyką i sztuczną inteligencją. Znajdziemy tam uczonych z Uniwersytetu w Montrealu, Uniwersytetu Nowej Południowej Walii, New York University, MIT, Uniwersytetu Kalifornijskiego, Cornell University i wielu innych szacownych instytycji naukowo-badawczych. « powrót do artykułu
  4. Norman to psychopata. Na szczęście nie jest prawdziwy. To sztuczna inteligencja stworzona na MIT, której rozwojem pokierowano tak, by wykazywała cechy psychopatyczne. Inspiracją dla powstania algorytmu był Norman, bohater filmu Psychoza Hitchcocka. Praca nad Normanem, podobnie jak nad innymi algorytmami sztucznej inteligencji, rozpoczęła się on jego nauczania na bazie materiałów dostępnych w internecie. Jednak zamiast przeglądać przyjemne i neutralne obrazy, Normana skierowano do bardziej mrocznej części internetu. Zadaniem algorytmu było przeglądanie dziwacznych grafik i obrazów, jakie wymieniają między sobą użytkownicy jednego z forów serwisu Reddit. Po takim treningu Normana poproszono o rozwiązanie testu Rorschacha. To znany test plam, w których badani mają rozpoznawać kształty czy obrazy. Zgodnie z oczekiwaniami, Norman dawał dziwaczne odpowiedzi na plamy. Przy planszy 9. w której standardowa sztuczna inteligencja widzi czarno-białe zdjęcie czerwono-białego parasola, Norman widział człowieka poddawanego wstrząsom elektrycznym podczas próby przechodzenia przez ruchliwą ulicę. Z kolei plansza 10., która standardowej SI kojarzy się ze zbliżeniem na tort weselny stojący na stole, dla Normana była grafiką przedstawiającą człowieka zabitego przez pędzący samochód. Twórcy psychopatycznej SI oświadczyli, że Norman ucierpiał od ciągłej ekspozycji na najciemniejsze zakamarki Reddita. Całość może być zabawną wprawką dla twórców inteligentnych algorytmów, pokazuje jednak pewną ważną rzecz. Zachowanie SI jest w dużej mierze zdeterminowane informacjami, jakie zdobywa podczas nauki. Oczywiście to nic nowego. Wystarczy przypomnieć sobie microsoftowego bota, którego koncern z Redmond postanowił skonfrontować w internautami. W ciągu 24 godzin bot stał się rasistą i został wyłączony. « powrót do artykułu
  5. Microsoft kupił firmę Semantic Machines z Berkeley, która pracuje nad sztuczną inteligencją zdolną do nawiązania dialogu z człowiekiem. Obecnie SI dopiero uczy się rozmawiać. Zdecydowana większość botów i inteligentnych asystenów potrafi jedynie reagować na proste komendy lub słowa. Maszyny nie są w stanie zrozumieć języka naturalnego. Semantic Machines wykorzystuje metody nauczania komputerowego, dzięki czemu SI ma łatwiej i szybciej przyswajać umiejętności potrzebne do prowadzenia naturalnego dialogu z człowiekiem. Główną siłą Semantic Machines jest jej kadra. Firma została założona przez przedsiębiorcę Dana Rotha oraz czołowych światowych ekspertów od naturalnego języka i sztucznej inteligencji profesora Dana Kleina z Uniwersytetu Klifornijskiego w Berkeley oraz Larry'ego Gillick, który w był zatrudniony w Apple'u jako główny naukowiec odpowiedzialny za rozwój Siri. W zespole znajdziemy też profesora Percy'ego Lianga z Uniwersytetu Stanforda, który w przeszłości pracował dla Google'a nad technologiami SI dla Google Assistanta. Sam Microsoft od ponad 2 dekad prowadzi własne badania nad rozpoznawaniem mowy i rozumieniem języków naturalnych przez maszyny. Koncern stworzył framework do budowy botów i rozwija cyfrową asystentkę Cortanę. Pracuje też nad społecznościowymi czatbotami, takimi jak np. XieoIce, w którego bazie danych znajduje się ponad 30 miliardów rozmów z 200 milionami użytkowników z Chin, Japonii, USA, Indii i Indonezji. Średnia długość takiej rozmowy to 30 minut. « powrót do artykułu
  6. Na początku swojej działalności Google przyjęło znane motto „Don't be evil”. Jak przyznaje jego pomysłodawca, motto miało być m.in. formą przytyku do konkurencji, która, w Google'a, źle traktowała swoich użytkowników. Niektórzy z pracowników koncernu najwyraźniej wzięła sobie hasło o nieczynieniu zła do serca i zrezygnowali w proteście przeciwko podpisaniu przez Google'a umowy z Pentagonem. Z pracy w Google'u zrezygnowało około 10 osób, które chciały w ten sposób zaprotestować przeciwko wsparciu przez wyszukiwarkowego giganta programu pilotażowego o nazwie Project Maven. To program, który zakłada wykorzystanie sztucznej inteligencji na polu walki. W ramach umowy pomiędzy Google'em a Pentagonem koncern opracuje technologie przyspieszające automatyczną interpretację obrazów z dronów. Mają być one sprawniej klasyfikowane jako ludzie i inne obiekty. Osoby, które zrezygnowały w związku z tym z pracy mówią, że podpisanie takiego kontraktu oznacza naruszenie zasad etycznych firmy. Z pracy zrezygnowało niewiele osób, ale ponad 4000 pracowników Google'a podpisało petycję, w której sprzeciwiają się udziałowi Google'a w projektach Pentagonu, chcąc wypowiedzenia wspomnianej umowy i domagają się wprowadzenia zasad wprost zabraniających firmie udziału w przyszłych projektach wojskowych. Osoby, które zrezygnowały z pracy skarżą sie, że kierownictwo firmy w ostatnich czasach prowadzi mniej przejrzystą politykę i mniej słucha sugestii pracowników. W pewnym momencie zdałem sobie sprawę, że wiedząc to, co wiem, nie mogę z czystym sumieniem polecić komuś pracy w Google'u. Stwierdziłem też, że skoro nie mógłbym nikomu polecić pracy tutaj, to co sam tutaj robię?, mówi jeden z byłych już pracowników. Pracownicy nie są jedynymi zaniepokojonymi zaangażowaniem Google'a w projekty militarne. International Committee for Robot Arms Control wystosował list otwarty, w którym wzywa Google'a do wycofania się z prac nad Project Maven i do wsparcia projektu międzynarodowego traktatu zakazującego rozwijania autonomicznych systemów bojowych. Zdaniem tej organizacji zaangażowanie Google'a przyspieszy rozwój w pełni autonomicznej broni. Jesteśmy też głęboko zaniepokojeni możliwym zintegrowaniem posiadanym przez Google'a danych na temat internautów z wywiadowczymi danymi wojskowymi i z wykorzystaniem tak połączonych informacji do zabijania konkretnych osób, czytamy w apelu. Zaangażowanie się Google'a w amerykańskie projekty wojskowe każe też zadać sobie pytanie o posiadane przezeń dane dotyczące użytkowników w innych krajach. Jeśli zostaną one użyte w celach wojskowych, to z pewnością ucierpi na tym zaufanie do Google'a. Musiałem sobie przypomnieć, że decyzje Google'a nie są moimi decyzjami. Nie odpowiadam za to, co oni robią. Jednak czuję się odpowiedzialny, gdy pomagam w czymś, z czym się nie zgadzam, mówi jeden z pracowników, którzy zrezygnowali z pracy w Google'u. « powrót do artykułu
  7. Padła kolejna bariera oddzielająca ludzką i sztuczną inteligencję. Program Libratus rozgromił światową czołówkę pokerzystów. W nielimitowanym Texas Hold'em sztuczna inteligencja zdobyła na ludziach 1.766.250 dolarów. Dong Kim przegrał z Libratusem 88.649 USD, Jimmy Chou zubożał o 522.857 dolarów, Jason Les stracił 880.087 USD, a Daniel McAulay musiał zapłacić 277.657 USD. Turniej Brains vs. Artificial Intelligence trwał od 11 do 30 stycznia i był rozgrywany w godzinach od 11.00 do 19.00. Składał się w sumie ze 120 000 rozdań. Libratus powstał na Carnegie Mellon University i jest dziełem profesora Tuomasa Sandholma i doktoranta Noama Browna. Podczas uczenia się pokera program nie korzystał z doświadczeń ludzkich graczy. Zaimplementowano mu zasady gry, które miał przeanalizować, a później - na podstawie około 15 milionów godzin obliczeń w Pittsburgh Supercomputing Center - opracowywał własną strategię. Udoskonalał ją też w czasie turnieju. Nie uczyliśmy Libratusa grać w pokera. Daliśmy mu zasady i kazaliśmy się uczyć samemu - mówi Brown. Początkowo rozgrywki były niezwykle chaotyczne, program zgrywał przypadkowe karty. Jednak po bilionach rozdań opracował skuteczną strategię. Przed wielu laty oprogramowanie komputerowe zadziwiło świat wygrywając w szachy z arcymistrzem. Niedawno rozgromiło też mistrza Go. Zwycięstwo w pokerze pokazuje, że algorytmy sztucznej inteligencji przekroczyły kolejną granicę. Poker znacząco różni się bowiem od szachów czy Go. Gracze nie znają stanu rozgrywki, gdyż nie wiedzą, jakie karty ma przeciwnik. Dochodzi tutaj też element losowy, gdyż to on decyduje, kto jakie karty dostanie oraz element blefu. To tak złożone wyzwanie, że dotychczas badacze zajmujący się SI nie radzili sobie z nim, stwierdza Sandholm. Uczony dodaje, że sam nie był pewien możliwości Liberatusa. Międzynarodowe witryny z zakładami stawiały 4:1 przeciwko naszemu programowi. Okazało się jednak, że wszystko to nie stanowi dla Libratusa większego problemu. Sztuczna inteligencja była w stanie prawidłowo interpretować blef, używany przez ludzkich przeciwników, i... sama blefowała, co zaskoczyło jej twórców. Gdy zobaczyłem, że Liberatus blefuje, zdziwiłem się. nie uczyłem go tego. Nie sądziłem, że jest do tego zdolny. Jestem dumny z faktu, że stworzyłem coś, co potrafi tego dokonać - mówi Brown. Libratus był znacznie lepszy niż sądziliśmy. To nieco demoralizujące, mówi Jason Les, który przed dwoma laty był grupie graczy, którzy rozgromili SI Claudico. Tutaj codziennie wstawaliśmy i przez 11 godzin na dobę byliśmy ogrywani. To zupełnie inne doświadczenie emocjonalne - dodaje. Gracze mogli też uczyć się od Libratusa, który stosował agresywną strategię, stawiał duże sumy, by wygrać małe kwoty. Ludzie tak normalnie nie grają, ale to wymusza na tobie ciągłą koncentrację uwagi - dodaje Les. Zastosowane w Libratusie algorytmy nie są wyspecjalizowane w pokerze. A to oznacza, że będzie można zastosować je w wielu dziedzinach, od gier komputerowych, poprzez negocjacje biznesowe, po branże bezpieczeństwa, wojskową czy medyczną - wszędzie tam, gdzie potrzebne jest strategiczne myślenie w oparciu o niepełne informacje. Poker to najmniejsze zmartwienie. Mamy tutaj maszynę, która może skopać ci tyłek w biznesie i zastosowaniach wojskowych. Martwię się, jak ludzkość sobie z tym poradzi - stwierdził profesor Roman V. Yampolskiy z University of Louisville. « powrót do artykułu
×
×
  • Dodaj nową pozycję...