Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Ponad miliard USD na badania nad sztuczną inteligencją i informatyką kwantową

Recommended Posts

Biały Dom ogłosił, że budżet federalny wraz z prywatnymi partnerami przeznaczy w ciągu najbliższych 5 lat ponad miliard dolarów na stworzenie i sfinansowanie 12 centrów badawczych zajmujących się sztuczną inteligencją i naukami informatycznymi. Celem inicjatywy jest utrzymanie pozycji USA jako światowego lidera w dziedzinie SI i technologii kwantowych. W najbliższym czasie powstanie siedem Artificial Intelligence Research Institutes oraz pięć Quantum Information Science Research Centers.

W ogłoszonym przez Biały Dom programie udział wezmą zarówno giganci IT jak IBM czy Microsoft, czołowe uczelnie jak University of California czy Massachusetts Institute of Technology, jak i laboratoria narodowe, w tym Fermilab, Argonne oraz Lawrence Berkeley.

Jednym z zadań nowo utworzonych jednostek badawczo-rozwojowych będzie inwestowanie we wczesne badania, w które prywatny biznes niechętnie inwestuje, a które są istotne z punktu widzenia utrzymania przez USA pozycji lidera na tym polu. Na przykład jeden z instytutów będzie pracował na narzędziami SI, które mogą przyspieszyć odkrywanie i produkcję nowych związków bioaktywnych. Instytuty będą służyły też do szkoleń przyszłych pokoleń ekspertów ds. SI.

Ogłoszona przez Biały Dom inicjatywa zbiegła się z nową propozycją budżetową administracji prezydenckiej, która chce, by o 30% zwiększyć wydatki na niezwiązany z obronnością sektor badań nad SI oraz informatyką kwantową. Zgodnie z planem budżet federalny na sztuczną inteligencję ma do roku 2022 wzrosnąć do 2 miliardów USD, a na informatykę kwantową do 860 milionów dolarów.

Tymczasem wpływowy waszyngtoński think-tank Center for a New American Security uważa, że z budżetu federalnego USA powinny do roku 2025 wydawać na badania nad SI – w tym na SI związane z obronnością – 25 miliardów USD rocznie.
Warto przypomnieć, że obecnie amerykański sektor prywatny przeznacza na badania nad sztuczną inteligencją około 40 miliardów USD na rok.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Francisco Lope de Vega był – obok Cervantesa – najwybitniejszym pisarzem hiszpańskiego Złotego Wieku. Jest autorem olbrzymiej liczby dramatów, sonetów, komedii, pisał powieści i epopeje. Nie cała jego spuścizna się zachowała. Tym cenniejsze jest odkrycie każdego nieznanego fragmentu tekstu jego autorstwa. W zbiorach Hiszpańskiej Biblioteki Narodowej (BNE) odnaleziono właśnie nieznaną dotychczas komedię Lope de Vegi, a do jej zidentyfikowania przyczyniła się sztuczna inteligencja.
      Naukowcy z Uniwersytetów w Wiedniu i Valladolid prowadzą projekt ETSO: Estilometría aplicada al Teatro del Siglo de Oro. Wraz ze 150 współpracownikami stosują metody analizy komputerowej do prac teatralnych Złotego Wieku, by rozwiązać problemy z autorstwem poszczególnych dzieł. Badania przeprowadzono m.in. na XVII-wiecznym manuskrypcie, który został spisany wiele lat po śmierci Lope de Vegi. Na podstawie analizy stylistycznej sztuczna inteligencja wskazała, że znajdująca się w nim komedia „Francuzka Laura” wyszła spod pióra wielkiego pisarza i powstała na kilka lat przed jego śmiercią.
      Odkrycie było możliwe dzięki ostatnim postępom w technologii automatycznej transkrypcji tekstów. Jeszcze kilka lat temu maszyny bardzo słabo radziły sobie z odręcznym pismem, szczególnie z dawnych epok. Obecnie się to zmieniło. Współczesna technologia w ciągu zaledwie kilku godzin była w stanie rozpoznać tekst – zarówno drukowany jak i pisany odręcznie – z około 1300 sztuk teatralnych Złotego Wieku. Maszynowe rozpoznawanie nie działa oczywiście idealnie, ale znakomicie ułatwia i przyspiesza pracę. Dzięki temu ludzie mogą bardzo szybko wprowadzić niezbędne poprawki. Następnie, dzięki analizie stylistycznej i słownikowej już poprawionych tekstów, algorytmy sztucznej inteligencji mogą identyfikować autora po unikatowym stylu. Nie od dzisiaj wiadomo, że każdy pisarz i każdy z nas, używa różnych słów w różnych proporcjach. A maszyny mogą analizować olbrzymie zbiory danych i obliczać proporcje dla konkretnych słów, wyrażeń czy zdań.
      Już na podstawie wcześniejszych eksperymentów z algorytmami wiedziano, że potrafią one z 99-procentową dokładnością określić, czy dane dzieło wyszło spod pióra Lope de Vegi czy też nie. Sztuczna inteligencja dostała za zadanie przeanalizowanie wspomnianych 1300 dzieł oraz stwierdzenie, czy ich autorem jest Lope de Vega, czy też któryś z 350 innych pisarzy epoki. Algorytm wskazał, że „Francuzkę Laurę” napisał Lope de Vega. Wówczas do pracy przystąpili eksperci, którzy tradycyjnymi metodami badawczymi mieli zweryfikować wyniki pracy maszyny. Naukowcy porównywali więc metrykę, ortoepię, a przede wszystkim tropy literackie, idee i struktury leksykalne typowe dla Lope de Vegi i okresu jego twórczości, jakie wskazała sztuczna inteligencja z tym, co widoczne jest w nowo zidentyfikowanej komedii.
      Wszystko wskazuje na to, że mamy oto do czynienia z nieznanym dotychczas dziełem wielkiego pisarza, które powstało pod koniec jego życia, a o istnieniu którego nie mieliśmy pojęcia. „Francuzka Laura” jest osadzona w kontekście politycznym czasu, w którym powstała. Wtedy to, pod koniec lat 20. XVII wieku, w trakcie Wojny Trzydziestoletniej, Francja i Hiszpania zawarły krótki pokój, który przez sojuszników obu stron był postrzegany jako zdrada. Główną bohaterką komedii jest Laura, córka księcia Bretanii, żona hrabiego Arnaldo. Bretania była sojuszniczką Hiszpanii. W Laurze zakochał się jednak następca tronu Francji, który próbuje zdobyć ją wszelkimi sposobami. Budzi to podejrzenia Arnaldo, który – zarówno z zazdrości jak i z obawy przed skandalem – próbuje otruć żonę. Ostatecznie jednak Laura wychodzi z opałów obronną ręką, opiera się zalotom Delfina, co przekonuje męża do jej wierności.
      Szczegółowy opis odkrycia i badań nad „Francuzką Laurą” znajdziemy w piśmie wydawanym przez Universitat Autònoma de Barcelona.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Badania przeprowadzone za pomocą algorytmów sztucznej inteligencji sugerują, że nie uda się dotrzymać wyznaczonego przez ludzkość celu ograniczenia globalnego ocieplenia do 1,5 stopnia Celsjusza powyżej czasów preindustrialnych. Wątpliwe jest też ograniczenie ocieplenia do poziomu poniżej 2 stopni Celsjusza.
      Noah Diffenbaugh z Uniwersytetu Stanforda i Elizabeth Barnes z Colorado State University wytrenowali sieć neuronową na modelach klimatycznych oraz historycznych danych na temat klimatu. Ich model był w stanie precyzyjnie przewidzieć, jak zwiększała się temperatura w przeszłości, dlatego też naukowcy wykorzystali go do przewidzenia przyszłości. Z modelu wynika, że próg 1,5 stopnia Celsjusza ocieplenia powyżej poziomu preindustrialnego przekroczymy pomiędzy rokiem 2033 a 2035. Zgadza się to z przewidywaniami dokonanymi bardziej tradycyjnymi metodami. Przyjdzie czas, gdy oficjalnie będziemy musieli przyznać, że nie powstrzymamy globalnego ocieplenia na zakładanym poziomie 1,5 stopnia. Ta praca może być pierwszym krokiem w tym kierunku, mówi Kim Cobb z Brown University, który nie był zaangażowany w badania Diffenbaugha i Barnes.
      Przekroczenie poziomu 1,5 stopnia jest przewidywane przez każdy realistyczny scenariusz redukcji emisji. Mówi się jednak o jeszcze jednym celu: powstrzymaniu ocieplenia na poziomie nie wyższym niż 2 stopnie Celsjusza w porównaniu z epoką przedindustrialną. Tutaj przewidywania naukowców znacząco różnią się od przewidywań SI.
      Zdaniem naukowców, możemy zatrzymać globalne ocieplenie na poziomie 2 stopni Celsjusza pod warunkiem, że do połowy wieków państwa wywiążą się ze zobowiązania ograniczenia emisji gazów cieplarnianych do zera. Sztuczna inteligencja nie jest jednak tak optymistycznie nastawiona. Zdaniem algorytmu, przy obecnej emisji poziom ocieplenia o ponad 2 stopnie osiągniemy około roku 2050, a przy znacznym zredukowaniu emisji – około roku 2054. Obliczenia te znacznie odbiegają od szacunków IPCC z 2021 roku, z których wynika, że przy redukcji emisji do poziomu, jaki jest wspomniany przez algorytm sztucznej inteligencji, poziom 2 stopni przekroczymy dopiero w latach 90. obecnego wieku.
      Diffenbaugh i Barnes mówią, że do przewidywania przyszłych zmian klimatu naukowcy wykorzystują różne modele klimatyczne, które rozważają wiele różnych scenariuszy, a eksperci – między innymi na podstawie tego, jak dany model sprawował się w przeszłości czy jak umiał przewidzieć dawne zmiany klimatu, decydują, który scenariusz jest najbardziej prawdopodobny. SI, jak stwierdzają uczeni, bardziej skupia się zaś na obecnym stanie klimatu. Stąd też mogą wynikać różnice pomiędzy stanowiskiem naukowców a sztucznej inteligencji.
      W środowisku naukowym od pewnego czasu coraz częściej słychać głosy, byśmy przestali udawać, że jesteśmy w stanie powstrzymać globalne ocieplenie na poziomie 1,5 stopnia Celsjusza. Wielu naukowców twierdzi jednak, że jest to możliwe, pod warunkiem, że do 2030 roku zmniejszymy emisję gazów cieplarnianych o połowę.
      Sztuczna inteligencja jest więc znacznie bardziej pesymistycznie nastawiona od większości naukowców zarówno odnośnie możliwości powstrzymania globalnego ocieplenia na poziomie 1,5, jak i 2 stopni Celsjusza.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Sztuczna inteligencja firmy DeepMind, która jako pierwsza pokonała człowieka w go, nauczyła się blefować w strategicznej grze planszowej Stratego. Co więcej, potrafi wygrać z człowiekiem grę, która ma znacznie więcej możliwych scenariuszy niż go czy poker. Najbardziej zaskakujący był dla nas fakt, że DeepMind był w stanie poświęcić wartościowe zasoby, by zdobyć informację o ustawieniu przeciwnika i jego strategii, stwierdzają twórcy algorytmu.
      Celem Stratego jest zdobycie flagi przeciwnika. Każdy z graczy ma do dyspozycji 40 pionków, które umieszcza na planszy o wymiarach 10x10 tak, by przeciwnik nie widział rang – czyli siły – żadnego z nich. Jest to więc gra, w której – w przeciwieństwie do go czy szachów – nie wszystkie informacje o przeciwniku są znane. Dodatkowym wyzwaniem dla sztucznej inteligencji jest fakt, że w Stratego istnieje olbrzymia liczba możliwych stanów gry.
      W 1996 roku Deep Blue wygrał w szachy z Kasparowem, stając się pierwszym komputerem, który zwyciężył z szachowym mistrzem świata. Musiało minąć 20 lat zanim komputery – a konkretnie sztuczna inteligencja firmy DeepMind o nazwie AlphaGo – wygrała z mistrzem w go. Pokonanie człowieka w go zajęło maszynom tyle czasu, gdyż go wymaga znacznie większej mocy obliczeniowej. Liczba możliwych stanów gry w go wynosi aż 10350, podczas gdy w szachach jest to 10123. Tymczasem na pokonanie człowieka w Stratego nie musieliśmy czekać tak długo. Wystarczyło 6 lat, by DeepNash stał się jednym z 3 najlepszych graczy na największej online'owej platformie Stratego, Gravon. Liczba możliwych stanów gry w Stratego wynosi 10535.
      Poziom gry DeepNasha był dla mnie zaskoczeniem. Nigdy nie słyszałem o maszynie, która w Stratego osiągnęłaby poziom potrzebny do pokonania doświadczonego gracza, mówi Vincent de Boer, były mistrz świata w Stratego i jeden z autorów artykułu opisującego osiągnięcia DeepNasha.
      DeepNash uczył się grać w Stratego rozgrywając  5,5 miliarda partii. Nie korzystał przy tym z doświadczeń ludzi, ani nie był trenowany do starcia z konkretnym przeciwnikiem. Sztuczna inteligencja nie próbuje przeanalizować wszystkich możliwych scenariuszy, byłoby to nie możliwe. Zamiast tego postępuje tak by – zgodnie z ekonomiczną teorią gier – uzyskać jak największą korzyść. Optymalna strategią jest taka, która gwarantuje co najmniej 50% zwycięstw w przypadku walki z idealnym przeciwnikiem, nawet gdy ten wie, co DeepNash planuje.
      W tej chwili DeepNash rozegrał 50 partii z ludźmi, wygrywając 84% z nich i stając się jednym z trzech najlepszych graczy na platformie Gravon. Jeszcze lepiej radzi sobie z innymi botami grającymi w Stratego. Pokonuje je w 97% przypadków i wygrywa z takimi, które dotychczas wygrywały podczas Computer Stratego World Championship.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Współpraca naukowców z Wydziału Fizyki Uniwersytetu Warszawskiego i PAN zaowocowała powstaniem pulsującego neuronu stworzonego z fotonów. To podstawowy element fotonicznego procesora sieci neuronowych. Tego typu chipy, zwane układami neuromorficznymi, mają być w przyszłości podstawą systemów sztucznej inteligencji.
      Systemy fotoniczne zapewniają dużą prędkość przesyłania informacji przy jednoczesnym niewielkim zużyciu energii. Ich wadą jest zaś słabe oddziaływanie pomiędzy sobą, przez co trudno je wykorzystać do wykonywania operacji obliczeniowych. Dlatego też polscy wykorzystali ekscytony, cząstki o bardzo małej masie, z którymi fotony silnie oddziałują. Gdy fotony i ekscytony zostaną razem umieszczone we wnęce optycznej, powstaje między nimi trwały układ cyklicznej wymiany energii, który jest kwazicząstką – polarytonem.
      Polarytony mogą zaś, w odpowiednich warunkach, tworzyć kondensat Bosego-Einsteina. W tym stanie skupienia zaczynają tworzyć „superatom”, zachowujący się jak pojedyncza cząstka. Opierając się na naszym ostatnim eksperymencie, jako pierwsi zauważyliśmy, że kiedy polarytony są wzbudzane za pomocą impulsów laserowych, emitują impulsy światła przypominające pulsowanie neuronów biologicznych. Efekt ten jest bezpośrednio związany ze zjawiskiem kondensacji Bosego-Einsteina, które albo hamuje, albo wzmacnia emisję impulsów, wyjaśnia doktorantka Magdalena Furman z Wydziału Fizyki UW.
      Autorami modelu teoretycznego, który pozwala połączyć badania nad polarytonami z modelem neuronu są doktor Andrzej Opala i profesor Michał Matuszewski. Proponujemy wykorzystać nowy paradygmat obliczeniowy oparty na kodowaniu informacji za pomocą impulsów, które wyzwalają sygnał tylko wtedy, gdy przybędą do neuronu w odpowiednim czasie po sobie, mówi doktor Opala. Innymi słowy, taki sposób pracy takiego sztucznego neurony ma przypominać pracę neuronów biologicznych, pobudzanych impulsami elektrycznymi. W neuronie biologicznym dopiero powyżej pewnego progu impulsów docierających do neuronu, sygnał przekazywany jest dalej. Polarytony mogą naśladować neuron biologiczny, gdyż dopiero po pobudzeniu pewną liczbą fotonów powstaje kondensat Bosego-Einsteinai dochodzi do emisji sygnału do kolejnego neuronu.
      Mimo niewątpliwie interesujących badań, na wdrożenie pomysłu polskich uczonych przyjdzie nam jeszcze poczekać. Kondensat Bosego-Einsteina uzyskiwali oni w temperaturę zaledwie 4 kelwinów, którą można osiągnąć w ciekłym helu. Naszym kolejnym celem jest przeniesienie eksperymentu z warunków kriogenicznych do temperatury pokojowej. Potrzebne są badania nad nowymi materiałami, które pozwolą na uzyskanie kondensatów Bosego-Einsteina także w wysokich temperaturach. W Laboratorium Polarytonowym pracujemy nie tylko nad takimi substancjami, badamy też możliwość sterowania kierunkiem emitowanych fotonów, mówi profesor Jacek Szczytko z Wydziału Fizyki UW.
      W badaniach nad układami neuromorficznymi naukowcy wciąż napotykają na nowe wyzwania. Nasz nowy pomysł na odtworzenie pulsowania neuronów biologicznych w domenie optycznej, może posłużyć do stworzenia sieci, a potem układu neuromorficznego, w którym informacje przesyłane są o rzędy wielkości szybciej i w sposób bardziej efektywny energetycznie w porównaniu do dotychczasowych rozwiązań, dodaje doktor Krzysztof Tyszka.
      Szczegóły pracy zostały opisane na łamach Laser & Photonics Reviews.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Opanowanie ognia przez naszych przodków było jedną z największych innowacji w dziejach. Zrozumienie procesu opanowywania ognia przez przodków H. sapiens, poznanie miejsca i czasu jego ujarzmienia może mieć olbrzymie znaczenie dla opisu ewolucji człowieka i naszej wczesnej historii. Może w tym pomóc sztuczna inteligencja, która właśnie odkryła dowody na rozpalanie ognia na izraelskim stanowisku archeologicznym sprzed miliona lat.
      Obecnie istnieje kilka technik rozpoznawania przypadków użycia ognia. Można na przykład szukać zmian kolorów kości poddanych jego działaniu lub deformacji kamiennych narzędzi. Ludzie używali bowiem pirotechnologii do ich obróbki. To jednak wymaga działania temperatur wyższych niż 450 stopni, a tego typu dowody są rzadko znajdowane na stanowiskach liczących więcej niż 500 tysięcy lat.
      W ubiegłym roku na łamach Nature. Human Behaviour izraelscy naukowcy poinformowali o stworzeniu algorytmu sztucznej inteligencji, który rozpoznaje subtelne zmiany w krzemieniu spowodowane oddziaływaniem temperatur pomiędzy 200 a 300 stopni Celsjusza. Izraelczycy zbierali krzemień, podgrzewali go, a następnie trenowali SI tak, by potrafiła rozpoznawać zmiany w reakcji krzemienia na promieniowanie ultrafioletowe.
      Teraz technikę tę postanowili wykorzystać naukowcy pracujący pod kierunkiem Michaela Chazana z University of Toronto. Uczeni wykorzystali algorytm do badania kawałków krzemienia ze stanowiska Evron Quarry w Izraelu. Podczas naszego badania ujawniliśmy obecność ognia na stanowisku z dolnego paleolitu, w którym brakowało widocznych śladów użycia pirotechnologii. Tym samym dodaliśmy to stanowisko do niewielkiej grupy miejsc, dla których istnieją dowody wiążące wczesną produkcję narzędzi przez homininy z użyciem ognia. Ponadto badania te pokazują, że istnieje możliwość uzyskania ukrytych dotychczas informacji na temat wykorzystania pirotechnologii w innych miejscach, czytamy na łamach PNAS.
      Z przeprowadzonych badań wynika, że ludzie używali ognia w Evron Quary około miliona lat temu. Wybraliśmy Evron Quary, gdyż znajduje się tam ten sam typ krzemienia, jaki był używany przez autorów algorytmu SI. Jednak nie mieliśmy żadnych podstaw, by przypuszczać, że wykorzystywano tutaj ogień, przyznaje Chazan.
      Tymczasem algorytm SI wskazał, że wiele znalezionych tutaj krzemiennych narzędzi było podgrzewanych, zwykle do temperatury około 400 stopni Celsjusza. Po tym odkryciu naukowcy jeszcze raz przeanalizowali – za pomocą innych technik – znalezione tutaj fragmenty kości oraz kła. Okazało się, że fragmenty kła poddane były działaniu wysokich temperatur. Dotychczas nikt nie sprawdzał tych kości pod kątem ich wystawienia na działanie ognia. Zdaniem naukowców, znalezienie w jednym miejscu zarówno kamiennych narzędzi, jak i zęba, które miały kontakt z ogniem, wskazuje raczej na celowe działanie niż naturalny pożar. Wnioski takie są tym bardziej uprawnione, że na pobliskim stanowisku Gesher Benot Ya’aqov również znaleziono – pochodzące z podobnego okresu – ślady używania ognia i to w różnych miejscach, co sugeruje na celowe jego rozpalanie.
      Obecnie dysponujemy pewnymi dowodami sugerującymi, że wcześni hominini używali ognia już 1,5 miliona lat temu. Znaleziono je przed dwoma laty na kenijskim stanowisku Koobi Fora.
      Przed około 20 laty grupa antropologów wysunęła hipotezę, że hominini używali ognia już może nawet 2 miliony lat temu. Sztuczna inteligencja może pomóc w zidentyfikowaniu użycia ognia na znanych już paleolitycznych stanowiskach archeologicznych, co pozwoli na zweryfikowanie tej hipotezy.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...