Search the Community
Showing results for tags ' sztuczna inteligencja'.
Found 50 results
-
Francisco Lope de Vega był – obok Cervantesa – najwybitniejszym pisarzem hiszpańskiego Złotego Wieku. Jest autorem olbrzymiej liczby dramatów, sonetów, komedii, pisał powieści i epopeje. Nie cała jego spuścizna się zachowała. Tym cenniejsze jest odkrycie każdego nieznanego fragmentu tekstu jego autorstwa. W zbiorach Hiszpańskiej Biblioteki Narodowej (BNE) odnaleziono właśnie nieznaną dotychczas komedię Lope de Vegi, a do jej zidentyfikowania przyczyniła się sztuczna inteligencja. Naukowcy z Uniwersytetów w Wiedniu i Valladolid prowadzą projekt ETSO: Estilometría aplicada al Teatro del Siglo de Oro. Wraz ze 150 współpracownikami stosują metody analizy komputerowej do prac teatralnych Złotego Wieku, by rozwiązać problemy z autorstwem poszczególnych dzieł. Badania przeprowadzono m.in. na XVII-wiecznym manuskrypcie, który został spisany wiele lat po śmierci Lope de Vegi. Na podstawie analizy stylistycznej sztuczna inteligencja wskazała, że znajdująca się w nim komedia „Francuzka Laura” wyszła spod pióra wielkiego pisarza i powstała na kilka lat przed jego śmiercią. Odkrycie było możliwe dzięki ostatnim postępom w technologii automatycznej transkrypcji tekstów. Jeszcze kilka lat temu maszyny bardzo słabo radziły sobie z odręcznym pismem, szczególnie z dawnych epok. Obecnie się to zmieniło. Współczesna technologia w ciągu zaledwie kilku godzin była w stanie rozpoznać tekst – zarówno drukowany jak i pisany odręcznie – z około 1300 sztuk teatralnych Złotego Wieku. Maszynowe rozpoznawanie nie działa oczywiście idealnie, ale znakomicie ułatwia i przyspiesza pracę. Dzięki temu ludzie mogą bardzo szybko wprowadzić niezbędne poprawki. Następnie, dzięki analizie stylistycznej i słownikowej już poprawionych tekstów, algorytmy sztucznej inteligencji mogą identyfikować autora po unikatowym stylu. Nie od dzisiaj wiadomo, że każdy pisarz i każdy z nas, używa różnych słów w różnych proporcjach. A maszyny mogą analizować olbrzymie zbiory danych i obliczać proporcje dla konkretnych słów, wyrażeń czy zdań. Już na podstawie wcześniejszych eksperymentów z algorytmami wiedziano, że potrafią one z 99-procentową dokładnością określić, czy dane dzieło wyszło spod pióra Lope de Vegi czy też nie. Sztuczna inteligencja dostała za zadanie przeanalizowanie wspomnianych 1300 dzieł oraz stwierdzenie, czy ich autorem jest Lope de Vega, czy też któryś z 350 innych pisarzy epoki. Algorytm wskazał, że „Francuzkę Laurę” napisał Lope de Vega. Wówczas do pracy przystąpili eksperci, którzy tradycyjnymi metodami badawczymi mieli zweryfikować wyniki pracy maszyny. Naukowcy porównywali więc metrykę, ortoepię, a przede wszystkim tropy literackie, idee i struktury leksykalne typowe dla Lope de Vegi i okresu jego twórczości, jakie wskazała sztuczna inteligencja z tym, co widoczne jest w nowo zidentyfikowanej komedii. Wszystko wskazuje na to, że mamy oto do czynienia z nieznanym dotychczas dziełem wielkiego pisarza, które powstało pod koniec jego życia, a o istnieniu którego nie mieliśmy pojęcia. „Francuzka Laura” jest osadzona w kontekście politycznym czasu, w którym powstała. Wtedy to, pod koniec lat 20. XVII wieku, w trakcie Wojny Trzydziestoletniej, Francja i Hiszpania zawarły krótki pokój, który przez sojuszników obu stron był postrzegany jako zdrada. Główną bohaterką komedii jest Laura, córka księcia Bretanii, żona hrabiego Arnaldo. Bretania była sojuszniczką Hiszpanii. W Laurze zakochał się jednak następca tronu Francji, który próbuje zdobyć ją wszelkimi sposobami. Budzi to podejrzenia Arnaldo, który – zarówno z zazdrości jak i z obawy przed skandalem – próbuje otruć żonę. Ostatecznie jednak Laura wychodzi z opałów obronną ręką, opiera się zalotom Delfina, co przekonuje męża do jej wierności. Szczegółowy opis odkrycia i badań nad „Francuzką Laurą” znajdziemy w piśmie wydawanym przez Universitat Autònoma de Barcelona. « powrót do artykułu
-
- Francisco Lope de Vega
- Złoty Wiek
-
(and 2 more)
Tagged with:
-
Badania przeprowadzone za pomocą algorytmów sztucznej inteligencji sugerują, że nie uda się dotrzymać wyznaczonego przez ludzkość celu ograniczenia globalnego ocieplenia do 1,5 stopnia Celsjusza powyżej czasów preindustrialnych. Wątpliwe jest też ograniczenie ocieplenia do poziomu poniżej 2 stopni Celsjusza. Noah Diffenbaugh z Uniwersytetu Stanforda i Elizabeth Barnes z Colorado State University wytrenowali sieć neuronową na modelach klimatycznych oraz historycznych danych na temat klimatu. Ich model był w stanie precyzyjnie przewidzieć, jak zwiększała się temperatura w przeszłości, dlatego też naukowcy wykorzystali go do przewidzenia przyszłości. Z modelu wynika, że próg 1,5 stopnia Celsjusza ocieplenia powyżej poziomu preindustrialnego przekroczymy pomiędzy rokiem 2033 a 2035. Zgadza się to z przewidywaniami dokonanymi bardziej tradycyjnymi metodami. Przyjdzie czas, gdy oficjalnie będziemy musieli przyznać, że nie powstrzymamy globalnego ocieplenia na zakładanym poziomie 1,5 stopnia. Ta praca może być pierwszym krokiem w tym kierunku, mówi Kim Cobb z Brown University, który nie był zaangażowany w badania Diffenbaugha i Barnes. Przekroczenie poziomu 1,5 stopnia jest przewidywane przez każdy realistyczny scenariusz redukcji emisji. Mówi się jednak o jeszcze jednym celu: powstrzymaniu ocieplenia na poziomie nie wyższym niż 2 stopnie Celsjusza w porównaniu z epoką przedindustrialną. Tutaj przewidywania naukowców znacząco różnią się od przewidywań SI. Zdaniem naukowców, możemy zatrzymać globalne ocieplenie na poziomie 2 stopni Celsjusza pod warunkiem, że do połowy wieków państwa wywiążą się ze zobowiązania ograniczenia emisji gazów cieplarnianych do zera. Sztuczna inteligencja nie jest jednak tak optymistycznie nastawiona. Zdaniem algorytmu, przy obecnej emisji poziom ocieplenia o ponad 2 stopnie osiągniemy około roku 2050, a przy znacznym zredukowaniu emisji – około roku 2054. Obliczenia te znacznie odbiegają od szacunków IPCC z 2021 roku, z których wynika, że przy redukcji emisji do poziomu, jaki jest wspomniany przez algorytm sztucznej inteligencji, poziom 2 stopni przekroczymy dopiero w latach 90. obecnego wieku. Diffenbaugh i Barnes mówią, że do przewidywania przyszłych zmian klimatu naukowcy wykorzystują różne modele klimatyczne, które rozważają wiele różnych scenariuszy, a eksperci – między innymi na podstawie tego, jak dany model sprawował się w przeszłości czy jak umiał przewidzieć dawne zmiany klimatu, decydują, który scenariusz jest najbardziej prawdopodobny. SI, jak stwierdzają uczeni, bardziej skupia się zaś na obecnym stanie klimatu. Stąd też mogą wynikać różnice pomiędzy stanowiskiem naukowców a sztucznej inteligencji. W środowisku naukowym od pewnego czasu coraz częściej słychać głosy, byśmy przestali udawać, że jesteśmy w stanie powstrzymać globalne ocieplenie na poziomie 1,5 stopnia Celsjusza. Wielu naukowców twierdzi jednak, że jest to możliwe, pod warunkiem, że do 2030 roku zmniejszymy emisję gazów cieplarnianych o połowę. Sztuczna inteligencja jest więc znacznie bardziej pesymistycznie nastawiona od większości naukowców zarówno odnośnie możliwości powstrzymania globalnego ocieplenia na poziomie 1,5, jak i 2 stopni Celsjusza. « powrót do artykułu
-
Sztuczna inteligencja firmy DeepMind, która jako pierwsza pokonała człowieka w go, nauczyła się blefować w strategicznej grze planszowej Stratego. Co więcej, potrafi wygrać z człowiekiem grę, która ma znacznie więcej możliwych scenariuszy niż go czy poker. Najbardziej zaskakujący był dla nas fakt, że DeepMind był w stanie poświęcić wartościowe zasoby, by zdobyć informację o ustawieniu przeciwnika i jego strategii, stwierdzają twórcy algorytmu. Celem Stratego jest zdobycie flagi przeciwnika. Każdy z graczy ma do dyspozycji 40 pionków, które umieszcza na planszy o wymiarach 10x10 tak, by przeciwnik nie widział rang – czyli siły – żadnego z nich. Jest to więc gra, w której – w przeciwieństwie do go czy szachów – nie wszystkie informacje o przeciwniku są znane. Dodatkowym wyzwaniem dla sztucznej inteligencji jest fakt, że w Stratego istnieje olbrzymia liczba możliwych stanów gry. W 1996 roku Deep Blue wygrał w szachy z Kasparowem, stając się pierwszym komputerem, który zwyciężył z szachowym mistrzem świata. Musiało minąć 20 lat zanim komputery – a konkretnie sztuczna inteligencja firmy DeepMind o nazwie AlphaGo – wygrała z mistrzem w go. Pokonanie człowieka w go zajęło maszynom tyle czasu, gdyż go wymaga znacznie większej mocy obliczeniowej. Liczba możliwych stanów gry w go wynosi aż 10350, podczas gdy w szachach jest to 10123. Tymczasem na pokonanie człowieka w Stratego nie musieliśmy czekać tak długo. Wystarczyło 6 lat, by DeepNash stał się jednym z 3 najlepszych graczy na największej online'owej platformie Stratego, Gravon. Liczba możliwych stanów gry w Stratego wynosi 10535. Poziom gry DeepNasha był dla mnie zaskoczeniem. Nigdy nie słyszałem o maszynie, która w Stratego osiągnęłaby poziom potrzebny do pokonania doświadczonego gracza, mówi Vincent de Boer, były mistrz świata w Stratego i jeden z autorów artykułu opisującego osiągnięcia DeepNasha. DeepNash uczył się grać w Stratego rozgrywając 5,5 miliarda partii. Nie korzystał przy tym z doświadczeń ludzi, ani nie był trenowany do starcia z konkretnym przeciwnikiem. Sztuczna inteligencja nie próbuje przeanalizować wszystkich możliwych scenariuszy, byłoby to nie możliwe. Zamiast tego postępuje tak by – zgodnie z ekonomiczną teorią gier – uzyskać jak największą korzyść. Optymalna strategią jest taka, która gwarantuje co najmniej 50% zwycięstw w przypadku walki z idealnym przeciwnikiem, nawet gdy ten wie, co DeepNash planuje. W tej chwili DeepNash rozegrał 50 partii z ludźmi, wygrywając 84% z nich i stając się jednym z trzech najlepszych graczy na platformie Gravon. Jeszcze lepiej radzi sobie z innymi botami grającymi w Stratego. Pokonuje je w 97% przypadków i wygrywa z takimi, które dotychczas wygrywały podczas Computer Stratego World Championship. « powrót do artykułu
- 3 replies
-
- blef
- sztuczna inteligencja
-
(and 1 more)
Tagged with:
-
Współpraca naukowców z Wydziału Fizyki Uniwersytetu Warszawskiego i PAN zaowocowała powstaniem pulsującego neuronu stworzonego z fotonów. To podstawowy element fotonicznego procesora sieci neuronowych. Tego typu chipy, zwane układami neuromorficznymi, mają być w przyszłości podstawą systemów sztucznej inteligencji. Systemy fotoniczne zapewniają dużą prędkość przesyłania informacji przy jednoczesnym niewielkim zużyciu energii. Ich wadą jest zaś słabe oddziaływanie pomiędzy sobą, przez co trudno je wykorzystać do wykonywania operacji obliczeniowych. Dlatego też polscy wykorzystali ekscytony, cząstki o bardzo małej masie, z którymi fotony silnie oddziałują. Gdy fotony i ekscytony zostaną razem umieszczone we wnęce optycznej, powstaje między nimi trwały układ cyklicznej wymiany energii, który jest kwazicząstką – polarytonem. Polarytony mogą zaś, w odpowiednich warunkach, tworzyć kondensat Bosego-Einsteina. W tym stanie skupienia zaczynają tworzyć „superatom”, zachowujący się jak pojedyncza cząstka. Opierając się na naszym ostatnim eksperymencie, jako pierwsi zauważyliśmy, że kiedy polarytony są wzbudzane za pomocą impulsów laserowych, emitują impulsy światła przypominające pulsowanie neuronów biologicznych. Efekt ten jest bezpośrednio związany ze zjawiskiem kondensacji Bosego-Einsteina, które albo hamuje, albo wzmacnia emisję impulsów, wyjaśnia doktorantka Magdalena Furman z Wydziału Fizyki UW. Autorami modelu teoretycznego, który pozwala połączyć badania nad polarytonami z modelem neuronu są doktor Andrzej Opala i profesor Michał Matuszewski. Proponujemy wykorzystać nowy paradygmat obliczeniowy oparty na kodowaniu informacji za pomocą impulsów, które wyzwalają sygnał tylko wtedy, gdy przybędą do neuronu w odpowiednim czasie po sobie, mówi doktor Opala. Innymi słowy, taki sposób pracy takiego sztucznego neurony ma przypominać pracę neuronów biologicznych, pobudzanych impulsami elektrycznymi. W neuronie biologicznym dopiero powyżej pewnego progu impulsów docierających do neuronu, sygnał przekazywany jest dalej. Polarytony mogą naśladować neuron biologiczny, gdyż dopiero po pobudzeniu pewną liczbą fotonów powstaje kondensat Bosego-Einsteinai dochodzi do emisji sygnału do kolejnego neuronu. Mimo niewątpliwie interesujących badań, na wdrożenie pomysłu polskich uczonych przyjdzie nam jeszcze poczekać. Kondensat Bosego-Einsteina uzyskiwali oni w temperaturę zaledwie 4 kelwinów, którą można osiągnąć w ciekłym helu. Naszym kolejnym celem jest przeniesienie eksperymentu z warunków kriogenicznych do temperatury pokojowej. Potrzebne są badania nad nowymi materiałami, które pozwolą na uzyskanie kondensatów Bosego-Einsteina także w wysokich temperaturach. W Laboratorium Polarytonowym pracujemy nie tylko nad takimi substancjami, badamy też możliwość sterowania kierunkiem emitowanych fotonów, mówi profesor Jacek Szczytko z Wydziału Fizyki UW. W badaniach nad układami neuromorficznymi naukowcy wciąż napotykają na nowe wyzwania. Nasz nowy pomysł na odtworzenie pulsowania neuronów biologicznych w domenie optycznej, może posłużyć do stworzenia sieci, a potem układu neuromorficznego, w którym informacje przesyłane są o rzędy wielkości szybciej i w sposób bardziej efektywny energetycznie w porównaniu do dotychczasowych rozwiązań, dodaje doktor Krzysztof Tyszka. Szczegóły pracy zostały opisane na łamach Laser & Photonics Reviews. « powrót do artykułu
- 2 replies
-
- neuron polarytonowy
- mózg
-
(and 2 more)
Tagged with:
-
Opanowanie ognia przez naszych przodków było jedną z największych innowacji w dziejach. Zrozumienie procesu opanowywania ognia przez przodków H. sapiens, poznanie miejsca i czasu jego ujarzmienia może mieć olbrzymie znaczenie dla opisu ewolucji człowieka i naszej wczesnej historii. Może w tym pomóc sztuczna inteligencja, która właśnie odkryła dowody na rozpalanie ognia na izraelskim stanowisku archeologicznym sprzed miliona lat. Obecnie istnieje kilka technik rozpoznawania przypadków użycia ognia. Można na przykład szukać zmian kolorów kości poddanych jego działaniu lub deformacji kamiennych narzędzi. Ludzie używali bowiem pirotechnologii do ich obróbki. To jednak wymaga działania temperatur wyższych niż 450 stopni, a tego typu dowody są rzadko znajdowane na stanowiskach liczących więcej niż 500 tysięcy lat. W ubiegłym roku na łamach Nature. Human Behaviour izraelscy naukowcy poinformowali o stworzeniu algorytmu sztucznej inteligencji, który rozpoznaje subtelne zmiany w krzemieniu spowodowane oddziaływaniem temperatur pomiędzy 200 a 300 stopni Celsjusza. Izraelczycy zbierali krzemień, podgrzewali go, a następnie trenowali SI tak, by potrafiła rozpoznawać zmiany w reakcji krzemienia na promieniowanie ultrafioletowe. Teraz technikę tę postanowili wykorzystać naukowcy pracujący pod kierunkiem Michaela Chazana z University of Toronto. Uczeni wykorzystali algorytm do badania kawałków krzemienia ze stanowiska Evron Quarry w Izraelu. Podczas naszego badania ujawniliśmy obecność ognia na stanowisku z dolnego paleolitu, w którym brakowało widocznych śladów użycia pirotechnologii. Tym samym dodaliśmy to stanowisko do niewielkiej grupy miejsc, dla których istnieją dowody wiążące wczesną produkcję narzędzi przez homininy z użyciem ognia. Ponadto badania te pokazują, że istnieje możliwość uzyskania ukrytych dotychczas informacji na temat wykorzystania pirotechnologii w innych miejscach, czytamy na łamach PNAS. Z przeprowadzonych badań wynika, że ludzie używali ognia w Evron Quary około miliona lat temu. Wybraliśmy Evron Quary, gdyż znajduje się tam ten sam typ krzemienia, jaki był używany przez autorów algorytmu SI. Jednak nie mieliśmy żadnych podstaw, by przypuszczać, że wykorzystywano tutaj ogień, przyznaje Chazan. Tymczasem algorytm SI wskazał, że wiele znalezionych tutaj krzemiennych narzędzi było podgrzewanych, zwykle do temperatury około 400 stopni Celsjusza. Po tym odkryciu naukowcy jeszcze raz przeanalizowali – za pomocą innych technik – znalezione tutaj fragmenty kości oraz kła. Okazało się, że fragmenty kła poddane były działaniu wysokich temperatur. Dotychczas nikt nie sprawdzał tych kości pod kątem ich wystawienia na działanie ognia. Zdaniem naukowców, znalezienie w jednym miejscu zarówno kamiennych narzędzi, jak i zęba, które miały kontakt z ogniem, wskazuje raczej na celowe działanie niż naturalny pożar. Wnioski takie są tym bardziej uprawnione, że na pobliskim stanowisku Gesher Benot Ya’aqov również znaleziono – pochodzące z podobnego okresu – ślady używania ognia i to w różnych miejscach, co sugeruje na celowe jego rozpalanie. Obecnie dysponujemy pewnymi dowodami sugerującymi, że wcześni hominini używali ognia już 1,5 miliona lat temu. Znaleziono je przed dwoma laty na kenijskim stanowisku Koobi Fora. Przed około 20 laty grupa antropologów wysunęła hipotezę, że hominini używali ognia już może nawet 2 miliony lat temu. Sztuczna inteligencja może pomóc w zidentyfikowaniu użycia ognia na znanych już paleolitycznych stanowiskach archeologicznych, co pozwoli na zweryfikowanie tej hipotezy. « powrót do artykułu
-
- 1
-
-
- ogień
- sztuczna inteligencja
-
(and 1 more)
Tagged with:
-
Wiele trapiących nas chorób ma związek z nieprawidłowo działającymi komórkami. Być może udało by się je skuteczniej leczyć, ale najpierw naukowcy muszą szczegółowo poznać budowę i funkcjonowanie komórek. Dzięki połączeniu sztucznej inteligencji oraz technik mikroskopowych i biochemicznych uczeni z Wydziału Medycyny Uniwersytetu Kalifornijskiego w San Diego (UCSD) dokonali ważnego kroku w kierunku zrozumienia komórek ludzkiego organizmu. Dzięki mikroskopom możemy dojrzeć struktury komórkowe wielkości pojedynczych mikrometrów. Z kolei techniki biochemiczne, w których wykorzystuje się pojedyncze proteiny, pozwalają na badanie struktur wielkości nanometrów, czyli 1/1000 mikrometra. Jednak poważnym problemem w naukach biologicznych jest uzupełnienie wiedzy o tym, co znajduje się w komórce pomiędzy skalą mikro- a nano-. Okazuje się, że można to zrobić za pomocą sztucznej inteligencji. Wykorzystując dane z wielu różnych źródeł możemy ją poprosić o ułożenie wszystkiego w kompletny model komórki, mówi profesor Trey Ideker z UCSD. Gdy myślimy o komórce, prawdopodobnie przyjdzie nam do głowy schemat ze szkolnych podręczników do biologii, z jego mitochondrium, jądrem komórkowym i retikulum endoplazmatycznym. Jednak czy jest to pełny obraz? Zdecydowanie nie. Naukowcy od dawna zdawali sobie sprawę z tego, że więcej nie wiemy niż wiemy. Teraz w końcu możemy przyjrzeć się komórce dokładniej, dodaje uczony. Ideker i Emma Lundberg ze szwedzkiego Królewskiego Instytutu Technicznego stali na czele zespołu, który jest autorem najnowszego osiągnięcia. Wykorzystana przez naukowców nowatorska technika nosi nazwę MuSIC (Multi-Scale Integrated Cell). Podczas pilotażowych badań MuSIC ujawniła istnienie około 70 struktur obecnych w ludzkich komórkach nerek. Połowa z nich nie była dotychczas znana. Zauważono np. grupę białek tworzących nieznaną strukturę. Po bliższym przyjrzeniu się naukowcy stwierdzili, że wiąże ona RNA. Prawdopodobnie struktura ta bierze udział w splicingu, czyli niezwykle ważnym procesie składania genu. Twórcy MuSIC od lat próbowali stworzyć mapę procesów zachodzących w komórkach. Tym, co różni MuSIC od podobnych systemów jest wykorzystanie technik głębokiego uczenia się do stworzenia mapy komórki bezpośrednio z obrazów mikroskopowych. System został wyćwiczony tak, by bazując na dostępnych danych stworzył model komórki. Nie mapuje on specyficznych struktur w konkretnych lokalizacjach, tak jak mamy to w schematach uczonych w szkole, gdyż niekoniecznie zawsze znajdują się one w tym samym miejscu. Na razie w ramach badań pilotażowych uczeni opracowali za pomocą MuSIC 661 protein i 1 typ komórki. Następnym celem badań będzie przyjrzenie się całej komórce, a później innym rodzajom komórek, komórkom u różnych ludzi i u różnych gatunków zwierząt. Być może z czasem będziemy w stanie lepiej zrozumieć molekularne podstawy różnych chorób, gdyż będziemy mogli wyłapać różnice pomiędzy zdrowymi a chorymi komórkami, wyjaśnia Ideker. « powrót do artykułu
- 1 reply
-
- MuSIC
- sztuczna inteligencja
-
(and 2 more)
Tagged with:
-
Algorytmy sztucznej inteligencji mogą skrócić czas badań cytologicznych i tym samym pozwolić na szybsze diagnozowanie nowotworów u zwierząt. Narzędzie CyfroVet powstaje właśnie w Akademickim Centrum Komputerowym CYFRONET AGH. Jak podano w przesłanym PAP komunikacie, obecnie czas oczekiwania na wynik badania cytologicznego wynosi od kilku dni do 2 tygodni, a jego cena to około kilkaset złotych. Naukowcy z AHG przekonują, że istnieje możliwość znaczącego skrócenia tego czasu poprzez zastosowanie zautomatyzowanego systemu. Narzędzie takie pozwala na wykonanie zdjęcia próbki materiału cytologicznego, a następnie przeanalizowanie go z wykorzystaniem algorytmów sztucznej inteligencji. Dzięki temu można ocenić zmiany patologiczne w preparacie. Dyrektor ACK Cyfronet AGH prof. Kazimierz Wiatr wskazał, że wyzwaniem jest zgromadzenie odpowiedniej liczby zdjęć preparatów cytologicznych o różnorodnym charakterze, które pozwolą na wytrenowanie algorytmu sztucznej inteligencji do rozpoznawania zmian nowotworowych z dużą dokładnością. Czasochłonny jest również proces oznaczania tzw. danych uczących, który wiąże się z ręcznym oznaczeniem zmian patologicznych przez lekarza eksperta oraz ich weryfikacji przez dyplomowanego patologa. Obecnie w ramach prac prowadzonych w projekcie CyfroVet opracowane zostało rozwiązanie pozwalające na klasyfikację wybranych zmian patologicznych z wykorzystaniem sieci neuronowych. Opracowane zostały również architektury sieci pozwalające na szczegółową detekcję pojedynczych komórek nowotworowych, która pozwala na bardziej dokładną analizę zachodzących zmian patologicznych. Zaprojektowane rozwiązanie pozwala uzyskać dokładności klasyfikacji na poziomie nawet 96 proc. System działa dla wybranych trzech zmian nowotworowych: mastocytomy, histiocytomy oraz chłoniaka – wskazał inicjator prac dr hab. inż. Maciej Wielgosz. W ostatnim czasie zespół prowadzi również badania nad holistycznym podejściem do diagnostyki weterynaryjnej, które dotyczy nie tylko zbadania zmian na zdjęciach preparatów cytologicznych pod mikroskopem, ale również informacji o zwierzęciu zebranych przez weterynarza w trakcie wstępnego wywiadu. Wywiad taki dotyczy wieku zwierzęcia, chorób czy lokalizacji zmian na powierzchni skóry. Są to tak zwane dane kategoryczne, które mogą w znaczący sposób wpłynąć na podjęcie przez lekarza decyzji diagnostycznej. Uwzględnienie tych danych w algorytmie sztucznej inteligencji pozwoli potencjalnie podnieść skuteczność jego działania. « powrót do artykułu
-
- CyfroVet
- Cyfronet AGH
-
(and 3 more)
Tagged with:
-
Sztuczna inteligencja pomogła w rozwiązaniu jednej z zagadek zwojów znad Morza Martwego. Przeprowadzona przez algorytm analiza potwierdziła, że jeden z najstarszych zwojów z Qumran – Wielki Zwój Izajasza, pochodzący z ok. 125 roku p.n.e. – został spisany przez dwie osoby, a nie przez jedną. Wielki Zwój Izajasza to kopia Księgi Izajasza. Zanim odkryto zwoje z Qumran historię tekstów biblijnych mogliśmy studiować praktycznie wyłącznie ze średniowiecznych manuskryptów z około 1000 roku. Zwoje znad Morza Martwego są jak kapsuła czasu. Pozwalają nam podróżować do czasów, w których Biblia dopiero powstawała. Dają nam więc wyjątkowy wgląd w kulturę i środowisko, które ją wytworzyło, mówi Mladen Popovic z Uniwersytetu w Groningen. Wielki Zwój Izajasza jest naprawdę wielki. Ma 734 centymetry długości. To największy, jeden z najlepiej zachowanych i jedyny niemal kompletny zwój z Qumran. Dotychczas naukowcy nie byli pewni, czy spisała go jedna czy dwie osoby, gdyż charakter pisma na całym zwoju jest niezwykle podobny. Popovic i jego zespół zaprzęgli sztuczną inteligencję do analizy zdjęć zwoju. Zadaniem algorytmu było przyjrzenie się literom, przeanalizowanie trudnych do wychwycenia dla człowieka zmian w kroju i stylu liter oraz stwierdzenie, czy Wielki Zwój wyszedł spod jednej ręki, czy też pracowało nad nim więcej osób o podobnym charakterze pisma. Sztuczną inteligencję zaprzęgnęliśmy do pracy dlatego, że mamy tutaj podobny charakter pisma. Chcieliśmy dowiedzieć się, czy pisały dwie osoby czy jedna, która w pewnym momencie zmieniła narzędzie do pisania, wyjaśnia Charlotte Hempel z University of Birmingham. Teraz możemy zadać sobie jeszcze jedno fascynujące pytanie. Czy tak duże podobieństwo w charakterze pisma dwóch osób wynikało z faktu, iż mamy tutaj do czynienia z wysokiej klasy profesjonalistą zdolnym do naśladowania charakteru pisma innej osoby i czy obaj skrybowie pochodzili z tego samego kręgu, w którym uczyli się swojej profesji, dodaje Hempel. « powrót do artykułu
- 14 replies
-
- zwoje znad Morza Martwego
- zwoje z Qumran
- (and 2 more)
-
Rak prostaty to obecnie jeden z dwóch najczęściej rozpoznawanych nowotworów złośliwych u mężczyzn. Zapadalność na raka gruczołu krokowego rośnie z wiekiem. To poważna choroba, jednak wcześnie wykryta jest uleczalna. Szybka, właściwa diagnostyka pozwala odpowiednio dobrać terapię i zwiększyć szansę pacjenta na przeżycie. Najdokładniej zmiany nowotworowe powala zobrazować rezonans magnetyczny (MRI). Niestety, badanie raka prostaty za pomocą tej metody jest skomplikowane. Niezbędne jest badanie wielu cech nowotworu, co utrudnia i znacznie wydłuża interpretację wyniku. Każdy otrzymany obraz musi być przeanalizowany osobno. Diagnostyka ta jest skomplikowana i trudniejsza niż w przypadku większości nowotworów złośliwych. Otrzymane wyniki są oceniane według skali PI-RADS (Prostate Imaging-Reporting and Data System), która umożliwia rozróżnienie zmian istotnych klinicznie. Analiza ta wymaga specjalistycznej wiedzy radiologów, którzy stanowią w Polsce zaledwie ok. 2 proc. lekarzy, co dodatkowo wydłuża czas oczekiwania na badanie i właściwą diagnozę. Interpretacja wyników jest subiektywna i zauważalne są różnice pomiędzy specjalistami doświadczonymi a początkującymi. Badania wykazały, że radiolodzy różnie interpretują, czy potencjalna zmiana nowotworowa jest inwazyjna. W Ośrodku Przetwarzania Informacji – Państwowym Instytucie Badawczym (OPI PIB) prowadzimy interdyscyplinarne badania, których wyniki mają praktyczne zastosowanie w wielu dziedzinach. Jednym z obszarów jest wykorzystanie najnowszych technologii IT w medycynie i ochronie zdrowia. Z naszych badań wynika, że sztuczna inteligencja może skutecznie usprawnić pracę lekarzy. Rezultaty są bardzo obiecujące i jestem przekonany, że także pomogą one innym naukowcom opracować nowoczesne narzędzia technologiczne, mające zastosowanie w diagnostyce nie tylko raka prostaty, ale także i innych chorób – mówi dr inż. Jarosław Protasiewicz, dyrektor Ośrodka Przetwarzania Informacji – Państwowego Instytutu Badawczego (OPI PIB). Ograniczenie liczby bolesnych biopsji Naukowcy z Laboratorium Stosowanej Sztucznej Inteligencji w OPI PIB opracowali platformę badawczą eRADS, która służy do standaryzacji opisów raportów medycznych. Narzędzie to pozwala obiektywnie ocenić istotność kliniczną zmiany na podstawie pięciostopniowej skali PI-RADS. Platforma umożliwia także zbieranie danych z badań, co w przyszłości pomoże stworzyć rozwiązania, które automatycznie będą szacowały cechy istotne klinicznie. W tym przypadku sztuczną inteligencję zastosowano do wspomagania procesów decyzyjnych. Badacze OPI PIB przeprowadzili badania pilotażowe z udziałem 16 pacjentów, diagnozowanych przez dwóch radiologów podczas ich dyżuru w Centralnym Szpitalu Klinicznym MSWiA w Warszawie. Specjaliści ci różnili się stażem pracy w zawodzie. Ich celem była ocena rzetelności oraz wstępnej użyteczności klinicznej systemu eRADS. Wyniki badania pilotażowego są obiecujące. Oceny istotności klinicznej zmiany przez radiologów z wykorzystaniem narzędzia opracowanego przez naukowców OPI PIB są bardziej zgodne, niż gdy dokonują oni analizy bez użycia platformy. Zastosowanie eRADS pomaga zmniejszyć różnice między jakością diagnozy lekarzy doświadczonych i niedoświadczonych. Precyzyjna ocena zmian pozwoli znacznie ograniczyć liczbę pacjentów, którzy są wysyłani na biopsję. W przypadku badania prostaty wiąże się ona z dyskomfortem pacjenta. Polega na pobraniu materiału z kilku do kilkunastu wkłuć. Sieci neuronowe zastąpią lekarzy? W naszym laboratorium badaliśmy także wykorzystanie w diagnostyce raka prostaty innych obszarów sztucznej inteligencji. Analizowaliśmy zastosowanie narzędzi wykorzystujących uczenie maszynowe i głębokie. Naszym celem było porównanie otrzymanych wyników z diagnozami postawionymi przez doświadczonych i niedoświadczonych radiologów. Model predykcyjny istotności klinicznej zmian, oparty o narzędzia uczenia maszynowego, bazował na cechach obrazu (np. jednorodności) w badanych komórkach i ich otoczeniu. Uzyskaliśmy model trafnie klasyfikujący istotne klinicznie zmiany z prawdopodobieństwem 75 proc., co można porównać do diagnozy niedoświadczonego lekarza. Najbardziej obiecujące rezultaty otrzymaliśmy jednak z zastosowania wiedzy domenowej w architekturze sieci neuronowych. Opracowane modele dają lepszą jakość diagnozy zmian nowotworowych w porównaniu z ocenami niedoświadczonych i doświadczonych radiologów, stawiając trafną diagnozę z prawdopodobieństwem 84 proc. – mówi Piotr Sobecki, kierownik Laboratorium Stosowanej Sztucznej Inteligencji w OPI PIB. Podsumowując, zastosowanie wiedzy domenowej w architekturze sieci neuronowych wpływa na szybkość uczenia modelu w przypadku diagnostyki raka prostaty. Analizowano efekt lokalizacji zmiany w prostacie i niezależnie od tego czynnika, wyniki otrzymane za pomocą modeli wykorzystujących sieci neuronowe były takie same lub lepsze od diagnozy postawionej przez doświadczonych radiologów. Potwierdziły to wyniki badania OPI PIB z użyciem danych historycznych od 6 radiologów oceniających 32 zmiany nowotworowe. Sztuczna inteligencja wykorzystująca uczenie głębokie nie zastąpi jednak lekarzy, ale ułatwi im pracę i przyspieszy rozpoczęcie leczenia pacjenta. Wciąż jednak mało jest otwartych zbiorów baz danych, które można wykorzystać do usprawnienia algorytmów sztucznej inteligencji. Należy pamiętać, że modele te są tak dobre, jak dane, na których zostały wyuczone. Chodzi zarówno o ich liczebność, jak i o jakość. 1) W Polsce z powodu raka prostaty codziennie umiera około 15 pacjentów, a choroba ta jest diagnozowana u co 8. mężczyzny 2) Ważne jest szybkie wykrycie choroby i podjęcie odpowiedniego leczenia. 3) Niestety, diagnostyka raka prostaty jest skomplikowana i trudna w porównaniu do metod wykrywania innych nowotworów. 4) Badacze z Laboratorium Stosowanej Sztucznej Inteligencji w Ośrodku Przetwarzania Informacji – Państwowym Instytucie Badawczym (OPI PIB) wykorzystali sztuczną inteligencję (SI) do usprawnienia diagnostyki obrazowej raka prostaty. 5) Najlepsze rezultaty uzyskali z zastosowaniem sieci neuronowych. Jakość otrzymanej diagnozy była na poziomie doświadczonego lekarza specjalisty lub wyższa. « powrót do artykułu
-
- rak prostaty
- rak gruczołu krokowego
- (and 5 more)
-
Przed rokiem firma Cerebras Systems zaprezentowała największy w historii procesor o gigantycznej mocy obliczeniowej, który pokonał najpotężniejszy superkomputer, symulując procesy fizyczne szybciej, niż odbywają się one w rzeczywistości. Teraz firma ogłosiła, że stworzyła drugą wersję swojego procesora i udostępni go w 3. kwartale bieżącego roku. Wafer Scale Engine 2 (WSE 2) ma ponaddwukrotnie więcej tranzystorów, rdzeni i pamięci niż WSE 1. Trenowanie systemów sztucznej inteligencji trwa wiele tygodni. To zdecydowanie zbyt długo, gdyż w takiej sytuacji można wytrenować tylko kilka sieci rocznie. Jeśli zaś moglibyśmy wytrenować sieć neuronową w ciągu 2-3 godzin, to rocznie możemy przetestować tysiące rozwiązań, mówi Andrew Feldman, dyrektor i współzałożyciel Cerebras. Mogą w tym pomóc właśnie olbrzymie procesory WSE. Ich twórcy zauważyli, że rozwiązaniem problemu wąskiego gardła, którym jest konieczność ciągłego przesyłania danych pomiędzy procesorem a układami pamięci, będzie zbudowanie wielkiego procesora, który będzie w stanie przechować wszystkie potrzebne dane w swoich rdzeniach. Oba procesory WSE mają powierzchnię 46 255 mm2. Dla porównania procesor Nvidia A100 ma powierzchnię 826 mm2. WSE 2 korzysta z 2,6 biliona tranzystorów (WSE 1 z 1,2 biliona, a A100 z 54,2 miliardów). Najnowszy procesor Cerebras składa się z 850 000 rdzeni (WSE 1 ma ich 400 000, A100 – 7344). W WSE 2 zastosowano 40 gigabajtów pamięci. TO aż 1000-krotnie więcej niż w A100 i ponaddwukrotnie więcej niż w WSE 1. Ponadto rdzenie WSE 2 wymieniają między sobą dane z prędkością 200 PB/s, podczas gdy A100 przekazuje dane z prędkością 155 GB/s, a WSE 1 z prędkością 9 PB/s. Najnowszy procesor Cerebras został wykonany w technologii 7nm, czyli tej samej co A100. WSE 1 korzystał z 16nm. Cerebras zapewnia, że udoskonalił również samą mikroarchitekturę WSE 2 tak, by jeszcze lepiej spełniał on zadania stawiane przed systemami sztucznej inteligencji. Firma może pochwalić się rosnącą liczbą klientów, którzy prowadzą na WSE 1 i mają zamiar prowadzić na WSE 2 niezwykle złożone obliczenia. Wśród klientów tych jest Argonne National Lab, które wykorzystuje WSE do prac nad lekami na nowotwory, badania COVID-19, badania fal grawitacyjnych czy badań nad nowymi materiałami. Z kolei Edinburgh Parallel Computing Centre używa WSE do przetwarzania języka naturalnego i badań genetycznych. Koncern farmaceutyczny GlaxoSmithKline poszukuje nowych leków za pomocą WSE 1, a Lawrence Livermore National Lab symuluje fuzję jądrową, prowadzi badania nad traumatycznymi uszkodzeniami mózgu. Wśród klientów Cerebras jest też wiele firm z przemysłu ciężkiego, wojskowego czy wywiadu. « powrót do artykułu
- 5 replies
-
- Cerebras Systems
- WSE 2
-
(and 2 more)
Tagged with:
-
W Niemczech stworzono algorytm, który identyfikuje geny biorące udział w powstawaniu nowotworów. Naukowcy zidentyfikowali dzięki niemu 165 nieznanych dotychczas genów zaangażowanych w rozwój nowotworu. Co bardzo istotne, algorytm ten identyfikuje również geny, w których nie doszło do niepokojących zmian w DNA. Jego powstanie otwiera nowe możliwości w walce z nowotworami i personalizowanej medycynie. W nowotworach komórki wyrywają się spod kontroli. Rozrastają się i rozprzestrzeniają w niekontrolowany sposób. Zwykle jest to spowodowane mutacjami w DNA. Jednak w przypadku niektórych nowotworów mamy do czynienia z bardzo małą liczbą zmutowanych genów, co sugeruje, że w grę wchodzą tutaj inne przyczyny. Naukowcy z Instytutu Genetyki Molekularnej im. Maxa Plancka oraz Instytut Biologii Obliczeniowej Helmholtz Zentrum München opracowali algorytm maszynowego uczenia się, który zidentyfikował 165 nieznanych dotychczas genów biorących udział w rozwoju nowotworów. Wszystkie nowo odkryte geny wchodzą w interakcje z dobrze znanymi genami pronowotworowymi. Algorytm EMOGI (Explainable Multi-Omics Graph Integration) potrafi też wyjaśnić związki pomiędzy elementami odpowiedzialnymi za powstanie nowotworu. Powstał on na podstawie dziesiątków tysięcy danych zgromadzonych w ramach badań nad nowotworami. Są tam informacje o metylacji DNA, aktywności poszczególnych genów, mutacjach, interakcji białek itp. itd. Na podstawie tych danych algorytm głębokiego uczenia się opracował wzorce oraz nauczył się rozpoznawania sygnałów molekularnych prowadzących do rozwoju nowotworu. Ostatecznym celem takiego algorytmu byłoby stworzenie dla każdego pacjenta całościowego obrazu wszystkich genów zaangażowanych w danym momencie w rozwój nowotworu. W ten sposób położylibyśmy podwaliny pod zindywidualizowaną terapię przeciwnowotworową, mówi Annalisa Marsico, która stoi na czele zespołu badawczego. Jej celem jest wybranie najlepszej terapii dla każdego pacjenta czyli takiego leczenia, które u konkretnej osoby da najlepsze wyniki i będzie miało najmniej skutków ubocznych. Co więcej, pozwoli nam to identyfikować nowotwory na wczesnych fazach rozwoju dzięki ich charakterystyce molekularnej. Dotychczas większość badaczy skupia się na patologicznych zmianach w sekwencjach genetycznych. Tymczasem w ostatnich latach coraz bardziej oczywiste staje się, że do rozwoju nowotworów mogą prowadzić również zaburzenia epigenetyczne czy rozregulowanie aktywności genów, stwierdza Roman Schulte-Sasse, doktorant współpracujący z Marsico. Dlatego właśnie naukowcy połączyli informacje o błędach w genomie z informacjami o tym, co dzieje się wewnątrz komórek. W ten sposób najpierw zidentyfikowali mutacje w genomie, a później znaleźli geny, które mają mniej oczywisty wpływ na rozwój nowotworu. Na przykład znaleźliśmy geny, których DNA jest niemal niezmienione, ale mimo to geny te są niezbędne do rozwoju guza, gdyż regulują dostarczanie mu energii, dodaje Schulte-Sasse. Tego typu geny działają poza mechanizmami kontrolnymi, gdyż np. doszło w nich do chemicznych zmian w DNA. Zmiany te powodują, że co prawda sekwencja genetyczna pozostaje prawidłowa, ale gen zaczyna inaczej działać. Takie geny to bardzo obiecujący cel dla terapii przeciwnowotworowych. Problem jednak w tym, że działają one w tle i do ich zidentyfikowania potrzebne są złożone algorytmy, dodaje uczony. Obecnie naukowcy wykorzystują swój algorytm do przeanalizowania związku pomiędzy proteinami a genami. Związki te można przedstawić w formie matematycznych grafów, stwierdza Schulte-Sasse. Dopiero współczesna technika pozwala na prowadzenie tego typu analiz. Schulte-Sasse już uruchomił algorytm, który analizuje dziesiątki tysięcy takich grafów z 16 różnych typów nowotworów. Każdy z grafów składa się z od 12 000 do 19 000 punktów z danymi. Już teraz zaczynamy zauważać pewne wzorce zależne od typu nowotworu. Widzimy dowody na to, że rozwój guzów jest uruchamiany za pomocą różnych mechanizmów molekularnych w różnych organach, wyjaśnia Marsico. Szczegóły badań zostały opublikowane na łamach Nature Machine Intelligence. « powrót do artykułu
-
Na Massachusetts Institute of Technology (MIT) powstał system sztucznej inteligencji (SI), który wykrywa czerniaka. System analizuje zdjęcia skóry pacjenta i wskazuje na podejrzane zmiany, dzięki czemu specjalista łatwiej może postawić diagnozę. Czerniak to niebezpieczny nowotwór odpowiedzialny za 70% przypadków zgonów z powodu nowotworów skóry. Od lat lekarze polegają na własnym wzroku i doświadczeniu, wyszukując podejrzane zmiany. Dzięki pomocy SI diagnoza ma być szybsza i skuteczniejsza. Szybkie wykrycie podejrzanych zmian pigmentacji skóry nie jest proste. Łatwo też, przy nowotworze na wczesnym etapie, pominąć którąś ze zmian. Podejrzane zmiany są następnie poddawane biopsji i badane. Naukowcy z MIT wykorzystali technikę głębokich konwolucyjnych sieci neutronowych (DCNN) i zaprzęgnęli ją do analizy obrazów wykonywanych za pomocą zwykłych aparatów cyfrowych, takich jak te obecne w telefonach komórkowych. Luis L. Soenksen, ekspert z Artificial Intelligence and Healthcare na MIT mówi, że dzięki temu możliwe jest szybkie i efektywne wykrywanie czerniaka na wczesnym etapie rozwoju. Wczesne wykrycie podejrzanych zmian może ocalić życie. Jednak obecnie systemy opieki zdrowotnej nie mają dostępu do systemu pozwalającego na badania przesiewowe skóry, stwierdza ekspert. Na łamach Science Translational Medicine wyjaśnia on w jaki sposób działa nowy system. Sztuczną inteligencję do wykrywania czerniaka trenowano za pomocą 20 388 zdjęć od 133 pacjentów madryckiego Hospital Hospital Gregorio Marañón oraz na publicznie dostępnych fotografiach. Zdjęcia były wykonana za pomocą różnych, łatwo dostępnych aparatów cyfrowych. Z twórcami systemu współpracowali też dermatolodzy, który klasyfikowali podejrzane zmiany tradycyjną metodą. Okazało się, że system z 90,3-procentową skutecznością odróżnia podejrzane zmiany skórne od zmian, które nie są problematyczne. Nasze badania wskazują, że system wykorzystujący system komputerowego widzenia oraz głębokie sieci neuronowe osiąga podobną skuteczność, co doświadczony dermatolog. Mamy nadzieję, że nasze badania pomogą w lepszej diagnostyce w punktach podstawowej opieki zdrowotnej, mówi Soenksen. « powrót do artykułu
-
- czerniak
- nowotwór skóry
-
(and 1 more)
Tagged with:
-
Firma Samsung Electronics poinformowała o stworzeniu pierwszego modułu High Bandwidth Memory (HBM) zintegrowanego z modułem obliczeniowym wykorzystującym sztuczną inteligencję – HBM-PIM. Architektura processing-in-memory (PIM) umieszczona wewnątrz wysokowydajnych modułów pamięci ma służyć przede wszystkim przyspieszeniu przetwarzania danych w centrach bazodanowych, systemach HPC (High Performance Computing) oraz aplikacjach mobilnych. Nasz HBM-PIM to pierwsze programowalne rozwiązanie PIM przeznaczone dla różnych zastosowań z wykorzystaniem sztucznej inteligencji. Planujemy rozszerzenie współpracy z dostawcami rozwiązań z zakresu sztucznej inteligencji, dzięki czemu będziemy mogli zaproponować coraz bardziej zaawansowane rozwiązania korzystające z PIM, stwierdził wiceprezes Samsunga, Kwangil Park. Większość współczesnych systemów komputerowych bazuje na architekturze von Neumanna, zgodnie z którą dane są przechowywane i przetwarzane w osobnych układach. Taka architektura wymaga ciągłego przesyłania informacji pomiędzy układami, przez co – szczególnie w systemach operujących na olbrzymich zestawach danych – powstaje wąskie gardło spowalniające pracę całego systemu komputerowego. Architektura HBM-PIM zakłada wykorzystanie modułu przetwarzania danych w miejscu, w którym dane się znajdują. Uzyskano to poprzez umieszczenie wewnątrz każdego modułu pamięci silnika SI zoptymalizowanego pod kątem współpracy z układami DRAM. W ten sposób umożliwiono równoległe przetwarzanie danych i zminimalizowano potrzebę ich przesyłania. Samsung informuje, że po połączeniu HBM-PIM z obecnym już na rynku rozwiązaniem HBM2 Aquabolt pozwoliło na dwukrotne zwiększenie wydajności systemu przy jednoczesnym 70-procentowym spadku zapotrzebowania na energię. Koreańczycy podkreślają, że HBM-PIM nie wymaga żadnych zmian sprzętowych ani programowych, zatem łatwo można je zastosować w już istniejących systemach. HBM-PIM zapewnia imponujący wzrost wydajności przy jednoczesnym olbrzymim spadku zapotrzebowania na energię w kluczowych rozwiązaniach SI, zatem z zainteresowaniem oczekujemy na możliwość sprawdzenia jego wydajności w rozwiązywaniu problemów nad którymi pracujemy w Argonne, stwierdził Rick Stevens, dyrektor ds. obliczeniowych, środowiskowych i nauk biologicznych w Argonne National Laboratory. Szczegóły HBM-PIM zostaną zaprezentowane 22 lutego podczas International Solid-State Circuits Virtual Conference (ISSCC). « powrót do artykułu
-
Dependowirusy, czyli parwowirusy „stowarzyszone” z adenowirusami (AAV) to bardzo przydatne narzędzia w terapii genowej. Mogą one bowiem przenosić DNA do wnętrza komórki, a ponadto są nieszkodliwe dla człowieka. Dlatego też korzysta się z nich jako z nośnika informacji genetycznej potrzebne do zwalczania chorób. Istnieją jednak poważne ograniczenia, które powodują, że w chwili obecnej ich użycie jest mocno limitowane i nie u wszystkich pacjentów można je wykorzystać, zatem nie wszyscy mogą zostać poddani terapii genowej. Pierwsze z tych ograniczeń to ograniczana zdolność AAV do przyczepiania się do komórek. Ograniczenie drugie to ludzki układ odpornościowy. Szacuje się, że 50–70% ludzi jest odpornych na zakażenie AAV, gdyż już wcześniej zetknęli się z jakąś formą tego wirusa. W ich przypadku terapie genowe nie zadziałają, gdyż układ odpornościowy zdąży zniszczyć wirusa zanim ten wniknie do komórki, przekazując jej materiał genetyczny potrzebny do prowadzenia terapii. Z tego też powodu jednym z ważniejszych pól badań nad terapiami genowymi są próby oszukania układu odpornościowego. Doktor George Church z Uniwersytetu Harvard we współpracy z Google Research i Dyno Therapeutics wykorzystał technikę głębokiego uczenia się do zaprojektowania bardzo zróżnicowanych wariantów kapsydu (płaszcza białkowego) wirusa AAV. Naukowcy skupili się na sekwencjach genomu wirusa, które kodują kluczowy segment protein odgrywający kluczową rolę w infekcji docelowych komórek oraz w rozpoznawaniu wirusa przez układ odpornościowy. Specjaliści wykazali, ze dzięki wykorzystaniu sztucznej inteligencji możliwe jest zaprojektowanie olbrzymiej liczby zróżnicowanych kapsydów, które później można poddać testom pod kątem ich zdolności do uniknięcia ataku ze strony układu odpornościowego. Naukowcy wyszli od niewielkiej ilości danych na temat kapsydu, by docelowo uzyskać 200 000 wariantów. Nasze badania jasno pokazują, że maszynowe uczenie się pozwala na zaprojektowanie olbrzymiej liczby wariantów, znacznie większej niż istnieje w naturze. Wciąż udoskonalamy naszą technikę, by nie tylko stworzyć nośniki, które poradzą sobie z problemem ataku ze strony układy odpornościowego, ale będą też bardziej efektywnie i selektywnie przyczepiały się do wybranych rodzajów tkanek, mówi doktor Eric Kelsic, dyrektor i współzałożyciel firmy Dyno Therapeutics. Z artykułu opublikowanego na łamach Nature dowiadujemy się, że wstępna ocena zaprojektowanych przez sztuczną inteligencję kapsydów wykazała, że niemal 60% może się sprawdzić. To znaczny. postęp. Obecnie do różnicowania kapsydów wykorzystuje się przypadkową mutagenezę, gdzie odsetek przydatnych kapsydów jest mniejszy niż 1%. Im bardziej odbiegniemy od naturalnego wyglądu AAV, tym większe prawdopodobieństwo, że układ odpornościowy go nie rozpozna, dodaje doktor Sam Sinai, drugi z założycieli Dyno Therapeutics, który stał na czele zespołu prowadzącego modelowanie komputerowe. Kluczem do odniesienia sukcesu jest jednak wyprodukowanie kapsydu, który w sposób stabilny przeniesie ładunek DNA. Tradycyjne metody uzyskiwania takiego kapsydu są bardzo czaso- i zasobochłonne, a w ich wyniku utrzymujemy bardzo mało przydatnych kapsydów. Tutaj zaś możemy szybko uzyskiwać dużą różnorodność kapsydów AAV, które są bazą do udoskonalanie terapii genowych dostępnych dla większej liczby osób". « powrót do artykułu
- 2 replies
-
- terapia genowa
- sztuczna inteligencja
-
(and 2 more)
Tagged with:
-
Opracowanie planu radioterapii to skomplikowane zadanie, dlatego też nawet pacjenci, którzy potrzebują natychmiastowego wdrożenia leczenia muszą zwykle czekać kilka dni lub dłużej, aż lekarze opracują plan. Okazuje się jednak, że z pomocą może tutaj przyjść sztuczna inteligencja, która odpowiedni plan może przygotować w ułamku sekundy. Niektórzy z takich pacjentów wymagają natychmiastowej radioterapii, ale lekarze odsyłają ich do domu i każą czekać. Opracowanie w czasie rzeczywistym planu leczenia jest bardzo ważne. To część naszego projektu, w ramach którego chcemy zaprząc SI do poprawy wszelkich aspektów walki z nowotworami, mówi doktor Steve Jiang, który kieruje Laboratorium Medycznej Sztucznej Inteligencji i Automatyzacji na UT Soutwestern Medical Center. Radioterapia to często stosowana metoda walki z nowotworami. Badania pokazują, że w przypadku niektórych nowotworów odroczenie radioterapii o zaledwie tydzień zwiększa ryzyko nawrotu lub rozprzestrzenienia się choroby nawet o 14%. To właśnie takie dane stały się przyczyną, dla której zespół Jianga postanowił wykorzystać SI to pomocy w zaplanowaniu radioterapii. Od rozpoczęcia leczenia po przeliczenie dawek w miarę postępów leczenia. Testy przeprowadzone za pomocą specjalnie opracowanego algorytmu wykazały, że jest on w stanie opracować optymalny plan leczenia zaledwie w ciągu 5/100 sekundy od momentu otrzymania danych dotyczących pacjenta. Nowo opracowany algorytm korzystał z technik głębokiego uczenia się. Szkolono go na przykładzie 70 osób cierpiących na nowotwór prostaty, a przy uczeniu wykorzystano 4 algorytmy głębokiego uczenia się. Z czasem sztuczna inteligencja nauczyła się opracowywania optymalnego planu leczenia. Okazało się, że w przypadku każdego z tych pacjentów jest on taki sam, jak ten opracowany przez lekarzy. To jednak nie wszystko. Algorytm był też w stanie przed każdą kolejną sesją radioterapii błyskawicznie obliczyć prawidłowe dawki promieniowania. Zwykle pacjenci przed każdą sesją przechodzą badanie, na podstawie którego obliczane są dawki. Nowy algorytm korzysta z dwóch standardowych modeli obliczania dawki. Jednego szybkiego, który jednak jest mniej precyzyjny, i drugiego bardzo precyzyjnego, który jednak wymaga półgodzinnych obliczeń. SI, porównując na przykładzie wspomnianych 70 pacjentów wyniki obu modeli, nauczyła się, jak wykorzystać szybkość jednego i precyzję drugiego, by w czasie krótszym od sekundy uzyskać precyzyjne wyniki. Naukowcy z UT Southwestern Medical Center mają teraz zamiar wykorzystać swój algorytm w codziennej praktyce klinicznej. « powrót do artykułu
- 2 replies
-
- radioterapia
- nowotwór
-
(and 2 more)
Tagged with:
-
Firma DeepMind, której system sztucznej inteligencji zdobył rozgłos pokonując mistrza Go, a niedawno zapowiedział rewolucję na polu nauk biologicznych, poszła o krok dalej. Stworzyła system MuZero, który uczy się zasad gry od podstaw, bez żadnych informacji wstępnych. Celem DeepMind jest spowodowanie, by MuZero uczył się tak, jak robi to dziecko, metodą prób i błędów. MuZero rozpoczyna naukę reguł gry od spróbowania jakiegoś działania. Później próbuje czegoś innego. Jednocześnie sprawdza, czy jego działanie jest dozwolone i jaki jest jego skutek. Do dalszej pracy wybiera te z działań, które przynoszą najlepszy rezultat. W szachach będzie to doprowadzenie do szach-mata, w Pac-Manie zaś połknięcie kropki. Następnie algorytm tak zmienia swoje działania by pożądane rezultaty osiągnąć najniższym kosztem. Taki sposób nauki, poprzez obserwację, jest idealną metodą w przypadku SI. Chcemy bowiem zadać sztucznej inteligencji pytania i poprosić o rozwiązywanie problemów, których nie można łatwo zdefiniować. Ponadto w świecie rzeczywistym, gdzie nie obowiązują stałe i jasne reguły gry, SI co chwila będzie napotykała na przeszkody, z którymi musi sobie poradzić. Obecnie MuZero uczy się kompresji wideo. W przypadku AlphaZero nauczenie się tego zadania byłoby bardzo kosztowne, mówią autorzy algorytmu. Już teraz zastanawiają się nad wdrożeniem MuZero do nauczenia się jazdy samochodem. Myślą też o zaprzęgnięciu algorytmu do projektowania białek. Przypomnijmy, że siostrzany algorytm AlphaFold udowodnił ostatnio, że świetnie sobie radzi z zawijaniem białek. MuZero mógłby zaś projektować białka od podstaw. Dzięki temu, mając do dyspozycji np. szczegółową wiedzę o wirusie czy bakterii, którą białko ma niszczyć, byłby w stanie zaprojektować nowe lekarstwa. MuZero, dzięki jednoczesnemu uczeniu się reguł gry i udoskonalaniu swoich działań pracuje znacznie bardziej ekonomicznie, niż jego poprzednicy stworzeni przez DeepMind. Radzi sobie świetnie nawet wówczas, gdy twórcy celowo ograniczą jego możliwości. Podczas nauki zasad Pac-Mana, gdy na każdy rozważany ruch MuZero mógł przeprowadzić nie więcej niż 7 symulacji skutków swoich działań – co jest liczbą zdecydowanie zbyt małą, by rozważyć wszystkie opcje – algorytm i tak całkiem dobrze sobie poradził. Twórcy MuZero mówią, że taki system potrzebuje sporych mocy obliczeniowych, by nauczyć się zasad. Gdy jednak już je pozna, podejmowanie kolejnych decyzji wymaga już tak niewielu obliczeń, że całe działania mogą być przeprowadzone na smartfonie. Jednak nawet nauka nie jest bardzo wymagająca. MuZero nauczył się od podstaw zasad Pac-Mana w ciągu 2-3 tygodni, korzystając przy tym z jednego GPU, mówi Julian Schrittwieser, jeden ze współautorów algorytmu. Jednym z elementów powodujących, że wymagania MuZero są nieduże w porównaniu z innymi systemami jest fakt, iż algorytm bierze pod uwagę tylko elementy istotne w procesie podejmowania decyzji. Wiedza, że parasol ochroni cię przed deszczem jest bardziej użyteczna, niż umiejętność modelowania ruchu kropel wody w powietrzu, czytamy w oświadczeniu DeepMind. Celem twórców MuZero jest spowodowanie, by ich system potrafił odrzucić wszystko to, co w danym momencie nie jest potrzebne, by skupił się na kwestiach istotnych. Mówią tutaj o dziecku, które po zaledwie kilkukrotnym doświadczeniu jest w stanie generalizować wiedzę na dany temat i połączyć np. kroplę wody z potężnym wodospadem, widząc powiązanie pomiędzy nimi. « powrót do artykułu
- 36 replies
-
AlphaFold, sieć sztucznej inteligencji zbudowana w oparciu o słynny DeepMind dokonała olbrzymiego kroku w kierunku poradzenia sobie z jednym z najpoważniejszych wyzwań nauk biologicznych – określeniem kształtu białek z sekwencji ich aminokwasów. To zmieni medycynę, zmieni bioinżynierię. Zmieni wszystko, mówi Andrei Lupas, biolog ewolucyjny z Instytutu Biologii Rozwojowej im. Maxa Plancka w Tybindze, który oceniał możliwości podobnych programów. Lupas dobrze zna AlphaFold. Program pomógł określić mu strukturę białka, z którym jego laboratorium nie mogło sobie poradzić od dekady. Możliwość określenia prawidłowej struktury białek pozwoli zarówno na lepsze zrozumienie życia, jak i na szybsze opracowywanie supernowoczesnych leków. Obecnie znamy 200 milionów białek, ale w pełni rozumiemy strukturę i funkcję niewielkiego ułamka z nich. Jednak nawet opisanie tej niewielkiej liczby dobrze poznanych białek zajęło nauce wiele lat, a do ich badań konieczny był wyspecjalizowany sprzęt warty miliony dolarów. AlphaFold pokonał około 100 innych programów, które wraz z nim stanęły do zawodów CASP (Critical Assesment of Structure Prediction). Zawody odbywają się co dwa lata, a AlphaFold wystartował w nich po raz pierwszy w 2018 roku i od razu trafił na szczyt klasyfikacji. Jednak w tym roku jego możliwości zaskoczyły specjalistów. Nie dość, że znacząco wyprzedził konkurencję, to jego osiągnięcia były tak imponujące, iż mogą zwiastować rewolucję w biologii. W niektórych przypadkach wyniki uzyskane za pomocą AlphaFold nie różniły się niczym od tych osiąganych za pomocą metod eksperymentalnych stanowiących złoty standard, takich jak krystalografia rentgenowska czy mikroskopia krioelektronowa. Naukowcy mówią, że AlphaFold nie zastąpi – przynajmniej na razie – tych metod, ale już teraz pozwoli na badanie struktur biologicznych w zupełnie nowy sposób. Białka to podstawowe budulce organizmów żywych. Odpowiedzialne są za większość procesów zachodzących w komórkach. O tym, jak działają i co robią, decyduje ich struktura 3D. Odpowiedni kształt przyjmują one bez żadnej instrukcji, kierowane jedynie prawami fizyki. Od dziesięcioleci główną metodą określania kształtów białek były metody eksperymentalne. Badania tego problemu rozpoczęto w latach 50. ubiegłego wieku korzystając z metod krystalografii rentgenowskiej. W ostatniej dekadzie preferowanym narzędziem badawczym stała się mikroskopia krioelektronowa. W latach 80. i 90. zaczęto prace nad wykorzystaniem komputerów do określania kształtu protein. Jednak nie szło to zbyt dobrze. Metody, które sprawdzały się przy jednych białkach nie zdawały egzaminu przy badaniu innych. John Moult, biolog obliczeniowy z University of Maryland, wraz z kolegami wpadł na pomysł zorganizowania CASP, zawodów, które miały uporządkować prace nad wykorzystaniem komputerów do badania kształtów białek. W ramach tych zawodów przed zespołami naukowymi stawia się zadanie określenia właściwej struktury protein, których to struktura została wcześniej określona metodami eksperymentalnymi, ale wyniki tych badań nie zostały jeszcze upublicznione. Moult mówi, że eksperyment ten – uczony unika słowa „zawody” – znakomicie przysłużył się badaniom na tym polu, pozwolił na uporządkowanie metod i odrzucenie wielu nieprawdziwych twierdzeń. Tutaj naprawdę możemy przekonać się, która metoda jest obiecująca, która działa, a którą należy odrzucić, stwierdza. W 2018 roku na CASP13 po raz pierwszy pojawił się AlphaFold. To algorytm sztucznej inteligencji bazujący na słynnym DeepMind, który pokonał mistrza go Lee Sedola, przełamując kolejną ważną barierę dla sztucznej inteligencji. Już w 2018 roku AlphaFold zyskał sobie uznanie specjalistów. Jednak wówczas korzystał z bardzo podobnych technik, co inne programy. Najpierw wykorzystywał metody głębokiego uczenia się oraz dane strukturalne i genetyczne do określenia odległości pomiędzy parami aminokwasów w proteinie, a następnie – już bez użycia SI – wypracowywał „konsensus” dotyczący ostatecznego wyglądu proteiny. Twórcy AlphaFolda próbowali to udoskonalać korzystając z takiego właśnie modelu, ale natrafili na przeszkody nie do pokonania. Zmienili więc taktykę i stworzyli sieć sztucznej inteligencji, która wykorzystywała też informacje o fizycznych i geometrycznych ograniczeniach w zawijaniu białek. Ponadto nowy model zamiast przewidywać zależności pomiędzy poszczególnymi aminokwasami miał do zrobienia coś znacznie trudniejszego – przewidzieć ostateczny kształt białka. CASP trwa kilka miesięcy. Biorące w nim udział zespoły regularnie otrzymują niezbędne informacje o proteinach lub ich fragmentach – w sumie jest ich około 100 – i mają określić ich strukturę. Wyniki pracy tych zespołów oceniają niezależni eksperci, którzy sprawdzają, na ile wyniki uzyskane na komputerach są zgodne z rzeczywistą strukturą białek określoną wcześniej metodami eksperymentalnymi. Oceniający nie wiedzą, czyją pracę oceniają. Wyniki są anonimizowane. Dane z AlphaFold były w bieżącym roku opisane jako „grupa 427”. Jednak niektóre z przewidywań dostarczonych przez tę grupę były tak dokładne, że wielu sędziów domyśliło się, kto jest autorem pracy. Zgadłem, że to AlphaFold. Większość zgadła, mówi Lupas. AlphaFold nie sprawował się równo. Raz radził sobie lepiej, raz gorzej. Ale niemal 2/3 jego przewidywań dorównywało wynikom uzyskanym metodami eksperymentalnymi. Czasami nie było wiadomo, czy różnica wynika z niedoskonałości AlphaFold czy metod eksperymentalnych. Jak mówi Moult, największą różnicę pomiędzy AlphaFold a metodami eksperymentalnymi było widać, gdy rzeczywisty wygląd proteiny określano za pomocą rezonansu jądrowego. Jednak różnica ta może wynikać ze sposobu obróbki surowych danych uzyskanych tą metodą. AlphaFold słabo sobie radził też w określaniu indywidualnych struktur w grupach protein, gdzie kształt białka mógł być zaburzany obecnością innego białka. Ogólnie rzecz biorąc średnia wydajność modeli biorących udział w tegorocznym CASP była lepsza niż przed dwoma laty, a za większość postępu odpowiadał AlphaFold. Na przykład tam, gdzie proteiny określano jako średnio trudne najlepsze modele uzyskiwały 75 na 100 możliwych punktów, a AlphaFold uzyskał tam 90 punktów. Przekroczenie granicy 90 punktów uznaje się za dorównanie metodom eksperymentalnym. Mohammed AlQuraishi, biolog obliczeniowy z Columbia University, który też brał udział w CASP chwali osiągnięcie AlphaFold: myślę, że trzeba uczciwie powiedzieć, iż osiągnięcie to wstrząśnie dziedziną badania struktur białek. Sądzę, że wielu specjalistów przestanie się tym zajmować, gdyż główny problem został rozwiązany. To olbrzymi przełom, jedno z najważniejszych osiągnięć naukowych, jakie widziałem w swoim życiu. O tym, jak wielkie możliwości ma AlphaFold i jak olbrzymia rewolucja może nadchodzić niech świadczy przykład badań, jakie prowadził zespół Andreia Lupasa. Niemcy od dawna próbowali określić strukturę białka pewnej bakterii. Za pomocą krystalografii rentgenowskiej uzyskali surowe dane, jednak ich przełożenie na odpowiednią strukturę wymagało pewnych informacji o kształcie proteiny. Wszelkie próby rozwiązania zagadnienia spaliły na panewce. Spędziliśmy dekadę próbując wszystkiego. Model opracowany przez group 427 dostarczył nam tę strukturę w ciągu pół godziny, mówi Lupas. Demis Hassabis, współzałożyciel i szef firmy DeepMind, która obecnie należy do Google'a, mówi, że jego firma dopiero zaczyna rozumieć, czego biolodzy chcą od AlphaFold. AlphaFold już zresztą przydaje się w praktyce. Na początku 2020 roku algorytm opisał strukturę kilku białek wirusa SARS-CoV-2. Później okazało się, że przewidywania dotyczące białka Orf3a zgadzają się z wynikami uzyskanymi eksperymentalnie. Rozpowszechnienie się AlphaFold raczej nie doprowadzi do zamknięcia laboratoriów. Jednak dzięki niemu do określenia struktury protein wystarczą gorszej jakości, a więc i łatwiejsze do uzyskania, dane. Możemy się też spodziewać olbrzymiej liczby odkryć, gdyż już w tej chwili dysponujemy olbrzymią liczbą danych, które program będzie mógł wykorzystać. Dodatkową korzyścią jest fakt, że będzie można prowadzić bardziej zaawansowane badania. Nowa generacja biologów molekularnych będzie mogła zadać bardziej złożone pytania. Będą mogli skupić się bardziej na myśleniu niż na prowadzeniu eksperymentów, mówi Lupas. Naukowcy mają nadzieję, że dzięki AlphaFold poznamy funkcje tysięcy białek tworzących ludzkie DNA, a to z kolei pozwoli nam poznać przyczyny wielu chorób. « powrót do artykułu
-
Cerebras Systems, twórca niezwykłego olbrzymiego procesora dla sztucznej inteligencji, poinformował, że jest on szybszy niż procesy fizyczne, które symuluje. W symulacji, składającej się z 500 milionów zmiennych CS-1 zmierzył się z superkomputerem Joule, 69. najpotężniejszą maszyną na świecie. I wykonał swoje zadanie 200-krotnie szybciej niż ona. O powstaniu niezwykłego procesora oraz wyzwaniach inżynieryjnych z nim związanych informowaliśmy na początku bieżącego roku. Wówczas jego twórcy obiecywali, że do końca roku przekonamy się o jego wydajności. I słowa dotrzymali. CS-1 symulował proces spalania w elektrowniach węglowych. I przeprowadził symulację tego procesu szybciej, niż zachodzi sam proces. Firma Cerebras i jej partnerzy z US National Energy Technology Center (NETL) mówią, że CS-1 jest znacznie szybszy od jakiegokolwiek superkomputera bazującego na tradycyjnych układach CPU czy GPU. Jak wyjaśnia dyrektor Cerebras, Andrew Feldman, prognozowanie pogody, projektowanie skrzydeł samolotu, przewidywanie rozkładu temperatur w reaktorze jądrowym i wiele innych złożonych problemów jest rozwiązywanych poprzez badanie ruchu cieczy w przestrzeni i czasie. W czasie takiej symulacji dzieli się przestrzeń na sześciany, modeluje ruch cieczy w każdym z sześcianów i określa interakcje pomiędzy sześcianami. W symulacji może być milion lub więcej sześcianów i 500 000 zmiennych. Przeprowadzenie odpowiednich obliczeń wymaga olbrzymiej mocy, wielu rdzeni, olbrzymiej ilości pamięci umieszczonej jak najbliżej rdzeni obliczeniowych, wydajnych połączeń pomiędzy rdzeniami oraz pomiędzy rdzeniami a układami pamięci. Wymaga też długotrwałego trenowania odpowiednich modeli sieci neuronowych. Układ CS-1 na pojedynczym kawałku krzemu mieści 400 000 rdzeni, 18 gigabajtów pamięci oraz łącza umożliwiające przesyłanie pomiędzy rdzeniami danych z prędkością 100 Pb/s, a przesył pomiędzy rdzeniami a układami pamięci odbywa się z prędkością 9 PB/s. Specjaliści z NETL postanowili porównać możliwości superkomputera Joule z możliwościami CS-1. Joule korzysta z 84 000 rdzeni CPU i do pracy potrzebuje 450 KW. Cerebras używa zaledwie 20 KW. Joule przeprowadził odpowiednie obliczenia w ciągu 2,1 milisekundy. CS-1 zajęły one 6 mikrosekund, był więc ponad 200-krotnie szybszy. Jak mówi Feldman, olbrzymia wydajność CS-1 niesie ze sobą dwa wnioski. Po pierwsze obecnie nie istnieje żaden superkomputer zdolny do pokonania CS-1 w rozwiązywaniu tego typu problemów. Wynika to z faktu, że takie symulacje nie skalują się dobrze. Dokładanie kolejnych rdzeni do współczesnych superkomputerów nie tylko nie pomoże, ale może nawet spowalniać tak wyspecjalizowane obliczenia. Dowiodło tego chociażby porównanie CS-1 i Joule'a. Superkomputer pracował najbardziej wydajnie, gdy używał 16 384 z 84 000 dostępnych rdzeni. Problemy takie wynikają z połączeń pomiędzy rdzeniami i pomiędzy rdzeniami a układami pamięci. Jeśli chcemy na przykład symulować układ składający się z zestawu 370x370x370 sześcianów to CS-1 mapuje warstwy na sąsiadujące ze sobą rdzenie. Komunikacja między rdzeniami odbywa się błyskawicznie, więc szybko wymieniają one dane dotyczące sąsiadujących sześcianów, a obliczenia dla każdej z warstw są przechowywane w znajdujących się na tym samym krzemie układach pamięci, więc rdzenie również mają do niej bezpośredni dostęp. Dodatkowo, jako że CS-1 jest w stanie przeprowadzić symulacje procesów fizycznych szybciej niż te procesy się odbywają, może zostać też wykorzystany do kontrolowania pracy złożonych systemów obliczeniowych. Feldman poinformował, że wśród klientów korzystających z SC-1 są m.in. GlaxoSmithKline, Argonne National Laboratory, Lawrence Livermore National Laboratory, Pittsburgh Supercomputing Centre oraz niewymienione z nazwy firmy i instytucje z branż wojskowej, wywiadowczej oraz przemysłu ciężkiego. Co więcej Cerebras ma już gotowego następcę CS-1. Został on wykonany w technologii 7nm (CS-1 zbudowano w technologi 16nm), korzysta z 40 GB pamięci (CS-1 z 20 GB) i 850 000 rdzeni (CS-1 ma 400 000 rdzeni). « powrót do artykułu
- 3 replies
-
- Cerebras Systems
- CS-1
-
(and 3 more)
Tagged with:
-
Henrique Andrade, student z brazylijskiego Escola Politécnica da Universidade de Pernambuco od wielu lat interesuje się starymi mapami swojego rodzinnego miasta Recife. Zgromadziłem wiele cyfrowych kopii takich map i odkryłem o swoim mieście rzeczy, które nie są powszechnie znane. Ludziom z Recife odebrano dostęp do przeszłości, przez co mają problem ze zrozumieniem, kim są i co mogą zrobić dla swojej przyszłości, mówi Andrade. Student wpadł jednak na bardzo interesujący pomysł. Młody człowiek namówił profesora Bruno Fernandesa do stworzenia algorytmu maszynowego uczenia się, który przetwarzałby stare mapy na obrazy satelitarne takie, jaki widzimy w serwisie Google Maps. Zdaniem Andrade pomoże to zrozumieć ludziom, jak ich otoczenie zmieniało się z czasem, w tym jaki wpływ społeczny i ekonomiczny miała urbanizacja. Obaj uczeni wykorzystali istniejące narzędzie do sztucznej inteligencji zwane Pix2pix, które opiera się na dwóch sieciach neuronowych. Pierwsza z nich tworzy obrazy na podstawie danych, które otrzymuje, a druga decyduje, czy obraz jest prawdziwy czy nie. Obie sieci zostały tak wytrenowane, by próbowały nawzajem się oszukać. Ostatecznyme efektem ich pracy są realistycznie wyglądające obrazy. Andrade i Fernandes opublikowali szczegóły w piśmie IEEE Geoscience and Remote Sensing Letters. Na potrzeby swojej pracy stworzyli „satelitarny” obraz Recife na podstawie mapy z 1808 roku i zestawili go z obecnym obrazem satelitarnym tego samego obszaru. Gdy patrzysz na te obrazy, lepiej pojmujesz, jak zmieniło się miasto w ciągu ostatnich 200 lat. Widać dramatyczne zmiany jego geografii. Zbiorniki wody zostały zasypane odpadami, ludzie usunęli też tereny zielone, mówi Andrade. Młody uczony dodaje, że dużą zaletą zastosowanej techniki jest fakt, że SI potrzebuje stosunkowo niewiele danych. Jednak muszą być one umieszczone w kontekście historycznym, a rozdzielczość wygenerowanych obrazów jest mniejsza, niż życzyliby sobie naukowcy. Pracujemy nad poprawieniem rozdzielczości i eksperymentujemy z różnymi danymi, zapewnia Andrade. « powrót do artykułu
-
- Recife
- stara mapa
-
(and 2 more)
Tagged with:
-
Naukowcy i studenci z Politechniki Gdańskiej (PG) opracowali nowatorski system do rozpoznawania złośliwości guzów nerek. Dzięki niemu możliwa będzie dokładniejsza diagnoza, a także zmniejszenie liczby niepotrzebnych operacji narażających zdrowie i życie pacjentów. Większość pacjentów z guzami nerek to osoby starsze, dla których operacja usunięcia guza może okazać się wysoce ryzykowna. Zdaniem lekarzy, jeśli guz nie jest złośliwy, bezpieczniej jest nie wykonywać operacji i pozostawić guz jedynie do dalszej obserwacji. Określenie złośliwości guza nie jest jednak prostym zadaniem. Szacuje się, że obecnie w Polsce 15-20 proc. operacji usunięcia nerki po wykryciu w niej guza wykonuje się niepotrzebnie, bo guz, początkowo określony jako złośliwy, po operacji i zbadaniu histopatologicznym okazuje się łagodny. Rocznie w Polsce jest to około 900 operacji, które bez potrzeby narażają zdrowie pacjentów i znacząco pogarszają komfort ich życia, a problem ten będzie w przyszłości tylko narastać. Przyczynić do tego może się również pandemia wirusa SARS-CoV-2, który powoduje choroby nerek nawet u 15 proc. zarażonych nim pacjentów. System opracowany przez naukowców, lekarzy i studentów Z pomocą w rozwiązaniu tego problemu przyszli naukowcy i studenci PG. Opracowali oni system TITAN (Technology In Tumor ANalysis), który przy użyciu technologii uczenia maszynowego i algorytmów sztucznej inteligencji określa prawdopodobieństwo złośliwości guza nerki na podstawie zdjęcia tomografii komputerowej jamy brzusznej. W zespole Radiato.ai, który stoi za projektem TITAN, udało się połączyć kompetencje i możliwości pracowników badawczo-dydaktycznych Wydziału FTiMS PG - dr. inż. Patryka Jasika (Team Leader) oraz dr. inż. Pawła Sytego (Product Owner) - a także studentów Wydziałów FTiMS i ETI: Aleksandra Obuchowskiego (Head AI Architect), Romana Karskiego (Data Scientist), Barbary Klaudel (Medical Image Specialist), Bartosza Rydzińskiego (Backend Developer) i Mateusza Anikieja (Devops). W zespole pracował również lekarz Mateusz Glembin z Oddziału Urologii Szpitala św. Wojciecha w Gdańsku. Sztuczna inteligencja pomocna w ocenie złośliwości guzów System informatyczny TITAN wykorzystuje sztuczną inteligencję do oceny złośliwości guzów nerek na podstawie zdjęcia tomografii komputerowej (TK), osiągając skuteczność na poziomie 87 proc. Aby stworzyć bazujący na metodach uczenia maszynowego autorski model predykcyjny, zdobyto ponad 15 tys. zdjęć tomografii komputerowej z niemal 400 przypadków medycznych. Przy opracowywaniu naszego algorytmu przykładaliśmy szczególną uwagę do rozpoznawania guzów łagodnych, gdyż to właśnie poprawne ich wykrycie może potencjalnie uratować życie pacjenta – tłumaczy Aleksander Obuchowski. Nie było to łatwe zadanie, gdyż guzy łagodne stanowiły tylko 26 proc. naszej bazy danych. Po przeanalizowaniu dziesiątek architektur sieci neuronowych i metod przetwarzania obrazów udało się nam jednak osiągnąć wynik 10/10 poprawnie rozpoznanych guzów łagodnych. To pozwoliło z kolei na zbudowanie bazy wiedzy, na której wytrenowane zostały algorytmy wykorzystujące głębokie sieci neuronowe, osiągające tak wysoką skuteczność przy jednoczesnym wychwytywaniu 10 na 10 guzów łagodnych. W rezultacie może się to przełożyć na ocalenie nerek i ograniczenie liczby niepotrzebnych operacji. Dzięki wykorzystaniu systemu TITAN lekarz uzyskuje dodatkową opinię w postaci sugestii algorytmu w ciągu zaledwie kilkunastu sekund – wyjaśnia dr inż. Patryk Jasik. System nie zastępuje jednak diagnozy lekarskiej, a jedynie zwraca uwagę na to, które przypadki mogły zostać błędnie zaklasyfikowane. Dzięki systemowi lekarze są w stanie uważniej przyjrzeć się takim guzom, skonsultować diagnozę z innymi specjalistami bądź skierować pacjenta na dalsze badania. Taka selekcja w rezultacie może znacząco ograniczyć liczbę błędnie zdiagnozowanych guzów. Dodatkowo, jeżeli w badaniu histopatologicznym okaże się, że guz faktycznie był złośliwy, lekarz może dodać taki przypadek do bazy wiedzy, co usprawni działanie algorytmu w przyszłości. Pierwsze testy w gdańskim szpitalu System został stworzony w ramach programu e-Pionier (jest on prowadzony przez Excento, spółkę celową Politechniki Gdańskiej), który łączy zespoły młodych programistów z instytucjami publicznymi w przygotowywaniu innowacyjnych rozwiązań z branży ICT. Problem braku narzędzi diagnostycznych wykorzystujących technologie informatyczne został zgłoszony z ramienia spółki Copernicus Podmiot Leczniczy oraz Szpitala św. Wojciecha w Gdańsku przez dr. n. med. Wojciecha Narożańskiego. System będzie w najbliższym czasie testowo wdrożony w Szpitalu św. Wojciecha w Gdańsku, gdzie lekarze wykorzystywać go będą w diagnozie bieżących przypadków guzów nerek. Jest to pierwszy tego typu system w Polsce, który będzie wykorzystywany w praktyce. « powrót do artykułu
-
Choroba zwyrodnieniowa stawów to najczęściej występujące schorzenie spośród wszystkich rodzajów zapaleń stawów. Obecnie diagnozuje się ją przede wszystkim na podstawie zdjęć rentgenowskich. Jednak naukowcy z Wydziału Medycyny University of Pittsburgh oraz Wydziału Inżynierii Carnegie Mellon University stworzyli algorytm sztucznej inteligencji, który diagnozuje to schorzenie wiele lat przed pojawieniem się objawów. Złotym standardem w diagnostyce choroby zwyrodnieniowej stawów jest zdjęcie rentgenowskie. Gdy stawy ulegają zniszczeniu, zmniejszają się odległości pomiędzy kośćmi. Problem w tym, że gdy możemy zauważ tę chorobę na zdjęciach, zniszczenia już się dokonały. Znacznie łatwiej jest zaś zapobiegać zniszczeniu tkanki chrzęstnej niż spowodować jej odrastanie, mówi jeden z autorów badań, profesor chirurgii ortopedycznej Kenneth Urish z Pittsburgha. Obecnie nie istnieje żadna metoda wykrywania choroby zwyrodnieniowej stawów na etapie, który pozwalałby na naprawienie powstałych szkód. W naszej pracy prezentujemy metodę, która pozwala na wykrycie choroby jeszcze zanim da ona objawy. Metoda ta łączy teorię optymalnego transportu masy ze statystycznym rozpoznawaniem wzorców, czytamy w pracy pod tytułem Enabling early detection of osteoarthritis from presymptomatic cartilage texture maps via transport-based learning. Gdy lekarze oglądają zdjęcia stawów, nie widać tam oczywistego wzorca, który od razu można zauważyć gołym okiem. Ale to nie znaczy, że taki wzorzec nie istnieje. To znaczy tylko, że nie można go dostrzec używając konwencjonalnych narzędzi, dodaje doktor Shinjini Kundu. To właśnie Kundu odpowiadał za trenowanie algorytmu na podstawie zdjęć kolan wykonanych za pomocą rezonansu magnetycznego, a następnie testował go na zdjęciach, pacjentów, z którymi model nie miał wcześniej do czynienia. Proces nauczania i testowania był powtarzany dziesiątki razy, za każdym razem na innej grupie osób. W końcu model poddano ostatecznemu testowi. Miał on do przeanalizowania zdjęcia stawów kolanowych 86 zdrowych osób, u których ani nie występowały objawy choroby zwyrodnieniowej stawów, ani nie było na zdjęciach widać zmian wskazujących na proces chorobowy. Okazało się, że algorytm z 78-procentową trafnością przewidział, u których pacjentów trzy lata później rozwinęła się choroba. Osiągnięcie to wskazuje, że wykrycie choroby zwyrodnieniowej stawów może być możliwe na etapie, gdzie można jej zapobiec. W przyszłości połączenie metody przedobjawowego wykrywania z nowymi terapiami pozwalającymi na jej zapobieganie może znacząco zmienić epidemiologię choroby, na walkę z którą którą amerykański system opieki zdrowotnej wydaje obecnie 16,5 miliarda dolarów rocznie. Co więcej, naszą technikę można zastosować do wcześniejszego wykrywania w badaniach obrazowych wielu innych chorób, które obecnie diagnozuje się w zaawansowanym stadium rozwoju. Przed tygodniem informowaliśmy o innym algorytmie, który równie dobrze jak radiolodzy potrafi diagnozować raka piersi. « powrót do artykułu
-
- choroba zwyrodnieniowa stawów
- sztuczna inteligencja
- (and 1 more)
-
Wykorzystując sztuczną inteligencję, po raz pierwszy udało się znaleźć zlewające się pary galaktyk przy użyciu identycznej metody zarówno w symulacjach, jak i obserwacjach prawdziwego wszechświata. Współautorem pionierskiej pracy jest dr William Pearson z Zakładu Astrofizyki Departamentu Badań Podstawowych NCBJ. Ostatnia Nagroda Nobla pokazała, jak ważną i fascynującą dziedziną jest astrofizyka. Wielu naukowców od lat próbuje odkryć tajemnice wszechświata, jego przeszłość i przyszłość. Teraz po raz pierwszy udało im się znaleźć zlewające się pary galaktyk przy użyciu identycznej metody zarówno w symulacjach, jak i obserwacjach prawdziwego wszechświata (wykorzystano do tego sztuczną inteligencję). W badaniach prowadzonych przez Lingyu Wang (Holenderski Instytut Badań Kosmicznych, SRON), Vicente Rodrigueza-Gomeza (Instytut Radioastronomii i Astrofizyki, IRyA) oraz Williama J. Pearsona (Narodowe Centrum Badań Jądrowych, NCBJ) zastosowano pionierską metodę identyfikacji zderzających się galaktyk zarówno w symulacjach, jak i w obserwacjach rzeczywistego wszechświata. Zderzenia galaktyk nie są niczym nowym, od początku powstania wszechświata galaktyki zderzają się ze sobą, często łącząc się w jedną większą galaktykę. Wiadomo, że większość znanych nam galaktyk uczestniczyła w co najmniej kilku takich zderzeniach w ciągu swojego życia. Proces zderzania się galaktyk trwa zwykle setki milionów lat. To ważny aspekt historii naszego wszechświata, który możemy zobaczyć też na własne oczy, np. dzięki zdjęciom z teleskopu Hubble'a. Identyfikacja zderzających się galaktyk nie jest jednak prosta. Proces ten możemy badać albo symulując całe wydarzenie i analizując jego przebieg, albo obserwując je w realnym świecie. W przypadku symulacji jest to proste: wystarczy śledzić losy konkretnej galaktyki i sprawdzać, czy i kiedy łączy się z inną galaktyką. W prawdziwym wszechświecie sprawa jest trudniejsza. Ponieważ zderzenia galaktyk są rzadkie i trwają miliardy lat, w praktyce widzimy tylko jeden "moment" z całego długiego procesu zderzenia. Astronomowie muszą dokładnie zbadać obrazy galaktyk, aby ocenić, czy znajdujące się na nich obiekty wyglądają tak, jakby się zderzały lub niedawno połączyły. Symulacje można porównać z prowadzeniem kontrolowanych eksperymentów laboratoryjnych. Dlatego są potężnym i użytecznym narzędziem do zrozumienia procesów zachodzących w galaktykach. Dużo więcej wiemy na temat zderzeń symulowanych niż zderzeń zachodzących w prawdziwym wszechświecie, ponieważ w przypadku symulacji możemy prześledzić cały długotrwały proces zlewania się konkretnej pary galaktyk. W prawdziwym świecie widzimy tylko jeden etap całego zderzenia. Wykorzystując obrazy z symulacji, jesteśmy w stanie wskazać przypadki zderzeń, a następnie wytrenować sztuczną inteligencję (AI), aby była w stanie zidentyfikować galaktyki w trakcie takich zderzeń – wyjaśnia dr William J. Pearson z Zakładu Astrofizyki NCBJ, współautor badań. Aby sztuczna inteligencja mogła spełnić swoje zadanie, obrazy symulowanych galaktyk przetworzyliśmy tak, żeby wyglądały, jakby były obserwowane przez teleskop. Naszą AI przetestowaliśmy na innych obrazach z symulacji, a potem zastosowaliśmy ją do analizy obrazów prawdziwego wszechświata w celu wyszukiwania przypadków łączenia się galaktyk. W badaniach sprawdzono, jak szanse na prawidłową identyfikację zderzającej się pary galaktyk zależą m.in. od masy galaktyk. Porównywano wyniki oparte na symulacjach i rzeczywistych danych. W przypadku mniejszych galaktyk AI poradziła sobie równie dobrze w przypadku obrazów symulowanych i rzeczywistych. W przypadku większych galaktyk pojawiły się rozbieżności, co pokazuje, że symulacje zderzeń masywnych galaktyk nie są wystarczająco realistyczne i wymagają dopracowania. Artykuł zatytułowany Towards a consistent framework of comparing galaxy mergers in observations and simulations został przyjęty do publikacji w czasopiśmie Astronomy & Astrophysics. « powrót do artykułu
-
Porównanie trzech komercyjnych systemów sztucznej inteligencji wykorzystywanej w diagnostyce obrazowej raka piersi wykazało, że najlepszy z nich sprawuje się równie dobrze jak lekarz-radiolog. Algorytmy badano za pomocą niemal 9000 obrazów z aparatów mammograficznych, które zgromadzono w czasie rutynowych badań przesiewowych w Szwecji. Badania przesiewowe obejmujące dużą część populacji znacząco zmniejszają umieralność na nowotwory piersi, gdyż pozwalają na wyłapanie wielu przypadków na wczesnym etapie rozwoju choroby. W wielu takich przedsięwzięciach każde zdjęcie jest niezależnie oceniane przez dwóch radiologów, co zwiększa skuteczność całego programu. To jednak metoda kosztowna, długotrwała, wymagająca odpowiednich zasobów. Tutaj mogłyby pomóc systemy SI, o ile będą dobrze sobie radziły z tym zadaniem. Chcieliśmy sprawdzić, na ile dobre są algorytmy SI w rozpoznawaniu obrazów mammograficznych. Pracuję w wydziale radiologii piersi i słyszałem o wielu firmach oferujących takie algorytmy. Jednak trudno było orzec, jaka jest ich jakość, mówi Fridrik Strand z Karolinska Institutet. Każdy z badanych algorytmów to odmiana sieci neuronowej. Każdy miał do przeanalizowania zdjęcia piersi 739 kobiet, u których w czasie krótszym niż 12 miesięcy od pierwotnego badania wykryto raka piersi oraz zdjęcia 8066 kobiet, u których w czasie 24 miesięcy od pierwotnego badania nie wykryto raka piersi. Każdy z algorytmów miał ocenić zdjęcie w skali od 0 do 1, gdzie 1 oznaczało pewność, iż na zdjęciu widać nieprawidłową tkankę. Trzy systemy, oznaczone jako AI-1, AI-2 oraz AI-3 osiągnęły czułość rzędu 81,9%, 67,0% oraz 67,4%. Dla porównania, czułość w przypadku radiologów jako pierwszych interpretujących dany obraz wynosiła 77,4%, a w przypadku radiologów, którzy jako drudzy dokonywali opisu było to 80,1%. Najlepszy z algorytmów potrafił wykryć też przypadki, które radiolodzy przeoczyli przy badaniach przesiewowych, a kobiety zostały w czasie krótszym niż rok zdiagnozowane jako chore. Badania te dowodzą, że algorytmy sztucznej inteligencji pomagają skorygować fałszywe negatywne diagnozy postawione przez lekarzy-radiologów. Połączenie możliwości AI-1 z przeciętnym lekarzem-radiologiem zwiększało liczbę wykrytych nowotworów piersi o 8%. Zespół z Karolinska Institutet spodziewa się, że jakość algorytmów SI będzie rosła. Nie wiem, jak efektywne mogą się stać, ale wiem, że istnieje kilka sposobów, by je udoskonalić. Jednym z nich może być np. ocenianie wszystkich 4 zdjęć jako całości, by można było porównać obrazy z obu piersi. Inny sposób to porównanie nowych zdjęć z tymi, wykonanymi wcześniej, by wyłapać zmiany, mówi Strand. Pełny opis eksperymentu opublikowano na łamach JAMA Oncology. « powrót do artykułu
-
- rak piersi
- mammografia
- (and 3 more)
-
Elon Musk ogłosił przełom w dziedzinie synchronizacji ludzkiego mózgu ze sztuczną inteligencją. Podczas pokazu na żywo Musk zaprezentował układ scalony zbudowany przez jego firmę Neuralink. To w pełni samodzielny implant mózgowy, który bezprzewodowo przesyła informacje o aktywności mózgu, nie wymagając przy tym żadnego zewnętrznego sprzętu. Działanie chipa zaprezentowano na przykładzie żywej świni. Uczestnicy pokazu mogli zobaczyć grupę świń, z których jedna miała wszczepiony implant. Ekran nad nią na bieżąco pokazywał i rejestrował aktywność jej mózgu. Dotychczas by zarejestrować działanie mózgu konieczne było podłączenie badanej osoby lub zwierzęcia do zewnętrznego urządzenia, np. elektroencefalografu (EEG). Celem Muska jest stworzenie implantu mózgowego, który bezprzewodowo połączy ludzki mózg ze sztuczną inteligencją i pozwoli na kontrolowanie komputerów, protez i innych maszyn jedynie za pomocą myśli. Implant może służyć też rozrywce. Za jego pomocą będzie bowiem można kontrolować gry. Musk chce stworzyć implant, który będzie rejestrował i zapisywał aktywność milionów neuronów, przekładając ludzkie myśli na polecenia dla komputera i odwrotnie. Wszystko to miało by się odbywać za pomocą niewielkiego wszczepialnego implantu. Prace nad implantem pozwalającym na stworzenie interfejsu mózg-komputer trwają od ponad 15 lat. Ich celem jest umożliwienie normalnego funkcjonowania ludziom z chorobami neurologicznymi czy paraliżem. Badania bardzo powoli posuwają się naprzód. Od 2003 w USA implanty mózgowe wszczepiono mniej niż 20 osobom. Wszystkie dla celów badawczych. Większość z takich systemów posiada jednak części, które wystają poza organizm, umożliwiając w ten sposób zasilanie i transmisję danych. Takie zewnętrzne części to ryzyko infekcji. Są ponadto niepraktyczne. Neuralink twierdzi, że jej układ jest najbardziej zaawansowany z dotychczasowych. Zawiera procesor, nadajnik bluetooth, akumulator oraz tysiące elektrod. Każda z tych elektrod rejestruje aktywność do 4 neuronów. Bolu Ajiboye, profesor inżynierii biomedycznej z Case Western Reserve Univeristy, który jest głównym naukowcem konsorcjum BrainGate pracującym nad implantami dla pacjentów neurologicznych, mówi, że jeśli chip Muska będzie przez dłuższy czas umożliwiał bezprzewodową transmisję danych, to mamy do czynienia dużym postępem na tym polu. W Neuralinku pracują mądrzy ludzie prezentujący innowacyjne podejście. Wiem, co oni tam robią i z niecierpliwością czekam na wyniki, stwierdza uczony. Na razie jednak osiągnięcia Neuralink znamy z prezentacji, a nie z recenzowanych artykułów. Nie wiemy na przykład, a jaki sposób urządzenie transmituje tak dużą ilość danych bez generowania uszkadzającego mózg ciepła. Ponadto, jak zauważa Ajiboye, urządzenie jest dość duże jak na implant mózgowy. Jest to bowiem cylinder o średnicy 23 i długości 8 mm. Tymczasem urządzenie, które obecnie testuje BrainGate ma wymiary 4x4 mm. Zawiera też element wystający przez czaszkę oraz 100 elektrod. Tymczasem urządzenie Neuralinka korzysta z 1000 elektrod. Podczas pokazu z udziałem Muska wykorzystano trzy świnie, z których jedna – imieniem Gertruda – miała wszczepiony implant. Widać było, że za każdym razem gdy Gertruda węszy, zwiększała się aktywność elektryczna jej mózgu. Jednak rejestracja danych to nie wszystko. Najważniejsze jest ich dekodowanie. Wiele laboratoriów na całym świecie poświęciło wiele czasu na opracowywanie algorytmów mających na celu interpretację sygnałów z mózgu. Neuralink nam tego nie zaprezentował, mówi Ajiboye. Pierwsze implanty Neuralinka mają mieć zastosowanie medyczne. Mogą np. trafić do ludzi z uszkodzonym rdzeniem kręgowym. Jednak Elon Musk stwierdził, że w przyszłości chce wyjść poza zastosowania medyczne. Słowa te wywołały duże poruszenie w mediach. Jako naukowcy specjalizujący się w dość szczególnej dziedzinie musimy być odpowiedzialni za słowa, ważyć obietnice jakie składamy i uważać na to, co opowiadamy o naszej technologii. Gdy pojawił się Elon Musk nasze prace przyciągnęły uwagę mediów. To dobrze, jednak rodzi to też wyzwania. A jednym z takich wyzwań jest odróżnienie propagandy od rzeczywistości. « powrót do artykułu
- 70 replies
-
- sztuczna inteligencja
- implant
-
(and 3 more)
Tagged with:
-
Biały Dom ogłosił, że budżet federalny wraz z prywatnymi partnerami przeznaczy w ciągu najbliższych 5 lat ponad miliard dolarów na stworzenie i sfinansowanie 12 centrów badawczych zajmujących się sztuczną inteligencją i naukami informatycznymi. Celem inicjatywy jest utrzymanie pozycji USA jako światowego lidera w dziedzinie SI i technologii kwantowych. W najbliższym czasie powstanie siedem Artificial Intelligence Research Institutes oraz pięć Quantum Information Science Research Centers. W ogłoszonym przez Biały Dom programie udział wezmą zarówno giganci IT jak IBM czy Microsoft, czołowe uczelnie jak University of California czy Massachusetts Institute of Technology, jak i laboratoria narodowe, w tym Fermilab, Argonne oraz Lawrence Berkeley. Jednym z zadań nowo utworzonych jednostek badawczo-rozwojowych będzie inwestowanie we wczesne badania, w które prywatny biznes niechętnie inwestuje, a które są istotne z punktu widzenia utrzymania przez USA pozycji lidera na tym polu. Na przykład jeden z instytutów będzie pracował na narzędziami SI, które mogą przyspieszyć odkrywanie i produkcję nowych związków bioaktywnych. Instytuty będą służyły też do szkoleń przyszłych pokoleń ekspertów ds. SI. Ogłoszona przez Biały Dom inicjatywa zbiegła się z nową propozycją budżetową administracji prezydenckiej, która chce, by o 30% zwiększyć wydatki na niezwiązany z obronnością sektor badań nad SI oraz informatyką kwantową. Zgodnie z planem budżet federalny na sztuczną inteligencję ma do roku 2022 wzrosnąć do 2 miliardów USD, a na informatykę kwantową do 860 milionów dolarów. Tymczasem wpływowy waszyngtoński think-tank Center for a New American Security uważa, że z budżetu federalnego USA powinny do roku 2025 wydawać na badania nad SI – w tym na SI związane z obronnością – 25 miliardów USD rocznie. Warto przypomnieć, że obecnie amerykański sektor prywatny przeznacza na badania nad sztuczną inteligencją około 40 miliardów USD na rok. « powrót do artykułu
-
- Biały Dom
- sztuczna inteligencja
- (and 2 more)