Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów ' sztuczna inteligencja' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 57 wyników

  1. Dermatolog Harald Kittler z Uniwersytetu Medycznego w Wiedniu stanął na czele austriacko-australijskiego zespołu, który porównał trafność diagnozy i zaleceń dotyczących postępowania z przebarwieniami na skórze stawianych przez lekarzy oraz przez dwa algorytmy sztucznej inteligencji pracujące na smartfonach. Okazało się, że algorytmy równie skutecznie co lekarze diagnozują przebarwienia. Natomiast lekarze podejmują znacznie lepsze decyzje dotyczące leczenia. Testy przeprowadzono na prawdziwych przypadkach pacjentów, którzy zgłosili się na Wydział Dermatologii Uniwersytetu Medycznego w Wiedniu oraz do Centrum Diagnozy Czerniaka w Sydney w Australii. Testowane były dwa scenariusze. W scenariuszu A porównywano 172 podejrzane przebarwienia na skórze (z których 84 były nowotworami), jakie wystąpiły u 124 pacjentów. W drugim (scenariuszu B) porównano 5696 przebarwień – niekoniecznie podejrzanych – u 66 pacjentów. Wśród nich było 18 przebarwień spowodowanych rozwojem nowotworu. Testowano skuteczność dwóch algorytmów. Jeden z nich był nowym zaawansowanym programem, drugi zaś to starszy algorytm ISIC (International Skin Imaging Collaboration), używany od pewnego czasu do badań retrospektywnych. W scenariuszu A nowy algorytm stawiał diagnozę równie dobrze jak eksperci i był wyraźnie lepszy od mniej doświadczonych lekarzy. Z kolei algorytm ISIC był znacząco gorszy od ekspertów, ale lepszy od niedoświadczonych lekarzy. Jeśli zaś chodzi o zalecenia odnośnie leczenia, nowoczesny algorytm sprawował się gorzej niż eksperci, ale lepiej niż niedoświadczeni lekarze. Aplikacja ma tendencję do usuwania łagodnych zmian skórnych z zaleceń leczenia, mówi Kittler. Algorytmy sztucznej inteligencji są więc już na tyle rozwinięte, że mogą służyć pomocą w diagnozowaniu nowotworów skóry, a szczególnie cenne będą tam, gdzie brak jest dostępu do doświadczonych lekarzy. Ze szczegółami badań można zapoznać się na łamach The Lancet. « powrót do artykułu
  2. W Journal of Medical Internet Research ukazał się opis eksperymentu, w ramach którego ChatGPT miał stawiać diagnozy medyczne i proponować dalsze działania na podstawie opisanych objawów. Algorytm poradził sobie naprawdę nieźle. Udzielił prawidłowych odpowiedzi w 71,7% przypadków. Najlepiej wypadł przy ostatecznych diagnozach, gdzie trafność wyniosła 76,9%, najgorzej poradził sobie z diagnozą różnicową. Tutaj jego trafność spadła do 60,3%. Autorzy eksperymentu wykorzystali 36 fikcyjnych przypadków klinicznych opisanych w Merck Manual. Przypadki te są wykorzystywane podczas szkoleń lekarzy i innego personelu medycznego. Naukowcy z Harvard Medical School, Brigham and Women'a Hospital oraz Mass General Brigham wprowadzili do ChataGPT opisy tych przypadków, a następnie zadawali maszynie pytanie, dołączone w podręczniku do każdego z przypadków. Wykluczyli z badań pytania dotyczące analizy obrazów, gdyż ChatGPT bazuje na tekście. Najpierw sztuczna inteligencja miała za zadanie wymienić wszystkie możliwe diagnozy, jakie można postawić na podstawie każdego z opisów. Następnie poproszono ją, by stwierdziła, jaki dodatkowe badania należy przeprowadzić, później zaś ChatGPT miał postawić ostateczną diagnozę. Na koniec zadaniem komputera było opisanie metod leczenia. Średnia trafność odpowiedzi wynosiła 72%, jednak różniła się w zależności od zadania. Sztuczna inteligencja najlepiej wypadła podczas podawania ostatecznej diagnozy, którą stawiała na podstawie początkowego opisu przypadku oraz wyników dodatkowych badań. Trafność odpowiedzi wyniosła tutaj 76,9%. Podobnie, bo z 76-procentową trafnością, ChatGPT podawał dodatkowe informacje medyczne na temat każdego z przypadków. W zadaniach dotyczących zlecenia dodatkowych badań oraz metod leczenia czy opieki, trafność spadała do 69%. Najgorzej maszyna wypadła w diagnozie różnicowej (60,3% trafnych odpowiedzi). Autorzy badań mówią, że nie są tym zaskoczeni, gdyż diagnoza różnicowa jest bardzo trudnym zadaniem. O nią tak naprawdę chodzi podczas nauki w akademiach medycznych i podczas rezydentury, by na podstawie niewielkiej ilości informacji dokonać dobrego rozróżnienia i postawić diagnozę, mówi Marc Succi z Harvard Medical School. Być może w przyszłości podobne programy będą pomagały lekarzom. Zapewne nie będzie to ChatGPT, ale rozwijane już systemy wyspecjalizowane właśnie w kwestiach medycznych. Zanim jednak trafią do służby zdrowia powinny przejść standardowe procedury dopuszczenia do użytku, w tym testy kliniczne. Przed nimi zatem jeszcze długa droga. Autorzy opisanych badań przyznają, że miały one ograniczenia. Jednym z nich było wykorzystanie fikcyjnych opisów przypadków, a nie rzeczywistych. Innym, niewielka próbka na której testowano ChatGPT. Kolejnym zaś ograniczeniem jest brak informacji o sposobie działania i treningu ChataGPT. « powrót do artykułu
  3. Inżynierowie z Politechniki Federalnej w Lozannie (EPFL) wykorzystali ChatGPT-3 do zaprojektowania robotycznego ramienia do zbierania pomidorów. To pierwszy przykład użycia sztucznej inteligencji do pomocy w projektowaniu robotów. Eksperyment przeprowadzony przez Josie Hughes, dyrektor Laboratorium Obliczeniowego Projektowania i Wytwarzania Robotów na Wydziale Inżynierii EPFL, doktoranta Francesco Stellę i Cosimo Della Santinę z Uniwersytetu Technicznego w Delfcie, został opisany na łamach Nature Machine Intelligence. Naukowcy opisali korzyści i ryzyka związane z wykorzystaniem systemów sztucznej inteligencji (SI) do projektowania robotów. Mimo tego, że ChatGPT to model językowy i generuje tekst, to dostarczył nam on istotnych wskazówek odnośnie fizycznego projektu i wykazał się wielkim potencjałem pobudzania ludzkiej kreatywności, mówi Hughes. Naukowcy najpierw „przedyskutowali” z ChatGPT samą ideę robota, określili, czemu ma on służyć, opisali jego parametry i specyfikację. Na tym etapie rozmawiali z SI na temat przyszłych wyzwań stojących przed ludzkością oraz robotów-ogrodników, które mogą rozwiązać problem niedoborów siły roboczej przy uprawie roślin. Następnie, korzystając z faktu, że ChatGPT ma dostęp do danych naukowych, podręczników i innych źródeł, zadawali mu pytania o to na przykład, jakimi cechami powinien charakteryzować się przyszły robot-ogrodnik. Gdy już cechy te zostały opisane i zdecydowano, że chodzi o robotyczne ramię zbierające pomidory, przyszedł czas na zapytanie się sztucznej inteligencji o takie szczegóły jak np. kształt chwytaka oraz poproszenie jej o dane techniczne ramienia oraz kod, za pomocą którego byłoby ono kontrolowane. Przeprowadzone przez SI obliczenia posłużyły nam głównie do pomocy inżynierom w implementacji rozwiązań technicznych. Jednak po raz pierwszy sztuczna inteligencja sformułowała tutaj nowe pomysły, mamy tutaj zatem do czynienia ze zautomatyzowaniem procesów wyższych poziomów poznawczych. Rola człowieka w całym procesie przesunęła się bardziej w stronę techniczną, mówi Stella. Naukowcy zwracają też uwagę na problemy związane z wykorzystaniem podobnych systemów. Są to zarówno podnoszone już wątpliwości dotyczące plagiatów czy praw autorskich, jak i np. pytanie o to, na ile innowacyjna jest sztuczna inteligencja i na ile ulega schematom. ChatGPT zaproponował ramię do zbierania pomidorów, gdyż uznał pomidory za najbardziej wartościową uprawę, dla której warto zaprojektować robota. To zaś może po prostu oznaczać, że wybrał tą roślinę, która jest najczęściej opisywana, a nie tę, która jest najbardziej potrzebna. Pomimo różnych zastrzeżeń uczeni uważają, że podobne do ChatGPT modele językowe mogą spełniać niezwykle użyteczną rolę. Specjaliści od robotyki muszą się zastanowić, jak wykorzystać te narzędzia w sposób etyczny i przynoszący korzyść społeczeństwu, mówi Hughes. « powrót do artykułu
  4. Wraz z rozwojem coraz doskonalszych generatorów tekstu, takich jak ChatGPT, coraz częściej pojawiają się głosy o potrzebie opracowania metod wykrywania tekstów stworzonych przez sztuczną inteligencję. Metody takie przydałyby się nauczycielom czy wykładowcom akademickim, którzy mogliby identyfikować prace pisemne przyniesione przez nieuczciwych uczniów i studentów, przedstawiających wygenerowany przez komputer tekst jako własne dzieło. Mówi się o kursach z wykrywania oszustw i o tworzeniu odpowiednich narzędzi. Takie narzędzia – bazujące na sztucznej inteligencji – już powstają. Problem w tym, że nie są one zbyt wiarygodne. Naukowcy z Uniwersytetu Stanforda przyjrzeli się kilku algorytmom sztucznej inteligencji, które mają określać, czy zaprezentowany tekst został stworzony przez człowieka czy też przez inną sztuczną inteligencję. O ile jednak takie algorytmy sprawdzają się „niemal doskonale” podczas analizy tekstów pisanych przez 13-14-latków urodzonych w USA, to już zawodzą tam, gdzie mają do czynienia z angielskim tekstem napisanym przez osobę, dla której angielski nie jest językiem ojczystym. Okazało się bowiem, że gdy systemy te miały ocenić, kto jest autorem tekstu napisanego w ramach egzaminu TOEFL (Test of English as a Foreign Language), w aż 61,22% uznały, że to SI stworzyła tekst, który został napisany przez człowieka. W rzeczywistości jest jednak jeszcze gorzej. Aż 19% prac napisanych przez nastolatków, dla których angielski nie jest językiem ojczystym, zostało uznanych za stworzone przez SI przez wszystkie 7 badanych narzędzi do wykrywania fałszywek. A aż 97% napisanych przez ludzi prac zostało uznane za fałszywe przez co najmniej jeden z systemów. Problem tkwi tutaj w sposobie pracy systemów wykrywających tekst napisany przez Si. Opierają się one bowiem na złożoności użytego języka. Oczywistym jest, że przeciętna osoba, która nie jest rodzimym użytkownikiem języka angielskiego ma mniejszy zasób słownictwa, a tworzone przez nią zdania są prostsze pod względem gramatycznym i składniowym od zdań rodzimego użytkownika angielskiego. Sztuczna inteligencja, próbując wykryć fałszywki, uznaje ten niższy poziom złożoności za znak, że tekst został stworzony przez sztuczną inteligencję. To poważny problem, gdyż uczeń czy student, który urodził się poza USA, może w ten sposób zostać uznany przez nauczyciela za oszusta, mimo że sam napisał pracę. Co więcej, naukowcy ze Stanforda zauważyli, że takie systemy łatwo jest oszukać nawet rodzimemu użytkownikowi angielskiego. Okazuje się bowiem, że wystarczy wygenerować tekst za pomocą ChataGPT, a następnie wydać maszynie polecenie, by poprawiła ten tekst dodając doń słownictwo literackie. Obecne wykrywacze są niewiarygodne i łatwo je oszukać, dlatego też należy używać ich bardzo ostrożnie w roli remedium na oszukiwanie za pomocą sztucznej inteligencji, mówi jeden z autorów badań, profesor James Zou. Uczony uważa, że w najbliższej przyszłości nie należy ufać takim wykrywaczom, szczególnie w tych szkołach i uczelniach, gdzie mamy dużo uczniów, dla których angielski nie jest językiem macierzystym. Po drugie, twórcy narzędzi do wykrywania muszą zrezygnować ze złożoności jako głównego wyznacznika analizy tekstu i opracować bardziej zaawansowane techniki. Ponadto ich systemy powinny być bardziej odporne na obejście. Być może rozwiązanie problemu leży po stronie twórców takich systemów jak ChatGPT. Zou sugeruje, że tego typu generatory mogłyby dodawać do tekstu rodzaj znaku wodnego, którym byłyby subtelne sygnały, oczywiste dla systemów wykrywających, stanowiące niejako podpis generatora i wskazujące, że to on jest autorem. « powrót do artykułu
  5. Przed laty pisarze domagali się stworzenia systemu opłat czy rekompensat związanych z niezwykłą łatwością kopiowania i rozpowszechniania ich utworów w świecie cyfrowym. Wiele osób korzystało bowiem z ich pracy nie płacąc twórcom dzieł. Teraz twórcy znowu protestują, a jednym z powodów jest... sztuczna inteligencja. Gildia Pisarzy Ameryki (Writers Guild of America – WGA), związek zawodowy skupiający głównie osoby pracujące w przemyśle filmowym i telewizyjnym, rozpoczęła strajk po tym, jak nie doszła do porozumienia z reprezentującą amerykański przemysł rozrywkowy organizacją Alliance of Motion Picture and Television Producers. Jednym z elementów sporu jest istnienie narzędzi takich jak ChatGPT. WGA chce zakazu wykorzystywania tego typu algorytmów do tworzenia historii i scenariuszy do filmów i programów. Członkowie WGA obawiają się, że przemysł zacznie wykorzystywać algorytmy sztucznej inteligencji do tworzenia scenariuszy, które następnie będą jedynie „wygładzane” przez ludzi. A do tego potrzeba będzie znacznie mniej twórców niż obecnie, co negatywnie wpłynie na zatrudnienie i zarobki w tym dziale gospodarki. WGA proponuje również, by żaden skrypt filmowy czy telewizyjny, który jest objęty grupową umową związkowa, nie był być wykorzystywany do trenowania algorytmów SI. To zresztą echo szerszego sporu dotyczącego tego, czy koncerny stojące za takimi narzędziami jak ChatGPT mają prawo bez zgody właściciela praw autorskich wykorzystywać tekst do trenowania swoich algorytmów. W ten sposób bowiem nie płacą za cudzą pracę, a czerpią z niej zyski. Wielkie studia filmowe i telewizyjne oraz serwisy internetowe nie chcą przystać na powyższe żądania. Są przeciwne stawianiu twardych granic dotyczących wykorzystywania przez nie systemów sztucznej inteligencji. WGA to nie jedyny reprezentant pracowników przemysłu filmowego, który wyraża obawy związane z rozwojem SI. Także związki zawodowe reprezentujące aktorów obawiają się, że systemy SI mogą być w coraz większym stopniu wykorzystywane w rozrywce. I nie są to obawy pozbawione podstaw. WGA stawia tutaj bardzo ważne pytanie. Kto zyska, a kto straci na rozwoju takich systemów, mówi Sarah Myers West z AI Now Institute w Nowym Jorku. Coraz więcej grup zawodowych czuje się zagrożonych przez rozwój systemów sztucznej inteligencji. Maszyny w najbliższych latach będą mogły zastąpić ludzi w wykonywaniu coraz większej liczby czynności. Niedawno IBM poinformował, że z czasem przestanie rekrutować ludzi na stanowiska, na których mogą być zastąpieni przez sztuczną inteligencję. Jako, że rozwoju SI nie można powstrzymać, kluczową staje się odpowiedź na pytanie, kto będzie ten rozwój kontrolował i jak będzie on przebiegał. « powrót do artykułu
  6. Dyrektor wykonawczy IBM-a Arvind Krishna poinformował, że jego firma przestanie rekrutować ludzi na stanowiska, na których w najbliższych latach mogą być oni zastąpieni przez sztuczną inteligencję. W wywiadzie dla Bloomberga menedżer stwierdził, że rekrutacja na stanowiska biurowe, na przykład w dziale HR, może zostać znacznie spowolniona lub całkowicie wstrzymana. Obecnie na tego typu stanowiskach – gdzie nie ma kontaktu z klientem – IBM zatrudnia 26 000 osób. Zdaniem Krishny, w ciągu najbliższych 5 lat sztuczna inteligencja może zastąpić 30% z nich. To oznacza, że w samym tylko IBM-ie maszyny zastąpią 7800 osób. Stąd też pomysł na spowolnienie lub wstrzymanie rekrutacji, dzięki czemu uniknie się zwalniania ludzi. Krishna mówi, że takie zadania, jak pisanie listów referencyjnych czy przesuwanie pracowników pomiędzy poszczególnymi wydziałami, prawdopodobnie zostaną całkowicie zautomatyzowane. Inne zaś, takie jak analizy produktywności czy struktury zatrudnienia, ludzie będą wykonywali jeszcze przez kolejną dekadę. Błękitny Gigant zatrudnia obecnie około 260 000 osób i wciąż zwiększa zatrudnienie. Potrzebuje pracowników przede wszystkim do rozwoju oprogramowania oraz osób pracujących z klientem. Na początku bieżącego roku firma ogłosiła, że planuje zwolnienia, które w sumie obejmą 5000 osób, ale jednocześnie w I kwartale zatrudniła 7000 osób. « powrót do artykułu
  7. Przed kilku laty głośno było o Neuralink, firmie Elona Muska, który obiecał stworzenie implantu łączącego ludzki mózg z komputerem. Przed kilkoma miesiącami biznesmen ogłosił, że do maja bieżącego roku rozpoczną się testy implantu The Link na ludziach. Jednak przed Neuralinkiem może być bardzo wyboista droga. Media doniosły właśnie, że już przed rokiem Federalna Agencja ds. Żywności i Leków (FDA) odrzuciła wniosek o testy urządzenia, a dwa amerykańskie ministerstwa prowadzą śledztwo ws. działań firmy Neuralink. The Link ma być wszczepiany do mózgu. Jako taki jest przez FDA klasyfikowany jako urządzenie Klasy III. Należą do niej urządzenia medyczne, które podtrzymują lub wspierają funkcje życiowe, są implantowane lub stwarzają potencjalnie nieuzasadnione ryzyko choroby lub odniesienia obrażeń. FDA oświadczyła, że wniosek Neuralinku o rozpoczęcie testów na ludziach zawierał „dziesiątki niedociągnięć”, więc został odrzucony. Wątpliwości Agencji budziły m.in. stabilność akumulatorów i systemu ładowania, możliwość migrowania implantu w mózgu czy uszkodzenia tkanki. I mimo upływu wielu miesięcy Neuralink wciąż nie jest w stanie poprawić wszystkich niedociągnięć. Odrzucenie wniosku nie oznacza, co prawda, że The Link nie zostanie w końcu dopuszczony do testów, ale wskazuje, że kilkunastu ekspertów, którzy przyglądali się implantowi, zgłosiło poważne zastrzeżenia. To jednak nie wszystkie problemy. Pod koniec ubiegłego roku Departament Rolnictwa wszczął śledztwo ws. złego traktowania zwierząt laboratoryjnych przez firmę Muska, a Departament Transportu otworzył swoje śledztwo dotyczące nieprawidłowości przy międzystanowym transporcie materiałów niebezpiecznych, w tym implantów od chorych zwierząt. Ustalenia Departamentów Rolnictwa i Transportu mogą w jakiś pośredni sposób wpłynąć na proces decyzyjny FDA. Dodatkowo sprawę mogą skomplikować zapowiedzi Muska i innych przedstawicieli firmy, którzy twierdzili, że The Link pozwoli niewidomym widzieć, sparaliżowanym chodzić oraz pozwoli na połączenie z jakimś rodzajem sztucznej inteligencji. Urządzenia Klasy III są oceniane pod kątem bezpieczeństwa oraz spełniania stawianych przed nimi założeń. Szumne zapowiedzi dotyczące niezwykłych możliwości The Link, nawet jeśli nie znajdą się w oficjalnym wniosku, mogą spowodować, że urzędnicy FDA będą znacznie baczniej przyglądali się urządzeniu i aplikacji. Eksperci uważają, że firma Muska nie ma niezbędnej wiedzy i doświadczenia, by w przewidywalnym czasie wprowadzić na rynek implant mózgowy. « powrót do artykułu
  8. Francisco Lope de Vega był – obok Cervantesa – najwybitniejszym pisarzem hiszpańskiego Złotego Wieku. Jest autorem olbrzymiej liczby dramatów, sonetów, komedii, pisał powieści i epopeje. Nie cała jego spuścizna się zachowała. Tym cenniejsze jest odkrycie każdego nieznanego fragmentu tekstu jego autorstwa. W zbiorach Hiszpańskiej Biblioteki Narodowej (BNE) odnaleziono właśnie nieznaną dotychczas komedię Lope de Vegi, a do jej zidentyfikowania przyczyniła się sztuczna inteligencja. Naukowcy z Uniwersytetów w Wiedniu i Valladolid prowadzą projekt ETSO: Estilometría aplicada al Teatro del Siglo de Oro. Wraz ze 150 współpracownikami stosują metody analizy komputerowej do prac teatralnych Złotego Wieku, by rozwiązać problemy z autorstwem poszczególnych dzieł. Badania przeprowadzono m.in. na XVII-wiecznym manuskrypcie, który został spisany wiele lat po śmierci Lope de Vegi. Na podstawie analizy stylistycznej sztuczna inteligencja wskazała, że znajdująca się w nim komedia „Francuzka Laura” wyszła spod pióra wielkiego pisarza i powstała na kilka lat przed jego śmiercią. Odkrycie było możliwe dzięki ostatnim postępom w technologii automatycznej transkrypcji tekstów. Jeszcze kilka lat temu maszyny bardzo słabo radziły sobie z odręcznym pismem, szczególnie z dawnych epok. Obecnie się to zmieniło. Współczesna technologia w ciągu zaledwie kilku godzin była w stanie rozpoznać tekst – zarówno drukowany jak i pisany odręcznie – z około 1300 sztuk teatralnych Złotego Wieku. Maszynowe rozpoznawanie nie działa oczywiście idealnie, ale znakomicie ułatwia i przyspiesza pracę. Dzięki temu ludzie mogą bardzo szybko wprowadzić niezbędne poprawki. Następnie, dzięki analizie stylistycznej i słownikowej już poprawionych tekstów, algorytmy sztucznej inteligencji mogą identyfikować autora po unikatowym stylu. Nie od dzisiaj wiadomo, że każdy pisarz i każdy z nas, używa różnych słów w różnych proporcjach. A maszyny mogą analizować olbrzymie zbiory danych i obliczać proporcje dla konkretnych słów, wyrażeń czy zdań. Już na podstawie wcześniejszych eksperymentów z algorytmami wiedziano, że potrafią one z 99-procentową dokładnością określić, czy dane dzieło wyszło spod pióra Lope de Vegi czy też nie. Sztuczna inteligencja dostała za zadanie przeanalizowanie wspomnianych 1300 dzieł oraz stwierdzenie, czy ich autorem jest Lope de Vega, czy też któryś z 350 innych pisarzy epoki. Algorytm wskazał, że „Francuzkę Laurę” napisał Lope de Vega. Wówczas do pracy przystąpili eksperci, którzy tradycyjnymi metodami badawczymi mieli zweryfikować wyniki pracy maszyny. Naukowcy porównywali więc metrykę, ortoepię, a przede wszystkim tropy literackie, idee i struktury leksykalne typowe dla Lope de Vegi i okresu jego twórczości, jakie wskazała sztuczna inteligencja z tym, co widoczne jest w nowo zidentyfikowanej komedii. Wszystko wskazuje na to, że mamy oto do czynienia z nieznanym dotychczas dziełem wielkiego pisarza, które powstało pod koniec jego życia, a o istnieniu którego nie mieliśmy pojęcia. „Francuzka Laura” jest osadzona w kontekście politycznym czasu, w którym powstała. Wtedy to, pod koniec lat 20. XVII wieku, w trakcie Wojny Trzydziestoletniej, Francja i Hiszpania zawarły krótki pokój, który przez sojuszników obu stron był postrzegany jako zdrada. Główną bohaterką komedii jest Laura, córka księcia Bretanii, żona hrabiego Arnaldo. Bretania była sojuszniczką Hiszpanii. W Laurze zakochał się jednak następca tronu Francji, który próbuje zdobyć ją wszelkimi sposobami. Budzi to podejrzenia Arnaldo, który – zarówno z zazdrości jak i z obawy przed skandalem – próbuje otruć żonę. Ostatecznie jednak Laura wychodzi z opałów obronną ręką, opiera się zalotom Delfina, co przekonuje męża do jej wierności. Szczegółowy opis odkrycia i badań nad „Francuzką Laurą” znajdziemy w piśmie wydawanym przez Universitat Autònoma de Barcelona. « powrót do artykułu
  9. Badania przeprowadzone za pomocą algorytmów sztucznej inteligencji sugerują, że nie uda się dotrzymać wyznaczonego przez ludzkość celu ograniczenia globalnego ocieplenia do 1,5 stopnia Celsjusza powyżej czasów preindustrialnych. Wątpliwe jest też ograniczenie ocieplenia do poziomu poniżej 2 stopni Celsjusza. Noah Diffenbaugh z Uniwersytetu Stanforda i Elizabeth Barnes z Colorado State University wytrenowali sieć neuronową na modelach klimatycznych oraz historycznych danych na temat klimatu. Ich model był w stanie precyzyjnie przewidzieć, jak zwiększała się temperatura w przeszłości, dlatego też naukowcy wykorzystali go do przewidzenia przyszłości. Z modelu wynika, że próg 1,5 stopnia Celsjusza ocieplenia powyżej poziomu preindustrialnego przekroczymy pomiędzy rokiem 2033 a 2035. Zgadza się to z przewidywaniami dokonanymi bardziej tradycyjnymi metodami. Przyjdzie czas, gdy oficjalnie będziemy musieli przyznać, że nie powstrzymamy globalnego ocieplenia na zakładanym poziomie 1,5 stopnia. Ta praca może być pierwszym krokiem w tym kierunku, mówi Kim Cobb z Brown University, który nie był zaangażowany w badania Diffenbaugha i Barnes. Przekroczenie poziomu 1,5 stopnia jest przewidywane przez każdy realistyczny scenariusz redukcji emisji. Mówi się jednak o jeszcze jednym celu: powstrzymaniu ocieplenia na poziomie nie wyższym niż 2 stopnie Celsjusza w porównaniu z epoką przedindustrialną. Tutaj przewidywania naukowców znacząco różnią się od przewidywań SI. Zdaniem naukowców, możemy zatrzymać globalne ocieplenie na poziomie 2 stopni Celsjusza pod warunkiem, że do połowy wieków państwa wywiążą się ze zobowiązania ograniczenia emisji gazów cieplarnianych do zera. Sztuczna inteligencja nie jest jednak tak optymistycznie nastawiona. Zdaniem algorytmu, przy obecnej emisji poziom ocieplenia o ponad 2 stopnie osiągniemy około roku 2050, a przy znacznym zredukowaniu emisji – około roku 2054. Obliczenia te znacznie odbiegają od szacunków IPCC z 2021 roku, z których wynika, że przy redukcji emisji do poziomu, jaki jest wspomniany przez algorytm sztucznej inteligencji, poziom 2 stopni przekroczymy dopiero w latach 90. obecnego wieku. Diffenbaugh i Barnes mówią, że do przewidywania przyszłych zmian klimatu naukowcy wykorzystują różne modele klimatyczne, które rozważają wiele różnych scenariuszy, a eksperci – między innymi na podstawie tego, jak dany model sprawował się w przeszłości czy jak umiał przewidzieć dawne zmiany klimatu, decydują, który scenariusz jest najbardziej prawdopodobny. SI, jak stwierdzają uczeni, bardziej skupia się zaś na obecnym stanie klimatu. Stąd też mogą wynikać różnice pomiędzy stanowiskiem naukowców a sztucznej inteligencji. W środowisku naukowym od pewnego czasu coraz częściej słychać głosy, byśmy przestali udawać, że jesteśmy w stanie powstrzymać globalne ocieplenie na poziomie 1,5 stopnia Celsjusza. Wielu naukowców twierdzi jednak, że jest to możliwe, pod warunkiem, że do 2030 roku zmniejszymy emisję gazów cieplarnianych o połowę. Sztuczna inteligencja jest więc znacznie bardziej pesymistycznie nastawiona od większości naukowców zarówno odnośnie możliwości powstrzymania globalnego ocieplenia na poziomie 1,5, jak i 2 stopni Celsjusza. « powrót do artykułu
  10. Sztuczna inteligencja firmy DeepMind, która jako pierwsza pokonała człowieka w go, nauczyła się blefować w strategicznej grze planszowej Stratego. Co więcej, potrafi wygrać z człowiekiem grę, która ma znacznie więcej możliwych scenariuszy niż go czy poker. Najbardziej zaskakujący był dla nas fakt, że DeepMind był w stanie poświęcić wartościowe zasoby, by zdobyć informację o ustawieniu przeciwnika i jego strategii, stwierdzają twórcy algorytmu. Celem Stratego jest zdobycie flagi przeciwnika. Każdy z graczy ma do dyspozycji 40 pionków, które umieszcza na planszy o wymiarach 10x10 tak, by przeciwnik nie widział rang – czyli siły – żadnego z nich. Jest to więc gra, w której – w przeciwieństwie do go czy szachów – nie wszystkie informacje o przeciwniku są znane. Dodatkowym wyzwaniem dla sztucznej inteligencji jest fakt, że w Stratego istnieje olbrzymia liczba możliwych stanów gry. W 1996 roku Deep Blue wygrał w szachy z Kasparowem, stając się pierwszym komputerem, który zwyciężył z szachowym mistrzem świata. Musiało minąć 20 lat zanim komputery – a konkretnie sztuczna inteligencja firmy DeepMind o nazwie AlphaGo – wygrała z mistrzem w go. Pokonanie człowieka w go zajęło maszynom tyle czasu, gdyż go wymaga znacznie większej mocy obliczeniowej. Liczba możliwych stanów gry w go wynosi aż 10350, podczas gdy w szachach jest to 10123. Tymczasem na pokonanie człowieka w Stratego nie musieliśmy czekać tak długo. Wystarczyło 6 lat, by DeepNash stał się jednym z 3 najlepszych graczy na największej online'owej platformie Stratego, Gravon. Liczba możliwych stanów gry w Stratego wynosi 10535. Poziom gry DeepNasha był dla mnie zaskoczeniem. Nigdy nie słyszałem o maszynie, która w Stratego osiągnęłaby poziom potrzebny do pokonania doświadczonego gracza, mówi Vincent de Boer, były mistrz świata w Stratego i jeden z autorów artykułu opisującego osiągnięcia DeepNasha. DeepNash uczył się grać w Stratego rozgrywając  5,5 miliarda partii. Nie korzystał przy tym z doświadczeń ludzi, ani nie był trenowany do starcia z konkretnym przeciwnikiem. Sztuczna inteligencja nie próbuje przeanalizować wszystkich możliwych scenariuszy, byłoby to nie możliwe. Zamiast tego postępuje tak by – zgodnie z ekonomiczną teorią gier – uzyskać jak największą korzyść. Optymalna strategią jest taka, która gwarantuje co najmniej 50% zwycięstw w przypadku walki z idealnym przeciwnikiem, nawet gdy ten wie, co DeepNash planuje. W tej chwili DeepNash rozegrał 50 partii z ludźmi, wygrywając 84% z nich i stając się jednym z trzech najlepszych graczy na platformie Gravon. Jeszcze lepiej radzi sobie z innymi botami grającymi w Stratego. Pokonuje je w 97% przypadków i wygrywa z takimi, które dotychczas wygrywały podczas Computer Stratego World Championship. « powrót do artykułu
  11. Współpraca naukowców z Wydziału Fizyki Uniwersytetu Warszawskiego i PAN zaowocowała powstaniem pulsującego neuronu stworzonego z fotonów. To podstawowy element fotonicznego procesora sieci neuronowych. Tego typu chipy, zwane układami neuromorficznymi, mają być w przyszłości podstawą systemów sztucznej inteligencji. Systemy fotoniczne zapewniają dużą prędkość przesyłania informacji przy jednoczesnym niewielkim zużyciu energii. Ich wadą jest zaś słabe oddziaływanie pomiędzy sobą, przez co trudno je wykorzystać do wykonywania operacji obliczeniowych. Dlatego też polscy wykorzystali ekscytony, cząstki o bardzo małej masie, z którymi fotony silnie oddziałują. Gdy fotony i ekscytony zostaną razem umieszczone we wnęce optycznej, powstaje między nimi trwały układ cyklicznej wymiany energii, który jest kwazicząstką – polarytonem. Polarytony mogą zaś, w odpowiednich warunkach, tworzyć kondensat Bosego-Einsteina. W tym stanie skupienia zaczynają tworzyć „superatom”, zachowujący się jak pojedyncza cząstka. Opierając się na naszym ostatnim eksperymencie, jako pierwsi zauważyliśmy, że kiedy polarytony są wzbudzane za pomocą impulsów laserowych, emitują impulsy światła przypominające pulsowanie neuronów biologicznych. Efekt ten jest bezpośrednio związany ze zjawiskiem kondensacji Bosego-Einsteina, które albo hamuje, albo wzmacnia emisję impulsów, wyjaśnia doktorantka Magdalena Furman z Wydziału Fizyki UW. Autorami modelu teoretycznego, który pozwala połączyć badania nad polarytonami z modelem neuronu są doktor Andrzej Opala i profesor Michał Matuszewski. Proponujemy wykorzystać nowy paradygmat obliczeniowy oparty na kodowaniu informacji za pomocą impulsów, które wyzwalają sygnał tylko wtedy, gdy przybędą do neuronu w odpowiednim czasie po sobie, mówi doktor Opala. Innymi słowy, taki sposób pracy takiego sztucznego neurony ma przypominać pracę neuronów biologicznych, pobudzanych impulsami elektrycznymi. W neuronie biologicznym dopiero powyżej pewnego progu impulsów docierających do neuronu, sygnał przekazywany jest dalej. Polarytony mogą naśladować neuron biologiczny, gdyż dopiero po pobudzeniu pewną liczbą fotonów powstaje kondensat Bosego-Einsteinai dochodzi do emisji sygnału do kolejnego neuronu. Mimo niewątpliwie interesujących badań, na wdrożenie pomysłu polskich uczonych przyjdzie nam jeszcze poczekać. Kondensat Bosego-Einsteina uzyskiwali oni w temperaturę zaledwie 4 kelwinów, którą można osiągnąć w ciekłym helu. Naszym kolejnym celem jest przeniesienie eksperymentu z warunków kriogenicznych do temperatury pokojowej. Potrzebne są badania nad nowymi materiałami, które pozwolą na uzyskanie kondensatów Bosego-Einsteina także w wysokich temperaturach. W Laboratorium Polarytonowym pracujemy nie tylko nad takimi substancjami, badamy też możliwość sterowania kierunkiem emitowanych fotonów, mówi profesor Jacek Szczytko z Wydziału Fizyki UW. W badaniach nad układami neuromorficznymi naukowcy wciąż napotykają na nowe wyzwania. Nasz nowy pomysł na odtworzenie pulsowania neuronów biologicznych w domenie optycznej, może posłużyć do stworzenia sieci, a potem układu neuromorficznego, w którym informacje przesyłane są o rzędy wielkości szybciej i w sposób bardziej efektywny energetycznie w porównaniu do dotychczasowych rozwiązań, dodaje doktor Krzysztof Tyszka. Szczegóły pracy zostały opisane na łamach Laser & Photonics Reviews. « powrót do artykułu
  12. Opanowanie ognia przez naszych przodków było jedną z największych innowacji w dziejach. Zrozumienie procesu opanowywania ognia przez przodków H. sapiens, poznanie miejsca i czasu jego ujarzmienia może mieć olbrzymie znaczenie dla opisu ewolucji człowieka i naszej wczesnej historii. Może w tym pomóc sztuczna inteligencja, która właśnie odkryła dowody na rozpalanie ognia na izraelskim stanowisku archeologicznym sprzed miliona lat. Obecnie istnieje kilka technik rozpoznawania przypadków użycia ognia. Można na przykład szukać zmian kolorów kości poddanych jego działaniu lub deformacji kamiennych narzędzi. Ludzie używali bowiem pirotechnologii do ich obróbki. To jednak wymaga działania temperatur wyższych niż 450 stopni, a tego typu dowody są rzadko znajdowane na stanowiskach liczących więcej niż 500 tysięcy lat. W ubiegłym roku na łamach Nature. Human Behaviour izraelscy naukowcy poinformowali o stworzeniu algorytmu sztucznej inteligencji, który rozpoznaje subtelne zmiany w krzemieniu spowodowane oddziaływaniem temperatur pomiędzy 200 a 300 stopni Celsjusza. Izraelczycy zbierali krzemień, podgrzewali go, a następnie trenowali SI tak, by potrafiła rozpoznawać zmiany w reakcji krzemienia na promieniowanie ultrafioletowe. Teraz technikę tę postanowili wykorzystać naukowcy pracujący pod kierunkiem Michaela Chazana z University of Toronto. Uczeni wykorzystali algorytm do badania kawałków krzemienia ze stanowiska Evron Quarry w Izraelu. Podczas naszego badania ujawniliśmy obecność ognia na stanowisku z dolnego paleolitu, w którym brakowało widocznych śladów użycia pirotechnologii. Tym samym dodaliśmy to stanowisko do niewielkiej grupy miejsc, dla których istnieją dowody wiążące wczesną produkcję narzędzi przez homininy z użyciem ognia. Ponadto badania te pokazują, że istnieje możliwość uzyskania ukrytych dotychczas informacji na temat wykorzystania pirotechnologii w innych miejscach, czytamy na łamach PNAS. Z przeprowadzonych badań wynika, że ludzie używali ognia w Evron Quary około miliona lat temu. Wybraliśmy Evron Quary, gdyż znajduje się tam ten sam typ krzemienia, jaki był używany przez autorów algorytmu SI. Jednak nie mieliśmy żadnych podstaw, by przypuszczać, że wykorzystywano tutaj ogień, przyznaje Chazan. Tymczasem algorytm SI wskazał, że wiele znalezionych tutaj krzemiennych narzędzi było podgrzewanych, zwykle do temperatury około 400 stopni Celsjusza. Po tym odkryciu naukowcy jeszcze raz przeanalizowali – za pomocą innych technik – znalezione tutaj fragmenty kości oraz kła. Okazało się, że fragmenty kła poddane były działaniu wysokich temperatur. Dotychczas nikt nie sprawdzał tych kości pod kątem ich wystawienia na działanie ognia. Zdaniem naukowców, znalezienie w jednym miejscu zarówno kamiennych narzędzi, jak i zęba, które miały kontakt z ogniem, wskazuje raczej na celowe działanie niż naturalny pożar. Wnioski takie są tym bardziej uprawnione, że na pobliskim stanowisku Gesher Benot Ya’aqov również znaleziono – pochodzące z podobnego okresu – ślady używania ognia i to w różnych miejscach, co sugeruje na celowe jego rozpalanie. Obecnie dysponujemy pewnymi dowodami sugerującymi, że wcześni hominini używali ognia już 1,5 miliona lat temu. Znaleziono je przed dwoma laty na kenijskim stanowisku Koobi Fora. Przed około 20 laty grupa antropologów wysunęła hipotezę, że hominini używali ognia już może nawet 2 miliony lat temu. Sztuczna inteligencja może pomóc w zidentyfikowaniu użycia ognia na znanych już paleolitycznych stanowiskach archeologicznych, co pozwoli na zweryfikowanie tej hipotezy. « powrót do artykułu
  13. Wiele trapiących nas chorób ma związek z nieprawidłowo działającymi komórkami. Być może udało by się je skuteczniej leczyć, ale najpierw naukowcy muszą szczegółowo poznać budowę i funkcjonowanie komórek. Dzięki połączeniu sztucznej inteligencji oraz technik mikroskopowych i biochemicznych uczeni z Wydziału Medycyny Uniwersytetu Kalifornijskiego w San Diego (UCSD) dokonali ważnego kroku w kierunku zrozumienia komórek ludzkiego organizmu. Dzięki mikroskopom możemy dojrzeć struktury komórkowe wielkości pojedynczych mikrometrów. Z kolei techniki biochemiczne, w których wykorzystuje się pojedyncze proteiny, pozwalają na badanie struktur wielkości nanometrów, czyli 1/1000 mikrometra. Jednak poważnym problemem w naukach biologicznych jest uzupełnienie wiedzy o tym, co znajduje się w komórce pomiędzy skalą mikro- a nano-. Okazuje się, że można to zrobić za pomocą sztucznej inteligencji. Wykorzystując dane z wielu różnych źródeł możemy ją poprosić o ułożenie wszystkiego w kompletny model komórki, mówi profesor Trey Ideker z UCSD. Gdy myślimy o komórce, prawdopodobnie przyjdzie nam do głowy schemat ze szkolnych podręczników do biologii, z jego mitochondrium, jądrem komórkowym i retikulum endoplazmatycznym. Jednak czy jest to pełny obraz? Zdecydowanie nie. Naukowcy od dawna zdawali sobie sprawę z tego, że więcej nie wiemy niż wiemy. Teraz w końcu możemy przyjrzeć się komórce dokładniej, dodaje uczony. Ideker i Emma Lundberg ze szwedzkiego Królewskiego Instytutu Technicznego stali na czele zespołu, który jest autorem najnowszego osiągnięcia. Wykorzystana przez naukowców nowatorska technika nosi nazwę MuSIC (Multi-Scale Integrated Cell). Podczas pilotażowych badań MuSIC ujawniła istnienie około 70 struktur obecnych w ludzkich komórkach nerek. Połowa z nich nie była dotychczas znana. Zauważono np. grupę białek tworzących nieznaną strukturę. Po bliższym przyjrzeniu się naukowcy stwierdzili, że wiąże ona RNA. Prawdopodobnie struktura ta bierze udział w splicingu, czyli niezwykle ważnym procesie składania genu. Twórcy MuSIC od lat próbowali stworzyć mapę procesów zachodzących w komórkach. Tym, co różni MuSIC od podobnych systemów jest wykorzystanie technik głębokiego uczenia się do stworzenia mapy komórki bezpośrednio z obrazów mikroskopowych. System został wyćwiczony tak, by bazując na dostępnych danych stworzył model komórki. Nie mapuje on specyficznych struktur w konkretnych lokalizacjach, tak jak mamy to w schematach uczonych w szkole, gdyż niekoniecznie zawsze znajdują się one w tym samym miejscu. Na razie w ramach badań pilotażowych uczeni opracowali za pomocą MuSIC 661 protein i 1 typ komórki. Następnym celem badań będzie przyjrzenie się całej komórce, a później innym rodzajom komórek, komórkom u różnych ludzi i u różnych gatunków zwierząt. Być może z czasem będziemy w stanie lepiej zrozumieć molekularne podstawy różnych chorób, gdyż będziemy mogli wyłapać różnice pomiędzy zdrowymi a chorymi komórkami, wyjaśnia Ideker. « powrót do artykułu
  14. Algorytmy sztucznej inteligencji mogą skrócić czas badań cytologicznych i tym samym pozwolić na szybsze diagnozowanie nowotworów u zwierząt. Narzędzie CyfroVet powstaje właśnie w Akademickim Centrum Komputerowym CYFRONET AGH. Jak podano w przesłanym PAP komunikacie, obecnie czas oczekiwania na wynik badania cytologicznego wynosi od kilku dni do 2 tygodni, a jego cena to około kilkaset złotych. Naukowcy z AHG przekonują, że istnieje możliwość znaczącego skrócenia tego czasu poprzez zastosowanie zautomatyzowanego systemu. Narzędzie takie pozwala na wykonanie zdjęcia próbki materiału cytologicznego, a następnie przeanalizowanie go z wykorzystaniem algorytmów sztucznej inteligencji. Dzięki temu można ocenić zmiany patologiczne w preparacie. Dyrektor ACK Cyfronet AGH prof. Kazimierz Wiatr wskazał, że wyzwaniem jest zgromadzenie odpowiedniej liczby zdjęć preparatów cytologicznych o różnorodnym charakterze, które pozwolą na wytrenowanie algorytmu sztucznej inteligencji do rozpoznawania zmian nowotworowych z dużą dokładnością. Czasochłonny jest również proces oznaczania tzw. danych uczących, który wiąże się z ręcznym oznaczeniem zmian patologicznych przez lekarza eksperta oraz ich weryfikacji przez dyplomowanego patologa. Obecnie w ramach prac prowadzonych w projekcie CyfroVet opracowane zostało rozwiązanie pozwalające na klasyfikację wybranych zmian patologicznych z wykorzystaniem sieci neuronowych. Opracowane zostały również architektury sieci pozwalające na szczegółową detekcję pojedynczych komórek nowotworowych, która pozwala na bardziej dokładną analizę zachodzących zmian patologicznych. Zaprojektowane rozwiązanie pozwala uzyskać dokładności klasyfikacji na poziomie nawet 96 proc. System działa dla wybranych trzech zmian nowotworowych: mastocytomy, histiocytomy oraz chłoniaka – wskazał inicjator prac dr hab. inż. Maciej Wielgosz. W ostatnim czasie zespół prowadzi również badania nad holistycznym podejściem do diagnostyki weterynaryjnej, które dotyczy nie tylko zbadania zmian na zdjęciach preparatów cytologicznych pod mikroskopem, ale również informacji o zwierzęciu zebranych przez weterynarza w trakcie wstępnego wywiadu. Wywiad taki dotyczy wieku zwierzęcia, chorób czy lokalizacji zmian na powierzchni skóry. Są to tak zwane dane kategoryczne, które mogą w znaczący sposób wpłynąć na podjęcie przez lekarza decyzji diagnostycznej. Uwzględnienie tych danych w algorytmie sztucznej inteligencji pozwoli potencjalnie podnieść skuteczność jego działania. « powrót do artykułu
  15. Sztuczna inteligencja pomogła w rozwiązaniu jednej z zagadek zwojów znad Morza Martwego. Przeprowadzona przez algorytm analiza potwierdziła, że jeden z najstarszych zwojów z Qumran – Wielki Zwój Izajasza, pochodzący z ok. 125 roku p.n.e. – został spisany przez dwie osoby, a nie przez jedną. Wielki Zwój Izajasza to kopia Księgi Izajasza. Zanim odkryto zwoje z Qumran historię tekstów biblijnych mogliśmy studiować praktycznie wyłącznie ze średniowiecznych manuskryptów z około 1000 roku. Zwoje znad Morza Martwego są jak kapsuła czasu. Pozwalają nam podróżować do czasów, w których Biblia dopiero powstawała. Dają nam więc wyjątkowy wgląd w kulturę i środowisko, które ją wytworzyło, mówi Mladen Popovic z Uniwersytetu w Groningen. Wielki Zwój Izajasza jest naprawdę wielki. Ma 734 centymetry długości. To największy, jeden z najlepiej zachowanych i jedyny niemal kompletny zwój z Qumran. Dotychczas naukowcy nie byli pewni, czy spisała go jedna czy dwie osoby, gdyż charakter pisma na całym zwoju jest niezwykle podobny. Popovic i jego zespół zaprzęgli sztuczną inteligencję do analizy zdjęć zwoju. Zadaniem algorytmu było przyjrzenie się literom, przeanalizowanie trudnych do wychwycenia dla człowieka zmian w kroju i stylu liter oraz stwierdzenie, czy Wielki Zwój wyszedł spod jednej ręki, czy też pracowało nad nim więcej osób o podobnym charakterze pisma. Sztuczną inteligencję zaprzęgnęliśmy do pracy dlatego, że mamy tutaj podobny charakter pisma. Chcieliśmy dowiedzieć się, czy pisały dwie osoby czy jedna, która w pewnym momencie zmieniła narzędzie do pisania, wyjaśnia Charlotte Hempel z University of Birmingham. Teraz możemy zadać sobie jeszcze jedno fascynujące pytanie. Czy tak duże podobieństwo w charakterze pisma dwóch osób wynikało z faktu, iż mamy tutaj do czynienia z  wysokiej klasy profesjonalistą zdolnym do naśladowania charakteru pisma innej osoby i czy obaj skrybowie pochodzili z tego samego kręgu, w którym uczyli się swojej profesji, dodaje Hempel. « powrót do artykułu
  16. Rak prostaty to obecnie jeden z dwóch najczęściej rozpoznawanych nowotworów złośliwych u mężczyzn. Zapadalność na raka gruczołu krokowego rośnie z wiekiem. To poważna choroba, jednak wcześnie wykryta jest uleczalna. Szybka, właściwa diagnostyka pozwala odpowiednio dobrać terapię i zwiększyć szansę pacjenta na przeżycie. Najdokładniej zmiany nowotworowe powala zobrazować rezonans magnetyczny (MRI). Niestety, badanie raka prostaty za pomocą tej metody jest skomplikowane. Niezbędne jest badanie wielu cech nowotworu, co utrudnia i znacznie wydłuża interpretację wyniku. Każdy otrzymany obraz musi być przeanalizowany osobno. Diagnostyka ta jest skomplikowana i trudniejsza niż w przypadku większości nowotworów złośliwych. Otrzymane wyniki są oceniane według skali PI-RADS (Prostate Imaging-Reporting and Data System), która umożliwia rozróżnienie zmian istotnych klinicznie. Analiza ta wymaga specjalistycznej wiedzy radiologów, którzy stanowią w Polsce zaledwie ok. 2 proc. lekarzy, co dodatkowo wydłuża czas oczekiwania na badanie i właściwą diagnozę. Interpretacja wyników jest subiektywna i zauważalne są różnice pomiędzy specjalistami doświadczonymi a początkującymi. Badania wykazały, że radiolodzy różnie interpretują, czy potencjalna zmiana nowotworowa jest inwazyjna. W Ośrodku Przetwarzania Informacji – Państwowym Instytucie Badawczym (OPI PIB) prowadzimy interdyscyplinarne badania, których wyniki mają praktyczne zastosowanie w wielu dziedzinach. Jednym z obszarów jest wykorzystanie najnowszych technologii IT w medycynie i ochronie zdrowia. Z naszych badań wynika, że sztuczna inteligencja może skutecznie usprawnić pracę lekarzy. Rezultaty są bardzo obiecujące i jestem przekonany, że także pomogą one innym naukowcom opracować nowoczesne narzędzia technologiczne, mające zastosowanie w diagnostyce nie tylko raka prostaty, ale także i innych chorób – mówi dr inż. Jarosław Protasiewicz, dyrektor Ośrodka Przetwarzania Informacji – Państwowego Instytutu Badawczego (OPI PIB). Ograniczenie liczby bolesnych biopsji Naukowcy z Laboratorium Stosowanej Sztucznej Inteligencji w OPI PIB opracowali platformę badawczą eRADS, która służy do standaryzacji opisów raportów medycznych. Narzędzie to pozwala obiektywnie ocenić istotność kliniczną zmiany na podstawie pięciostopniowej skali PI-RADS. Platforma umożliwia także zbieranie danych z badań, co w przyszłości pomoże stworzyć rozwiązania, które automatycznie będą szacowały cechy istotne klinicznie. W tym przypadku sztuczną inteligencję zastosowano do wspomagania procesów decyzyjnych. Badacze OPI PIB przeprowadzili badania pilotażowe z udziałem 16 pacjentów, diagnozowanych przez dwóch radiologów podczas ich dyżuru w Centralnym Szpitalu Klinicznym MSWiA w Warszawie. Specjaliści ci różnili się stażem pracy w zawodzie. Ich celem była ocena rzetelności oraz wstępnej użyteczności klinicznej systemu eRADS. Wyniki badania pilotażowego są obiecujące. Oceny istotności klinicznej zmiany przez radiologów z wykorzystaniem narzędzia opracowanego przez naukowców OPI PIB są bardziej zgodne, niż gdy dokonują oni analizy bez użycia platformy. Zastosowanie eRADS pomaga zmniejszyć różnice między jakością diagnozy lekarzy doświadczonych i niedoświadczonych. Precyzyjna ocena zmian pozwoli znacznie ograniczyć liczbę pacjentów, którzy są wysyłani na biopsję. W przypadku badania prostaty wiąże się ona z dyskomfortem pacjenta. Polega na pobraniu materiału z kilku do kilkunastu wkłuć. Sieci neuronowe zastąpią lekarzy? W naszym laboratorium badaliśmy także wykorzystanie w diagnostyce raka prostaty innych obszarów sztucznej inteligencji. Analizowaliśmy zastosowanie narzędzi wykorzystujących uczenie maszynowe i głębokie. Naszym celem było porównanie otrzymanych wyników z diagnozami postawionymi przez doświadczonych i niedoświadczonych radiologów. Model predykcyjny istotności klinicznej zmian, oparty o narzędzia uczenia maszynowego, bazował na cechach obrazu (np. jednorodności) w badanych komórkach i ich otoczeniu. Uzyskaliśmy model trafnie klasyfikujący istotne klinicznie zmiany z prawdopodobieństwem 75 proc., co można porównać do diagnozy niedoświadczonego lekarza. Najbardziej obiecujące rezultaty otrzymaliśmy jednak z zastosowania wiedzy domenowej w architekturze sieci neuronowych. Opracowane modele dają lepszą jakość diagnozy zmian nowotworowych w porównaniu z ocenami niedoświadczonych i doświadczonych radiologów, stawiając trafną diagnozę z prawdopodobieństwem 84 proc. – mówi Piotr Sobecki, kierownik Laboratorium Stosowanej Sztucznej Inteligencji w OPI PIB. Podsumowując, zastosowanie wiedzy domenowej w architekturze sieci neuronowych wpływa na szybkość uczenia modelu w przypadku diagnostyki raka prostaty. Analizowano efekt lokalizacji zmiany w prostacie i niezależnie od tego czynnika, wyniki otrzymane za pomocą modeli wykorzystujących sieci neuronowe były takie same lub lepsze od diagnozy postawionej przez doświadczonych radiologów. Potwierdziły to wyniki badania OPI PIB z użyciem danych historycznych od 6 radiologów oceniających 32 zmiany nowotworowe. Sztuczna inteligencja wykorzystująca uczenie głębokie nie zastąpi jednak lekarzy, ale ułatwi im pracę i przyspieszy rozpoczęcie leczenia pacjenta. Wciąż jednak mało jest otwartych zbiorów baz danych, które można wykorzystać do usprawnienia algorytmów sztucznej inteligencji. Należy pamiętać, że modele te są tak dobre, jak dane, na których zostały wyuczone. Chodzi zarówno o ich liczebność, jak i o jakość. 1) W Polsce z powodu raka prostaty codziennie umiera około 15 pacjentów, a choroba ta jest diagnozowana u co 8. mężczyzny 2) Ważne jest szybkie wykrycie choroby i podjęcie odpowiedniego leczenia. 3) Niestety, diagnostyka raka prostaty jest skomplikowana i trudna w porównaniu do metod wykrywania innych nowotworów. 4) Badacze z Laboratorium Stosowanej Sztucznej Inteligencji w Ośrodku Przetwarzania Informacji – Państwowym Instytucie Badawczym (OPI PIB) wykorzystali sztuczną inteligencję (SI) do usprawnienia diagnostyki obrazowej raka prostaty. 5) Najlepsze rezultaty uzyskali z zastosowaniem sieci neuronowych. Jakość otrzymanej diagnozy była na poziomie doświadczonego lekarza specjalisty lub wyższa.   « powrót do artykułu
  17. Przed rokiem firma Cerebras Systems zaprezentowała największy w historii procesor o gigantycznej mocy obliczeniowej, który pokonał najpotężniejszy superkomputer, symulując procesy fizyczne szybciej, niż odbywają się one w rzeczywistości. Teraz firma ogłosiła, że stworzyła drugą wersję swojego procesora i udostępni go w 3. kwartale bieżącego roku. Wafer Scale Engine 2 (WSE 2) ma ponaddwukrotnie więcej tranzystorów, rdzeni i pamięci niż WSE 1. Trenowanie systemów sztucznej inteligencji trwa wiele tygodni. To zdecydowanie zbyt długo, gdyż w takiej sytuacji można wytrenować tylko kilka sieci rocznie. Jeśli zaś moglibyśmy wytrenować sieć neuronową w ciągu 2-3 godzin, to rocznie możemy przetestować tysiące rozwiązań, mówi Andrew Feldman, dyrektor i współzałożyciel Cerebras. Mogą w tym pomóc właśnie olbrzymie procesory WSE. Ich twórcy zauważyli, że rozwiązaniem problemu wąskiego gardła, którym jest konieczność ciągłego przesyłania danych pomiędzy procesorem a układami pamięci, będzie zbudowanie wielkiego procesora, który będzie w stanie przechować wszystkie potrzebne dane w swoich rdzeniach. Oba procesory WSE mają powierzchnię 46 255 mm2. Dla porównania procesor Nvidia A100 ma powierzchnię 826 mm2. WSE 2 korzysta z 2,6 biliona tranzystorów (WSE 1 z 1,2 biliona, a A100 z 54,2 miliardów). Najnowszy procesor Cerebras składa się z 850 000 rdzeni (WSE 1 ma ich 400 000, A100 – 7344). W WSE 2 zastosowano 40 gigabajtów pamięci. TO aż 1000-krotnie więcej niż w A100 i ponaddwukrotnie więcej niż w WSE 1. Ponadto rdzenie WSE 2 wymieniają między sobą dane z prędkością 200 PB/s, podczas gdy A100 przekazuje dane z prędkością 155 GB/s, a WSE 1 z prędkością 9 PB/s. Najnowszy procesor Cerebras został wykonany w technologii 7nm, czyli tej samej co A100. WSE 1 korzystał z 16nm. Cerebras zapewnia, że udoskonalił również samą mikroarchitekturę WSE 2 tak, by jeszcze lepiej spełniał on zadania stawiane przed systemami sztucznej inteligencji. Firma może pochwalić się rosnącą liczbą klientów, którzy prowadzą na WSE 1 i mają zamiar prowadzić na WSE 2 niezwykle złożone obliczenia. Wśród klientów tych jest Argonne National Lab, które wykorzystuje WSE do prac nad lekami na nowotwory, badania COVID-19, badania fal grawitacyjnych czy badań nad nowymi materiałami. Z kolei Edinburgh Parallel Computing Centre używa WSE do przetwarzania języka naturalnego i badań genetycznych. Koncern farmaceutyczny GlaxoSmithKline poszukuje nowych leków za pomocą WSE 1, a Lawrence Livermore National Lab symuluje fuzję jądrową, prowadzi badania nad traumatycznymi uszkodzeniami mózgu. Wśród klientów Cerebras jest też wiele firm z przemysłu ciężkiego, wojskowego czy wywiadu. « powrót do artykułu
  18. W Niemczech stworzono algorytm, który identyfikuje geny biorące udział w powstawaniu nowotworów. Naukowcy zidentyfikowali dzięki niemu 165 nieznanych dotychczas genów zaangażowanych w rozwój nowotworu. Co bardzo istotne, algorytm ten identyfikuje również geny, w których nie doszło do niepokojących zmian w DNA. Jego powstanie otwiera nowe możliwości w walce z nowotworami i personalizowanej medycynie. W nowotworach komórki wyrywają się spod kontroli. Rozrastają się i rozprzestrzeniają w niekontrolowany sposób. Zwykle jest to spowodowane mutacjami w DNA. Jednak w przypadku niektórych nowotworów mamy do czynienia z bardzo małą liczbą zmutowanych genów, co sugeruje, że w grę wchodzą tutaj inne przyczyny. Naukowcy z Instytutu Genetyki Molekularnej im. Maxa Plancka oraz Instytut Biologii Obliczeniowej Helmholtz Zentrum München opracowali algorytm maszynowego uczenia się, który zidentyfikował 165 nieznanych dotychczas genów biorących udział w rozwoju nowotworów. Wszystkie nowo odkryte geny wchodzą w interakcje z dobrze znanymi genami pronowotworowymi. Algorytm EMOGI (Explainable Multi-Omics Graph Integration) potrafi też wyjaśnić związki pomiędzy elementami odpowiedzialnymi za powstanie nowotworu. Powstał on na podstawie dziesiątków tysięcy danych zgromadzonych w ramach badań nad nowotworami. Są tam informacje o metylacji DNA, aktywności poszczególnych genów, mutacjach, interakcji białek itp. itd. Na podstawie tych danych algorytm głębokiego uczenia się opracował wzorce oraz nauczył się rozpoznawania sygnałów molekularnych prowadzących do rozwoju nowotworu. Ostatecznym celem takiego algorytmu byłoby stworzenie dla każdego pacjenta całościowego obrazu wszystkich genów zaangażowanych w danym momencie w rozwój nowotworu. W ten sposób położylibyśmy podwaliny pod zindywidualizowaną terapię przeciwnowotworową, mówi Annalisa Marsico, która stoi na czele zespołu badawczego. Jej celem jest wybranie najlepszej terapii dla każdego pacjenta czyli takiego leczenia, które u konkretnej osoby da najlepsze wyniki i będzie miało najmniej skutków ubocznych. Co więcej, pozwoli nam to identyfikować nowotwory na wczesnych fazach rozwoju dzięki ich charakterystyce molekularnej. Dotychczas większość badaczy skupia się na patologicznych zmianach w sekwencjach genetycznych. Tymczasem w ostatnich latach coraz bardziej oczywiste staje się, że do rozwoju nowotworów mogą prowadzić również zaburzenia epigenetyczne czy rozregulowanie aktywności genów, stwierdza Roman Schulte-Sasse, doktorant współpracujący z Marsico. Dlatego właśnie naukowcy połączyli informacje o błędach w genomie z informacjami o tym, co dzieje się wewnątrz komórek. W ten sposób najpierw zidentyfikowali mutacje w genomie, a później znaleźli geny, które mają mniej oczywisty wpływ na rozwój nowotworu. Na przykład znaleźliśmy geny, których DNA jest niemal niezmienione, ale mimo to geny te są niezbędne do rozwoju guza, gdyż regulują dostarczanie mu energii, dodaje Schulte-Sasse. Tego typu geny działają poza mechanizmami kontrolnymi, gdyż np. doszło w nich do chemicznych zmian w DNA. Zmiany te powodują, że co prawda sekwencja genetyczna pozostaje prawidłowa, ale gen zaczyna inaczej działać. Takie geny to bardzo obiecujący cel dla terapii przeciwnowotworowych. Problem jednak w tym, że działają one w tle i do ich zidentyfikowania potrzebne są złożone algorytmy, dodaje uczony. Obecnie naukowcy wykorzystują swój algorytm do przeanalizowania związku pomiędzy proteinami a genami. Związki te można przedstawić w formie matematycznych grafów, stwierdza Schulte-Sasse. Dopiero współczesna technika pozwala na prowadzenie tego typu analiz. Schulte-Sasse już uruchomił algorytm, który analizuje dziesiątki tysięcy takich grafów z 16 różnych typów nowotworów. Każdy z grafów składa się z od 12 000 do 19 000 punktów z danymi. Już teraz zaczynamy zauważać pewne wzorce zależne od typu nowotworu. Widzimy dowody na to, że rozwój guzów jest uruchamiany za pomocą różnych mechanizmów molekularnych w różnych organach, wyjaśnia Marsico. Szczegóły badań zostały opublikowane na łamach Nature Machine Intelligence. « powrót do artykułu
  19. Na Massachusetts Institute of Technology (MIT) powstał system sztucznej inteligencji (SI), który wykrywa czerniaka. System analizuje zdjęcia skóry pacjenta i wskazuje na podejrzane zmiany, dzięki czemu specjalista łatwiej może postawić diagnozę. Czerniak to niebezpieczny nowotwór odpowiedzialny za 70% przypadków zgonów z powodu nowotworów skóry. Od lat lekarze polegają na własnym wzroku i doświadczeniu, wyszukując podejrzane zmiany. Dzięki pomocy SI diagnoza ma być szybsza i skuteczniejsza. Szybkie wykrycie podejrzanych zmian pigmentacji skóry nie jest proste. Łatwo też, przy nowotworze na wczesnym etapie, pominąć którąś ze zmian. Podejrzane zmiany są następnie poddawane biopsji i badane. Naukowcy z MIT wykorzystali technikę głębokich konwolucyjnych sieci neutronowych (DCNN) i zaprzęgnęli ją do analizy obrazów wykonywanych za pomocą zwykłych aparatów cyfrowych, takich jak te obecne w telefonach komórkowych. Luis L. Soenksen, ekspert z Artificial Intelligence and Healthcare na MIT mówi, że dzięki temu możliwe jest szybkie i efektywne wykrywanie czerniaka na wczesnym etapie rozwoju. Wczesne wykrycie podejrzanych zmian może ocalić życie. Jednak obecnie systemy opieki zdrowotnej nie mają dostępu do systemu pozwalającego na badania przesiewowe skóry, stwierdza ekspert. Na łamach Science Translational Medicine wyjaśnia on w jaki sposób działa nowy system. Sztuczną inteligencję do wykrywania czerniaka trenowano za pomocą 20 388 zdjęć od 133 pacjentów madryckiego Hospital Hospital Gregorio Marañón oraz na publicznie dostępnych fotografiach. Zdjęcia były wykonana za pomocą różnych, łatwo dostępnych aparatów cyfrowych. Z twórcami systemu współpracowali też dermatolodzy, który klasyfikowali podejrzane zmiany tradycyjną metodą. Okazało się, że system z 90,3-procentową skutecznością odróżnia podejrzane zmiany skórne od zmian, które nie są problematyczne. Nasze badania wskazują, że system wykorzystujący system komputerowego widzenia oraz głębokie sieci neuronowe osiąga podobną skuteczność, co doświadczony dermatolog. Mamy nadzieję, że nasze badania pomogą w lepszej diagnostyce w punktach podstawowej opieki zdrowotnej, mówi Soenksen. « powrót do artykułu
  20. Firma Samsung Electronics poinformowała o stworzeniu pierwszego modułu High Bandwidth Memory (HBM) zintegrowanego z modułem obliczeniowym wykorzystującym sztuczną inteligencję – HBM-PIM. Architektura processing-in-memory (PIM) umieszczona wewnątrz wysokowydajnych modułów pamięci ma służyć przede wszystkim przyspieszeniu przetwarzania danych w centrach bazodanowych, systemach HPC (High Performance Computing) oraz aplikacjach mobilnych. Nasz HBM-PIM to pierwsze programowalne rozwiązanie PIM przeznaczone dla różnych zastosowań z wykorzystaniem sztucznej inteligencji. Planujemy rozszerzenie współpracy z dostawcami rozwiązań z zakresu sztucznej inteligencji, dzięki czemu będziemy mogli zaproponować coraz bardziej zaawansowane rozwiązania korzystające z PIM, stwierdził wiceprezes Samsunga, Kwangil Park. Większość współczesnych systemów komputerowych bazuje na architekturze von Neumanna, zgodnie z którą dane są przechowywane i przetwarzane w osobnych układach. Taka architektura wymaga ciągłego przesyłania informacji pomiędzy układami, przez co – szczególnie w systemach operujących na olbrzymich zestawach danych – powstaje wąskie gardło spowalniające pracę całego systemu komputerowego. Architektura HBM-PIM zakłada wykorzystanie modułu przetwarzania danych w miejscu, w którym dane się znajdują. Uzyskano to poprzez umieszczenie wewnątrz każdego modułu pamięci silnika SI zoptymalizowanego pod kątem współpracy z układami DRAM. W ten sposób umożliwiono równoległe przetwarzanie danych i zminimalizowano potrzebę ich przesyłania. Samsung informuje, że po połączeniu HBM-PIM z obecnym już na rynku rozwiązaniem HBM2 Aquabolt pozwoliło na dwukrotne zwiększenie wydajności systemu przy jednoczesnym 70-procentowym spadku zapotrzebowania na energię. Koreańczycy podkreślają, że HBM-PIM nie wymaga żadnych zmian sprzętowych ani programowych, zatem łatwo można je zastosować w już istniejących systemach. HBM-PIM zapewnia imponujący wzrost wydajności przy jednoczesnym olbrzymim spadku zapotrzebowania na energię w kluczowych rozwiązaniach SI, zatem z zainteresowaniem oczekujemy na możliwość sprawdzenia jego wydajności w rozwiązywaniu problemów nad którymi pracujemy w Argonne, stwierdził Rick Stevens, dyrektor ds. obliczeniowych, środowiskowych i nauk biologicznych w Argonne National Laboratory. Szczegóły HBM-PIM zostaną zaprezentowane 22 lutego podczas International Solid-State Circuits Virtual Conference (ISSCC). « powrót do artykułu
  21. Dependowirusy, czyli parwowirusy „stowarzyszone” z adenowirusami (AAV) to bardzo przydatne narzędzia w terapii genowej. Mogą one bowiem przenosić DNA do wnętrza komórki, a ponadto są nieszkodliwe dla człowieka. Dlatego też korzysta się z nich jako z nośnika informacji genetycznej potrzebne do zwalczania chorób. Istnieją jednak poważne ograniczenia, które powodują, że w chwili obecnej ich użycie jest mocno limitowane i nie u wszystkich pacjentów można je wykorzystać, zatem nie wszyscy mogą zostać poddani terapii genowej. Pierwsze z tych ograniczeń to ograniczana zdolność AAV do przyczepiania się do komórek. Ograniczenie drugie to ludzki układ odpornościowy. Szacuje się, że 50–70% ludzi jest odpornych na zakażenie AAV, gdyż już wcześniej zetknęli się z jakąś formą tego wirusa. W ich przypadku terapie genowe nie zadziałają, gdyż układ odpornościowy zdąży zniszczyć wirusa zanim ten wniknie do komórki, przekazując jej materiał genetyczny potrzebny do prowadzenia terapii. Z tego też powodu jednym z ważniejszych pól badań nad terapiami genowymi są próby oszukania układu odpornościowego. Doktor George Church z Uniwersytetu Harvard we współpracy z Google Research i Dyno Therapeutics wykorzystał technikę głębokiego uczenia się do zaprojektowania bardzo zróżnicowanych wariantów kapsydu (płaszcza białkowego) wirusa AAV. Naukowcy skupili się na sekwencjach genomu wirusa, które kodują kluczowy segment protein odgrywający kluczową rolę w infekcji docelowych komórek oraz w rozpoznawaniu wirusa przez układ odpornościowy. Specjaliści wykazali, ze dzięki wykorzystaniu sztucznej inteligencji możliwe jest zaprojektowanie olbrzymiej liczby zróżnicowanych kapsydów, które później można poddać testom pod kątem ich zdolności do uniknięcia ataku ze strony układu odpornościowego. Naukowcy wyszli od niewielkiej ilości danych na temat kapsydu, by docelowo uzyskać 200 000 wariantów. Nasze badania jasno pokazują, że maszynowe uczenie się pozwala na zaprojektowanie olbrzymiej liczby wariantów, znacznie większej niż istnieje w naturze. Wciąż udoskonalamy naszą technikę, by nie tylko stworzyć nośniki, które poradzą sobie z problemem ataku ze strony układy odpornościowego, ale będą też bardziej efektywnie i selektywnie przyczepiały się do wybranych rodzajów tkanek, mówi doktor Eric Kelsic, dyrektor i współzałożyciel firmy Dyno Therapeutics. Z artykułu opublikowanego na łamach Nature dowiadujemy się, że wstępna ocena zaprojektowanych przez sztuczną inteligencję kapsydów wykazała, że niemal 60% może się sprawdzić. To znaczny. postęp. Obecnie do różnicowania kapsydów wykorzystuje się przypadkową mutagenezę, gdzie odsetek przydatnych kapsydów jest mniejszy niż 1%. Im bardziej odbiegniemy od naturalnego wyglądu AAV, tym większe prawdopodobieństwo, że układ odpornościowy go nie rozpozna, dodaje doktor Sam Sinai, drugi z założycieli Dyno Therapeutics, który stał na czele zespołu prowadzącego modelowanie komputerowe. Kluczem do odniesienia sukcesu jest jednak wyprodukowanie kapsydu, który w sposób stabilny przeniesie ładunek DNA. Tradycyjne metody uzyskiwania takiego kapsydu są bardzo czaso- i zasobochłonne, a w ich wyniku utrzymujemy bardzo mało przydatnych kapsydów. Tutaj zaś możemy szybko uzyskiwać dużą różnorodność kapsydów AAV, które są bazą do udoskonalanie terapii genowych dostępnych dla większej liczby osób". « powrót do artykułu
  22. Opracowanie planu radioterapii to skomplikowane zadanie, dlatego też nawet pacjenci, którzy potrzebują natychmiastowego wdrożenia leczenia muszą zwykle czekać kilka dni lub dłużej, aż lekarze opracują plan. Okazuje się jednak, że z pomocą może tutaj przyjść sztuczna inteligencja, która odpowiedni plan może przygotować w ułamku sekundy. Niektórzy z takich pacjentów wymagają natychmiastowej radioterapii, ale lekarze odsyłają ich do domu i każą czekać. Opracowanie w czasie rzeczywistym planu leczenia jest bardzo ważne. To część naszego projektu, w ramach którego chcemy zaprząc SI do poprawy wszelkich aspektów walki z nowotworami, mówi doktor Steve Jiang, który kieruje Laboratorium Medycznej Sztucznej Inteligencji i Automatyzacji na UT Soutwestern Medical Center. Radioterapia to często stosowana metoda walki z nowotworami. Badania pokazują, że w przypadku niektórych nowotworów odroczenie radioterapii o zaledwie tydzień zwiększa ryzyko nawrotu lub rozprzestrzenienia się choroby nawet o 14%. To właśnie takie dane stały się przyczyną, dla której zespół Jianga postanowił wykorzystać SI to pomocy w zaplanowaniu radioterapii. Od rozpoczęcia leczenia po przeliczenie dawek w miarę postępów leczenia. Testy przeprowadzone za pomocą specjalnie opracowanego algorytmu wykazały, że jest on w stanie opracować optymalny plan leczenia zaledwie w ciągu 5/100 sekundy od momentu otrzymania danych dotyczących pacjenta. Nowo opracowany algorytm korzystał z technik głębokiego uczenia się. Szkolono go na przykładzie 70 osób cierpiących na nowotwór prostaty, a przy uczeniu wykorzystano 4 algorytmy głębokiego uczenia się. Z czasem sztuczna inteligencja nauczyła się opracowywania optymalnego planu leczenia. Okazało się, że w przypadku każdego z tych pacjentów jest on taki sam, jak ten opracowany przez lekarzy. To jednak nie wszystko. Algorytm był też w stanie przed każdą kolejną sesją radioterapii błyskawicznie obliczyć prawidłowe dawki promieniowania. Zwykle pacjenci przed każdą sesją przechodzą badanie, na podstawie którego obliczane są dawki. Nowy algorytm korzysta z dwóch standardowych modeli obliczania dawki. Jednego szybkiego, który jednak jest mniej precyzyjny, i drugiego bardzo precyzyjnego, który jednak wymaga półgodzinnych obliczeń. SI, porównując na przykładzie wspomnianych 70 pacjentów wyniki obu modeli, nauczyła się, jak wykorzystać szybkość jednego i precyzję drugiego, by w czasie krótszym od sekundy uzyskać precyzyjne wyniki. Naukowcy z UT Southwestern Medical Center mają teraz zamiar wykorzystać swój algorytm w codziennej praktyce klinicznej. « powrót do artykułu
  23. Firma DeepMind, której system sztucznej inteligencji zdobył rozgłos pokonując mistrza Go, a niedawno zapowiedział rewolucję na polu nauk biologicznych, poszła o krok dalej. Stworzyła system MuZero, który uczy się zasad gry od podstaw, bez żadnych informacji wstępnych. Celem DeepMind jest spowodowanie, by MuZero uczył się tak, jak robi to dziecko, metodą prób i błędów. MuZero rozpoczyna naukę reguł gry od spróbowania jakiegoś działania. Później próbuje czegoś innego. Jednocześnie sprawdza, czy jego działanie jest dozwolone i jaki jest jego skutek. Do dalszej pracy wybiera te z działań, które przynoszą najlepszy rezultat. W szachach będzie to doprowadzenie do szach-mata, w Pac-Manie zaś połknięcie kropki. Następnie algorytm tak zmienia swoje działania by pożądane rezultaty osiągnąć najniższym kosztem. Taki sposób nauki, poprzez obserwację, jest idealną metodą w przypadku SI. Chcemy bowiem zadać sztucznej inteligencji pytania i poprosić o rozwiązywanie problemów, których nie można łatwo zdefiniować. Ponadto w świecie rzeczywistym, gdzie nie obowiązują stałe i jasne reguły gry, SI co chwila będzie napotykała na przeszkody, z którymi musi sobie poradzić. Obecnie MuZero uczy się kompresji wideo. W przypadku AlphaZero nauczenie się tego zadania byłoby bardzo kosztowne, mówią autorzy algorytmu. Już teraz zastanawiają się nad wdrożeniem MuZero do nauczenia się jazdy samochodem. Myślą też o zaprzęgnięciu algorytmu do projektowania białek. Przypomnijmy, że siostrzany algorytm AlphaFold udowodnił ostatnio, że świetnie sobie radzi z zawijaniem białek. MuZero mógłby zaś projektować białka od podstaw. Dzięki temu, mając do dyspozycji np. szczegółową wiedzę o wirusie czy bakterii, którą białko ma niszczyć, byłby w stanie zaprojektować nowe lekarstwa. MuZero, dzięki jednoczesnemu uczeniu się reguł gry i udoskonalaniu swoich działań pracuje znacznie bardziej ekonomicznie, niż jego poprzednicy stworzeni przez DeepMind. Radzi sobie świetnie nawet wówczas, gdy twórcy celowo ograniczą jego możliwości. Podczas nauki zasad Pac-Mana, gdy na każdy rozważany ruch MuZero mógł przeprowadzić nie więcej niż 7 symulacji skutków swoich działań – co jest liczbą zdecydowanie zbyt małą, by rozważyć wszystkie opcje – algorytm i tak całkiem dobrze sobie poradził. Twórcy MuZero mówią, że taki system potrzebuje sporych mocy obliczeniowych, by nauczyć się zasad. Gdy jednak już je pozna, podejmowanie kolejnych decyzji wymaga już tak niewielu obliczeń, że całe działania mogą być przeprowadzone na smartfonie. Jednak nawet nauka nie jest bardzo wymagająca. MuZero nauczył się od podstaw zasad Pac-Mana w ciągu 2-3 tygodni, korzystając przy tym z jednego GPU, mówi Julian Schrittwieser, jeden ze współautorów algorytmu. Jednym z elementów powodujących, że wymagania MuZero są nieduże w porównaniu z innymi systemami jest fakt, iż algorytm bierze pod uwagę tylko elementy istotne w procesie podejmowania decyzji. Wiedza, że parasol ochroni cię przed deszczem jest bardziej użyteczna, niż umiejętność modelowania ruchu kropel wody w powietrzu, czytamy w oświadczeniu DeepMind. Celem twórców MuZero jest spowodowanie, by ich system potrafił odrzucić wszystko to, co w danym momencie nie jest potrzebne, by skupił się na kwestiach istotnych. Mówią tutaj o dziecku, które po zaledwie kilkukrotnym doświadczeniu jest w stanie generalizować wiedzę na dany temat i połączyć np. kroplę wody z potężnym wodospadem, widząc powiązanie pomiędzy nimi. « powrót do artykułu
  24. AlphaFold, sieć sztucznej inteligencji zbudowana w oparciu o słynny DeepMind dokonała olbrzymiego kroku w kierunku poradzenia sobie z jednym z najpoważniejszych wyzwań nauk biologicznych – określeniem kształtu białek z sekwencji ich aminokwasów. To zmieni medycynę, zmieni bioinżynierię. Zmieni wszystko, mówi Andrei Lupas, biolog ewolucyjny z Instytutu Biologii Rozwojowej im. Maxa Plancka w Tybindze, który oceniał możliwości podobnych programów. Lupas dobrze zna AlphaFold. Program pomógł określić mu strukturę białka, z którym jego laboratorium nie mogło sobie poradzić od dekady. Możliwość określenia prawidłowej struktury białek pozwoli zarówno na lepsze zrozumienie życia, jak i na szybsze opracowywanie supernowoczesnych leków. Obecnie znamy 200 milionów białek, ale w pełni rozumiemy strukturę i funkcję niewielkiego ułamka z nich. Jednak nawet opisanie tej niewielkiej liczby dobrze poznanych białek zajęło nauce wiele lat, a do ich badań konieczny był wyspecjalizowany sprzęt warty miliony dolarów. AlphaFold pokonał około 100 innych programów, które wraz z nim stanęły do zawodów CASP (Critical Assesment of Structure Prediction). Zawody odbywają się co dwa lata, a AlphaFold wystartował w nich po raz pierwszy w 2018 roku i od razu trafił na szczyt klasyfikacji. Jednak w tym roku jego możliwości zaskoczyły specjalistów. Nie dość, że znacząco wyprzedził konkurencję, to jego osiągnięcia były tak imponujące, iż mogą zwiastować rewolucję w biologii. W niektórych przypadkach wyniki uzyskane za pomocą AlphaFold nie różniły się niczym od tych osiąganych za pomocą metod eksperymentalnych stanowiących złoty standard, takich jak krystalografia rentgenowska czy mikroskopia krioelektronowa. Naukowcy mówią, że AlphaFold nie zastąpi – przynajmniej na razie – tych metod, ale już teraz pozwoli na badanie struktur biologicznych w zupełnie nowy sposób. Białka to podstawowe budulce organizmów żywych. Odpowiedzialne są za większość procesów zachodzących w komórkach. O tym, jak działają i co robią, decyduje ich struktura 3D. Odpowiedni kształt przyjmują one bez żadnej instrukcji, kierowane jedynie prawami fizyki. Od dziesięcioleci główną metodą określania kształtów białek były metody eksperymentalne. Badania tego problemu rozpoczęto w latach 50. ubiegłego wieku korzystając z metod krystalografii rentgenowskiej. W ostatniej dekadzie preferowanym narzędziem badawczym stała się mikroskopia krioelektronowa. W latach 80. i 90. zaczęto prace nad wykorzystaniem komputerów do określania kształtu protein. Jednak nie szło to zbyt dobrze. Metody, które sprawdzały się przy jednych białkach nie zdawały egzaminu przy badaniu innych. John Moult, biolog obliczeniowy z University of Maryland, wraz z kolegami wpadł na pomysł zorganizowania CASP, zawodów, które miały uporządkować prace nad wykorzystaniem komputerów do badania kształtów białek. W ramach tych zawodów przed zespołami naukowymi stawia się zadanie określenia właściwej struktury protein, których to struktura została wcześniej określona metodami eksperymentalnymi, ale wyniki tych badań nie zostały jeszcze upublicznione. Moult mówi, że eksperyment ten – uczony unika słowa „zawody” – znakomicie przysłużył się badaniom na tym polu, pozwolił na uporządkowanie metod i odrzucenie wielu nieprawdziwych twierdzeń. Tutaj naprawdę możemy przekonać się, która metoda jest obiecująca, która działa, a którą należy odrzucić, stwierdza. W 2018 roku na CASP13 po raz pierwszy pojawił się AlphaFold. To algorytm sztucznej inteligencji bazujący na słynnym DeepMind, który pokonał mistrza go Lee Sedola, przełamując kolejną ważną barierę dla sztucznej inteligencji. Już w 2018 roku AlphaFold zyskał sobie uznanie specjalistów. Jednak wówczas korzystał z bardzo podobnych technik, co inne programy. Najpierw wykorzystywał metody głębokiego uczenia się oraz dane strukturalne i genetyczne do określenia odległości pomiędzy parami aminokwasów w proteinie, a następnie – już bez użycia SI – wypracowywał „konsensus” dotyczący ostatecznego wyglądu proteiny. Twórcy AlphaFolda próbowali to udoskonalać korzystając z takiego właśnie modelu, ale natrafili na przeszkody nie do pokonania. Zmienili więc taktykę i stworzyli sieć sztucznej inteligencji, która wykorzystywała też informacje o fizycznych i geometrycznych ograniczeniach w zawijaniu białek. Ponadto nowy model zamiast przewidywać zależności pomiędzy poszczególnymi aminokwasami miał do zrobienia coś znacznie trudniejszego – przewidzieć ostateczny kształt białka. CASP trwa kilka miesięcy. Biorące w nim udział zespoły regularnie otrzymują niezbędne informacje o proteinach lub ich fragmentach – w sumie jest ich około 100 – i mają określić ich strukturę. Wyniki pracy tych zespołów oceniają niezależni eksperci, którzy sprawdzają, na ile wyniki uzyskane na komputerach są zgodne z rzeczywistą strukturą białek określoną wcześniej metodami eksperymentalnymi. Oceniający nie wiedzą, czyją pracę oceniają. Wyniki są anonimizowane. Dane z AlphaFold były w bieżącym roku opisane jako „grupa 427”. Jednak niektóre z przewidywań dostarczonych przez tę grupę były tak dokładne, że wielu sędziów domyśliło się, kto jest autorem pracy. Zgadłem, że to AlphaFold. Większość zgadła, mówi Lupas. AlphaFold nie sprawował się równo. Raz radził sobie lepiej, raz gorzej. Ale niemal 2/3 jego przewidywań dorównywało wynikom uzyskanym metodami eksperymentalnymi. Czasami nie było wiadomo, czy różnica wynika z niedoskonałości AlphaFold czy metod eksperymentalnych. Jak mówi Moult, największą różnicę pomiędzy AlphaFold a metodami eksperymentalnymi było widać, gdy rzeczywisty wygląd proteiny określano za pomocą rezonansu jądrowego. Jednak różnica ta może wynikać ze sposobu obróbki surowych danych uzyskanych tą metodą. AlphaFold słabo sobie radził też w określaniu indywidualnych struktur w grupach protein, gdzie kształt białka mógł być zaburzany obecnością innego białka. Ogólnie rzecz biorąc średnia wydajność modeli biorących udział w tegorocznym CASP była lepsza niż przed dwoma laty, a za większość postępu odpowiadał AlphaFold. Na przykład tam, gdzie proteiny określano jako średnio trudne najlepsze modele uzyskiwały 75 na 100 możliwych punktów, a AlphaFold uzyskał tam 90 punktów. Przekroczenie granicy 90 punktów uznaje się za dorównanie metodom eksperymentalnym. Mohammed AlQuraishi, biolog obliczeniowy z Columbia University, który też brał udział w CASP chwali osiągnięcie AlphaFold: myślę, że trzeba uczciwie powiedzieć, iż osiągnięcie to wstrząśnie dziedziną badania struktur białek. Sądzę, że wielu specjalistów przestanie się tym zajmować, gdyż główny problem został rozwiązany. To olbrzymi przełom, jedno z najważniejszych osiągnięć naukowych, jakie widziałem w swoim życiu. O tym, jak wielkie możliwości ma AlphaFold i jak olbrzymia rewolucja może nadchodzić niech świadczy przykład badań, jakie prowadził zespół Andreia Lupasa. Niemcy od dawna próbowali określić strukturę białka pewnej bakterii. Za pomocą krystalografii rentgenowskiej uzyskali surowe dane, jednak ich przełożenie na odpowiednią strukturę wymagało pewnych informacji o kształcie proteiny. Wszelkie próby rozwiązania zagadnienia spaliły na panewce. Spędziliśmy dekadę próbując wszystkiego. Model opracowany przez group 427 dostarczył nam tę strukturę w ciągu pół godziny, mówi Lupas. Demis Hassabis, współzałożyciel i szef firmy DeepMind, która obecnie należy do Google'a, mówi, że jego firma dopiero zaczyna rozumieć, czego biolodzy chcą od AlphaFold. AlphaFold już zresztą przydaje się w praktyce. Na początku 2020 roku algorytm opisał strukturę kilku białek wirusa SARS-CoV-2. Później okazało się, że przewidywania dotyczące białka Orf3a zgadzają się z wynikami uzyskanymi eksperymentalnie. Rozpowszechnienie się AlphaFold raczej nie doprowadzi do zamknięcia laboratoriów. Jednak dzięki niemu do określenia struktury protein wystarczą gorszej jakości, a więc i łatwiejsze do uzyskania, dane. Możemy się też spodziewać olbrzymiej liczby odkryć, gdyż już w tej chwili dysponujemy olbrzymią liczbą danych, które program będzie mógł wykorzystać. Dodatkową korzyścią jest fakt, że będzie można prowadzić bardziej zaawansowane badania. Nowa generacja biologów molekularnych będzie mogła zadać bardziej złożone pytania. Będą mogli skupić się bardziej na myśleniu niż na prowadzeniu eksperymentów, mówi Lupas. Naukowcy mają nadzieję, że dzięki AlphaFold poznamy funkcje tysięcy białek tworzących ludzkie DNA, a to z kolei pozwoli nam poznać przyczyny wielu chorób. « powrót do artykułu
  25. Cerebras Systems, twórca niezwykłego olbrzymiego procesora dla sztucznej inteligencji, poinformował, że jest on szybszy niż procesy fizyczne, które symuluje. W symulacji, składającej się z 500 milionów zmiennych CS-1 zmierzył się z superkomputerem Joule, 69. najpotężniejszą maszyną na świecie. I wykonał swoje zadanie 200-krotnie szybciej niż ona. O powstaniu niezwykłego procesora oraz wyzwaniach inżynieryjnych z nim związanych informowaliśmy na początku bieżącego roku. Wówczas jego twórcy obiecywali, że do końca roku przekonamy się o jego wydajności. I słowa dotrzymali. CS-1 symulował proces spalania w elektrowniach węglowych. I przeprowadził symulację tego procesu szybciej, niż zachodzi sam proces. Firma Cerebras i jej partnerzy z US National Energy Technology Center (NETL) mówią, że CS-1 jest znacznie szybszy od jakiegokolwiek superkomputera bazującego na tradycyjnych układach CPU czy GPU. Jak wyjaśnia dyrektor Cerebras, Andrew Feldman, prognozowanie pogody, projektowanie skrzydeł samolotu, przewidywanie rozkładu temperatur w reaktorze jądrowym i wiele innych złożonych problemów jest rozwiązywanych poprzez badanie ruchu cieczy w przestrzeni i czasie. W czasie takiej symulacji dzieli się przestrzeń na sześciany, modeluje ruch cieczy w każdym z sześcianów i określa interakcje pomiędzy sześcianami. W symulacji może być milion lub więcej sześcianów i 500 000 zmiennych. Przeprowadzenie odpowiednich obliczeń wymaga olbrzymiej mocy, wielu rdzeni, olbrzymiej ilości pamięci umieszczonej jak najbliżej rdzeni obliczeniowych, wydajnych połączeń pomiędzy rdzeniami oraz pomiędzy rdzeniami a układami pamięci. Wymaga też długotrwałego trenowania odpowiednich modeli sieci neuronowych. Układ CS-1 na pojedynczym kawałku krzemu mieści 400 000 rdzeni, 18 gigabajtów pamięci oraz łącza umożliwiające przesyłanie pomiędzy rdzeniami danych z prędkością 100 Pb/s, a przesył pomiędzy rdzeniami a układami pamięci odbywa się z prędkością 9 PB/s. Specjaliści z NETL postanowili porównać możliwości superkomputera Joule z możliwościami CS-1. Joule korzysta z 84 000 rdzeni CPU i do pracy potrzebuje 450 KW. Cerebras używa zaledwie 20 KW. Joule przeprowadził odpowiednie obliczenia w ciągu 2,1 milisekundy. CS-1 zajęły one 6 mikrosekund, był więc ponad 200-krotnie szybszy. Jak mówi Feldman, olbrzymia wydajność CS-1 niesie ze sobą dwa wnioski. Po pierwsze obecnie nie istnieje żaden superkomputer zdolny do pokonania CS-1 w rozwiązywaniu tego typu problemów. Wynika to z faktu, że takie symulacje nie skalują się dobrze. Dokładanie kolejnych rdzeni do współczesnych superkomputerów nie tylko nie pomoże, ale może nawet spowalniać tak wyspecjalizowane obliczenia. Dowiodło tego chociażby porównanie CS-1 i Joule'a. Superkomputer pracował najbardziej wydajnie, gdy używał 16 384 z 84 000 dostępnych rdzeni. Problemy takie wynikają z połączeń pomiędzy rdzeniami i pomiędzy rdzeniami a układami pamięci. Jeśli chcemy na przykład symulować układ składający się z zestawu 370x370x370 sześcianów to CS-1 mapuje warstwy na sąsiadujące ze sobą rdzenie. Komunikacja między rdzeniami odbywa się błyskawicznie, więc szybko wymieniają one dane dotyczące sąsiadujących sześcianów, a obliczenia dla każdej z warstw są przechowywane w znajdujących się na tym samym krzemie układach pamięci, więc rdzenie również mają do niej bezpośredni dostęp. Dodatkowo, jako że CS-1 jest w stanie przeprowadzić symulacje procesów fizycznych szybciej niż te procesy się odbywają, może zostać też wykorzystany do kontrolowania pracy złożonych systemów obliczeniowych. Feldman poinformował, że wśród klientów korzystających z SC-1 są m.in. GlaxoSmithKline, Argonne National Laboratory, Lawrence Livermore National Laboratory, Pittsburgh Supercomputing Centre oraz niewymienione z nazwy firmy i instytucje z branż wojskowej, wywiadowczej oraz przemysłu ciężkiego. Co więcej Cerebras ma już gotowego następcę CS-1. Został on wykonany w technologii 7nm (CS-1 zbudowano w technologi 16nm), korzysta z 40 GB pamięci (CS-1 z 20 GB) i 850 000 rdzeni (CS-1 ma 400 000 rdzeni). « powrót do artykułu
×
×
  • Dodaj nową pozycję...