Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Sztuczna inteligencja u progu wielkiej rewolucji w medycynie i naukach biologicznych

Rekomendowane odpowiedzi

AlphaFold, sieć sztucznej inteligencji zbudowana w oparciu o słynny DeepMind dokonała olbrzymiego kroku w kierunku poradzenia sobie z jednym z najpoważniejszych wyzwań nauk biologicznych – określeniem kształtu białek z sekwencji ich aminokwasów. To zmieni medycynę, zmieni bioinżynierię. Zmieni wszystko, mówi Andrei Lupas, biolog ewolucyjny z Instytutu Biologii Rozwojowej im. Maxa Plancka w Tybindze, który oceniał możliwości podobnych programów. Lupas dobrze zna AlphaFold. Program pomógł określić mu strukturę białka, z którym jego laboratorium nie mogło sobie poradzić od dekady.

Możliwość określenia prawidłowej struktury białek pozwoli zarówno na lepsze zrozumienie życia, jak i na szybsze opracowywanie supernowoczesnych leków. Obecnie znamy 200 milionów białek, ale w pełni rozumiemy strukturę i funkcję niewielkiego ułamka z nich. Jednak nawet opisanie tej niewielkiej liczby dobrze poznanych białek zajęło nauce wiele lat, a do ich badań konieczny był wyspecjalizowany sprzęt warty miliony dolarów.

AlphaFold pokonał około 100 innych programów, które wraz z nim stanęły do zawodów CASP (Critical Assesment of Structure Prediction). Zawody odbywają się co dwa lata, a AlphaFold wystartował w nich po raz pierwszy w 2018 roku i od razu trafił na szczyt klasyfikacji. Jednak w tym roku jego możliwości zaskoczyły specjalistów. Nie dość, że znacząco wyprzedził konkurencję, to jego osiągnięcia były tak imponujące, iż mogą zwiastować rewolucję w biologii.

W niektórych przypadkach wyniki uzyskane za pomocą AlphaFold nie różniły się niczym od tych osiąganych za pomocą metod eksperymentalnych stanowiących złoty standard, takich jak krystalografia rentgenowska czy mikroskopia krioelektronowa. Naukowcy mówią, że AlphaFold nie zastąpi – przynajmniej na razie – tych metod, ale już teraz pozwoli na badanie struktur biologicznych w zupełnie nowy sposób.

Białka to podstawowe budulce organizmów żywych. Odpowiedzialne są za większość procesów zachodzących w komórkach. O tym, jak działają i co robią, decyduje ich struktura 3D. Odpowiedni kształt przyjmują one bez żadnej instrukcji, kierowane jedynie prawami fizyki.

Od dziesięcioleci główną metodą określania kształtów białek były metody eksperymentalne. Badania tego problemu rozpoczęto w latach 50. ubiegłego wieku korzystając z metod krystalografii rentgenowskiej. W ostatniej dekadzie preferowanym narzędziem badawczym stała się mikroskopia krioelektronowa.

W latach 80. i 90. zaczęto prace nad wykorzystaniem komputerów do określania kształtu protein. Jednak nie szło to zbyt dobrze. Metody, które sprawdzały się przy jednych białkach nie zdawały egzaminu przy badaniu innych. John Moult, biolog obliczeniowy z University of Maryland, wraz z kolegami wpadł na pomysł zorganizowania CASP, zawodów, które miały uporządkować prace nad wykorzystaniem komputerów do badania kształtów białek. W ramach tych zawodów przed zespołami naukowymi stawia się zadanie określenia właściwej struktury protein, których to struktura została wcześniej określona metodami eksperymentalnymi, ale wyniki tych badań nie zostały jeszcze upublicznione.

Moult mówi, że eksperyment ten – uczony unika słowa „zawody” – znakomicie przysłużył się badaniom na tym polu, pozwolił na uporządkowanie metod i odrzucenie wielu nieprawdziwych twierdzeń. Tutaj naprawdę możemy przekonać się, która metoda jest obiecująca, która działa, a którą należy odrzucić, stwierdza.

W 2018 roku na CASP13 po raz pierwszy pojawił się AlphaFold. To algorytm sztucznej inteligencji bazujący na słynnym DeepMind, który pokonał mistrza go Lee Sedola, przełamując kolejną ważną barierę dla sztucznej inteligencji.

Już w 2018 roku AlphaFold zyskał sobie uznanie specjalistów. Jednak wówczas korzystał z bardzo podobnych technik, co inne programy. Najpierw wykorzystywał metody głębokiego uczenia się oraz dane strukturalne i genetyczne do określenia odległości pomiędzy parami aminokwasów w proteinie, a następnie – już bez użycia SI – wypracowywał „konsensus” dotyczący ostatecznego wyglądu proteiny. Twórcy AlphaFolda próbowali to udoskonalać korzystając z takiego właśnie modelu, ale natrafili na przeszkody nie do pokonania.

Zmienili więc taktykę i stworzyli sieć sztucznej inteligencji, która wykorzystywała też informacje o fizycznych i geometrycznych ograniczeniach w zawijaniu białek. Ponadto nowy model zamiast przewidywać zależności pomiędzy poszczególnymi aminokwasami miał do zrobienia coś znacznie trudniejszego – przewidzieć ostateczny kształt białka.

CASP trwa kilka miesięcy. Biorące w nim udział zespoły regularnie otrzymują niezbędne informacje o proteinach lub ich fragmentach – w sumie jest ich około 100 – i mają określić ich strukturę. Wyniki pracy tych zespołów oceniają niezależni eksperci, którzy sprawdzają, na ile wyniki uzyskane na komputerach są zgodne z rzeczywistą strukturą białek określoną wcześniej metodami eksperymentalnymi. Oceniający nie wiedzą, czyją pracę oceniają. Wyniki są anonimizowane. Dane z AlphaFold były w bieżącym roku opisane jako „grupa 427”. Jednak niektóre z przewidywań dostarczonych przez tę grupę były tak dokładne, że wielu sędziów domyśliło się, kto jest autorem pracy. Zgadłem, że to AlphaFold. Większość zgadła, mówi Lupas.

AlphaFold nie sprawował się równo. Raz radził sobie lepiej, raz gorzej. Ale niemal 2/3 jego przewidywań dorównywało wynikom uzyskanym metodami eksperymentalnymi. Czasami nie było wiadomo, czy różnica wynika z niedoskonałości AlphaFold czy metod eksperymentalnych. Jak mówi Moult, największą różnicę pomiędzy AlphaFold a metodami eksperymentalnymi było widać, gdy rzeczywisty wygląd proteiny określano za pomocą rezonansu jądrowego. Jednak różnica ta może wynikać ze sposobu obróbki surowych danych uzyskanych tą metodą. AlphaFold słabo sobie radził też w określaniu indywidualnych struktur w grupach protein, gdzie kształt białka mógł być zaburzany obecnością innego białka.

Ogólnie rzecz biorąc średnia wydajność modeli biorących udział w tegorocznym CASP była lepsza niż przed dwoma laty, a za większość postępu odpowiadał AlphaFold. Na przykład tam, gdzie proteiny określano jako średnio trudne najlepsze modele uzyskiwały 75 na 100 możliwych punktów, a AlphaFold uzyskał tam 90 punktów. Przekroczenie granicy 90 punktów uznaje się za dorównanie metodom eksperymentalnym.

Mohammed AlQuraishi, biolog obliczeniowy z Columbia University, który też brał udział w CASP chwali osiągnięcie AlphaFold: myślę, że trzeba uczciwie powiedzieć, iż osiągnięcie to wstrząśnie dziedziną badania struktur białek. Sądzę, że wielu specjalistów przestanie się tym zajmować, gdyż główny problem został rozwiązany. To olbrzymi przełom, jedno z najważniejszych osiągnięć naukowych, jakie widziałem w swoim życiu.

O tym, jak wielkie możliwości ma AlphaFold i jak olbrzymia rewolucja może nadchodzić niech świadczy przykład badań, jakie prowadził zespół Andreia Lupasa. Niemcy od dawna próbowali określić strukturę białka pewnej bakterii. Za pomocą krystalografii rentgenowskiej uzyskali surowe dane, jednak ich przełożenie na odpowiednią strukturę wymagało pewnych informacji o kształcie proteiny. Wszelkie próby rozwiązania zagadnienia spaliły na panewce. Spędziliśmy dekadę próbując wszystkiego. Model opracowany przez group 427 dostarczył nam tę strukturę w ciągu pół godziny, mówi Lupas.

Demis Hassabis, współzałożyciel i szef firmy DeepMind, która obecnie należy do Google'a, mówi, że jego firma dopiero zaczyna rozumieć, czego biolodzy chcą od AlphaFold.

AlphaFold już zresztą przydaje się w praktyce. Na początku 2020 roku algorytm opisał strukturę kilku białek wirusa SARS-CoV-2. Później okazało się, że przewidywania dotyczące białka Orf3a zgadzają się z wynikami uzyskanymi eksperymentalnie.

Rozpowszechnienie się AlphaFold raczej nie doprowadzi do zamknięcia laboratoriów. Jednak dzięki niemu do określenia struktury protein wystarczą gorszej jakości, a więc i łatwiejsze do uzyskania, dane. Możemy się też spodziewać olbrzymiej liczby odkryć, gdyż już w tej chwili dysponujemy olbrzymią liczbą danych, które program będzie mógł wykorzystać. Dodatkową korzyścią jest fakt, że będzie można prowadzić bardziej zaawansowane badania. Nowa generacja biologów molekularnych będzie mogła zadać bardziej złożone pytania. Będą mogli skupić się bardziej na myśleniu niż na prowadzeniu eksperymentów, mówi Lupas.

Naukowcy mają nadzieję, że dzięki AlphaFold poznamy funkcje tysięcy białek tworzących ludzkie DNA, a to z kolei pozwoli nam poznać przyczyny wielu chorób.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
10 godzin temu, KopalniaWiedzy.pl napisał:

Naukowcy mają nadzieję, że dzięki AlphaFold poznamy funkcje tysięcy białek tworzących ludzkie DNA, a to z kolei pozwoli nam poznać przyczyny wielu chorób.

A to z kolei pozwoli nam poznać wiele nowych chorób. Radujmy się...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z lepszego zrozumienia rzeczywistości  trzeba się cieszyć. Poznanie nowych chorób to też pożyteczna wiedza.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 godzin temu, KopalniaWiedzy.pl napisał:

Rozpowszechnienie się AlphaFold raczej nie doprowadzi do zamknięcia laboratoriów.

Raczej... na razie.

11 godzin temu, KopalniaWiedzy.pl napisał:

Spędziliśmy dekadę próbując wszystkiego. Model opracowany przez group 427 dostarczył nam tę strukturę w ciągu pół godziny, mówi Lupas.

Można się wkurzyć... a jednocześnie zastanowić nad sensem prowadzenia takich prac w dalszym ciągu?

Ciekawe, że gdy teraz Alpha(x) dość dobrze radzi sobie z tym estymatami, jak dalece będą mogli go jeszcze ulepszyć?

... a jak dodamy do tego ten wielki procesor do sieci neuronowych opisywany ostatnio?

Edytowane przez radar

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

chciałbym żeby moim lekarzem była sztuczna inteligencja,  zamiast sprowadzać lekarzy za granicy, czego nie skorzystać z takiej możliwości,  przynajmniej dla zainteresowanych.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie da się wprost zastąpić całkowicie eksperymentu przez AI. AI potrzebuje danych, a te mogą pochodzić jedynie z eksperymentów. Przewaga jest gdzie indziej, w rozpoznawaniu wzorców, czyli gdy mamy już sporą ilość wyników eksperymentów opierających się o jakąś cechę, AI jest w stanie przewidzieć wynik kolejnego, o ile nie dzieje się tam nic jeszcze nieznanego charakterystycznego tylko dla tego eksperymentu. Eksperyment zawsze będzie potrzebny aby iść dalej gdy dotrzemy do granic możliwości poznanych wzorców. Nikt jednak nie mówi, że AI nie może sama planować i przeprowadzać eksperymentów.

  • Pozytyw (+1) 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Flaku napisał:

Nie da się wprost zastąpić całkowicie eksperymentu przez AI

 

2 godziny temu, Flaku napisał:

Nikt jednak nie mówi, że AI nie może sama planować i przeprowadzać eksperymentów.

Więc jak? :) Niby się nie wyklucza, ale dla naukowców jakby trochę tak :)

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A gdzie tu sztuczna inteligencja. Wykonuje tylko obliczenia, zgodnie z programem. Inteligentne to będzie, gdy przestanie liczyć i zacznie samo grać w szachy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Raczej

1 godzinę temu, Kikkhull napisał:

Inteligentne to będzie, gdy przestanie liczyć i zacznie

, np. z nudów,

1 godzinę temu, Kikkhull napisał:

samo grać w szachy.

 

1 godzinę temu, Kikkhull napisał:

A gdzie tu sztuczna inteligencja.

I n-ty raz pytanie o definicję inteligencji, a może człowiek też tylko wykonuje obliczenia zgodnie z programem?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
8 godzin temu, radar napisał:

I n-ty raz pytanie o definicję inteligencji, a może człowiek też tylko wykonuje obliczenia zgodnie z programem?

 

Moja definicja inteligencji brzmiała, że jest to zdolność tworzenia i wykorzystywania modeli.
Nie ma "a może", bo każdy system fizyczny może być utożsamiany z pewnym programem, w zależności od przyjętego opisu o korzystającym z różnych modeli obliczeń.
 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 godzin temu, peceed napisał:

Moja definicja inteligencji brzmiała, że jest to zdolność tworzenia i wykorzystywania modeli.

Tworzenie modeli ściśle łącz się z wiedzą, a ta nie jest wymagana przez inteligencję, oczywiście jest z nią w symbiozie.

Moja definicja wykluta na twojej brzmi, że inteligencja jest to zdolność wyboru właściwego modelu, swojego czy nie, nie ma znaczenia. Studiując na renomowanych uczelniach, zdobywając wiedzę, nie zwiększa się swojej inteligencji. Jej poziom wydaje mi się że jest stały (do początków starzenia mózgu oczywiście)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
35 minut temu, tempik napisał:

Tworzenie modeli ściśle łącz się z wiedzą, a ta nie jest wymagana przez inteligencję

Jasne, najpierw nie wiemy czym jest inteligencja a potem wiemy czego wymaga.
Niektórzy sprowadzają inteligencję do rozpoznawania wzorców, otóż wzorzec widziany w danych jest modelem tych danych. Przed tym nie ma ucieczki,  za to można rozróżniać jakość modeli. Czy są one niskopoziomowe, czy też muszą rozważać uwzględniać abstrakcyjną wiedzę.

36 minut temu, tempik napisał:

Moja definicja wykluta na twojej brzmi, że inteligencja jest to zdolność wyboru właściwego modelu, swojego czy nie, nie ma znaczenia

A jaki model jest właściwy? Do tego wybór modelu jest wykorzystywaniem modeli, a na dodatek tworzeniem modelu wyrzszego poziomu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 godzin temu, tempik napisał:

Moja definicja wykluta na twojej brzmi, że inteligencja jest to zdolność wyboru właściwego modelu, swojego czy nie, nie ma znaczenia.

4 godziny temu, peceed napisał:

A jaki model jest właściwy? Do tego wybór modelu jest wykorzystywaniem modeli, a na dodatek tworzeniem modelu wyrzszego poziomu.

A mi tam się ta definicja podoba, bo nawet jeśli wybór modelu jest wykorzystywaniem/tworzeniem modeli, to definicja wyżej dalej ma zastosowanie, bo zauważ, że zawiera założenie wyboru "własnego modelu", czyli jak rozumiem wytworzonego przed siebie. Natomiast nie do końca zgadzam się z tym:

5 godzin temu, tempik napisał:

Studiując na renomowanych uczelniach, zdobywając wiedzę, nie zwiększa się swojej inteligencji. Jej poziom wydaje mi się że jest stały (do początków starzenia mózgu oczywiście)

bo może w niewielkim stopniu, ale jednak zdobywając wiedzę (a raczej doświadczenie) możemy uczyć nasz mózg pracy w inny sposób. Weźmy chociażby te wszystkie zagadki logiczne, które widziane choć raz wcześniej następnym razem są "logiczne". Oczywiście jest to dość osobnicze i ograniczone pewnie jakimś delta V (prędkość przystosowywania mózgu do rozpoznawania innych modeli/wzorców, dla niektórych ludzi = 0 ;) ). Czyli IMHO, zdobywanie wiedzy o wzorcach/modelach zwiększa jednak inteligencję. Ograniczeniem na delta V jest czas i fizjologia, nie da się pracować/uczyć 24/7. Pytanie czy doniesienia o tym, że "najwięksi naukowcy" z reguły potrzebowali tylko do 3h snu na dobę nie ma właśnie na to wpływu?

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ciężko uciec od analogi z sieciami neuronowymi, podstawowe 2 procesy ich wykorzystania to trening i inferencja (czyli używanie).
Inteligencję połączyłbym w większym stopniu z jakością procesów uczenia.
W przypadku mózgu pewne obwody trenują inne, i na pewno dochodzi do sytuacji, w której mózg uczy się lepiej uczyć, do tego na pewno można mózg wytrenować aby lepiej myślał (logicznie).
Kiedy już rozbijemy działanie mózgu na elementarne procesy o różnej jakości, nikt już nie będzie się pytał o precyzyjną definicję słowa inteligencja. Zdolność do tworzenia i wykorzystywania modeli jest bardzo ogólna ale ciężko o coś lepszego, bo wykorzystanie modeli to również rozwiązywanie problemów z ich użyciem.
Bardzo ważną umiejętnością jest stawiane dobrych pytań. Na niskim poziomie jest to umiejętność odnajdywania słabych punktów naszych modeli i ich "ekonomicnego" rozszerzania.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
18 godzin temu, peceed napisał:

Inteligencję połączyłbym w większym stopniu z jakością procesów uczenia.

No tak, odpowiednio dobre i szybkie backpropagation. Mnie interesuje bardzo skąd mózg "wie", że po usłyszeniu frazy listen carefully, I shall say this only once ma wzmocnić akurat te połączenia między neuronami, które zostaną pobudzone tym co nastąpi? Nie mówiąc już o wszelkich zaburzenia postrzegania, wypieraniu traumatycznych wydarzeń czy chorobie dwubiegunowej, schozofremii etc. Jeszcze długa droga przed nami chyba.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 4.12.2020 o 10:30, radar napisał:

skąd mózg "wie", że po usłyszeniu frazy listen carefully, I shall say this only once ma wzmocnić akurat te połączenia między neuronami, które zostaną pobudzone tym co nastąpi?

Skąd taki pomysł? Po usłyszeniu takiej frazy koncentrujemy się w większym stopniu na wypowiedzi, tzn. blokujemy poboczne aktywności mózgu. Zapamiętuje się zawsze, cały czas, a przy większym skupieniu mamy lepszy stosunek "sygnału" do szumu.

Edytowane przez peceed

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 6.12.2020 o 10:43, peceed napisał:

Zapamiętuje się zawsze, cały czas, a przy większym skupieniu mamy lepszy stosunek "sygnału" do szumu.

Ok, ale to na jedno wychodzi, parafrazując, skąd mózg "wie" jak "koncentrować się w większym stopniu" ?

Dodatkowo, może nawet istotniejsze, skąd mózg wie co zapamiętać "bardziej" bez tej frazy? Które szlaki pamięciowe wzmocnić, a które nie? J/w np. wypieranie traumatycznych wydarzeń?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, radar napisał:

wypieranie traumatycznych wydarzeń

Mózg dezaktywuje wszystkie obszary stowarzyszone z traumami/szokiem/lękiem, niekoniecznie związane z przechowywaniem wspomnień ale też z ich reprezentacją. Nie ma tam wzmacniania, a odłączanie. Nie ma to nic wspólnego z zapominaniem, to są zbyt doniosłe zdarzenia aby je zapominać.

Godzinę temu, radar napisał:

skąd mózg "wie" jak "koncentrować się w większym stopniu"

Po prostu się nauczył.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
22 godziny temu, peceed napisał:

Po prostu się nauczył.

No tak, ja właśnie pytam o to "po prostu" ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      W latach 1967–1978 roku Włoska Wyprawa Archeologiczna ISMEO prowadziła pierwsze badania w Shahr-i Sokhta (SiS) w Iranie. Szybko okazało się, że miasto składało się z trzech obszarów: mieszkalnego, cmentarza i przemysłowego. Jego największy rozkwit przypadł na połowę III tysiąclecia przed naszą erą, gdy obszar mieszkalny zajmował 80 hektarów. Miasto uznano za jeden z najważniejszych ośrodków na wschodzie Wyżyny Irańskiej. Zidentyfikowano tam cztery okresy kulturowe podzielone na 10 faz konstrukcyjnych, które datowano na od 2. połowy IV tysiąclecia do połowy III tysiąclecia. W południowej części miasta znaleziono duży cmentarz o powierzchni około 20 hektarów, a w jednym z grobów planszę do gry i bierki.
      Datowanie wykazało, że gra pochodzi z lat 2600–2700 p.n.e. W grobie nie znaleziono żadnej innej planszy, założono więc, że wszystkie bierki pochodzą z tej jednej gry i że jest ona kompletna. Planszę do gry złożono w pobliżu głowy zmarłej osoby, w pobliżu zaś stał koszyk z bierkami i kostkami. Plansza jest podobna do wcześniej znajdowanych plansz, ale istnieją między nimi też duże różnice. Kształt planszy z SiS jest niezwykle podobny do słynnej Królewskiej Gry z Ur, jednak gra z SiS ma więcej bierek i nie ma na niej rozety, która wydaje się bardzo ważnym elementem tego typu gier, znanych pod zbiorową nazwą „gier na 20 kwadratach”.
      Z Bliskiego Wschodu i spoza niego znamy ponad 100 plansz, w pewnej mierze do siebie podobnych, a w wielu aspektach różnych, które klasyfikowane są pod tą nazwą. Znaleziono je w Turkmenistanie czy Indiach. Podobnej gry używali Egipcjanie ok. 1580 roku p.n.e. Prawdopodobnie zapoznali się z nią za pośrednictwem Hyksosów. Podobne gry były popularne przez około 2000 lat.
      Autorzy nowych badań zaprzęgli algorytmy sztucznej inteligencji, do pracy nad odgadnięciem zasad gry. Wykorzystanie metod obliczeniowych do badań starożytnych gier, pozwala na symulowanie tysięcy możliwych zestawów zasad i wybranie tych najbardziej prawdopodobnych czy pasujących do gry i bierek.
      Gra z Shahr-i Sokhta wydaje się grą strategiczną – rodzajem wyścigu – podobną do Królewskiej Gry z Ur, ale bardziej złożoną. Zdaniem naukowców, mamy tutaj do czynienia z grą 2-osobową, a celem gracza jest przesunięcie przez pola planszy wszystkich 10 swoich bierek, zanim zrobi to przeciwnik. W grze gracze posługują się kostką i mogą wykorzystywać swoje bierki zarówno do jak najszybszego dotarcia do celu, jak i do blokowania ruchów przeciwnika. Badacze sugerują, że dodatkowe bierki, dzięki którym gra różni się np. od gry z Ur, dodawały jej złożoności. Widzimy wśród nich na przykład rozety, podobne do rozet, które w grze w Ur narysowane są na planszy. W przeciwieństwie do Królewskiej Gry z Ur, w przypadku gry z SiS losowość odgrywa mniejszą rolę, a większa rolę gra strategia.
      Po określeniu najbardziej prawdopodobnych zasad, grę z SIS przetestowało 50 doświadczonych graczy, który ocenili ją i porównali z Królewską Grą z Ur. Przyznali, że gra z SiS jest bardziej wymagająca pod względem strategii niż gra z Ur.
      Szczegóły badań zostały opublikowane na łamach Journal of the British Institute of Persian Studies. Gra z Shahr-i Sokhta została znaleziona w bogato wyposażonym grobie, ale nie był to grób królewski, co wskazuje, że była bardziej dostępna niż gra dla najwyższej elity.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Troje naukowców – Elizabeth A Barnes z Colorado State University, Noah S Diffenbaugh z Uniwersytetu Stanforda oraz Sonia I Seneviratne z EHT Zurich – zebrało dane z 10 modeli klimatycznych i przeanalizowało je za pomocą algorytmów sztucznej inteligencji. Na łamach Environmental Research Letters poinformowali, że z tak przeprowadzonych badań wynika, iż globalne temperatury będą rosły szybciej niż zakładano, a jeszcze za naszego życia niektóre regiony doświadczą średniego wzrostu temperatury przekraczającego 3 stopnie Celsjusza.
      Autorzy badań stwierdzili, że w 34 ze zdefiniowanych przez IPCC 43 regionów lądowych Ziemi średni wzrost temperatury przekroczy 1,5 stopnia Celsjusza do roku 2040. W 31 z tych 34 regionów należy spodziewać się wzrostu o 2 stopnie do roku 2040. Natomiast do roku 2060 w 26 regionach średnia temperatura wzrośnie o ponad 3 stopnie.
      Regionami narażonymi na szybszy niż przeciętny wzrost temperatur są południowa Azja, region Morza Śródziemnego, Europa Środkowa i niektóre części Afryki Subsaharyjskiej.
      Profesor Diffenbaugh zauważył, że ważne jest, by nie skupiać się tylko na temperaturach globalnych, ale zwracać uwagę na temperatury lokalne i regionalne. Badając, jak rośnie temperatura w poszczególnych regionach, będziemy mogli określić, kiedy i jakie skutki będą odczuwalne dla społeczności i ekosystemów tam żyjących. Problem w tym, że regionalne zmiany klimatyczne są trudniejsze do przewidzenia. Dzieje się tak dlatego, że zjawiska klimatyczne są bardziej chaotyczne w mniejszej skali oraz dlatego, że trudno powiedzieć, jak dany obszar będzie reagował na ocieplenie w skali całej planety.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      „Ala ma kota” to pierwsze i – prawdę mówiąc – jedyne zdanie, jakie pamiętam z elementarza. I właśnie to zdanie, które kolejne pokolenia poznają dzięki legendarnemu „Elementarzowi” Falskiego prowadzi nas przez „Prosto o AI. Jak działa i myśli sztuczna inteligencja” autorstwa Roberta Trypuza. Niewielki format książeczki sugeruje, że znajdziemy w niej niezbyt wiele informacji. Nic bardziej mylnego. To elementarz, skoncentrowana skarbnica wiedzy o technologii, która już teraz w znaczącym stopniu zmienia ludzkie życie.
      Robert Trypuz jest praktykiem. To specjalista w dziedzinie Semnatic Web i inżynierii danych. Doktorat z informatyki i telekomunikacji uzyskał na Uniwersytecie w Trydencie, jest też doktorem habilitowanym filozofii z KUL. I, co widać w książce, jest entuzjastą sztucznej inteligencji, o której potrafi bardzo ciekawie pisać.
      Z „Prosto o AI” dowiemy się na przykład jak wygląda programowanie AI w porównaniu z programowaniem klasycznym, jak AI rozumie tekst, czym jest osadzanie słów oraz jakie rewolucyjne podejście pozwoliło na skonstruowanie dużych modeli językowych, w tym najbardziej znanego z nich ChataGPT. Przeczytamy o sieciach konwolucyjnych w medycynie, uczeniu ze wzmacnianiem, autor – pamiętajmy, że jest również filozofem – opisuje, czym jest sztuczna wolna wola, zatem czy AI ma wolną wolę.
      W ostatnim zaś odcinku znajdziemy rozważania na temat wpływu sztucznej inteligencji na proces edukacji. Nie ma w tym zdaniu pomyłki, odcinku, a nie rozdziale. Historia jest mianowicie taka, że treści zawarte w tej książce nie zostały napisane do tej książki. Pisałem je jako scenariusze odcinków programu, który nigdy nie powstał, pisze Robert Trypuz we wstępie. I może właśnie pochodzenie tekstu, który zamienił się w książkę, powoduje, że tak łatwo można przyswoić zawarte w niej informacje.
      Dla kogo jest zatem „Prosto o AI”? Dla każdego z nas, kto nigdy bardziej nie zagłębił się w tajniki sztucznej inteligencji. Tutaj znajdzie jej podstawy wyjaśnione w prosty sposób. Większości czytelników pogłębienie wiedzy do tego stopnia w zupełności wystarczy, jakąś zaś część zachęci, by sięgnąć po kolejne, bardziej szczegółowe i specjalistyczne pozycje. Ja czytałem książkę Trypuza z olbrzymim zainteresowaniem i przyjemnością.
    • przez KopalniaWiedzy.pl
      Ryż jest podstawowym produktem spożywczym dla ponad 4 miliardów ludzi. Zawiera dużo węglowodanów, ale mało białka. W Azji, gdzie ryż się głownie spożywa, żyje ponad połowa wszystkich cukrzyków na świecie, a wielu z nich cierpi też na niedobór białka. Naukowcy z Międzynarodowego Instytutu Badań nad Ryżem na Filipinach oraz Instytutu Molekularnej Fizjologii Roślin im. Maxa Plancka w Niemczech, zidentyfikowali geny ryżu, które kontrolują zawartość węglowodanów i białek w roślinie. Następnie wyhodowali nowe odmiany, zawierające mało cukrów, a dużo białka. Wykorzystali przy tym zarówno tradycyjne metody, jak i modyfikacje genetyczne. Odmiana powstała w wyniku krzyżowania dwóch gatunków nie jest uznawana za roślinę GMO, w związku z tym można ją będzie uprawiać i sprzedawać w Unii Europejskiej.
      Tradycyjne kultywary ryżu zawierają głównie węglowodany w postaci łatwo przyswajalnej skrobi. Może ona stanowić aż 90% węglowodanów. Taka skrobia ma wysoki indeks glikemiczny, co oznacza, że jej spożycie powoduje gwałtowny skok poziomu cukru, więc nie jest to pożywienie odpowiednie dla osób z cukrzycą. Nowe odmiany ryżu dają więc nadzieję, na poprawienie stanu zdrowia setek milionów mieszkańców Azji i Afryki, którzy dzięki nim powinni zyskać dostęp do żywności o niższym indeksie glikemicznym i zawierającej więcej białka.
      Naukowcy skrzyżowali odmiany Samba Mahsuri oraz IR36ae, uzyskując nowy kultywar o 16-procentowej zawartości białka. To od 2 do 8 razy więcej, niż odmiany standardowe. Uzyskana odmiana zawiera wiele aminokwasów egzogennych, takich jak histydyna, izoleucyna, lizyna, metionina, fenyloalanina i walina. Zawiera ich tyle, że zapewnia rekomendowane dziennie spożycie tych aminokwasów dla osób powyżej 9. roku życia. Jednocześnie ma niski indeks glikemiczny, dzięki któremu poziom cukru we krwi nie rośnie tak gwałtownie, jak w przypadku tradycyjnych odmian.
      Jakby tych zalet było mało, okazuje się, że nowe odmiany dają podobne plony jak obecnie uprawiane odmiany wysokowydajne. Zatem lepsza zawartość składników odżywczych nie będzie wiązała się z niższą produktywnością.
      Dodatkową korzyścią jest fakt, że wspomniane odmiany można uzyskać zarówno metodami edycji genów, jak i poprzez tradycyjne krzyżowanie, zatem można je będzie uprawiać i sprzedawać nawet tam, gdzie odmiany GMO nie są dopuszczane na rynek.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Wielkie modele językowe (LLM) – takie jak osławiony ChatGPT – nie są w stanie samodzielnie się uczyć i nabierać nowych umiejętności, a tym samym nie stanowią egzystencjalnego zagrożenia dla ludzkości, uważają autorzy badań opublikowanych w ramach 62nd Annual Meeting of the Association for Computational Linguistics, głównej międzynarodowej konferencji dotyczącej komputerowego przetwarzania języków naturalnych.
      Naukowcy z Uniwersytetu Technicznego w Darmstadt i Uniwersytetu w Bath stwierdzają, że LLM potrafią uczyć się, jeśli zostaną odpowiednio poinstruowane. To zaś oznacza, że można je w pełni kontrolować, przewidzieć ich działania, a tym samym są dla nas bezpieczne. Bezpieczeństwo ludzkości nie jest więc powodem, dla którego możemy się ich obawiać. Chociaż, jak zauważają badacze, wciąż można je wykorzystać w sposób niepożądany.
      W miarę rozwoju modele te będą prawdopodobnie w stanie udzielać coraz bardziej złożonych odpowiedzi i posługiwać się coraz doskonalszym językiem, ale jest wysoce nieprawdopodobne, by nabyły umiejętności złożonego rozumowania. Co więcej, jak stwierdza doktor Harish Tayyar Madabushi, jeden z autorów badań, dyskusja o egzystencjalnych zagrożeniach ze strony LLM odwraca naszą uwagę od rzeczywistych problemów i zagrożeń z nimi związanych.
      Uczeni z Wielkiej Brytanii i Niemiec przeprowadzili serię eksperymentów, w ramach których badali zdolność LLM do radzenia sobie z zadaniami, z którymi wcześniej nigdy się nie spotkały. Ilustracją problemu może być na przykład fakt, że od LLM można uzyskać odpowiedzi dotyczące sytuacji społecznej, mimo że modele nigdy nie były ćwiczone w takich odpowiedziach, ani zaprogramowane do ich udzielania. Badacze wykazali jednak, że nie nabywają one w żaden tajemny sposób odpowiedniej wiedzy, a korzystają ze znanych wbudowanych mechanizmów tworzenia odpowiedzi na podstawie analizy niewielkiej liczby znanych im przykładów.
      Tysiące eksperymentów, za pomocą których brytyjsko-niemiecki zespół przebadał LLM wykazało, że zarówno wszystkie ich umiejętności, jak i wszystkie ograniczenia, można wyjaśnić zdolnością do przetwarzania instrukcji, rozumienia języka naturalnego oraz umiejętnościom odpowiedniego wykorzystania pamięci.
      Obawiano się, że w miarę, jak modele te stają się coraz większe, będą w stanie odpowiadać na pytania, których obecnie sobie nawet nie wyobrażamy, co może doprowadzić do sytuacji, ze nabiorą niebezpiecznych dla nas umiejętności rozumowania i planowania. Nasze badania wykazały, że strach, iż modele te zrobią coś niespodziewanego, innowacyjnego i niebezpiecznego jest całkowicie bezpodstawny, dodaje Madabushi.
      Główna autorka badań, profesor Iryna Gurevych wyjaśnia, że wyniki badań nie oznaczają, iż AI w ogóle nie stanowi zagrożenia. Wykazaliśmy, że domniemane pojawienie się zdolności do złożonego myślenia powiązanych ze specyficznymi zagrożeniami nie jest wsparte dowodami i możemy bardzo dobrze kontrolować proces uczenia się LLM. Przyszłe badania powinny zatem koncentrować się na innych ryzykach stwarzanych przez wielkie modele językowe, takie jak możliwość wykorzystania ich do tworzenia fałszywych informacji.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...