Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Sztuczna inteligencja u progu wielkiej rewolucji w medycynie i naukach biologicznych

Rekomendowane odpowiedzi

AlphaFold, sieć sztucznej inteligencji zbudowana w oparciu o słynny DeepMind dokonała olbrzymiego kroku w kierunku poradzenia sobie z jednym z najpoważniejszych wyzwań nauk biologicznych – określeniem kształtu białek z sekwencji ich aminokwasów. To zmieni medycynę, zmieni bioinżynierię. Zmieni wszystko, mówi Andrei Lupas, biolog ewolucyjny z Instytutu Biologii Rozwojowej im. Maxa Plancka w Tybindze, który oceniał możliwości podobnych programów. Lupas dobrze zna AlphaFold. Program pomógł określić mu strukturę białka, z którym jego laboratorium nie mogło sobie poradzić od dekady.

Możliwość określenia prawidłowej struktury białek pozwoli zarówno na lepsze zrozumienie życia, jak i na szybsze opracowywanie supernowoczesnych leków. Obecnie znamy 200 milionów białek, ale w pełni rozumiemy strukturę i funkcję niewielkiego ułamka z nich. Jednak nawet opisanie tej niewielkiej liczby dobrze poznanych białek zajęło nauce wiele lat, a do ich badań konieczny był wyspecjalizowany sprzęt warty miliony dolarów.

AlphaFold pokonał około 100 innych programów, które wraz z nim stanęły do zawodów CASP (Critical Assesment of Structure Prediction). Zawody odbywają się co dwa lata, a AlphaFold wystartował w nich po raz pierwszy w 2018 roku i od razu trafił na szczyt klasyfikacji. Jednak w tym roku jego możliwości zaskoczyły specjalistów. Nie dość, że znacząco wyprzedził konkurencję, to jego osiągnięcia były tak imponujące, iż mogą zwiastować rewolucję w biologii.

W niektórych przypadkach wyniki uzyskane za pomocą AlphaFold nie różniły się niczym od tych osiąganych za pomocą metod eksperymentalnych stanowiących złoty standard, takich jak krystalografia rentgenowska czy mikroskopia krioelektronowa. Naukowcy mówią, że AlphaFold nie zastąpi – przynajmniej na razie – tych metod, ale już teraz pozwoli na badanie struktur biologicznych w zupełnie nowy sposób.

Białka to podstawowe budulce organizmów żywych. Odpowiedzialne są za większość procesów zachodzących w komórkach. O tym, jak działają i co robią, decyduje ich struktura 3D. Odpowiedni kształt przyjmują one bez żadnej instrukcji, kierowane jedynie prawami fizyki.

Od dziesięcioleci główną metodą określania kształtów białek były metody eksperymentalne. Badania tego problemu rozpoczęto w latach 50. ubiegłego wieku korzystając z metod krystalografii rentgenowskiej. W ostatniej dekadzie preferowanym narzędziem badawczym stała się mikroskopia krioelektronowa.

W latach 80. i 90. zaczęto prace nad wykorzystaniem komputerów do określania kształtu protein. Jednak nie szło to zbyt dobrze. Metody, które sprawdzały się przy jednych białkach nie zdawały egzaminu przy badaniu innych. John Moult, biolog obliczeniowy z University of Maryland, wraz z kolegami wpadł na pomysł zorganizowania CASP, zawodów, które miały uporządkować prace nad wykorzystaniem komputerów do badania kształtów białek. W ramach tych zawodów przed zespołami naukowymi stawia się zadanie określenia właściwej struktury protein, których to struktura została wcześniej określona metodami eksperymentalnymi, ale wyniki tych badań nie zostały jeszcze upublicznione.

Moult mówi, że eksperyment ten – uczony unika słowa „zawody” – znakomicie przysłużył się badaniom na tym polu, pozwolił na uporządkowanie metod i odrzucenie wielu nieprawdziwych twierdzeń. Tutaj naprawdę możemy przekonać się, która metoda jest obiecująca, która działa, a którą należy odrzucić, stwierdza.

W 2018 roku na CASP13 po raz pierwszy pojawił się AlphaFold. To algorytm sztucznej inteligencji bazujący na słynnym DeepMind, który pokonał mistrza go Lee Sedola, przełamując kolejną ważną barierę dla sztucznej inteligencji.

Już w 2018 roku AlphaFold zyskał sobie uznanie specjalistów. Jednak wówczas korzystał z bardzo podobnych technik, co inne programy. Najpierw wykorzystywał metody głębokiego uczenia się oraz dane strukturalne i genetyczne do określenia odległości pomiędzy parami aminokwasów w proteinie, a następnie – już bez użycia SI – wypracowywał „konsensus” dotyczący ostatecznego wyglądu proteiny. Twórcy AlphaFolda próbowali to udoskonalać korzystając z takiego właśnie modelu, ale natrafili na przeszkody nie do pokonania.

Zmienili więc taktykę i stworzyli sieć sztucznej inteligencji, która wykorzystywała też informacje o fizycznych i geometrycznych ograniczeniach w zawijaniu białek. Ponadto nowy model zamiast przewidywać zależności pomiędzy poszczególnymi aminokwasami miał do zrobienia coś znacznie trudniejszego – przewidzieć ostateczny kształt białka.

CASP trwa kilka miesięcy. Biorące w nim udział zespoły regularnie otrzymują niezbędne informacje o proteinach lub ich fragmentach – w sumie jest ich około 100 – i mają określić ich strukturę. Wyniki pracy tych zespołów oceniają niezależni eksperci, którzy sprawdzają, na ile wyniki uzyskane na komputerach są zgodne z rzeczywistą strukturą białek określoną wcześniej metodami eksperymentalnymi. Oceniający nie wiedzą, czyją pracę oceniają. Wyniki są anonimizowane. Dane z AlphaFold były w bieżącym roku opisane jako „grupa 427”. Jednak niektóre z przewidywań dostarczonych przez tę grupę były tak dokładne, że wielu sędziów domyśliło się, kto jest autorem pracy. Zgadłem, że to AlphaFold. Większość zgadła, mówi Lupas.

AlphaFold nie sprawował się równo. Raz radził sobie lepiej, raz gorzej. Ale niemal 2/3 jego przewidywań dorównywało wynikom uzyskanym metodami eksperymentalnymi. Czasami nie było wiadomo, czy różnica wynika z niedoskonałości AlphaFold czy metod eksperymentalnych. Jak mówi Moult, największą różnicę pomiędzy AlphaFold a metodami eksperymentalnymi było widać, gdy rzeczywisty wygląd proteiny określano za pomocą rezonansu jądrowego. Jednak różnica ta może wynikać ze sposobu obróbki surowych danych uzyskanych tą metodą. AlphaFold słabo sobie radził też w określaniu indywidualnych struktur w grupach protein, gdzie kształt białka mógł być zaburzany obecnością innego białka.

Ogólnie rzecz biorąc średnia wydajność modeli biorących udział w tegorocznym CASP była lepsza niż przed dwoma laty, a za większość postępu odpowiadał AlphaFold. Na przykład tam, gdzie proteiny określano jako średnio trudne najlepsze modele uzyskiwały 75 na 100 możliwych punktów, a AlphaFold uzyskał tam 90 punktów. Przekroczenie granicy 90 punktów uznaje się za dorównanie metodom eksperymentalnym.

Mohammed AlQuraishi, biolog obliczeniowy z Columbia University, który też brał udział w CASP chwali osiągnięcie AlphaFold: myślę, że trzeba uczciwie powiedzieć, iż osiągnięcie to wstrząśnie dziedziną badania struktur białek. Sądzę, że wielu specjalistów przestanie się tym zajmować, gdyż główny problem został rozwiązany. To olbrzymi przełom, jedno z najważniejszych osiągnięć naukowych, jakie widziałem w swoim życiu.

O tym, jak wielkie możliwości ma AlphaFold i jak olbrzymia rewolucja może nadchodzić niech świadczy przykład badań, jakie prowadził zespół Andreia Lupasa. Niemcy od dawna próbowali określić strukturę białka pewnej bakterii. Za pomocą krystalografii rentgenowskiej uzyskali surowe dane, jednak ich przełożenie na odpowiednią strukturę wymagało pewnych informacji o kształcie proteiny. Wszelkie próby rozwiązania zagadnienia spaliły na panewce. Spędziliśmy dekadę próbując wszystkiego. Model opracowany przez group 427 dostarczył nam tę strukturę w ciągu pół godziny, mówi Lupas.

Demis Hassabis, współzałożyciel i szef firmy DeepMind, która obecnie należy do Google'a, mówi, że jego firma dopiero zaczyna rozumieć, czego biolodzy chcą od AlphaFold.

AlphaFold już zresztą przydaje się w praktyce. Na początku 2020 roku algorytm opisał strukturę kilku białek wirusa SARS-CoV-2. Później okazało się, że przewidywania dotyczące białka Orf3a zgadzają się z wynikami uzyskanymi eksperymentalnie.

Rozpowszechnienie się AlphaFold raczej nie doprowadzi do zamknięcia laboratoriów. Jednak dzięki niemu do określenia struktury protein wystarczą gorszej jakości, a więc i łatwiejsze do uzyskania, dane. Możemy się też spodziewać olbrzymiej liczby odkryć, gdyż już w tej chwili dysponujemy olbrzymią liczbą danych, które program będzie mógł wykorzystać. Dodatkową korzyścią jest fakt, że będzie można prowadzić bardziej zaawansowane badania. Nowa generacja biologów molekularnych będzie mogła zadać bardziej złożone pytania. Będą mogli skupić się bardziej na myśleniu niż na prowadzeniu eksperymentów, mówi Lupas.

Naukowcy mają nadzieję, że dzięki AlphaFold poznamy funkcje tysięcy białek tworzących ludzkie DNA, a to z kolei pozwoli nam poznać przyczyny wielu chorób.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
10 godzin temu, KopalniaWiedzy.pl napisał:

Naukowcy mają nadzieję, że dzięki AlphaFold poznamy funkcje tysięcy białek tworzących ludzkie DNA, a to z kolei pozwoli nam poznać przyczyny wielu chorób.

A to z kolei pozwoli nam poznać wiele nowych chorób. Radujmy się...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z lepszego zrozumienia rzeczywistości  trzeba się cieszyć. Poznanie nowych chorób to też pożyteczna wiedza.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 godzin temu, KopalniaWiedzy.pl napisał:

Rozpowszechnienie się AlphaFold raczej nie doprowadzi do zamknięcia laboratoriów.

Raczej... na razie.

11 godzin temu, KopalniaWiedzy.pl napisał:

Spędziliśmy dekadę próbując wszystkiego. Model opracowany przez group 427 dostarczył nam tę strukturę w ciągu pół godziny, mówi Lupas.

Można się wkurzyć... a jednocześnie zastanowić nad sensem prowadzenia takich prac w dalszym ciągu?

Ciekawe, że gdy teraz Alpha(x) dość dobrze radzi sobie z tym estymatami, jak dalece będą mogli go jeszcze ulepszyć?

... a jak dodamy do tego ten wielki procesor do sieci neuronowych opisywany ostatnio?

Edytowane przez radar

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

chciałbym żeby moim lekarzem była sztuczna inteligencja,  zamiast sprowadzać lekarzy za granicy, czego nie skorzystać z takiej możliwości,  przynajmniej dla zainteresowanych.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie da się wprost zastąpić całkowicie eksperymentu przez AI. AI potrzebuje danych, a te mogą pochodzić jedynie z eksperymentów. Przewaga jest gdzie indziej, w rozpoznawaniu wzorców, czyli gdy mamy już sporą ilość wyników eksperymentów opierających się o jakąś cechę, AI jest w stanie przewidzieć wynik kolejnego, o ile nie dzieje się tam nic jeszcze nieznanego charakterystycznego tylko dla tego eksperymentu. Eksperyment zawsze będzie potrzebny aby iść dalej gdy dotrzemy do granic możliwości poznanych wzorców. Nikt jednak nie mówi, że AI nie może sama planować i przeprowadzać eksperymentów.

  • Pozytyw (+1) 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Flaku napisał:

Nie da się wprost zastąpić całkowicie eksperymentu przez AI

 

2 godziny temu, Flaku napisał:

Nikt jednak nie mówi, że AI nie może sama planować i przeprowadzać eksperymentów.

Więc jak? :) Niby się nie wyklucza, ale dla naukowców jakby trochę tak :)

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A gdzie tu sztuczna inteligencja. Wykonuje tylko obliczenia, zgodnie z programem. Inteligentne to będzie, gdy przestanie liczyć i zacznie samo grać w szachy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Raczej

1 godzinę temu, Kikkhull napisał:

Inteligentne to będzie, gdy przestanie liczyć i zacznie

, np. z nudów,

1 godzinę temu, Kikkhull napisał:

samo grać w szachy.

 

1 godzinę temu, Kikkhull napisał:

A gdzie tu sztuczna inteligencja.

I n-ty raz pytanie o definicję inteligencji, a może człowiek też tylko wykonuje obliczenia zgodnie z programem?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
8 godzin temu, radar napisał:

I n-ty raz pytanie o definicję inteligencji, a może człowiek też tylko wykonuje obliczenia zgodnie z programem?

 

Moja definicja inteligencji brzmiała, że jest to zdolność tworzenia i wykorzystywania modeli.
Nie ma "a może", bo każdy system fizyczny może być utożsamiany z pewnym programem, w zależności od przyjętego opisu o korzystającym z różnych modeli obliczeń.
 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 godzin temu, peceed napisał:

Moja definicja inteligencji brzmiała, że jest to zdolność tworzenia i wykorzystywania modeli.

Tworzenie modeli ściśle łącz się z wiedzą, a ta nie jest wymagana przez inteligencję, oczywiście jest z nią w symbiozie.

Moja definicja wykluta na twojej brzmi, że inteligencja jest to zdolność wyboru właściwego modelu, swojego czy nie, nie ma znaczenia. Studiując na renomowanych uczelniach, zdobywając wiedzę, nie zwiększa się swojej inteligencji. Jej poziom wydaje mi się że jest stały (do początków starzenia mózgu oczywiście)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
35 minut temu, tempik napisał:

Tworzenie modeli ściśle łącz się z wiedzą, a ta nie jest wymagana przez inteligencję

Jasne, najpierw nie wiemy czym jest inteligencja a potem wiemy czego wymaga.
Niektórzy sprowadzają inteligencję do rozpoznawania wzorców, otóż wzorzec widziany w danych jest modelem tych danych. Przed tym nie ma ucieczki,  za to można rozróżniać jakość modeli. Czy są one niskopoziomowe, czy też muszą rozważać uwzględniać abstrakcyjną wiedzę.

36 minut temu, tempik napisał:

Moja definicja wykluta na twojej brzmi, że inteligencja jest to zdolność wyboru właściwego modelu, swojego czy nie, nie ma znaczenia

A jaki model jest właściwy? Do tego wybór modelu jest wykorzystywaniem modeli, a na dodatek tworzeniem modelu wyrzszego poziomu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 godzin temu, tempik napisał:

Moja definicja wykluta na twojej brzmi, że inteligencja jest to zdolność wyboru właściwego modelu, swojego czy nie, nie ma znaczenia.

4 godziny temu, peceed napisał:

A jaki model jest właściwy? Do tego wybór modelu jest wykorzystywaniem modeli, a na dodatek tworzeniem modelu wyrzszego poziomu.

A mi tam się ta definicja podoba, bo nawet jeśli wybór modelu jest wykorzystywaniem/tworzeniem modeli, to definicja wyżej dalej ma zastosowanie, bo zauważ, że zawiera założenie wyboru "własnego modelu", czyli jak rozumiem wytworzonego przed siebie. Natomiast nie do końca zgadzam się z tym:

5 godzin temu, tempik napisał:

Studiując na renomowanych uczelniach, zdobywając wiedzę, nie zwiększa się swojej inteligencji. Jej poziom wydaje mi się że jest stały (do początków starzenia mózgu oczywiście)

bo może w niewielkim stopniu, ale jednak zdobywając wiedzę (a raczej doświadczenie) możemy uczyć nasz mózg pracy w inny sposób. Weźmy chociażby te wszystkie zagadki logiczne, które widziane choć raz wcześniej następnym razem są "logiczne". Oczywiście jest to dość osobnicze i ograniczone pewnie jakimś delta V (prędkość przystosowywania mózgu do rozpoznawania innych modeli/wzorców, dla niektórych ludzi = 0 ;) ). Czyli IMHO, zdobywanie wiedzy o wzorcach/modelach zwiększa jednak inteligencję. Ograniczeniem na delta V jest czas i fizjologia, nie da się pracować/uczyć 24/7. Pytanie czy doniesienia o tym, że "najwięksi naukowcy" z reguły potrzebowali tylko do 3h snu na dobę nie ma właśnie na to wpływu?

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ciężko uciec od analogi z sieciami neuronowymi, podstawowe 2 procesy ich wykorzystania to trening i inferencja (czyli używanie).
Inteligencję połączyłbym w większym stopniu z jakością procesów uczenia.
W przypadku mózgu pewne obwody trenują inne, i na pewno dochodzi do sytuacji, w której mózg uczy się lepiej uczyć, do tego na pewno można mózg wytrenować aby lepiej myślał (logicznie).
Kiedy już rozbijemy działanie mózgu na elementarne procesy o różnej jakości, nikt już nie będzie się pytał o precyzyjną definicję słowa inteligencja. Zdolność do tworzenia i wykorzystywania modeli jest bardzo ogólna ale ciężko o coś lepszego, bo wykorzystanie modeli to również rozwiązywanie problemów z ich użyciem.
Bardzo ważną umiejętnością jest stawiane dobrych pytań. Na niskim poziomie jest to umiejętność odnajdywania słabych punktów naszych modeli i ich "ekonomicnego" rozszerzania.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
18 godzin temu, peceed napisał:

Inteligencję połączyłbym w większym stopniu z jakością procesów uczenia.

No tak, odpowiednio dobre i szybkie backpropagation. Mnie interesuje bardzo skąd mózg "wie", że po usłyszeniu frazy listen carefully, I shall say this only once ma wzmocnić akurat te połączenia między neuronami, które zostaną pobudzone tym co nastąpi? Nie mówiąc już o wszelkich zaburzenia postrzegania, wypieraniu traumatycznych wydarzeń czy chorobie dwubiegunowej, schozofremii etc. Jeszcze długa droga przed nami chyba.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 4.12.2020 o 10:30, radar napisał:

skąd mózg "wie", że po usłyszeniu frazy listen carefully, I shall say this only once ma wzmocnić akurat te połączenia między neuronami, które zostaną pobudzone tym co nastąpi?

Skąd taki pomysł? Po usłyszeniu takiej frazy koncentrujemy się w większym stopniu na wypowiedzi, tzn. blokujemy poboczne aktywności mózgu. Zapamiętuje się zawsze, cały czas, a przy większym skupieniu mamy lepszy stosunek "sygnału" do szumu.

Edytowane przez peceed

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 6.12.2020 o 10:43, peceed napisał:

Zapamiętuje się zawsze, cały czas, a przy większym skupieniu mamy lepszy stosunek "sygnału" do szumu.

Ok, ale to na jedno wychodzi, parafrazując, skąd mózg "wie" jak "koncentrować się w większym stopniu" ?

Dodatkowo, może nawet istotniejsze, skąd mózg wie co zapamiętać "bardziej" bez tej frazy? Które szlaki pamięciowe wzmocnić, a które nie? J/w np. wypieranie traumatycznych wydarzeń?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, radar napisał:

wypieranie traumatycznych wydarzeń

Mózg dezaktywuje wszystkie obszary stowarzyszone z traumami/szokiem/lękiem, niekoniecznie związane z przechowywaniem wspomnień ale też z ich reprezentacją. Nie ma tam wzmacniania, a odłączanie. Nie ma to nic wspólnego z zapominaniem, to są zbyt doniosłe zdarzenia aby je zapominać.

Godzinę temu, radar napisał:

skąd mózg "wie" jak "koncentrować się w większym stopniu"

Po prostu się nauczył.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
22 godziny temu, peceed napisał:

Po prostu się nauczył.

No tak, ja właśnie pytam o to "po prostu" ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      W niedawno opublikowanym wywiadzie Mark Zuckerberg stwierdził, że prawdopodobnie jeszcze w bieżącym roku firma Meta (właściciel Facebooka), podobnie jak inne wielkie firmy, będzie dysponowała systemem sztuczne inteligencji zdolnym do programowania na poziomie średnio doświadczonego inżyniera (mid-level engineer).
      Początkowo wdrożenie takich systemów będzie bardzo kosztowne i będą one musiały zyskać na wydajności, jednak z czasem dojdziemy to momentu, w którym bardzo duża część kodu używanych przez nas aplikacji, w tym kodu algorytmów sztucznej inteligencji, nie będzie pisana przez ludzi, a przez sztuczną inteligencję, stwierdził założyciel Facebooka.
      Słowa Zuckerberga to tylko jeden z sygnałów, że branżę programistyczną mogą w najbliższym czasie czekać olbrzymie zmiany. Sami programiści z jednej strony tworzą algorytmy sztucznej inteligencji, które w przyszłości mogą ich zastąpić, z drugiej zaś, coraz częściej korzystają z ich pomocy. Jeszcze na początku 2023 roku tylko 10% programistów używało AI do pomocy w programowaniu, pod koniec roku 2023 już 63% firm używało lub wdrażało użycie narzędzi AI pomagających w programowaniu. Pod koniec ubiegłego roku odsetek ten wzrósł do 80%.
      Zuckerberg nie jest jedynym wśród wiodących biznesmenów z branży IT, który zapowiada szybkie nadejście olbrzymich zmian. We wrześniu Matt Garman, szef Amazon Web Services, zasugerował, że w ciągu najbliższych 2 lat większość inżynierów oprogramowania przestanie zajmować się programowaniem. Zaś kilka miesięcy wcześniej prezes Nvidii stwierdził, że uczenie się programowania nie jest dobrym pomysłem, gdyż dzięki rozwojowi AI ludzki język staje się najważniejszym językiem programowania.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Przenoszony przez komary wirus Zika powoduje infekcje w obu Amerykach, Afryce i Azji, a świat szerzej o nim usłyszał przed 10 laty, gdy wywołał epidemię w Ameryce Południowej. Zwykle Zika nie daje objawów lub przypominają one lekkie przeziębienie. W bardzo rzadkich przypadkach dochodzi do pojawienia się zespołu Guillaina-Barrégo. Dlatego też głównym zagrożeniem wiążącym się z infekcją jest zarażenie ciężarnej kobiety. Zika powoduje bowiem małogłowie u dzieci zarażonych matek.
      Naukowcy z uniwersytetów w Kalifornii, Nowym Jorku i Nevadzie właśnie odkryli mechanizm wywoływania małogłowia u noworodków przez Zikę.
      W artykule Microcephaly protein ANKLE2 promotes Zika virus replication donoszą, że Zika przejmuje proteinę ANKLE2, która jest niezbędna do prawidłowego rozwoju mózgu, i wykorzystuje ją podczas replikacji. Również spokrewnione z Ziką wirusy, jak wirus dengi i wirus żółtej gorączki, również korzystają z ANKLE2. Jednak Zika, w przeciwieństwie do większości spokrewnionych z nim wirusów, jest w stanie przedostać się do łożyska. A to ma katastrofalne skutki dla rozwijającego się dziecka. W przypadku Ziki mamy do czynienia z wirusem, który dostaje się w złe miejsce, w złym czasie, mówi doktor Priya Shah z Uniwersytetu Kalifornijskiego w Davis.
      Zika należy do rodzaju ortoflawiwirusów. Posiadają one jednoniciowe RNA i, podobnie jak inne wirusy, niosą ze sobą ograniczony zestaw instrukcji we własnym kodzie genetycznym. By się replikować, muszą skorzystać z materiału dostępnego w zarażonej komórce gospodarza. Już wcześniej autorzy obecnych badań zauważyli, że wchodząca w skład wirusa proteina NS4A wchodzi w interakcje z ANKLE2 w zarażonych komórkach. ANKLE2 jest zaangażowana w rozwój mózgu u płodu, ale występuje w komórkach całego ciała.
      Podczas najnowszych badan uczeni wykazali, że usunięcie z komórek genu kodującego ANKLE2 zmniejsza zdolność wirusa do namnażania się. Stwierdzili też, że w wyniku interakcji NS4A z ANLKE2 proteina ANKLE2 gromadzi się wokół siateczki śródplazmatycznej zarażonych komórek, tworząc „kieszonkę”, w której replikacja wirusa jest znacznie bardziej efektywna. Ponadto „kieszonka” ukrywa patogen przed układem odpornościowym. Nasz organizm potrafi efektywnie zwalczać wirusy, pod warunkiem jednak, że jest w stanie je znaleźć. Zika i spokrewnione wirusy wyewoluowały efektywne strategie pozwalające ukryć im się w tych „kieszonkach”, by uniknąć wykrycia, stwierdzają autorzy badań. Bez kieszonek wirusy są narażone na atak ze strony układu odpornościowego, który dobrze sobie radzi z utrzymywaniem ich pod kontrolą.
      Co więcej, okazało się, że wirus przechwytuje też proteinę ANKLE2 u komarów, co oznacza, że odgrywa ona dla niego ważną rolę, zarówno u gospodarzy ludzkich, jak i zwierzęcych. Uczeni wykazali też, że do interakcji NS4A i ANKLE2 dochodzi również w przypadku innych wirusów przenoszonych przez komary. To zaś sugeruje, że interakcja ta odgrywa duża rolę w rozprzestrzenianiu się wielu chorób, zatem jej mechanizm można wziąć na cel opracowując nowe leki i szczepionki.
      Wirus Zika jest jednak o tyle unikatowy, że przenika do łożyska i powoduje nieodwracalne szkody u płodu.  Większość innych wirusów nie ma, na szczęście, takich możliwości.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Pomiędzy lipcem 2021 roku a lutym 2023 roku 12 centrów mammograficznych w Niemczech brało udział w programie, w którym badania mammograficzne były wspomagane przez system sztucznej inteligencji. Radiolodzy sami decydowali, kiedy wykorzystać AI, a kiedy wykonać badania tradycyjnymi metodami. W tym czasie we wspomnianych centrach 119 radiologów przebadało 463 094 kobiety w wieku 50–69 lat. W przypadku 260 739 z nich diagnoza była wspomagana przez sztuczną inteligencję, pozostała część stanowiła grupę kontrolną.
      W grupie, w której badania wspomagane były przez AI, odsetek wykrytych nowotworów piersi wyniósł 0,67%, podczas gdy w grupie badanej tradycyjnymi metodami było to 0,57%. Ponadto tam, gdzie do badania użyto AI odsetek pań poddanych pogłębionej diagnostyce wyniósł 3,74%, a w grupie kontrolnej – 3,83%. Wartość predykcyjna dodatnia (PPV) dla grupy badanej przez AI wynosiła 17,9%, dla grupy kontrolnej – 14,9%. PPV pokazuje tę część podejrzanych wyników mammografii, które w pogłębionej diagnostyce rzeczywiście reprezentują chorobę.
      Najważniejszym wskaźnikiem przydatności algorytmu sztucznej inteligencji w badaniach mammograficznych jest fakt, że zwiększył on wykrywalność choroby bez zwiększania potrzeby przeprowadzenia pogłębionej diagnostyki. To już kolejne badania, które pokazały, że algorytmy sztucznej inteligencji rzeczywiście wspomagają pracę radiologów i mogą ratować życie kobiet.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W latach 1967–1978 roku Włoska Wyprawa Archeologiczna ISMEO prowadziła pierwsze badania w Shahr-i Sokhta (SiS) w Iranie. Szybko okazało się, że miasto składało się z trzech obszarów: mieszkalnego, cmentarza i przemysłowego. Jego największy rozkwit przypadł na połowę III tysiąclecia przed naszą erą, gdy obszar mieszkalny zajmował 80 hektarów. Miasto uznano za jeden z najważniejszych ośrodków na wschodzie Wyżyny Irańskiej. Zidentyfikowano tam cztery okresy kulturowe podzielone na 10 faz konstrukcyjnych, które datowano na od 2. połowy IV tysiąclecia do połowy III tysiąclecia. W południowej części miasta znaleziono duży cmentarz o powierzchni około 20 hektarów, a w jednym z grobów planszę do gry i bierki.
      Datowanie wykazało, że gra pochodzi z lat 2600–2700 p.n.e. W grobie nie znaleziono żadnej innej planszy, założono więc, że wszystkie bierki pochodzą z tej jednej gry i że jest ona kompletna. Planszę do gry złożono w pobliżu głowy zmarłej osoby, w pobliżu zaś stał koszyk z bierkami i kostkami. Plansza jest podobna do wcześniej znajdowanych plansz, ale istnieją między nimi też duże różnice. Kształt planszy z SiS jest niezwykle podobny do słynnej Królewskiej Gry z Ur, jednak gra z SiS ma więcej bierek i nie ma na niej rozety, która wydaje się bardzo ważnym elementem tego typu gier, znanych pod zbiorową nazwą „gier na 20 kwadratach”.
      Z Bliskiego Wschodu i spoza niego znamy ponad 100 plansz, w pewnej mierze do siebie podobnych, a w wielu aspektach różnych, które klasyfikowane są pod tą nazwą. Znaleziono je w Turkmenistanie czy Indiach. Podobnej gry używali Egipcjanie ok. 1580 roku p.n.e. Prawdopodobnie zapoznali się z nią za pośrednictwem Hyksosów. Podobne gry były popularne przez około 2000 lat.
      Autorzy nowych badań zaprzęgli algorytmy sztucznej inteligencji, do pracy nad odgadnięciem zasad gry. Wykorzystanie metod obliczeniowych do badań starożytnych gier, pozwala na symulowanie tysięcy możliwych zestawów zasad i wybranie tych najbardziej prawdopodobnych czy pasujących do gry i bierek.
      Gra z Shahr-i Sokhta wydaje się grą strategiczną – rodzajem wyścigu – podobną do Królewskiej Gry z Ur, ale bardziej złożoną. Zdaniem naukowców, mamy tutaj do czynienia z grą 2-osobową, a celem gracza jest przesunięcie przez pola planszy wszystkich 10 swoich bierek, zanim zrobi to przeciwnik. W grze gracze posługują się kostką i mogą wykorzystywać swoje bierki zarówno do jak najszybszego dotarcia do celu, jak i do blokowania ruchów przeciwnika. Badacze sugerują, że dodatkowe bierki, dzięki którym gra różni się np. od gry z Ur, dodawały jej złożoności. Widzimy wśród nich na przykład rozety, podobne do rozet, które w grze w Ur narysowane są na planszy. W przeciwieństwie do Królewskiej Gry z Ur, w przypadku gry z SiS losowość odgrywa mniejszą rolę, a większa rolę gra strategia.
      Po określeniu najbardziej prawdopodobnych zasad, grę z SIS przetestowało 50 doświadczonych graczy, który ocenili ją i porównali z Królewską Grą z Ur. Przyznali, że gra z SiS jest bardziej wymagająca pod względem strategii niż gra z Ur.
      Szczegóły badań zostały opublikowane na łamach Journal of the British Institute of Persian Studies. Gra z Shahr-i Sokhta została znaleziona w bogato wyposażonym grobie, ale nie był to grób królewski, co wskazuje, że była bardziej dostępna niż gra dla najwyższej elity.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Troje naukowców – Elizabeth A Barnes z Colorado State University, Noah S Diffenbaugh z Uniwersytetu Stanforda oraz Sonia I Seneviratne z EHT Zurich – zebrało dane z 10 modeli klimatycznych i przeanalizowało je za pomocą algorytmów sztucznej inteligencji. Na łamach Environmental Research Letters poinformowali, że z tak przeprowadzonych badań wynika, iż globalne temperatury będą rosły szybciej niż zakładano, a jeszcze za naszego życia niektóre regiony doświadczą średniego wzrostu temperatury przekraczającego 3 stopnie Celsjusza.
      Autorzy badań stwierdzili, że w 34 ze zdefiniowanych przez IPCC 43 regionów lądowych Ziemi średni wzrost temperatury przekroczy 1,5 stopnia Celsjusza do roku 2040. W 31 z tych 34 regionów należy spodziewać się wzrostu o 2 stopnie do roku 2040. Natomiast do roku 2060 w 26 regionach średnia temperatura wzrośnie o ponad 3 stopnie.
      Regionami narażonymi na szybszy niż przeciętny wzrost temperatur są południowa Azja, region Morza Śródziemnego, Europa Środkowa i niektóre części Afryki Subsaharyjskiej.
      Profesor Diffenbaugh zauważył, że ważne jest, by nie skupiać się tylko na temperaturach globalnych, ale zwracać uwagę na temperatury lokalne i regionalne. Badając, jak rośnie temperatura w poszczególnych regionach, będziemy mogli określić, kiedy i jakie skutki będą odczuwalne dla społeczności i ekosystemów tam żyjących. Problem w tym, że regionalne zmiany klimatyczne są trudniejsze do przewidzenia. Dzieje się tak dlatego, że zjawiska klimatyczne są bardziej chaotyczne w mniejszej skali oraz dlatego, że trudno powiedzieć, jak dany obszar będzie reagował na ocieplenie w skali całej planety.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...