Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Sztuczna inteligencja u progu wielkiej rewolucji w medycynie i naukach biologicznych

Recommended Posts

AlphaFold, sieć sztucznej inteligencji zbudowana w oparciu o słynny DeepMind dokonała olbrzymiego kroku w kierunku poradzenia sobie z jednym z najpoważniejszych wyzwań nauk biologicznych – określeniem kształtu białek z sekwencji ich aminokwasów. To zmieni medycynę, zmieni bioinżynierię. Zmieni wszystko, mówi Andrei Lupas, biolog ewolucyjny z Instytutu Biologii Rozwojowej im. Maxa Plancka w Tybindze, który oceniał możliwości podobnych programów. Lupas dobrze zna AlphaFold. Program pomógł określić mu strukturę białka, z którym jego laboratorium nie mogło sobie poradzić od dekady.

Możliwość określenia prawidłowej struktury białek pozwoli zarówno na lepsze zrozumienie życia, jak i na szybsze opracowywanie supernowoczesnych leków. Obecnie znamy 200 milionów białek, ale w pełni rozumiemy strukturę i funkcję niewielkiego ułamka z nich. Jednak nawet opisanie tej niewielkiej liczby dobrze poznanych białek zajęło nauce wiele lat, a do ich badań konieczny był wyspecjalizowany sprzęt warty miliony dolarów.

AlphaFold pokonał około 100 innych programów, które wraz z nim stanęły do zawodów CASP (Critical Assesment of Structure Prediction). Zawody odbywają się co dwa lata, a AlphaFold wystartował w nich po raz pierwszy w 2018 roku i od razu trafił na szczyt klasyfikacji. Jednak w tym roku jego możliwości zaskoczyły specjalistów. Nie dość, że znacząco wyprzedził konkurencję, to jego osiągnięcia były tak imponujące, iż mogą zwiastować rewolucję w biologii.

W niektórych przypadkach wyniki uzyskane za pomocą AlphaFold nie różniły się niczym od tych osiąganych za pomocą metod eksperymentalnych stanowiących złoty standard, takich jak krystalografia rentgenowska czy mikroskopia krioelektronowa. Naukowcy mówią, że AlphaFold nie zastąpi – przynajmniej na razie – tych metod, ale już teraz pozwoli na badanie struktur biologicznych w zupełnie nowy sposób.

Białka to podstawowe budulce organizmów żywych. Odpowiedzialne są za większość procesów zachodzących w komórkach. O tym, jak działają i co robią, decyduje ich struktura 3D. Odpowiedni kształt przyjmują one bez żadnej instrukcji, kierowane jedynie prawami fizyki.

Od dziesięcioleci główną metodą określania kształtów białek były metody eksperymentalne. Badania tego problemu rozpoczęto w latach 50. ubiegłego wieku korzystając z metod krystalografii rentgenowskiej. W ostatniej dekadzie preferowanym narzędziem badawczym stała się mikroskopia krioelektronowa.

W latach 80. i 90. zaczęto prace nad wykorzystaniem komputerów do określania kształtu protein. Jednak nie szło to zbyt dobrze. Metody, które sprawdzały się przy jednych białkach nie zdawały egzaminu przy badaniu innych. John Moult, biolog obliczeniowy z University of Maryland, wraz z kolegami wpadł na pomysł zorganizowania CASP, zawodów, które miały uporządkować prace nad wykorzystaniem komputerów do badania kształtów białek. W ramach tych zawodów przed zespołami naukowymi stawia się zadanie określenia właściwej struktury protein, których to struktura została wcześniej określona metodami eksperymentalnymi, ale wyniki tych badań nie zostały jeszcze upublicznione.

Moult mówi, że eksperyment ten – uczony unika słowa „zawody” – znakomicie przysłużył się badaniom na tym polu, pozwolił na uporządkowanie metod i odrzucenie wielu nieprawdziwych twierdzeń. Tutaj naprawdę możemy przekonać się, która metoda jest obiecująca, która działa, a którą należy odrzucić, stwierdza.

W 2018 roku na CASP13 po raz pierwszy pojawił się AlphaFold. To algorytm sztucznej inteligencji bazujący na słynnym DeepMind, który pokonał mistrza go Lee Sedola, przełamując kolejną ważną barierę dla sztucznej inteligencji.

Już w 2018 roku AlphaFold zyskał sobie uznanie specjalistów. Jednak wówczas korzystał z bardzo podobnych technik, co inne programy. Najpierw wykorzystywał metody głębokiego uczenia się oraz dane strukturalne i genetyczne do określenia odległości pomiędzy parami aminokwasów w proteinie, a następnie – już bez użycia SI – wypracowywał „konsensus” dotyczący ostatecznego wyglądu proteiny. Twórcy AlphaFolda próbowali to udoskonalać korzystając z takiego właśnie modelu, ale natrafili na przeszkody nie do pokonania.

Zmienili więc taktykę i stworzyli sieć sztucznej inteligencji, która wykorzystywała też informacje o fizycznych i geometrycznych ograniczeniach w zawijaniu białek. Ponadto nowy model zamiast przewidywać zależności pomiędzy poszczególnymi aminokwasami miał do zrobienia coś znacznie trudniejszego – przewidzieć ostateczny kształt białka.

CASP trwa kilka miesięcy. Biorące w nim udział zespoły regularnie otrzymują niezbędne informacje o proteinach lub ich fragmentach – w sumie jest ich około 100 – i mają określić ich strukturę. Wyniki pracy tych zespołów oceniają niezależni eksperci, którzy sprawdzają, na ile wyniki uzyskane na komputerach są zgodne z rzeczywistą strukturą białek określoną wcześniej metodami eksperymentalnymi. Oceniający nie wiedzą, czyją pracę oceniają. Wyniki są anonimizowane. Dane z AlphaFold były w bieżącym roku opisane jako „grupa 427”. Jednak niektóre z przewidywań dostarczonych przez tę grupę były tak dokładne, że wielu sędziów domyśliło się, kto jest autorem pracy. Zgadłem, że to AlphaFold. Większość zgadła, mówi Lupas.

AlphaFold nie sprawował się równo. Raz radził sobie lepiej, raz gorzej. Ale niemal 2/3 jego przewidywań dorównywało wynikom uzyskanym metodami eksperymentalnymi. Czasami nie było wiadomo, czy różnica wynika z niedoskonałości AlphaFold czy metod eksperymentalnych. Jak mówi Moult, największą różnicę pomiędzy AlphaFold a metodami eksperymentalnymi było widać, gdy rzeczywisty wygląd proteiny określano za pomocą rezonansu jądrowego. Jednak różnica ta może wynikać ze sposobu obróbki surowych danych uzyskanych tą metodą. AlphaFold słabo sobie radził też w określaniu indywidualnych struktur w grupach protein, gdzie kształt białka mógł być zaburzany obecnością innego białka.

Ogólnie rzecz biorąc średnia wydajność modeli biorących udział w tegorocznym CASP była lepsza niż przed dwoma laty, a za większość postępu odpowiadał AlphaFold. Na przykład tam, gdzie proteiny określano jako średnio trudne najlepsze modele uzyskiwały 75 na 100 możliwych punktów, a AlphaFold uzyskał tam 90 punktów. Przekroczenie granicy 90 punktów uznaje się za dorównanie metodom eksperymentalnym.

Mohammed AlQuraishi, biolog obliczeniowy z Columbia University, który też brał udział w CASP chwali osiągnięcie AlphaFold: myślę, że trzeba uczciwie powiedzieć, iż osiągnięcie to wstrząśnie dziedziną badania struktur białek. Sądzę, że wielu specjalistów przestanie się tym zajmować, gdyż główny problem został rozwiązany. To olbrzymi przełom, jedno z najważniejszych osiągnięć naukowych, jakie widziałem w swoim życiu.

O tym, jak wielkie możliwości ma AlphaFold i jak olbrzymia rewolucja może nadchodzić niech świadczy przykład badań, jakie prowadził zespół Andreia Lupasa. Niemcy od dawna próbowali określić strukturę białka pewnej bakterii. Za pomocą krystalografii rentgenowskiej uzyskali surowe dane, jednak ich przełożenie na odpowiednią strukturę wymagało pewnych informacji o kształcie proteiny. Wszelkie próby rozwiązania zagadnienia spaliły na panewce. Spędziliśmy dekadę próbując wszystkiego. Model opracowany przez group 427 dostarczył nam tę strukturę w ciągu pół godziny, mówi Lupas.

Demis Hassabis, współzałożyciel i szef firmy DeepMind, która obecnie należy do Google'a, mówi, że jego firma dopiero zaczyna rozumieć, czego biolodzy chcą od AlphaFold.

AlphaFold już zresztą przydaje się w praktyce. Na początku 2020 roku algorytm opisał strukturę kilku białek wirusa SARS-CoV-2. Później okazało się, że przewidywania dotyczące białka Orf3a zgadzają się z wynikami uzyskanymi eksperymentalnie.

Rozpowszechnienie się AlphaFold raczej nie doprowadzi do zamknięcia laboratoriów. Jednak dzięki niemu do określenia struktury protein wystarczą gorszej jakości, a więc i łatwiejsze do uzyskania, dane. Możemy się też spodziewać olbrzymiej liczby odkryć, gdyż już w tej chwili dysponujemy olbrzymią liczbą danych, które program będzie mógł wykorzystać. Dodatkową korzyścią jest fakt, że będzie można prowadzić bardziej zaawansowane badania. Nowa generacja biologów molekularnych będzie mogła zadać bardziej złożone pytania. Będą mogli skupić się bardziej na myśleniu niż na prowadzeniu eksperymentów, mówi Lupas.

Naukowcy mają nadzieję, że dzięki AlphaFold poznamy funkcje tysięcy białek tworzących ludzkie DNA, a to z kolei pozwoli nam poznać przyczyny wielu chorób.


« powrót do artykułu

Share this post


Link to post
Share on other sites
10 godzin temu, KopalniaWiedzy.pl napisał:

Naukowcy mają nadzieję, że dzięki AlphaFold poznamy funkcje tysięcy białek tworzących ludzkie DNA, a to z kolei pozwoli nam poznać przyczyny wielu chorób.

A to z kolei pozwoli nam poznać wiele nowych chorób. Radujmy się...

Share this post


Link to post
Share on other sites

Z lepszego zrozumienia rzeczywistości  trzeba się cieszyć. Poznanie nowych chorób to też pożyteczna wiedza.

Share this post


Link to post
Share on other sites
11 godzin temu, KopalniaWiedzy.pl napisał:

Rozpowszechnienie się AlphaFold raczej nie doprowadzi do zamknięcia laboratoriów.

Raczej... na razie.

11 godzin temu, KopalniaWiedzy.pl napisał:

Spędziliśmy dekadę próbując wszystkiego. Model opracowany przez group 427 dostarczył nam tę strukturę w ciągu pół godziny, mówi Lupas.

Można się wkurzyć... a jednocześnie zastanowić nad sensem prowadzenia takich prac w dalszym ciągu?

Ciekawe, że gdy teraz Alpha(x) dość dobrze radzi sobie z tym estymatami, jak dalece będą mogli go jeszcze ulepszyć?

... a jak dodamy do tego ten wielki procesor do sieci neuronowych opisywany ostatnio?

Edited by radar

Share this post


Link to post
Share on other sites

chciałbym żeby moim lekarzem była sztuczna inteligencja,  zamiast sprowadzać lekarzy za granicy, czego nie skorzystać z takiej możliwości,  przynajmniej dla zainteresowanych.

Share this post


Link to post
Share on other sites

Nie da się wprost zastąpić całkowicie eksperymentu przez AI. AI potrzebuje danych, a te mogą pochodzić jedynie z eksperymentów. Przewaga jest gdzie indziej, w rozpoznawaniu wzorców, czyli gdy mamy już sporą ilość wyników eksperymentów opierających się o jakąś cechę, AI jest w stanie przewidzieć wynik kolejnego, o ile nie dzieje się tam nic jeszcze nieznanego charakterystycznego tylko dla tego eksperymentu. Eksperyment zawsze będzie potrzebny aby iść dalej gdy dotrzemy do granic możliwości poznanych wzorców. Nikt jednak nie mówi, że AI nie może sama planować i przeprowadzać eksperymentów.

  • Upvote (+1) 2

Share this post


Link to post
Share on other sites
2 godziny temu, Flaku napisał:

Nie da się wprost zastąpić całkowicie eksperymentu przez AI

 

2 godziny temu, Flaku napisał:

Nikt jednak nie mówi, że AI nie może sama planować i przeprowadzać eksperymentów.

Więc jak? :) Niby się nie wyklucza, ale dla naukowców jakby trochę tak :)

 

 

Share this post


Link to post
Share on other sites

A gdzie tu sztuczna inteligencja. Wykonuje tylko obliczenia, zgodnie z programem. Inteligentne to będzie, gdy przestanie liczyć i zacznie samo grać w szachy.

Share this post


Link to post
Share on other sites

Raczej

1 godzinę temu, Kikkhull napisał:

Inteligentne to będzie, gdy przestanie liczyć i zacznie

, np. z nudów,

1 godzinę temu, Kikkhull napisał:

samo grać w szachy.

 

1 godzinę temu, Kikkhull napisał:

A gdzie tu sztuczna inteligencja.

I n-ty raz pytanie o definicję inteligencji, a może człowiek też tylko wykonuje obliczenia zgodnie z programem?

Share this post


Link to post
Share on other sites
8 godzin temu, radar napisał:

I n-ty raz pytanie o definicję inteligencji, a może człowiek też tylko wykonuje obliczenia zgodnie z programem?

 

Moja definicja inteligencji brzmiała, że jest to zdolność tworzenia i wykorzystywania modeli.
Nie ma "a może", bo każdy system fizyczny może być utożsamiany z pewnym programem, w zależności od przyjętego opisu o korzystającym z różnych modeli obliczeń.
 

Share this post


Link to post
Share on other sites
7 godzin temu, peceed napisał:

Moja definicja inteligencji brzmiała, że jest to zdolność tworzenia i wykorzystywania modeli.

Tworzenie modeli ściśle łącz się z wiedzą, a ta nie jest wymagana przez inteligencję, oczywiście jest z nią w symbiozie.

Moja definicja wykluta na twojej brzmi, że inteligencja jest to zdolność wyboru właściwego modelu, swojego czy nie, nie ma znaczenia. Studiując na renomowanych uczelniach, zdobywając wiedzę, nie zwiększa się swojej inteligencji. Jej poziom wydaje mi się że jest stały (do początków starzenia mózgu oczywiście)

Share this post


Link to post
Share on other sites
35 minut temu, tempik napisał:

Tworzenie modeli ściśle łącz się z wiedzą, a ta nie jest wymagana przez inteligencję

Jasne, najpierw nie wiemy czym jest inteligencja a potem wiemy czego wymaga.
Niektórzy sprowadzają inteligencję do rozpoznawania wzorców, otóż wzorzec widziany w danych jest modelem tych danych. Przed tym nie ma ucieczki,  za to można rozróżniać jakość modeli. Czy są one niskopoziomowe, czy też muszą rozważać uwzględniać abstrakcyjną wiedzę.

36 minut temu, tempik napisał:

Moja definicja wykluta na twojej brzmi, że inteligencja jest to zdolność wyboru właściwego modelu, swojego czy nie, nie ma znaczenia

A jaki model jest właściwy? Do tego wybór modelu jest wykorzystywaniem modeli, a na dodatek tworzeniem modelu wyrzszego poziomu.

Share this post


Link to post
Share on other sites
5 godzin temu, tempik napisał:

Moja definicja wykluta na twojej brzmi, że inteligencja jest to zdolność wyboru właściwego modelu, swojego czy nie, nie ma znaczenia.

4 godziny temu, peceed napisał:

A jaki model jest właściwy? Do tego wybór modelu jest wykorzystywaniem modeli, a na dodatek tworzeniem modelu wyrzszego poziomu.

A mi tam się ta definicja podoba, bo nawet jeśli wybór modelu jest wykorzystywaniem/tworzeniem modeli, to definicja wyżej dalej ma zastosowanie, bo zauważ, że zawiera założenie wyboru "własnego modelu", czyli jak rozumiem wytworzonego przed siebie. Natomiast nie do końca zgadzam się z tym:

5 godzin temu, tempik napisał:

Studiując na renomowanych uczelniach, zdobywając wiedzę, nie zwiększa się swojej inteligencji. Jej poziom wydaje mi się że jest stały (do początków starzenia mózgu oczywiście)

bo może w niewielkim stopniu, ale jednak zdobywając wiedzę (a raczej doświadczenie) możemy uczyć nasz mózg pracy w inny sposób. Weźmy chociażby te wszystkie zagadki logiczne, które widziane choć raz wcześniej następnym razem są "logiczne". Oczywiście jest to dość osobnicze i ograniczone pewnie jakimś delta V (prędkość przystosowywania mózgu do rozpoznawania innych modeli/wzorców, dla niektórych ludzi = 0 ;) ). Czyli IMHO, zdobywanie wiedzy o wzorcach/modelach zwiększa jednak inteligencję. Ograniczeniem na delta V jest czas i fizjologia, nie da się pracować/uczyć 24/7. Pytanie czy doniesienia o tym, że "najwięksi naukowcy" z reguły potrzebowali tylko do 3h snu na dobę nie ma właśnie na to wpływu?

 

Share this post


Link to post
Share on other sites

Ciężko uciec od analogi z sieciami neuronowymi, podstawowe 2 procesy ich wykorzystania to trening i inferencja (czyli używanie).
Inteligencję połączyłbym w większym stopniu z jakością procesów uczenia.
W przypadku mózgu pewne obwody trenują inne, i na pewno dochodzi do sytuacji, w której mózg uczy się lepiej uczyć, do tego na pewno można mózg wytrenować aby lepiej myślał (logicznie).
Kiedy już rozbijemy działanie mózgu na elementarne procesy o różnej jakości, nikt już nie będzie się pytał o precyzyjną definicję słowa inteligencja. Zdolność do tworzenia i wykorzystywania modeli jest bardzo ogólna ale ciężko o coś lepszego, bo wykorzystanie modeli to również rozwiązywanie problemów z ich użyciem.
Bardzo ważną umiejętnością jest stawiane dobrych pytań. Na niskim poziomie jest to umiejętność odnajdywania słabych punktów naszych modeli i ich "ekonomicnego" rozszerzania.

Share this post


Link to post
Share on other sites
18 godzin temu, peceed napisał:

Inteligencję połączyłbym w większym stopniu z jakością procesów uczenia.

No tak, odpowiednio dobre i szybkie backpropagation. Mnie interesuje bardzo skąd mózg "wie", że po usłyszeniu frazy listen carefully, I shall say this only once ma wzmocnić akurat te połączenia między neuronami, które zostaną pobudzone tym co nastąpi? Nie mówiąc już o wszelkich zaburzenia postrzegania, wypieraniu traumatycznych wydarzeń czy chorobie dwubiegunowej, schozofremii etc. Jeszcze długa droga przed nami chyba.

 

Share this post


Link to post
Share on other sites
W dniu 4.12.2020 o 10:30, radar napisał:

skąd mózg "wie", że po usłyszeniu frazy listen carefully, I shall say this only once ma wzmocnić akurat te połączenia między neuronami, które zostaną pobudzone tym co nastąpi?

Skąd taki pomysł? Po usłyszeniu takiej frazy koncentrujemy się w większym stopniu na wypowiedzi, tzn. blokujemy poboczne aktywności mózgu. Zapamiętuje się zawsze, cały czas, a przy większym skupieniu mamy lepszy stosunek "sygnału" do szumu.

Edited by peceed

Share this post


Link to post
Share on other sites
W dniu 6.12.2020 o 10:43, peceed napisał:

Zapamiętuje się zawsze, cały czas, a przy większym skupieniu mamy lepszy stosunek "sygnału" do szumu.

Ok, ale to na jedno wychodzi, parafrazując, skąd mózg "wie" jak "koncentrować się w większym stopniu" ?

Dodatkowo, może nawet istotniejsze, skąd mózg wie co zapamiętać "bardziej" bez tej frazy? Które szlaki pamięciowe wzmocnić, a które nie? J/w np. wypieranie traumatycznych wydarzeń?

Share this post


Link to post
Share on other sites
Godzinę temu, radar napisał:

wypieranie traumatycznych wydarzeń

Mózg dezaktywuje wszystkie obszary stowarzyszone z traumami/szokiem/lękiem, niekoniecznie związane z przechowywaniem wspomnień ale też z ich reprezentacją. Nie ma tam wzmacniania, a odłączanie. Nie ma to nic wspólnego z zapominaniem, to są zbyt doniosłe zdarzenia aby je zapominać.

Godzinę temu, radar napisał:

skąd mózg "wie" jak "koncentrować się w większym stopniu"

Po prostu się nauczył.

Share this post


Link to post
Share on other sites
22 godziny temu, peceed napisał:

Po prostu się nauczył.

No tak, ja właśnie pytam o to "po prostu" ;)

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Opanowanie ognia przez naszych przodków było jedną z największych innowacji w dziejach. Zrozumienie procesu opanowywania ognia przez przodków H. sapiens, poznanie miejsca i czasu jego ujarzmienia może mieć olbrzymie znaczenie dla opisu ewolucji człowieka i naszej wczesnej historii. Może w tym pomóc sztuczna inteligencja, która właśnie odkryła dowody na rozpalanie ognia na izraelskim stanowisku archeologicznym sprzed miliona lat.
      Obecnie istnieje kilka technik rozpoznawania przypadków użycia ognia. Można na przykład szukać zmian kolorów kości poddanych jego działaniu lub deformacji kamiennych narzędzi. Ludzie używali bowiem pirotechnologii do ich obróbki. To jednak wymaga działania temperatur wyższych niż 450 stopni, a tego typu dowody są rzadko znajdowane na stanowiskach liczących więcej niż 500 tysięcy lat.
      W ubiegłym roku na łamach Nature. Human Behaviour izraelscy naukowcy poinformowali o stworzeniu algorytmu sztucznej inteligencji, który rozpoznaje subtelne zmiany w krzemieniu spowodowane oddziaływaniem temperatur pomiędzy 200 a 300 stopni Celsjusza. Izraelczycy zbierali krzemień, podgrzewali go, a następnie trenowali SI tak, by potrafiła rozpoznawać zmiany w reakcji krzemienia na promieniowanie ultrafioletowe.
      Teraz technikę tę postanowili wykorzystać naukowcy pracujący pod kierunkiem Michaela Chazana z University of Toronto. Uczeni wykorzystali algorytm do badania kawałków krzemienia ze stanowiska Evron Quarry w Izraelu. Podczas naszego badania ujawniliśmy obecność ognia na stanowisku z dolnego paleolitu, w którym brakowało widocznych śladów użycia pirotechnologii. Tym samym dodaliśmy to stanowisko do niewielkiej grupy miejsc, dla których istnieją dowody wiążące wczesną produkcję narzędzi przez homininy z użyciem ognia. Ponadto badania te pokazują, że istnieje możliwość uzyskania ukrytych dotychczas informacji na temat wykorzystania pirotechnologii w innych miejscach, czytamy na łamach PNAS.
      Z przeprowadzonych badań wynika, że ludzie używali ognia w Evron Quary około miliona lat temu. Wybraliśmy Evron Quary, gdyż znajduje się tam ten sam typ krzemienia, jaki był używany przez autorów algorytmu SI. Jednak nie mieliśmy żadnych podstaw, by przypuszczać, że wykorzystywano tutaj ogień, przyznaje Chazan.
      Tymczasem algorytm SI wskazał, że wiele znalezionych tutaj krzemiennych narzędzi było podgrzewanych, zwykle do temperatury około 400 stopni Celsjusza. Po tym odkryciu naukowcy jeszcze raz przeanalizowali – za pomocą innych technik – znalezione tutaj fragmenty kości oraz kła. Okazało się, że fragmenty kła poddane były działaniu wysokich temperatur. Dotychczas nikt nie sprawdzał tych kości pod kątem ich wystawienia na działanie ognia. Zdaniem naukowców, znalezienie w jednym miejscu zarówno kamiennych narzędzi, jak i zęba, które miały kontakt z ogniem, wskazuje raczej na celowe działanie niż naturalny pożar. Wnioski takie są tym bardziej uprawnione, że na pobliskim stanowisku Gesher Benot Ya’aqov również znaleziono – pochodzące z podobnego okresu – ślady używania ognia i to w różnych miejscach, co sugeruje na celowe jego rozpalanie.
      Obecnie dysponujemy pewnymi dowodami sugerującymi, że wcześni hominini używali ognia już 1,5 miliona lat temu. Znaleziono je przed dwoma laty na kenijskim stanowisku Koobi Fora.
      Przed około 20 laty grupa antropologów wysunęła hipotezę, że hominini używali ognia już może nawet 2 miliony lat temu. Sztuczna inteligencja może pomóc w zidentyfikowaniu użycia ognia na znanych już paleolitycznych stanowiskach archeologicznych, co pozwoli na zweryfikowanie tej hipotezy.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Proteina p53 zapobiega podziałom komórek ze zmutowanym lub uszkodzonym DNA, chroniąc nas w ten sposób przed rozwojem guzów nowotworowych. Problem jednak w tym, że p53 bardzo szybko rozpada się w komórkach. Naukowcy ze szwedzkiego Karolinska Institutet odkryli sposób na ustabilizowanie p53 poprzez dodanie do niej proteiny z nici pajęczej.
      Nieprawidłowe białka to poważny problem w biologii strukturalnej. Znaczącym przykładem jest tutaj supresor nowotworowy p53, którego niewielka ekspresja i niska stabilność stanowią przeszkodę w rozwoju leków przeciwnowotworowych, czytamy w artykule A “spindle and thread” mechanism unblocks p53 translation by modulating N-terminal disorder opublikowanym na łamach pisma Structure.
      Komórki wytwarzają niewiele p53, a proteina bardzo szybko się w nich rozpada. Zainspirowało nas to, jak natura tworzy stabilne proteiny i wykorzystaliśmy proteiny z pajęczej sieci do ustabilizowania p53. Nić pajęcza zawiera długie łańcuchy wysoko stabilnych protein i jest jednym z najbardziej wytrzymałych naturalnych polimerów, stwierdził jeden z autorów badań, Michael Landreh.
      W ramach swoich eksperymentów uczeni dodali do p53 niewielki fragment proteiny z pajęczej sieci. Gdy tylko go wprowadzili, zauważyli, że komórki zaczęły wytwarzać duże ilości p53. Za pomocą mikroskopii elektronowej, spektrometrii mas i symulacji komputerowych naukowcy wykazali, że pajęcza proteina ustabilizowała p53.
      Stworzenie w komórce bardziej stabilnej odmiany p53 to obiecująca metoda walki z nowotworami. Widzimy, że warto podążać tą drogą. Mamy nadzieję, że w przyszłości uda się opracować bazującą na mRNA szczepionkę antynowotworową, ale zanim to zrobimy, musimy dowiedzieć się, jak proteina zachowuje się w komórce i czy jej duże ilości nie będą toksyczne, mówi współautor badań profesor David Lane. Uczony jest jednym z odkrywców proteiny p53.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Gdy starsi ludzie pozostają fizycznie aktywni, w ich mózgach znajduje się więcej protein tworzących połączenia pomiędzy neuronami. Dzięki temu, zachowują tez sprawność umysłową. Zwiększoną ilość wspomnianych białek zaobserwowano podczas autopsji nawet w mózgach osób, które były pełne toksycznych protein powiązanych z chorobą Alzheimera i innymi chorobami neurodegeneracyjnymi.
      "Jako pierwsi wykorzystaliśmy tego typu dane, by wykazać, że regulacja protein w synapsach jest powiązana z aktywnością fizyczną i to właśnie ona może być przyczyną pozytywnych skutków ćwiczeń fizycznych w starszym wieku, które możemy obserwować", powiedziała główna autorka badań, profesor Kaitlin Casaletto z Uniwersytetu Kalifornijskiego w San Francisco (UCSF).
      Badania Casaletto i jej grupy opierały się na danych pozyskanych w ramach Memory and Aging Project prowadzonego na Rush University w Chicago. W ramach tego projektu śledzono poziom aktywności fizycznej u starszych ludzi, którzy zgodzili się oddać po śmierci swoje mózgi do badań. Dlatego też uczeni z UCSF mogą pochwalić się przeprowadzeniem wyjątkowych badań na ludziach. Dotychczas bezpośredni związek pomiędzy aktywnością fizyczną a zdolnościami poznawczymi mogliśmy obserwować w ten sposób na myszach.
      Utrzymanie stabilnych połączeń pomiędzy neuronami może być kluczowym elementem ochrony przed demencją. To synapsy są tym miejscem, które decydują o naszych zdolnościach poznawczych. A utrzymanie aktywności fizycznej, co jest bardzo łatwe, może pomóc w poprawieniu funkcjonowania synaps, stwierdza Casaletto.
      Naukowcy nie tylko zauważyli, że dzięki aktywności fizycznej poprawia się jakość synaps, ale – ku ich zdumieniu – okazało się, że dobroczynne skutki wykraczają daleko poza hipokamp i dotyczą też innych obszarów mózgu. "Być może aktywność fizyczna ma pozytywny wpływ na cały mózg, wspierając i utrzymując prawidłowe funkcjonowanie protein odpowiedzialnych za wymianę sygnałów między synapsami", dodaje współautor badań, profesor William Honer z University of British Columbia.
      W mózgach większości osób starszych dochodzi do akumulacji białek tau i beta-amyloidu. To toksyczne proteiny powiązane z chorobą Alzheimera. Obecnie uważa się, że najpierw pojawia się beta-amyloid, a następnie tau i dochodzi do uszkodzeń synaps oraz neuronów. Casaletto już podczas wcześniejszych badań zauważyła, że u starszych osób z bardziej spójnymi połączeniami między synapsami – niezależnie od tego, czy badania były wykonywane z płynu mózgowo-rdzeniowego pobranego od żywych pacjentów, czy na podstawie autopsji mózgu – toksyczne działanie beta-amyloidu i białek tau było osłabione.
      Uczona podsumowuje, że biorąc pod uwagę oba wspomniane badania, widać, jak ważne jest utrzymywanie aktywności fizycznej w starszym wieku.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Wiele trapiących nas chorób ma związek z nieprawidłowo działającymi komórkami. Być może udało by się je skuteczniej leczyć, ale najpierw naukowcy muszą szczegółowo poznać budowę i funkcjonowanie komórek. Dzięki połączeniu sztucznej inteligencji oraz technik mikroskopowych i biochemicznych uczeni z Wydziału Medycyny Uniwersytetu Kalifornijskiego w San Diego (UCSD) dokonali ważnego kroku w kierunku zrozumienia komórek ludzkiego organizmu.
      Dzięki mikroskopom możemy dojrzeć struktury komórkowe wielkości pojedynczych mikrometrów. Z kolei techniki biochemiczne, w których wykorzystuje się pojedyncze proteiny, pozwalają na badanie struktur wielkości nanometrów, czyli 1/1000 mikrometra. Jednak poważnym problemem w naukach biologicznych jest uzupełnienie wiedzy o tym, co znajduje się w komórce pomiędzy skalą mikro- a nano-. Okazuje się, że można to zrobić za pomocą sztucznej inteligencji. Wykorzystując dane z wielu różnych źródeł możemy ją poprosić o ułożenie wszystkiego w kompletny model komórki, mówi profesor Trey Ideker z UCSD.
      Gdy myślimy o komórce, prawdopodobnie przyjdzie nam do głowy schemat ze szkolnych podręczników do biologii, z jego mitochondrium, jądrem komórkowym i retikulum endoplazmatycznym. Jednak czy jest to pełny obraz? Zdecydowanie nie. Naukowcy od dawna zdawali sobie sprawę z tego, że więcej nie wiemy niż wiemy. Teraz w końcu możemy przyjrzeć się komórce dokładniej, dodaje uczony. Ideker i Emma Lundberg ze szwedzkiego Królewskiego Instytutu Technicznego stali na czele zespołu, który jest autorem najnowszego osiągnięcia.
      Wykorzystana przez naukowców nowatorska technika nosi nazwę MuSIC (Multi-Scale Integrated Cell). Podczas pilotażowych badań MuSIC ujawniła istnienie około 70 struktur obecnych w ludzkich komórkach nerek. Połowa z nich nie była dotychczas znana. Zauważono np. grupę białek tworzących nieznaną strukturę. Po bliższym przyjrzeniu się naukowcy stwierdzili, że wiąże ona RNA. Prawdopodobnie struktura ta bierze udział w splicingu, czyli niezwykle ważnym procesie składania genu.
      Twórcy MuSIC od lat próbowali stworzyć mapę procesów zachodzących w komórkach. Tym, co różni MuSIC od podobnych systemów jest wykorzystanie technik głębokiego uczenia się do stworzenia mapy komórki bezpośrednio z obrazów mikroskopowych. System został wyćwiczony tak, by bazując na dostępnych danych stworzył model komórki. Nie mapuje on specyficznych struktur w konkretnych lokalizacjach, tak jak mamy to w schematach uczonych w szkole, gdyż niekoniecznie zawsze znajdują się one w tym samym miejscu.
      Na razie w ramach badań pilotażowych uczeni opracowali za pomocą MuSIC 661 protein i 1 typ komórki. Następnym celem badań będzie przyjrzenie się całej komórce, a później innym rodzajom komórek, komórkom u różnych ludzi i u różnych gatunków zwierząt. Być może z czasem będziemy w stanie lepiej zrozumieć molekularne podstawy różnych chorób, gdyż będziemy mogli wyłapać różnice pomiędzy zdrowymi a chorymi komórkami, wyjaśnia Ideker.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...