Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Sztuczna inteligencja u progu wielkiej rewolucji w medycynie i naukach biologicznych

Rekomendowane odpowiedzi

AlphaFold, sieć sztucznej inteligencji zbudowana w oparciu o słynny DeepMind dokonała olbrzymiego kroku w kierunku poradzenia sobie z jednym z najpoważniejszych wyzwań nauk biologicznych – określeniem kształtu białek z sekwencji ich aminokwasów. To zmieni medycynę, zmieni bioinżynierię. Zmieni wszystko, mówi Andrei Lupas, biolog ewolucyjny z Instytutu Biologii Rozwojowej im. Maxa Plancka w Tybindze, który oceniał możliwości podobnych programów. Lupas dobrze zna AlphaFold. Program pomógł określić mu strukturę białka, z którym jego laboratorium nie mogło sobie poradzić od dekady.

Możliwość określenia prawidłowej struktury białek pozwoli zarówno na lepsze zrozumienie życia, jak i na szybsze opracowywanie supernowoczesnych leków. Obecnie znamy 200 milionów białek, ale w pełni rozumiemy strukturę i funkcję niewielkiego ułamka z nich. Jednak nawet opisanie tej niewielkiej liczby dobrze poznanych białek zajęło nauce wiele lat, a do ich badań konieczny był wyspecjalizowany sprzęt warty miliony dolarów.

AlphaFold pokonał około 100 innych programów, które wraz z nim stanęły do zawodów CASP (Critical Assesment of Structure Prediction). Zawody odbywają się co dwa lata, a AlphaFold wystartował w nich po raz pierwszy w 2018 roku i od razu trafił na szczyt klasyfikacji. Jednak w tym roku jego możliwości zaskoczyły specjalistów. Nie dość, że znacząco wyprzedził konkurencję, to jego osiągnięcia były tak imponujące, iż mogą zwiastować rewolucję w biologii.

W niektórych przypadkach wyniki uzyskane za pomocą AlphaFold nie różniły się niczym od tych osiąganych za pomocą metod eksperymentalnych stanowiących złoty standard, takich jak krystalografia rentgenowska czy mikroskopia krioelektronowa. Naukowcy mówią, że AlphaFold nie zastąpi – przynajmniej na razie – tych metod, ale już teraz pozwoli na badanie struktur biologicznych w zupełnie nowy sposób.

Białka to podstawowe budulce organizmów żywych. Odpowiedzialne są za większość procesów zachodzących w komórkach. O tym, jak działają i co robią, decyduje ich struktura 3D. Odpowiedni kształt przyjmują one bez żadnej instrukcji, kierowane jedynie prawami fizyki.

Od dziesięcioleci główną metodą określania kształtów białek były metody eksperymentalne. Badania tego problemu rozpoczęto w latach 50. ubiegłego wieku korzystając z metod krystalografii rentgenowskiej. W ostatniej dekadzie preferowanym narzędziem badawczym stała się mikroskopia krioelektronowa.

W latach 80. i 90. zaczęto prace nad wykorzystaniem komputerów do określania kształtu protein. Jednak nie szło to zbyt dobrze. Metody, które sprawdzały się przy jednych białkach nie zdawały egzaminu przy badaniu innych. John Moult, biolog obliczeniowy z University of Maryland, wraz z kolegami wpadł na pomysł zorganizowania CASP, zawodów, które miały uporządkować prace nad wykorzystaniem komputerów do badania kształtów białek. W ramach tych zawodów przed zespołami naukowymi stawia się zadanie określenia właściwej struktury protein, których to struktura została wcześniej określona metodami eksperymentalnymi, ale wyniki tych badań nie zostały jeszcze upublicznione.

Moult mówi, że eksperyment ten – uczony unika słowa „zawody” – znakomicie przysłużył się badaniom na tym polu, pozwolił na uporządkowanie metod i odrzucenie wielu nieprawdziwych twierdzeń. Tutaj naprawdę możemy przekonać się, która metoda jest obiecująca, która działa, a którą należy odrzucić, stwierdza.

W 2018 roku na CASP13 po raz pierwszy pojawił się AlphaFold. To algorytm sztucznej inteligencji bazujący na słynnym DeepMind, który pokonał mistrza go Lee Sedola, przełamując kolejną ważną barierę dla sztucznej inteligencji.

Już w 2018 roku AlphaFold zyskał sobie uznanie specjalistów. Jednak wówczas korzystał z bardzo podobnych technik, co inne programy. Najpierw wykorzystywał metody głębokiego uczenia się oraz dane strukturalne i genetyczne do określenia odległości pomiędzy parami aminokwasów w proteinie, a następnie – już bez użycia SI – wypracowywał „konsensus” dotyczący ostatecznego wyglądu proteiny. Twórcy AlphaFolda próbowali to udoskonalać korzystając z takiego właśnie modelu, ale natrafili na przeszkody nie do pokonania.

Zmienili więc taktykę i stworzyli sieć sztucznej inteligencji, która wykorzystywała też informacje o fizycznych i geometrycznych ograniczeniach w zawijaniu białek. Ponadto nowy model zamiast przewidywać zależności pomiędzy poszczególnymi aminokwasami miał do zrobienia coś znacznie trudniejszego – przewidzieć ostateczny kształt białka.

CASP trwa kilka miesięcy. Biorące w nim udział zespoły regularnie otrzymują niezbędne informacje o proteinach lub ich fragmentach – w sumie jest ich około 100 – i mają określić ich strukturę. Wyniki pracy tych zespołów oceniają niezależni eksperci, którzy sprawdzają, na ile wyniki uzyskane na komputerach są zgodne z rzeczywistą strukturą białek określoną wcześniej metodami eksperymentalnymi. Oceniający nie wiedzą, czyją pracę oceniają. Wyniki są anonimizowane. Dane z AlphaFold były w bieżącym roku opisane jako „grupa 427”. Jednak niektóre z przewidywań dostarczonych przez tę grupę były tak dokładne, że wielu sędziów domyśliło się, kto jest autorem pracy. Zgadłem, że to AlphaFold. Większość zgadła, mówi Lupas.

AlphaFold nie sprawował się równo. Raz radził sobie lepiej, raz gorzej. Ale niemal 2/3 jego przewidywań dorównywało wynikom uzyskanym metodami eksperymentalnymi. Czasami nie było wiadomo, czy różnica wynika z niedoskonałości AlphaFold czy metod eksperymentalnych. Jak mówi Moult, największą różnicę pomiędzy AlphaFold a metodami eksperymentalnymi było widać, gdy rzeczywisty wygląd proteiny określano za pomocą rezonansu jądrowego. Jednak różnica ta może wynikać ze sposobu obróbki surowych danych uzyskanych tą metodą. AlphaFold słabo sobie radził też w określaniu indywidualnych struktur w grupach protein, gdzie kształt białka mógł być zaburzany obecnością innego białka.

Ogólnie rzecz biorąc średnia wydajność modeli biorących udział w tegorocznym CASP była lepsza niż przed dwoma laty, a za większość postępu odpowiadał AlphaFold. Na przykład tam, gdzie proteiny określano jako średnio trudne najlepsze modele uzyskiwały 75 na 100 możliwych punktów, a AlphaFold uzyskał tam 90 punktów. Przekroczenie granicy 90 punktów uznaje się za dorównanie metodom eksperymentalnym.

Mohammed AlQuraishi, biolog obliczeniowy z Columbia University, który też brał udział w CASP chwali osiągnięcie AlphaFold: myślę, że trzeba uczciwie powiedzieć, iż osiągnięcie to wstrząśnie dziedziną badania struktur białek. Sądzę, że wielu specjalistów przestanie się tym zajmować, gdyż główny problem został rozwiązany. To olbrzymi przełom, jedno z najważniejszych osiągnięć naukowych, jakie widziałem w swoim życiu.

O tym, jak wielkie możliwości ma AlphaFold i jak olbrzymia rewolucja może nadchodzić niech świadczy przykład badań, jakie prowadził zespół Andreia Lupasa. Niemcy od dawna próbowali określić strukturę białka pewnej bakterii. Za pomocą krystalografii rentgenowskiej uzyskali surowe dane, jednak ich przełożenie na odpowiednią strukturę wymagało pewnych informacji o kształcie proteiny. Wszelkie próby rozwiązania zagadnienia spaliły na panewce. Spędziliśmy dekadę próbując wszystkiego. Model opracowany przez group 427 dostarczył nam tę strukturę w ciągu pół godziny, mówi Lupas.

Demis Hassabis, współzałożyciel i szef firmy DeepMind, która obecnie należy do Google'a, mówi, że jego firma dopiero zaczyna rozumieć, czego biolodzy chcą od AlphaFold.

AlphaFold już zresztą przydaje się w praktyce. Na początku 2020 roku algorytm opisał strukturę kilku białek wirusa SARS-CoV-2. Później okazało się, że przewidywania dotyczące białka Orf3a zgadzają się z wynikami uzyskanymi eksperymentalnie.

Rozpowszechnienie się AlphaFold raczej nie doprowadzi do zamknięcia laboratoriów. Jednak dzięki niemu do określenia struktury protein wystarczą gorszej jakości, a więc i łatwiejsze do uzyskania, dane. Możemy się też spodziewać olbrzymiej liczby odkryć, gdyż już w tej chwili dysponujemy olbrzymią liczbą danych, które program będzie mógł wykorzystać. Dodatkową korzyścią jest fakt, że będzie można prowadzić bardziej zaawansowane badania. Nowa generacja biologów molekularnych będzie mogła zadać bardziej złożone pytania. Będą mogli skupić się bardziej na myśleniu niż na prowadzeniu eksperymentów, mówi Lupas.

Naukowcy mają nadzieję, że dzięki AlphaFold poznamy funkcje tysięcy białek tworzących ludzkie DNA, a to z kolei pozwoli nam poznać przyczyny wielu chorób.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
10 godzin temu, KopalniaWiedzy.pl napisał:

Naukowcy mają nadzieję, że dzięki AlphaFold poznamy funkcje tysięcy białek tworzących ludzkie DNA, a to z kolei pozwoli nam poznać przyczyny wielu chorób.

A to z kolei pozwoli nam poznać wiele nowych chorób. Radujmy się...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z lepszego zrozumienia rzeczywistości  trzeba się cieszyć. Poznanie nowych chorób to też pożyteczna wiedza.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 godzin temu, KopalniaWiedzy.pl napisał:

Rozpowszechnienie się AlphaFold raczej nie doprowadzi do zamknięcia laboratoriów.

Raczej... na razie.

11 godzin temu, KopalniaWiedzy.pl napisał:

Spędziliśmy dekadę próbując wszystkiego. Model opracowany przez group 427 dostarczył nam tę strukturę w ciągu pół godziny, mówi Lupas.

Można się wkurzyć... a jednocześnie zastanowić nad sensem prowadzenia takich prac w dalszym ciągu?

Ciekawe, że gdy teraz Alpha(x) dość dobrze radzi sobie z tym estymatami, jak dalece będą mogli go jeszcze ulepszyć?

... a jak dodamy do tego ten wielki procesor do sieci neuronowych opisywany ostatnio?

Edytowane przez radar

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

chciałbym żeby moim lekarzem była sztuczna inteligencja,  zamiast sprowadzać lekarzy za granicy, czego nie skorzystać z takiej możliwości,  przynajmniej dla zainteresowanych.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie da się wprost zastąpić całkowicie eksperymentu przez AI. AI potrzebuje danych, a te mogą pochodzić jedynie z eksperymentów. Przewaga jest gdzie indziej, w rozpoznawaniu wzorców, czyli gdy mamy już sporą ilość wyników eksperymentów opierających się o jakąś cechę, AI jest w stanie przewidzieć wynik kolejnego, o ile nie dzieje się tam nic jeszcze nieznanego charakterystycznego tylko dla tego eksperymentu. Eksperyment zawsze będzie potrzebny aby iść dalej gdy dotrzemy do granic możliwości poznanych wzorców. Nikt jednak nie mówi, że AI nie może sama planować i przeprowadzać eksperymentów.

  • Pozytyw (+1) 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Flaku napisał:

Nie da się wprost zastąpić całkowicie eksperymentu przez AI

 

2 godziny temu, Flaku napisał:

Nikt jednak nie mówi, że AI nie może sama planować i przeprowadzać eksperymentów.

Więc jak? :) Niby się nie wyklucza, ale dla naukowców jakby trochę tak :)

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A gdzie tu sztuczna inteligencja. Wykonuje tylko obliczenia, zgodnie z programem. Inteligentne to będzie, gdy przestanie liczyć i zacznie samo grać w szachy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Raczej

1 godzinę temu, Kikkhull napisał:

Inteligentne to będzie, gdy przestanie liczyć i zacznie

, np. z nudów,

1 godzinę temu, Kikkhull napisał:

samo grać w szachy.

 

1 godzinę temu, Kikkhull napisał:

A gdzie tu sztuczna inteligencja.

I n-ty raz pytanie o definicję inteligencji, a może człowiek też tylko wykonuje obliczenia zgodnie z programem?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
8 godzin temu, radar napisał:

I n-ty raz pytanie o definicję inteligencji, a może człowiek też tylko wykonuje obliczenia zgodnie z programem?

 

Moja definicja inteligencji brzmiała, że jest to zdolność tworzenia i wykorzystywania modeli.
Nie ma "a może", bo każdy system fizyczny może być utożsamiany z pewnym programem, w zależności od przyjętego opisu o korzystającym z różnych modeli obliczeń.
 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 godzin temu, peceed napisał:

Moja definicja inteligencji brzmiała, że jest to zdolność tworzenia i wykorzystywania modeli.

Tworzenie modeli ściśle łącz się z wiedzą, a ta nie jest wymagana przez inteligencję, oczywiście jest z nią w symbiozie.

Moja definicja wykluta na twojej brzmi, że inteligencja jest to zdolność wyboru właściwego modelu, swojego czy nie, nie ma znaczenia. Studiując na renomowanych uczelniach, zdobywając wiedzę, nie zwiększa się swojej inteligencji. Jej poziom wydaje mi się że jest stały (do początków starzenia mózgu oczywiście)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
35 minut temu, tempik napisał:

Tworzenie modeli ściśle łącz się z wiedzą, a ta nie jest wymagana przez inteligencję

Jasne, najpierw nie wiemy czym jest inteligencja a potem wiemy czego wymaga.
Niektórzy sprowadzają inteligencję do rozpoznawania wzorców, otóż wzorzec widziany w danych jest modelem tych danych. Przed tym nie ma ucieczki,  za to można rozróżniać jakość modeli. Czy są one niskopoziomowe, czy też muszą rozważać uwzględniać abstrakcyjną wiedzę.

36 minut temu, tempik napisał:

Moja definicja wykluta na twojej brzmi, że inteligencja jest to zdolność wyboru właściwego modelu, swojego czy nie, nie ma znaczenia

A jaki model jest właściwy? Do tego wybór modelu jest wykorzystywaniem modeli, a na dodatek tworzeniem modelu wyrzszego poziomu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 godzin temu, tempik napisał:

Moja definicja wykluta na twojej brzmi, że inteligencja jest to zdolność wyboru właściwego modelu, swojego czy nie, nie ma znaczenia.

4 godziny temu, peceed napisał:

A jaki model jest właściwy? Do tego wybór modelu jest wykorzystywaniem modeli, a na dodatek tworzeniem modelu wyrzszego poziomu.

A mi tam się ta definicja podoba, bo nawet jeśli wybór modelu jest wykorzystywaniem/tworzeniem modeli, to definicja wyżej dalej ma zastosowanie, bo zauważ, że zawiera założenie wyboru "własnego modelu", czyli jak rozumiem wytworzonego przed siebie. Natomiast nie do końca zgadzam się z tym:

5 godzin temu, tempik napisał:

Studiując na renomowanych uczelniach, zdobywając wiedzę, nie zwiększa się swojej inteligencji. Jej poziom wydaje mi się że jest stały (do początków starzenia mózgu oczywiście)

bo może w niewielkim stopniu, ale jednak zdobywając wiedzę (a raczej doświadczenie) możemy uczyć nasz mózg pracy w inny sposób. Weźmy chociażby te wszystkie zagadki logiczne, które widziane choć raz wcześniej następnym razem są "logiczne". Oczywiście jest to dość osobnicze i ograniczone pewnie jakimś delta V (prędkość przystosowywania mózgu do rozpoznawania innych modeli/wzorców, dla niektórych ludzi = 0 ;) ). Czyli IMHO, zdobywanie wiedzy o wzorcach/modelach zwiększa jednak inteligencję. Ograniczeniem na delta V jest czas i fizjologia, nie da się pracować/uczyć 24/7. Pytanie czy doniesienia o tym, że "najwięksi naukowcy" z reguły potrzebowali tylko do 3h snu na dobę nie ma właśnie na to wpływu?

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ciężko uciec od analogi z sieciami neuronowymi, podstawowe 2 procesy ich wykorzystania to trening i inferencja (czyli używanie).
Inteligencję połączyłbym w większym stopniu z jakością procesów uczenia.
W przypadku mózgu pewne obwody trenują inne, i na pewno dochodzi do sytuacji, w której mózg uczy się lepiej uczyć, do tego na pewno można mózg wytrenować aby lepiej myślał (logicznie).
Kiedy już rozbijemy działanie mózgu na elementarne procesy o różnej jakości, nikt już nie będzie się pytał o precyzyjną definicję słowa inteligencja. Zdolność do tworzenia i wykorzystywania modeli jest bardzo ogólna ale ciężko o coś lepszego, bo wykorzystanie modeli to również rozwiązywanie problemów z ich użyciem.
Bardzo ważną umiejętnością jest stawiane dobrych pytań. Na niskim poziomie jest to umiejętność odnajdywania słabych punktów naszych modeli i ich "ekonomicnego" rozszerzania.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
18 godzin temu, peceed napisał:

Inteligencję połączyłbym w większym stopniu z jakością procesów uczenia.

No tak, odpowiednio dobre i szybkie backpropagation. Mnie interesuje bardzo skąd mózg "wie", że po usłyszeniu frazy listen carefully, I shall say this only once ma wzmocnić akurat te połączenia między neuronami, które zostaną pobudzone tym co nastąpi? Nie mówiąc już o wszelkich zaburzenia postrzegania, wypieraniu traumatycznych wydarzeń czy chorobie dwubiegunowej, schozofremii etc. Jeszcze długa droga przed nami chyba.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 4.12.2020 o 10:30, radar napisał:

skąd mózg "wie", że po usłyszeniu frazy listen carefully, I shall say this only once ma wzmocnić akurat te połączenia między neuronami, które zostaną pobudzone tym co nastąpi?

Skąd taki pomysł? Po usłyszeniu takiej frazy koncentrujemy się w większym stopniu na wypowiedzi, tzn. blokujemy poboczne aktywności mózgu. Zapamiętuje się zawsze, cały czas, a przy większym skupieniu mamy lepszy stosunek "sygnału" do szumu.

Edytowane przez peceed

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 6.12.2020 o 10:43, peceed napisał:

Zapamiętuje się zawsze, cały czas, a przy większym skupieniu mamy lepszy stosunek "sygnału" do szumu.

Ok, ale to na jedno wychodzi, parafrazując, skąd mózg "wie" jak "koncentrować się w większym stopniu" ?

Dodatkowo, może nawet istotniejsze, skąd mózg wie co zapamiętać "bardziej" bez tej frazy? Które szlaki pamięciowe wzmocnić, a które nie? J/w np. wypieranie traumatycznych wydarzeń?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, radar napisał:

wypieranie traumatycznych wydarzeń

Mózg dezaktywuje wszystkie obszary stowarzyszone z traumami/szokiem/lękiem, niekoniecznie związane z przechowywaniem wspomnień ale też z ich reprezentacją. Nie ma tam wzmacniania, a odłączanie. Nie ma to nic wspólnego z zapominaniem, to są zbyt doniosłe zdarzenia aby je zapominać.

Godzinę temu, radar napisał:

skąd mózg "wie" jak "koncentrować się w większym stopniu"

Po prostu się nauczył.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
22 godziny temu, peceed napisał:

Po prostu się nauczył.

No tak, ja właśnie pytam o to "po prostu" ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Ryż jest podstawowym produktem spożywczym dla ponad 4 miliardów ludzi. Zawiera dużo węglowodanów, ale mało białka. W Azji, gdzie ryż się głownie spożywa, żyje ponad połowa wszystkich cukrzyków na świecie, a wielu z nich cierpi też na niedobór białka. Naukowcy z Międzynarodowego Instytutu Badań nad Ryżem na Filipinach oraz Instytutu Molekularnej Fizjologii Roślin im. Maxa Plancka w Niemczech, zidentyfikowali geny ryżu, które kontrolują zawartość węglowodanów i białek w roślinie. Następnie wyhodowali nowe odmiany, zawierające mało cukrów, a dużo białka. Wykorzystali przy tym zarówno tradycyjne metody, jak i modyfikacje genetyczne. Odmiana powstała w wyniku krzyżowania dwóch gatunków nie jest uznawana za roślinę GMO, w związku z tym można ją będzie uprawiać i sprzedawać w Unii Europejskiej.
      Tradycyjne kultywary ryżu zawierają głównie węglowodany w postaci łatwo przyswajalnej skrobi. Może ona stanowić aż 90% węglowodanów. Taka skrobia ma wysoki indeks glikemiczny, co oznacza, że jej spożycie powoduje gwałtowny skok poziomu cukru, więc nie jest to pożywienie odpowiednie dla osób z cukrzycą. Nowe odmiany ryżu dają więc nadzieję, na poprawienie stanu zdrowia setek milionów mieszkańców Azji i Afryki, którzy dzięki nim powinni zyskać dostęp do żywności o niższym indeksie glikemicznym i zawierającej więcej białka.
      Naukowcy skrzyżowali odmiany Samba Mahsuri oraz IR36ae, uzyskując nowy kultywar o 16-procentowej zawartości białka. To od 2 do 8 razy więcej, niż odmiany standardowe. Uzyskana odmiana zawiera wiele aminokwasów egzogennych, takich jak histydyna, izoleucyna, lizyna, metionina, fenyloalanina i walina. Zawiera ich tyle, że zapewnia rekomendowane dziennie spożycie tych aminokwasów dla osób powyżej 9. roku życia. Jednocześnie ma niski indeks glikemiczny, dzięki któremu poziom cukru we krwi nie rośnie tak gwałtownie, jak w przypadku tradycyjnych odmian.
      Jakby tych zalet było mało, okazuje się, że nowe odmiany dają podobne plony jak obecnie uprawiane odmiany wysokowydajne. Zatem lepsza zawartość składników odżywczych nie będzie wiązała się z niższą produktywnością.
      Dodatkową korzyścią jest fakt, że wspomniane odmiany można uzyskać zarówno metodami edycji genów, jak i poprzez tradycyjne krzyżowanie, zatem można je będzie uprawiać i sprzedawać nawet tam, gdzie odmiany GMO nie są dopuszczane na rynek.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Wielkie modele językowe (LLM) – takie jak osławiony ChatGPT – nie są w stanie samodzielnie się uczyć i nabierać nowych umiejętności, a tym samym nie stanowią egzystencjalnego zagrożenia dla ludzkości, uważają autorzy badań opublikowanych w ramach 62nd Annual Meeting of the Association for Computational Linguistics, głównej międzynarodowej konferencji dotyczącej komputerowego przetwarzania języków naturalnych.
      Naukowcy z Uniwersytetu Technicznego w Darmstadt i Uniwersytetu w Bath stwierdzają, że LLM potrafią uczyć się, jeśli zostaną odpowiednio poinstruowane. To zaś oznacza, że można je w pełni kontrolować, przewidzieć ich działania, a tym samym są dla nas bezpieczne. Bezpieczeństwo ludzkości nie jest więc powodem, dla którego możemy się ich obawiać. Chociaż, jak zauważają badacze, wciąż można je wykorzystać w sposób niepożądany.
      W miarę rozwoju modele te będą prawdopodobnie w stanie udzielać coraz bardziej złożonych odpowiedzi i posługiwać się coraz doskonalszym językiem, ale jest wysoce nieprawdopodobne, by nabyły umiejętności złożonego rozumowania. Co więcej, jak stwierdza doktor Harish Tayyar Madabushi, jeden z autorów badań, dyskusja o egzystencjalnych zagrożeniach ze strony LLM odwraca naszą uwagę od rzeczywistych problemów i zagrożeń z nimi związanych.
      Uczeni z Wielkiej Brytanii i Niemiec przeprowadzili serię eksperymentów, w ramach których badali zdolność LLM do radzenia sobie z zadaniami, z którymi wcześniej nigdy się nie spotkały. Ilustracją problemu może być na przykład fakt, że od LLM można uzyskać odpowiedzi dotyczące sytuacji społecznej, mimo że modele nigdy nie były ćwiczone w takich odpowiedziach, ani zaprogramowane do ich udzielania. Badacze wykazali jednak, że nie nabywają one w żaden tajemny sposób odpowiedniej wiedzy, a korzystają ze znanych wbudowanych mechanizmów tworzenia odpowiedzi na podstawie analizy niewielkiej liczby znanych im przykładów.
      Tysiące eksperymentów, za pomocą których brytyjsko-niemiecki zespół przebadał LLM wykazało, że zarówno wszystkie ich umiejętności, jak i wszystkie ograniczenia, można wyjaśnić zdolnością do przetwarzania instrukcji, rozumienia języka naturalnego oraz umiejętnościom odpowiedniego wykorzystania pamięci.
      Obawiano się, że w miarę, jak modele te stają się coraz większe, będą w stanie odpowiadać na pytania, których obecnie sobie nawet nie wyobrażamy, co może doprowadzić do sytuacji, ze nabiorą niebezpiecznych dla nas umiejętności rozumowania i planowania. Nasze badania wykazały, że strach, iż modele te zrobią coś niespodziewanego, innowacyjnego i niebezpiecznego jest całkowicie bezpodstawny, dodaje Madabushi.
      Główna autorka badań, profesor Iryna Gurevych wyjaśnia, że wyniki badań nie oznaczają, iż AI w ogóle nie stanowi zagrożenia. Wykazaliśmy, że domniemane pojawienie się zdolności do złożonego myślenia powiązanych ze specyficznymi zagrożeniami nie jest wsparte dowodami i możemy bardzo dobrze kontrolować proces uczenia się LLM. Przyszłe badania powinny zatem koncentrować się na innych ryzykach stwarzanych przez wielkie modele językowe, takie jak możliwość wykorzystania ich do tworzenia fałszywych informacji.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dermatolog Harald Kittler z Uniwersytetu Medycznego w Wiedniu stanął na czele austriacko-australijskiego zespołu, który porównał trafność diagnozy i zaleceń dotyczących postępowania z przebarwieniami na skórze stawianych przez lekarzy oraz przez dwa algorytmy sztucznej inteligencji pracujące na smartfonach. Okazało się, że algorytmy równie skutecznie co lekarze diagnozują przebarwienia. Natomiast lekarze podejmują znacznie lepsze decyzje dotyczące leczenia.
      Testy przeprowadzono na prawdziwych przypadkach pacjentów, którzy zgłosili się na Wydział Dermatologii Uniwersytetu Medycznego w Wiedniu oraz do Centrum Diagnozy Czerniaka w Sydney w Australii.
      Testowane były dwa scenariusze. W scenariuszu A porównywano 172 podejrzane przebarwienia na skórze (z których 84 były nowotworami), jakie wystąpiły u 124 pacjentów. W drugim (scenariuszu B) porównano 5696 przebarwień – niekoniecznie podejrzanych – u 66 pacjentów. Wśród nich było 18 przebarwień spowodowanych rozwojem nowotworu. Testowano skuteczność dwóch algorytmów. Jeden z nich był nowym zaawansowanym programem, drugi zaś to starszy algorytm ISIC (International Skin Imaging Collaboration), używany od pewnego czasu do badań retrospektywnych.
      W scenariuszu A nowy algorytm stawiał diagnozę równie dobrze jak eksperci i był wyraźnie lepszy od mniej doświadczonych lekarzy. Z kolei algorytm ISIC był znacząco gorszy od ekspertów, ale lepszy od niedoświadczonych lekarzy.
      Jeśli zaś chodzi o zalecenia odnośnie leczenia, nowoczesny algorytm sprawował się gorzej niż eksperci, ale lepiej niż niedoświadczeni lekarze. Aplikacja ma tendencję do usuwania łagodnych zmian skórnych z zaleceń leczenia, mówi Kittler.
      Algorytmy sztucznej inteligencji są więc już na tyle rozwinięte, że mogą służyć pomocą w diagnozowaniu nowotworów skóry, a szczególnie cenne będą tam, gdzie brak jest dostępu do doświadczonych lekarzy. Ze szczegółami badań można zapoznać się na łamach The Lancet.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W Journal of Medical Internet Research ukazał się opis eksperymentu, w ramach którego ChatGPT miał stawiać diagnozy medyczne i proponować dalsze działania na podstawie opisanych objawów. Algorytm poradził sobie naprawdę nieźle. Udzielił prawidłowych odpowiedzi w 71,7% przypadków. Najlepiej wypadł przy ostatecznych diagnozach, gdzie trafność wyniosła 76,9%, najgorzej poradził sobie z diagnozą różnicową. Tutaj jego trafność spadła do 60,3%.
      Autorzy eksperymentu wykorzystali 36 fikcyjnych przypadków klinicznych opisanych w Merck Manual. Przypadki te są wykorzystywane podczas szkoleń lekarzy i innego personelu medycznego. Naukowcy z Harvard Medical School, Brigham and Women'a Hospital oraz Mass General Brigham wprowadzili do ChataGPT opisy tych przypadków, a następnie zadawali maszynie pytanie, dołączone w podręczniku do każdego z przypadków. Wykluczyli z badań pytania dotyczące analizy obrazów, gdyż ChatGPT bazuje na tekście.
      Najpierw sztuczna inteligencja miała za zadanie wymienić wszystkie możliwe diagnozy, jakie można postawić na podstawie każdego z opisów. Następnie poproszono ją, by stwierdziła, jaki dodatkowe badania należy przeprowadzić, później zaś ChatGPT miał postawić ostateczną diagnozę. Na koniec zadaniem komputera było opisanie metod leczenia.
      Średnia trafność odpowiedzi wynosiła 72%, jednak różniła się w zależności od zadania. Sztuczna inteligencja najlepiej wypadła podczas podawania ostatecznej diagnozy, którą stawiała na podstawie początkowego opisu przypadku oraz wyników dodatkowych badań. Trafność odpowiedzi wyniosła tutaj 76,9%. Podobnie, bo z 76-procentową trafnością, ChatGPT podawał dodatkowe informacje medyczne na temat każdego z przypadków. W zadaniach dotyczących zlecenia dodatkowych badań oraz metod leczenia czy opieki, trafność spadała do 69%. Najgorzej maszyna wypadła w diagnozie różnicowej (60,3% trafnych odpowiedzi). Autorzy badań mówią, że nie są tym zaskoczeni, gdyż diagnoza różnicowa jest bardzo trudnym zadaniem. O nią tak naprawdę chodzi podczas nauki w akademiach medycznych i podczas rezydentury, by na podstawie niewielkiej ilości informacji dokonać dobrego rozróżnienia i postawić diagnozę, mówi Marc Succi z Harvard Medical School.
      Być może w przyszłości podobne programy będą pomagały lekarzom. Zapewne nie będzie to ChatGPT, ale rozwijane już systemy wyspecjalizowane właśnie w kwestiach medycznych. Zanim jednak trafią do służby zdrowia powinny przejść standardowe procedury dopuszczenia do użytku, w tym testy kliniczne. Przed nimi zatem jeszcze długa droga.
      Autorzy opisanych badań przyznają, że miały one ograniczenia. Jednym z nich było wykorzystanie fikcyjnych opisów przypadków, a nie rzeczywistych. Innym, niewielka próbka na której testowano ChatGPT. Kolejnym zaś ograniczeniem jest brak informacji o sposobie działania i treningu ChataGPT.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Naukowcy z Wydziału Nauki o Żywności Uniwersytetu Warmińsko-Mazurskiego w Olsztynie oraz Uniwersytetu Technologii i Biznesu w Pekinie i innych chińskich uczelni przez kilka lat pracowali nad stworzeniem nabiału o specjalnych właściwościach zdrowotnych. Projekt DairyFunInn ruszył w roku 2019. Został zgłoszony do konkursu ogłoszonego przez Narodowe Centrum Badań i Rozwoju. Poradził sobie z konkurencją i zajął trzecie miejsce, otrzymując 2 miliony złotych dofinansowania. Zakończył się w lipcu, a jego efektem jest opracowanie nowego sposobu uzyskiwania wybranych frakcji białek z mleka czy maślanki, które mogą być wykorzystywane w leczeniu i zapobieganiu cukrzycy czy nowotworom.
      Te funkcjonalne składniki mleka obejmują pochodne laktozy, białka mleka oraz białka otoczki kuleczek tłuszczowych, mówi doktor Justyna Żulewska, koordynatorka projektu po stronie polskiej. Nie szukaliśmy w  ciemno. Z  wcześniejszych badań wiemy, które frakcje białek są nośnikami określonych peptydów i jakie mają właściwości. Pytanie brzmiało: które z nich można zaimplementować do wybranych napojów mlecznych bez zmiany ich właściwości sensorycznych, bez zmiany ich jakości, bez konieczności zmiany procesu technologicznego i ponoszenia dodatkowych kosztów? Drugie pytanie brzmiało: co powstaje w przewodzie pokarmowym człowieka po spożyciu produktów, które zawierają określone frakcje białek, dodaje.
      Uczona przypomina, że białka mleka to źródło peptydów o właściwościach zapobiegających rozwojowi nadciśnienia, mają też właściwości antybakteryjne, przeciwutleniające i opioidowe, poprawiają zatem sen. Gdy spożywamy kazeinę w naszym przewodzie pokarmowym powstają wolne aminokwasy, aktywne biologicznie peptydy, a ich działanie prozdrowotne zależne jest od rodzaju trawionego białka i procesów technologicznych zastosowanych podczas przygotowania produktu.
      Wyniki prac zweryfikowano już w skali przemysłowej, co wskazuje, że można je przełożyć na działania praktyczne. Dlatego też Uniwersytet Warmińsko-Mazurski chce zgłosić w Urzędzie Patentowym wniosek o ochronę sposobu uzyskiwania wytypowanych frakcji białek. Wdrożeniem wyników badań do produkcji zajmie się powołane w ramach projektu Funkcjonalne Centrum Badawczo-Rozwojowe Mleczarstwa. W przyszłości będzie ono prowadziło podobne działania odnośnie innych wyników polsko-chińskich badań.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...