Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Sztuczna inteligencja udoskonala wirusy wykorzystywane w terapiach genowych

Rekomendowane odpowiedzi

Dependowirusy, czyli parwowirusy „stowarzyszone” z adenowirusami (AAV) to bardzo przydatne narzędzia w terapii genowej. Mogą one bowiem przenosić DNA do wnętrza komórki, a ponadto są nieszkodliwe dla człowieka. Dlatego też korzysta się z nich jako z nośnika informacji genetycznej potrzebne do zwalczania chorób.

Istnieją jednak poważne ograniczenia, które powodują, że w chwili obecnej ich użycie jest mocno limitowane i nie u wszystkich pacjentów można je wykorzystać, zatem nie wszyscy mogą zostać poddani terapii genowej.

Pierwsze z tych ograniczeń to ograniczana zdolność AAV do przyczepiania się do komórek. Ograniczenie drugie to ludzki układ odpornościowy. Szacuje się, że 50–70% ludzi jest odpornych na zakażenie AAV, gdyż już wcześniej zetknęli się z jakąś formą tego wirusa. W ich przypadku terapie genowe nie zadziałają, gdyż układ odpornościowy zdąży zniszczyć wirusa zanim ten wniknie do komórki, przekazując jej materiał genetyczny potrzebny do prowadzenia terapii. Z tego też powodu jednym z ważniejszych pól badań nad terapiami genowymi są próby oszukania układu odpornościowego.

Doktor George Church z Uniwersytetu Harvard we współpracy z Google Research i Dyno Therapeutics wykorzystał technikę głębokiego uczenia się do zaprojektowania bardzo zróżnicowanych wariantów kapsydu (płaszcza białkowego) wirusa AAV. Naukowcy skupili się na sekwencjach genomu wirusa, które kodują kluczowy segment protein odgrywający kluczową rolę w infekcji docelowych komórek oraz w rozpoznawaniu wirusa przez układ odpornościowy.

Specjaliści wykazali, ze dzięki wykorzystaniu sztucznej inteligencji możliwe jest zaprojektowanie olbrzymiej liczby zróżnicowanych kapsydów, które później można poddać testom pod kątem ich zdolności do uniknięcia ataku ze strony układu odpornościowego. Naukowcy wyszli od niewielkiej ilości danych na temat kapsydu, by docelowo uzyskać 200 000 wariantów.

Nasze badania jasno pokazują, że maszynowe uczenie się pozwala na zaprojektowanie olbrzymiej liczby wariantów, znacznie większej niż istnieje w naturze. Wciąż udoskonalamy naszą technikę, by nie tylko stworzyć nośniki, które poradzą sobie z problemem ataku ze strony układy odpornościowego, ale będą też bardziej efektywnie i selektywnie przyczepiały się do wybranych rodzajów tkanek, mówi doktor Eric Kelsic, dyrektor i współzałożyciel firmy Dyno Therapeutics.

Z artykułu opublikowanego na łamach Nature dowiadujemy się, że wstępna ocena zaprojektowanych przez sztuczną inteligencję kapsydów wykazała, że niemal 60% może się sprawdzić. To znaczny. postęp. Obecnie do różnicowania kapsydów wykorzystuje się przypadkową mutagenezę, gdzie odsetek przydatnych kapsydów jest mniejszy niż 1%.

Im bardziej odbiegniemy od naturalnego wyglądu AAV, tym większe prawdopodobieństwo, że układ odpornościowy go nie rozpozna, dodaje doktor Sam Sinai, drugi z założycieli Dyno Therapeutics, który stał na czele zespołu prowadzącego modelowanie komputerowe. Kluczem do odniesienia sukcesu jest jednak wyprodukowanie kapsydu, który w sposób stabilny przeniesie ładunek DNA. Tradycyjne metody uzyskiwania takiego kapsydu są bardzo czaso- i zasobochłonne, a w ich wyniku utrzymujemy bardzo mało przydatnych kapsydów. Tutaj zaś możemy szybko uzyskiwać dużą różnorodność kapsydów AAV, które są bazą do udoskonalanie terapii genowych dostępnych dla większej liczby osób".


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Sztuczna inteligencja udoskonala wirusy? Może w Wuhan też to zrobiła? Zawsze mi się wydawało, że niszczyć jest łatwiej niż udoskonalić. Nie poradziła sobie z niszczeniem wirusa covid-19, nawet nie znalazła lekarstwa wśród istniejących, nie mówiąc już o skonstruowaniu go, by nie szczepić miliardów ludzi, a leczyć marne setki tysięcy, a tu patrzcie państwo; udoskonalać naturę potrafi. Niestety AI to tylko Sztuczna Inteligencja, nie mająca nic wspólnego z inteligencją organizmów żywych. To maszyna bez świadomości, która zrobi to, co człowiek zaprogramuje. Jedyna przewaga to szybkość obliczeniowa. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
8 hours ago, helmut said:

Sztuczna inteligencja udoskonala wirusy? Może w Wuhan też to zrobiła? Zawsze mi się wydawało, że niszczyć jest łatwiej niż udoskonalić.

Temat cię wyraźnie przerasta. Covid-19 to jest choroba, a wirus nazywa się SARS-COV-2, natomiast artykuł odnosi się do wirusów AAV. Więc co ma piernik do wiatraka? Technicznie rzecz biorąc SARS-COV-2 niszczy mydło, wiec nie jest to specjalna filozofia i nawet twoje wiejskie baby od urabiania pajęczyn z kurzem potrafią ogarnąć temat. Generalnie jest tak, że lepiej zapobiegać niż leczyć, a wzmocnienie układu odpornościowego szczepionką to najmniej ryzykowne rozwiązanie.

 

8 hours ago, helmut said:

Niestety AI to tylko Sztuczna Inteligencja, nie mająca nic wspólnego z inteligencją organizmów żywych. To maszyna bez świadomości, która zrobi to, co człowiek zaprogramuje. Jedyna przewaga to szybkość obliczeniowa.

Jak widać świadomość nie jest gwarantem inteligencji. Siri potrafi pociągnąć konwersację na rozsądnym poziomie. Możecie stanąć w szranki.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Troje naukowców – Elizabeth A Barnes z Colorado State University, Noah S Diffenbaugh z Uniwersytetu Stanforda oraz Sonia I Seneviratne z EHT Zurich – zebrało dane z 10 modeli klimatycznych i przeanalizowało je za pomocą algorytmów sztucznej inteligencji. Na łamach Environmental Research Letters poinformowali, że z tak przeprowadzonych badań wynika, iż globalne temperatury będą rosły szybciej niż zakładano, a jeszcze za naszego życia niektóre regiony doświadczą średniego wzrostu temperatury przekraczającego 3 stopnie Celsjusza.
      Autorzy badań stwierdzili, że w 34 ze zdefiniowanych przez IPCC 43 regionów lądowych Ziemi średni wzrost temperatury przekroczy 1,5 stopnia Celsjusza do roku 2040. W 31 z tych 34 regionów należy spodziewać się wzrostu o 2 stopnie do roku 2040. Natomiast do roku 2060 w 26 regionach średnia temperatura wzrośnie o ponad 3 stopnie.
      Regionami narażonymi na szybszy niż przeciętny wzrost temperatur są południowa Azja, region Morza Śródziemnego, Europa Środkowa i niektóre części Afryki Subsaharyjskiej.
      Profesor Diffenbaugh zauważył, że ważne jest, by nie skupiać się tylko na temperaturach globalnych, ale zwracać uwagę na temperatury lokalne i regionalne. Badając, jak rośnie temperatura w poszczególnych regionach, będziemy mogli określić, kiedy i jakie skutki będą odczuwalne dla społeczności i ekosystemów tam żyjących. Problem w tym, że regionalne zmiany klimatyczne są trudniejsze do przewidzenia. Dzieje się tak dlatego, że zjawiska klimatyczne są bardziej chaotyczne w mniejszej skali oraz dlatego, że trudno powiedzieć, jak dany obszar będzie reagował na ocieplenie w skali całej planety.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      „Ala ma kota” to pierwsze i – prawdę mówiąc – jedyne zdanie, jakie pamiętam z elementarza. I właśnie to zdanie, które kolejne pokolenia poznają dzięki legendarnemu „Elementarzowi” Falskiego prowadzi nas przez „Prosto o AI. Jak działa i myśli sztuczna inteligencja” autorstwa Roberta Trypuza. Niewielki format książeczki sugeruje, że znajdziemy w niej niezbyt wiele informacji. Nic bardziej mylnego. To elementarz, skoncentrowana skarbnica wiedzy o technologii, która już teraz w znaczącym stopniu zmienia ludzkie życie.
      Robert Trypuz jest praktykiem. To specjalista w dziedzinie Semnatic Web i inżynierii danych. Doktorat z informatyki i telekomunikacji uzyskał na Uniwersytecie w Trydencie, jest też doktorem habilitowanym filozofii z KUL. I, co widać w książce, jest entuzjastą sztucznej inteligencji, o której potrafi bardzo ciekawie pisać.
      Z „Prosto o AI” dowiemy się na przykład jak wygląda programowanie AI w porównaniu z programowaniem klasycznym, jak AI rozumie tekst, czym jest osadzanie słów oraz jakie rewolucyjne podejście pozwoliło na skonstruowanie dużych modeli językowych, w tym najbardziej znanego z nich ChataGPT. Przeczytamy o sieciach konwolucyjnych w medycynie, uczeniu ze wzmacnianiem, autor – pamiętajmy, że jest również filozofem – opisuje, czym jest sztuczna wolna wola, zatem czy AI ma wolną wolę.
      W ostatnim zaś odcinku znajdziemy rozważania na temat wpływu sztucznej inteligencji na proces edukacji. Nie ma w tym zdaniu pomyłki, odcinku, a nie rozdziale. Historia jest mianowicie taka, że treści zawarte w tej książce nie zostały napisane do tej książki. Pisałem je jako scenariusze odcinków programu, który nigdy nie powstał, pisze Robert Trypuz we wstępie. I może właśnie pochodzenie tekstu, który zamienił się w książkę, powoduje, że tak łatwo można przyswoić zawarte w niej informacje.
      Dla kogo jest zatem „Prosto o AI”? Dla każdego z nas, kto nigdy bardziej nie zagłębił się w tajniki sztucznej inteligencji. Tutaj znajdzie jej podstawy wyjaśnione w prosty sposób. Większości czytelników pogłębienie wiedzy do tego stopnia w zupełności wystarczy, jakąś zaś część zachęci, by sięgnąć po kolejne, bardziej szczegółowe i specjalistyczne pozycje. Ja czytałem książkę Trypuza z olbrzymim zainteresowaniem i przyjemnością.
    • przez KopalniaWiedzy.pl
      Wszystkie wyżej zorganizowane formy życia, od roślin i grzybów, po ludzi i zwierzęta, są eukariontami, organizmami zbudowanymi z komórek posiadających jądro komórkowe. To odróżnia je od prokariontów nie posiadających jądra komórkowego. Pochodzenie eukariontów to jedna z największych zagadek biologii.
      Według dominującej obecnie hipotezy w pewnym momencie doszło do połączenia dwóch prokariontów, archeona z nadtypu Asgard i bakterii. Bakteria utworzyła mitochondrium. W ten sposób powstał przodek eukariontów, który miał do dyspozycji na tyle dużo energii, że mógł rozwinąć się w złożoną komórkę, jaką znamy dzisiaj. Jedną z cech definiujących takie złożone komórki eukariotyczne jest ich zdolność do endocytozy, czyli pochłaniania innych komórek.
      Prokarionty nie są w stanie pochłaniać innych komórek. Nie mają wystarczająco dużo energii, by przeprowadzić ten proces. A przynajmniej tak do niedawna uważano. Naukowcy z Uniwersytetu w Jenie poinformowali właśnie o potwierdzeniu „niemożliwego” – prokariotycznej bakterii, zdolnej do pożerania innych komórek.
      Profesor Christian Jogler i jego zespół od ponad 10 lat prowadzą badania mające wyjaśnić powstanie eukariontów. Skupili się na prokariotycznych bakteriach Planctomycetes. To unikatowe organizmy, które ze względu na niezwykłą biologię komórek są uznawane przez niektórych za możliwych przodków eukariontów. Pomysł, że doszło do fuzji dwóch różnych prokariontów w jednego eukarionta nie przekonuje mnie z punktu widzenia biologii komórki. Nikt nigdy czegoś takiego nie zaobserwował, a taka hybryda prawdopodobnie nie mogłaby przetrwać ze względu na różne struktury błony komórkowej i układy molekularne, mówi profesor Jogler.
      W 2014 roku jego zespół znalazł w Morzu Bałtyckim nieznane wcześniej Planctomycetes. Te bakterie zmieniają kształt, potrafią „chodzić” po powierzchni, wyjaśnia uczony. Mają unikatową budowę jak na prokarionty. Ich istnienie wzmocniło hipotezę, że komórki eukariotyczne mogły powstać z Planctomycetes. W 2019 roku profesor Takashi Shiratori i jego zespół z Uniwersytetu w Tsukubie donieśli, że zaobserwowali u Planctomycetes proces pochłaniania innych komórek podobny do endocytozy. Wydawało się więc, że pogląd, jakoby prokarionty nie były zdolne do endocytozy, został obalony.
      Szczerze mówiąc, nie wierzyłem doktorowi Shiratoriemu, przyznaje Jogler. Niemieccy uczeni postanowili podważyć wyniki Japończyków. Po roku intensywnych badań stwierdzili jednak, że Shiratori i jego zespół mieli rację. W opublikowanym właśnie artykule badacze z Jeny nie tylko potwierdzili spostrzeżenia uczonych z Tsukuby, ale poinformowali też, że odkryte przez nich w Morzu Północnym bakterie Uabimicrobium helgolandensis również żywią się innymi bakteriami. A po analizach genetycznych tych bakterii Niemcy doszli do wniosku, że drapieżne Planctomycetes są pomostem pomiędzy prokariontami i eukariontami. Ich zdaniem odegrały one znaczącą rolę w pojawieniu się eukariontów, a może nawet i pojawieniu się życia.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Wielkie modele językowe (LLM) – takie jak osławiony ChatGPT – nie są w stanie samodzielnie się uczyć i nabierać nowych umiejętności, a tym samym nie stanowią egzystencjalnego zagrożenia dla ludzkości, uważają autorzy badań opublikowanych w ramach 62nd Annual Meeting of the Association for Computational Linguistics, głównej międzynarodowej konferencji dotyczącej komputerowego przetwarzania języków naturalnych.
      Naukowcy z Uniwersytetu Technicznego w Darmstadt i Uniwersytetu w Bath stwierdzają, że LLM potrafią uczyć się, jeśli zostaną odpowiednio poinstruowane. To zaś oznacza, że można je w pełni kontrolować, przewidzieć ich działania, a tym samym są dla nas bezpieczne. Bezpieczeństwo ludzkości nie jest więc powodem, dla którego możemy się ich obawiać. Chociaż, jak zauważają badacze, wciąż można je wykorzystać w sposób niepożądany.
      W miarę rozwoju modele te będą prawdopodobnie w stanie udzielać coraz bardziej złożonych odpowiedzi i posługiwać się coraz doskonalszym językiem, ale jest wysoce nieprawdopodobne, by nabyły umiejętności złożonego rozumowania. Co więcej, jak stwierdza doktor Harish Tayyar Madabushi, jeden z autorów badań, dyskusja o egzystencjalnych zagrożeniach ze strony LLM odwraca naszą uwagę od rzeczywistych problemów i zagrożeń z nimi związanych.
      Uczeni z Wielkiej Brytanii i Niemiec przeprowadzili serię eksperymentów, w ramach których badali zdolność LLM do radzenia sobie z zadaniami, z którymi wcześniej nigdy się nie spotkały. Ilustracją problemu może być na przykład fakt, że od LLM można uzyskać odpowiedzi dotyczące sytuacji społecznej, mimo że modele nigdy nie były ćwiczone w takich odpowiedziach, ani zaprogramowane do ich udzielania. Badacze wykazali jednak, że nie nabywają one w żaden tajemny sposób odpowiedniej wiedzy, a korzystają ze znanych wbudowanych mechanizmów tworzenia odpowiedzi na podstawie analizy niewielkiej liczby znanych im przykładów.
      Tysiące eksperymentów, za pomocą których brytyjsko-niemiecki zespół przebadał LLM wykazało, że zarówno wszystkie ich umiejętności, jak i wszystkie ograniczenia, można wyjaśnić zdolnością do przetwarzania instrukcji, rozumienia języka naturalnego oraz umiejętnościom odpowiedniego wykorzystania pamięci.
      Obawiano się, że w miarę, jak modele te stają się coraz większe, będą w stanie odpowiadać na pytania, których obecnie sobie nawet nie wyobrażamy, co może doprowadzić do sytuacji, ze nabiorą niebezpiecznych dla nas umiejętności rozumowania i planowania. Nasze badania wykazały, że strach, iż modele te zrobią coś niespodziewanego, innowacyjnego i niebezpiecznego jest całkowicie bezpodstawny, dodaje Madabushi.
      Główna autorka badań, profesor Iryna Gurevych wyjaśnia, że wyniki badań nie oznaczają, iż AI w ogóle nie stanowi zagrożenia. Wykazaliśmy, że domniemane pojawienie się zdolności do złożonego myślenia powiązanych ze specyficznymi zagrożeniami nie jest wsparte dowodami i możemy bardzo dobrze kontrolować proces uczenia się LLM. Przyszłe badania powinny zatem koncentrować się na innych ryzykach stwarzanych przez wielkie modele językowe, takie jak możliwość wykorzystania ich do tworzenia fałszywych informacji.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dermatolog Harald Kittler z Uniwersytetu Medycznego w Wiedniu stanął na czele austriacko-australijskiego zespołu, który porównał trafność diagnozy i zaleceń dotyczących postępowania z przebarwieniami na skórze stawianych przez lekarzy oraz przez dwa algorytmy sztucznej inteligencji pracujące na smartfonach. Okazało się, że algorytmy równie skutecznie co lekarze diagnozują przebarwienia. Natomiast lekarze podejmują znacznie lepsze decyzje dotyczące leczenia.
      Testy przeprowadzono na prawdziwych przypadkach pacjentów, którzy zgłosili się na Wydział Dermatologii Uniwersytetu Medycznego w Wiedniu oraz do Centrum Diagnozy Czerniaka w Sydney w Australii.
      Testowane były dwa scenariusze. W scenariuszu A porównywano 172 podejrzane przebarwienia na skórze (z których 84 były nowotworami), jakie wystąpiły u 124 pacjentów. W drugim (scenariuszu B) porównano 5696 przebarwień – niekoniecznie podejrzanych – u 66 pacjentów. Wśród nich było 18 przebarwień spowodowanych rozwojem nowotworu. Testowano skuteczność dwóch algorytmów. Jeden z nich był nowym zaawansowanym programem, drugi zaś to starszy algorytm ISIC (International Skin Imaging Collaboration), używany od pewnego czasu do badań retrospektywnych.
      W scenariuszu A nowy algorytm stawiał diagnozę równie dobrze jak eksperci i był wyraźnie lepszy od mniej doświadczonych lekarzy. Z kolei algorytm ISIC był znacząco gorszy od ekspertów, ale lepszy od niedoświadczonych lekarzy.
      Jeśli zaś chodzi o zalecenia odnośnie leczenia, nowoczesny algorytm sprawował się gorzej niż eksperci, ale lepiej niż niedoświadczeni lekarze. Aplikacja ma tendencję do usuwania łagodnych zmian skórnych z zaleceń leczenia, mówi Kittler.
      Algorytmy sztucznej inteligencji są więc już na tyle rozwinięte, że mogą służyć pomocą w diagnozowaniu nowotworów skóry, a szczególnie cenne będą tam, gdzie brak jest dostępu do doświadczonych lekarzy. Ze szczegółami badań można zapoznać się na łamach The Lancet.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...