Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Sztuczna inteligencja odkryła antybiotyk zwalczający antybiotykooporne bakterie

Rekomendowane odpowiedzi

Algorytmy do maszynowego uczenia się pozwoliły specjalistom z MIT zidentyfikować nowe potężne antybiotyki. Podczas testów laboratoryjnych nowe związki zabiły jedne z najtrudniejszych w zwalczaniu bakterii chorobotwórczych, w tym szczepy oporne na działanie wszystkich znanych antybiotyków. Jakby tego było mało, umożliwiły one zwalczenie infekcji w dwóch różnych mysich modelach chorób.

Naukowcy wykorzystali model komputerowy, który pozwala na przeanalizowanie w ciągu zaledwie kilku dni działania setek milionów związków chemicznych. Taka analiza pozwala na wybór do dalszych badań najbardziej obiecujących środków. Uczeni szukają związków, które zabijają bakterie w inny sposób, niż obecnie znane antybiotyki.

Chcieliśmy stworzyć platformę, która pozwoliłaby nam na wykorzystanie sztucznej inteligencji do zapoczątkowania nowej epoki w odkrywaniu antybiotyków. Dzięki takiemu podejściu natrafiliśmy na zadziwiającą molekułę, która jest jednym z najpotężniejszych znanych antybiotyków, mówi profesor James Collins z MIT.

Przy okazji zidentyfikowano wiele innych obiecujących kandydatów na antybiotyki. Substancje te dopiero będą testowane. Uczeni uważają, że ich model można wykorzystać również do projektowania nowych leków.

Model maszynowego uczenia się pozwala nam masowo badać związki chemiczne. Przeprowadzenie takich badań w laboratorium byłoby niemożliwe ze względu na koszty, dodaje Regina Barzilay z Computer Science and Artificial Intelligencje Laboratory (CSAIL) na MIT.

Przez ostatnich kilkadziesiąt lat wynaleziono niewiele nowych antybiotyków, a większość z tych nowych to lekko istniejące wersje wcześniej istniejących. Obecnie wykorzystywane metody badania związków chemicznych pod kątem ich przydatności do produkcji antybiotyków są niezwykle kosztowne, wymagają dużo czasu i zwykle pozwalają zbadać wąską grupę mało zróżnicowanych środków.

Stoimy w obliczu rosnącej antybiotykooporności. Z jednej strony problem ten spowodowany jest coraz większą liczbą antybiotykoopornych patogenów, a z drugiej – powolnym postępem na tym polu, mówi Collins. Coraz częściej pojawiają się głosy, że ludzie mogą zacząć umierać na choroby zakaźne, na które nie umierali od dziesięcioleci. Dlatego też niezwykle pilnym zadaniem jest znalezienie nowych antybiotyków. Niedawno informowaliśmy o odkryciu antybiotyków, które zabijają bakterie w niespotykany dotąd sposób.

Pomysł wykorzystania komputerów do identyfikowania potencjalnych antybiotyków nie jest nowy, dotychczas jednak obliczenia takie były albo niezwykle czasochłonne, albo niedokładne. Nowe sieci neuronowe znacznie skracają czas obliczeń.

Naukowcy z MIT dostosowali swój model obliczeniowy tak, by poszukiwał związków chemicznych mogących być zabójczymi dla E. coli. Swój model trenowali na około 2500 molekuł, w tym na około 1700 lekach zatwierdzonych przez FDA i około 800 naturalnych produktach o zróżnicowanych strukturach i działaniu.

Po zakończonym treningu sieć neuronowa została przetestowana na należącej do Broad Institute bazie Drug Repository Hub, która zawiera około 6000 związków. Algorytm znalazł tam molekułę, która miała strukturę inną od wszystkich istniejących antybiotyków i o której sądził, że będzie wykazywała silne działanie antybakteryjne. Naukowcy najpierw poddali tę molekułę badaniom za pomocą innego modelu maszynowego i stwierdzili, że prawdopodobnie jest ona mało toksyczna dla ludzi.

Halicyna, bo tak nazwano tę molekułę, była w przeszłości badana pod kątem jej przydatności w leczeniu cukrzycy. Teraz naukowcy przetestowali ją na dziesiątkach szczepów bakterii pobranych od ludzi. Okazało się, że zabija ona wiele antybiotykoopornych patogenów, w tym Clostridium difficile, Acinetobacter bumannii czy Mycobacterium turebculosis. Jedynym patogenem, który oparł się jej działaniu była Pseudomonas aeruginosa, powodująca trudne w leczeniu choroby płuc.

Po pomyślnych testach in vitro rozpoczęto badania na zwierzętach. Halicynę użyto do leczenia myszy zarażonej wcześniej opornym na działanie wszystkich znanych antybiotyków szczepem A. baumannii. Halicyna w ciągu 24 godzin zwalczyła infekcję u zwierząt.

Wstępne badania sugerują, że nowy antybiotyk działa poprzez zaburzanie u bakterii możliwości utrzymania gradientu elektrochemicznego w błonie komórkowej. Gradient ten jest niezbędny m.in. do wytwarzania molekuły ATP, niezbędnego nośnika energii. Bakterie pozbawione ATP giną. Naukowcy uważają, że bakteriom będzie bardzo trudno nabyć oporność na taki sposób działania antybiotyku.

Podczas obecnych badań uczeni stwierdzili, że w ciągu 30 dni leczenia u E. coli w ogóle nie rozwinęła się oporność na halicynę. Tymczasem np. oporność na cyprofloksacynę zaczyna się u E. coli rozwijać w ciągu 1-3 dni od podania, a po 30 dniach bakteria jest 200-krotnie bardziej oporn działanie tego środka.

Po zidentyfikowaniu halicyny naukowcy wykorzystali swój model do przeanalizowania ponad 100 milionów molekuł wybranych z bazy ZINC15, w której znajduje się około 1,5 miliarda molekuł. Analiza trwała trzy doby, a sztuczna inteligencja znalazła 23 molekuły, które są niepodobne do żadnego istniejącego antybiotyku i nie powinny być toksyczne dla ludzi. Podczas testów in vitro stwierdzono, że 8 z tych molekuł wykazuje właściwości antybakteryjne, z czego 2 są szczególnie silne. Uczeni planują dalsze badania tych molekuł oraz analizę pozostałych związków z ZINC15.

Naukowcy planują dalsze udoskonalanie swojego modelu. Chcą np. by poszukiwał on związków zdolnych do zabicia konkretnego gatunku bakterii, a oszczędzenia bakterii korzystnych dla ludzi.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Absolutnie niesamowite. W zasadzie podwójna wygrana. Nie dość że wreszcie znika strach przed lekoodpornością bakterii to dodatkowo wydaje mi się że jest to pierwszy raz jak sztuczna inteligencja przysługuje się ludzkości. Za 50 lat ludzie pewnie będą żyli po 150 lat a pracować nikt nie będzie bo co tu robić jak Ai jest sprawniejsze od całej armi medyków i w tydzień robi testy które ludzkości zajęłyby dziesiątki jak nie setki lat. Myślę że od tego odkrycia zaczyna się nowy etap.

Edytowane przez Miroslaw

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
8 godzin temu, Miroslaw napisał:

Za 50 lat ludzie pewnie będą żyli po 150 lat

To implikuje globalną populację na poziomie pół miliona :P
 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 hours ago, peceed said:

To implikuje globalną populację na poziomie pół miliona :P

Mirosław nie jest w klubie :)

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Ibuprofen i paracetamol to najpowszechniej używane na świecie środki przeciwbólowe stosowane bez recepty. Najnowsze badania przeprowadzone na University of South Australia sugerują, że napędzają one jedno z największych zagrożeń zdrowotnych dla ludzkości: antybiotykooporność. Uczeni z Australii chcieli sprawdzić interakcje zachodzące pomiędzy lekami nie będącymi antybiotykami, ciprofloksacyną, która jest antybiotykiem o szerokim spektrum działania oraz bakterią E. coli. I odkryli wysoce niepokojący wpływ ibuprofenu i paracetamolu na bakterię.
      Antybiotykooporność od lat uważana jest za jedno z największych zagrożeń dla ludzkości. Powszechne i nadmierne stosowanie antybiotyków u ludzi oraz zwierząt hodowlanych powoduje, że coraz więcej szkodliwych mikroorganizmów zyskuje oporność na coraz liczniejsze antybiotyki. Specjaliści obawiają się, że w przyszłości może dojść do sytuacji, w której coraz więcej osób będzie umierało na choroby zakaźne, które jeszcze niedawno nie były śmiertelnym zagrożeniem, gdyż mieliśmy zwalczające je antybiotyki. Z badań, które ukazały się w 2022 roku w piśmie The Lancet dowiadujemy się, że w 2019 roku antybiotykooporne bakterie zabiły 1,27 miliona osób, a w sumie przyczyniły się do śmierci 4,95 miliona ludzi. Największe śmiertelne żniwo zebrały Escherichia coli, Staphylococcus aureus, Klebsiella pneumoniae, Streptococcus pneumoniae, Acinetobacter baumannii i Pseudomonas aeruginosa.
      Antybiotyki od dawna są główną obroną przed chorobami zakaźnymi, jednak ich nadmierne i niepotrzebne stosowanie doprowadziło do pojawienia się na całym świecie antybiotykoopornych bakterii, mówi główna autorka nowych badań, profesor Rietie Venter. Ma to szczególne znaczenie w domach opieki społecznej, gdzie osobom starszym z większym prawdopodobieństwem przepisuje się wiele leków, nie tylko antybiotyków, ale również środków przeciwbólowych, nasennych czy obniżających ciśnienie. W ten sposób powstaje idealne środowisko, w którym bakterie mikrobiomu mogą stać się oporne na antybiotyki, dodaje uczona.
      Naukowcy z Australii zauważyli, że gdy obok ciprofloksacyny – stosowanej w leceniu infekcji skóry, układu moczowego i układu pokarmowego – podaje się też ibuprofen czy paracetamol, u bakterii E. coli pojawia się więcej mutacji niż wówczas, gdy podaje się sam antybiotyk. W wyniku tych mutacji bakterie szybciej się namnażają i są bardziej oporne na działanie antybiotyków. A co gorsza, nie tylko na działanie ciprofloksacyny, ale szerokiego spektrum antybiotyków różnych klas.
      Badacze oceniali 9 leków powszechnie stosowanych w domach opieki społecznej: ibuprofen, diklofenak, paracetamol, furosemid, metforminę, tramadol, atorwastatynę, temazepam i pseudoefedrynę. Ich badania wykazały, że mechanizm nabywania antybiotykooporności jest bardzo złożony i nie ma związku wyłącznie z antybiotykami.

      Badania zostały opublikowane w artykule The effect of commonly used non-antibiotic medications on antimicrobial resistance development in Escherichia coli.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Połączenie tradycyjnych technik i sztucznej inteligencji może przynieść nowe, niezwykle ważne informacje na temat przyszłości. Niektóre ze zwojów znad Morza Martwego mogą być nawet o wiek starsze, niż sądzono, a część z nich może być kopiami, które powstały jeszcze za życia oryginalnych autorów. Do takich wniosków doszedł międzynarodowy zespół badawczy kierowany przez Mladena Popovicia z Uniwersytetu w Groningen. Naukowcy wykorzystali datowanie radiowęglowe, paleografię oraz model sztucznej inteligencji Enoch – to imię jednego z biblijnych proroków – do datowania zwojów.
      Od czasu odkrycia zwoje znad Morza Martwego wpłynęły na postrzegania początków chrześcijaństwa, historii Żydów i rozwoju religii. Generalnie zwoje datowane są na od III wieku przed Chrystusem, po II wiek naszej ery. Jednak daty powstania poszczególnych z nich są bardzo niepewne. Większość datowana jest na podstawie badań paleograficznych, czyli badań stylu pisma. Jednak paleografia dla tak starych zapisków opiera się na słabych podstawach, a badania utrudnia fakt, że większość zwojów nie jest datowana i brak jest innych datowanych dokumentów z tego okresu, które mogłyby posłużyć za materiał porównawczy. Dysponujemy niewieloma datowanymi manuskryptami aramejskimi i hebrajskimi z V i IV wieku przed naszą erą oraz datowanymi manuskryptami z początku II wieku n.e. Jak więc widać, luka, dla której nie mamy materiału porównawczego, pokrywa się z najbardziej prawdopodobnym okresem powstania zwojów.
      Naukowcy z Uniwersytetów w Groningen, Danii Południowej, w Pizie oraz Uniwersytetu Katolickiego w Lowanium, pracujący w ramach projektu The Hands That Wrote the Bible połączyli datowanie radiowęglowe 24 zwojów z analizą paleograficzną wykonaną przez model sztucznej inteligencji. Datowane zwoje posłużyły jako wiarygodny punkt wyjścia dla określenia wieku manuskryptów metodą paleograficzną. Model Enoch wykorzystywał sieć neuronową wyspecjalizowaną w wykrywaniu wzorców i różnic w piśmie w zdigitalizowanych manuskryptach. Maszyna nauczyła się analizować zarówno geometryczne zmiany śladów atramentu na poziomie mikro – badając takie elementy jak zmiany nacisku, tekstury czy kierunku – jak i sam kształt liter.
      Po treningu naukowcy przeanalizowali za pomocą Enocha 135 z około 1000 zwojów. Pierwsze wnioski z analizy zostały właśnie przedstawione na łamach PLOS One. Wynika z nich, że wiele zwojów jest starszych niż sądzono. Wyniki badań pokazały też, że należy zmienić pogląd na dwa style starożytnego pisma – hasmonejski i herodiański. Manuskrypty napisane w stylu hasmonejskim mogą być bowiem starsze niż obecne szacunki datujące je na lata 150–50 p.n.e. Również styl herodiański pojawił się wcześniej niż przypuszczano. To zaś wskazuje, że oba style pisma były używane jednocześnie od końca II wieku przed Chrystusem, a nie – jak się uważa – od połowy pierwszego wieku p.n.e.
      Nowe datowanie manuskryptów w znaczącym stopniu zmienia nasze rozumienie zjawisk politycznych i intelektualnych, jakie zachodziły we wschodniej części Śródziemiomorza w okresie hellenistycznym i rzymskim. Rzuca nowe światło na poziom wykształcenia, opanowania umiejętności pisania i czytania, na urbanizację, rozwój kultury, wydarzenia polityczne, pojawienie się dynastii hasmonejskiej oraz rozwój różnych grup religijnych, w tym wczesnych chrześcijan.
      Ponadto okazało się, że rękopisy 4QDanielc (4Q114) – czyli zwój znaleziony w 4. jaskini w Qumran, który zawiera fragment Księgi Daniela i jest trzecim (stąd litera c) rękopisem Daniela z tej jaskini, a 4Q114 to numer katalogowy – oraz 4QQoheleta (4Q109) są pierwszymi znanymi rękopisami biblijnymi, które mogą pochodzić z czasów życia ich autorów. Nie wiemy, kto ukończył Księgę Daniela, ale powszechnie uważa się, że została ona napisana około 160 roku przed naszą erą. Odnośnie Księgi Koheleta, której autorstwo tradycja przypisuje królowi Salomonowi, naukowcy są zgodni, że postała ona w okresie hellenistycznym, w III wieku p.n.e. Wykonane właśnie datowanie radiowęglowe 4Q114 oraz analiza 4Q109 za pomocą Enocha wskazują, że manuskrypty powstały – odpowiednio – w II i III wieku, zatem w czasie, gdy żyli ich prawdopodobni autorzy. Mamy więc do czynienia z kopiami wykonanymi jeszcze za ich życia.
      Źródło: Dating ancient manuscripts using radiocarbon and AI-based writing style analysis

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Eksperci z CSIRO (Commonwealth Scientific and Industrial Research Organisation) agendy naukowej rządu Australii, stworzyli algorytm sztucznej inteligencji, który lepiej niż ludzcy specjaliści rozpoznaje płeć na podstawie wyglądu czaszki. Przyda się ono wszędzie tam, gdzie potrzebna jest dokładna szybka identyfikacja płci, na przykład podczas śledztw kryminalnych czy prac prowadzonych w związku z katastrofami naturalnymi.
      Nowe narzędzie, stworzone przy pomocy naukowców z University of Western Australia, potrafi określić płeć na podstawie samej tylko czaszki z 97-procentową dokładnością. To znacznie lepszy wynik, niż 82-procentowa dokładność uzyskiwana przez ekspertów medycyny sądowej posługujących się tradycyjnymi metodami.
      Algorytm sztucznej inteligencji sprawdzono na próbce 200 skanów z tomografu komputerowego, a uzyskane wyniki porównano z wynikami ludzi. "Nasze narzędzie określa płeć około 5-krotnie szybciej niż ludzie. To oznacza, że rodziny czekające na informacje o bliskich szybciej mogą otrzymać informacje. Narzędzie to może być dużą pomocą podczas badań antropologicznych, bardziej precyzyjnie określając płeć i pozwalając uniknąć błędów robionych przez ludzi", mówi doktor Hollie Min, jedna z autorek algorytmu.
      Twórcy nowego narzędzia mają zamiar nadal je trenować, uwzględniając różne ludzkie populacje, co powinno nie tylko poprawić efektywność algorytmu, ale i spowodować, że będzie bardziej uniwersalny.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W niedawno opublikowanym wywiadzie Mark Zuckerberg stwierdził, że prawdopodobnie jeszcze w bieżącym roku firma Meta (właściciel Facebooka), podobnie jak inne wielkie firmy, będzie dysponowała systemem sztuczne inteligencji zdolnym do programowania na poziomie średnio doświadczonego inżyniera (mid-level engineer).
      Początkowo wdrożenie takich systemów będzie bardzo kosztowne i będą one musiały zyskać na wydajności, jednak z czasem dojdziemy to momentu, w którym bardzo duża część kodu używanych przez nas aplikacji, w tym kodu algorytmów sztucznej inteligencji, nie będzie pisana przez ludzi, a przez sztuczną inteligencję, stwierdził założyciel Facebooka.
      Słowa Zuckerberga to tylko jeden z sygnałów, że branżę programistyczną mogą w najbliższym czasie czekać olbrzymie zmiany. Sami programiści z jednej strony tworzą algorytmy sztucznej inteligencji, które w przyszłości mogą ich zastąpić, z drugiej zaś, coraz częściej korzystają z ich pomocy. Jeszcze na początku 2023 roku tylko 10% programistów używało AI do pomocy w programowaniu, pod koniec roku 2023 już 63% firm używało lub wdrażało użycie narzędzi AI pomagających w programowaniu. Pod koniec ubiegłego roku odsetek ten wzrósł do 80%.
      Zuckerberg nie jest jedynym wśród wiodących biznesmenów z branży IT, który zapowiada szybkie nadejście olbrzymich zmian. We wrześniu Matt Garman, szef Amazon Web Services, zasugerował, że w ciągu najbliższych 2 lat większość inżynierów oprogramowania przestanie zajmować się programowaniem. Zaś kilka miesięcy wcześniej prezes Nvidii stwierdził, że uczenie się programowania nie jest dobrym pomysłem, gdyż dzięki rozwojowi AI ludzki język staje się najważniejszym językiem programowania.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Pomiędzy lipcem 2021 roku a lutym 2023 roku 12 centrów mammograficznych w Niemczech brało udział w programie, w którym badania mammograficzne były wspomagane przez system sztucznej inteligencji. Radiolodzy sami decydowali, kiedy wykorzystać AI, a kiedy wykonać badania tradycyjnymi metodami. W tym czasie we wspomnianych centrach 119 radiologów przebadało 463 094 kobiety w wieku 50–69 lat. W przypadku 260 739 z nich diagnoza była wspomagana przez sztuczną inteligencję, pozostała część stanowiła grupę kontrolną.
      W grupie, w której badania wspomagane były przez AI, odsetek wykrytych nowotworów piersi wyniósł 0,67%, podczas gdy w grupie badanej tradycyjnymi metodami było to 0,57%. Ponadto tam, gdzie do badania użyto AI odsetek pań poddanych pogłębionej diagnostyce wyniósł 3,74%, a w grupie kontrolnej – 3,83%. Wartość predykcyjna dodatnia (PPV) dla grupy badanej przez AI wynosiła 17,9%, dla grupy kontrolnej – 14,9%. PPV pokazuje tę część podejrzanych wyników mammografii, które w pogłębionej diagnostyce rzeczywiście reprezentują chorobę.
      Najważniejszym wskaźnikiem przydatności algorytmu sztucznej inteligencji w badaniach mammograficznych jest fakt, że zwiększył on wykrywalność choroby bez zwiększania potrzeby przeprowadzenia pogłębionej diagnostyki. To już kolejne badania, które pokazały, że algorytmy sztucznej inteligencji rzeczywiście wspomagają pracę radiologów i mogą ratować życie kobiet.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...