Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Muszka owocówka udoskonaliła algorytm komputerowy

Rekomendowane odpowiedzi

Muszka owocówka, którą, jak się wydaje, dobrze poznaliśmy, znowu zaskoczyła naukowców pokazując, jak mało pomysłowi są ludzie w porównaniu z naturą. Owad wykorzystuje niewielkie podobne do włosków struktury do odbierania bodźców zewnętrznych, a struktury te są zorganizowane w sposób jednocześnie niezwykle prosty i niezwykle efektywny. To tak proste i intuicyjne rozwiązanie, że nie mogę uwierzyć, iż ludzie nie wpadli na to już 25 lat temu - mówi matematyk i informatyk z Tel Awiwu, Noga Alon.

Poznanie sposobu organizacji połączeń pomiędzy wspomnianymi strukturami przyczyni się do stworzenia doskonalszych sieci i programów komputerowych oraz sieci czujników. Już teraz wiadomo, że komórki nerwowe tworzące połączenia u muszki owocówki zorganizowały się w ten sposób, że część z nich to liderzy mający połączenie z każdą inną komórką. W podobny sposób zorganizowane są komputerowe sieci rozproszone, od takich umożliwiających przeszukiwanie internetu po te sterujące samolotem podczas lotu. Jednak tym, co wprawiło naukowców w zdumienie jest fakt, że u muszek owocówek organizacja tych sieci jest znacznie prostsza, bardziej wydajna i odporna na zakłócenia niż wszystko, co wymyślił człowiek.

Uczeni wykorzystali zdobytą wiedzę do stworzenia nowego algorytmu działania sieci rozproszonych. Podczas jego testów odkryli, że jest on szczególnie przydatny do sieci, w których liczba węzłów i ich położenie nie są całkowicie pewne. Algorytm taki świetnie sprawdzi się w zarządzaniu np. sieciami rozproszonych w wodzie czujników czy też do dużymi grupami robotów.

Naukowcy od dawna używają modeli komputerowych i matematycznych do analizowania systemów biologicznych. Tutaj zastosowaliśmy odwrotną strategię i studiujemy system biologiczny, by rozwiązać problem z dziedziny informatyki - mówi Zvi Bar-Joseph z Carnegie Mellon University.

Badanie połączeń nerwowych muszki owocówki pozwoli na rozwiązanie jednego z bardzo istotnych problemów matematyczno-informatycznych. Obecnie rozległe sieci komputerowe korzystają z przetwarzania rozproszonego. Tysiące czy miliony procesorów wspólnie pracują nad rozwiązaniem tego samego problemu, żaden z nich nie ma kompletnej wiedzy o tym, co jest przetwarzane, a całość musi pracować pomimo błędów czy awarii występujących w pojedynczych elementach. Aby taki system działał konieczne jest wyznaczenie procesorów-liderów, które będą w stanie szybko komunikować się z innymi procesorami sieci. W teorii grafów nazywa się to maksymalnym zbiorem niezależnym (MIS). Każdy z procesorów w sieci jest albo liderem, członkiem MIS, albo też jest połączony z liderem. Natomiast liderzy nie są ze sobą bezpośrednio połączeni. Eksperci od 30 lat poszukują najlepszego sposobu nad optymalnym wyznaczanie przez sieć elementów, które powinny należeć do MIS. Obecnie najczęściej stosuje się metodę probabilistyczną, w której procesory samodzielnie przejmują rolę liderów na podstawie liczby bezpośrednich połączeń, które mają z innymi procesorami. W każdej rundzie wykonywania algorytmu dochodzi do ponownego wybrania liderów na podstawie liczby połączeń.

Liderzy wybierani są błyskawicznie, jednak cały proces związany jest z wysyłaniem olbrzymiej liczby dodatkowych informacji oraz wymaga od procesorów, by z wyprzedzeniem znały liczbę przypadających nań połączeń. To stanowi olbrzymi problem w przypadku sieci bezprzewodowych czujników, których położenie może być przypadkowe, a połączenia między nimi nie są im znane, gdyż nie każdy czujnik będzie znajdował się w zasięgu każdego innego czujnika.

Naukowcy odkryli, że u muszki owocówki, już podczas jej rozwoju, wybierane są komórki nerwowe, które będą liderami. Jednak, w przeciwieństwie do opisanych powyżej procesorów, komórki nie mają informacji o połączeniach z innymi. Komórki, które same wybrały się na liderów, wysyłają po prostu sygnały, które powodują, że bezpośrednio połączone z nimi komórki nie zostają liderami. Taki proces trwa zaledwie trzy godziny i w tym czasie zostają ustaleni liderzy i podlegające im komórki.

Bar-Joseph zauważa, że u muszki prawdopodobieństwo, iż komórka zostanie liderem nie jest - jak w przypadku sieci procesorów - funkcją liczby połączeń, ale funkcją czasu. To oznacza, że komórki nie muszą z wyprzedzeniem znać liczby połączeń, a komunikacja pomiędzy nimi jest maksymalnie uproszczona.

Badania algorytmu zbudowanego dzięki badaniu owadów wykazały, że działa on nieco wolniej od obecnie używanych, ale jest za to bardziej wydajny i odporny na zakłócenia.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ta wiadomość bardzo ucieszy osoby interesujące się sieciami rozproszonymi (szczególnie chłopców z BOINC@POLAND.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Muszka owocówka, którą, jak się wydaje, dobrze poznaliśmy, znowu zaskoczyła naukowców pokazując, jak mało pomysłowi są ludzie w porównaniu z naturą.

 

A co to jest natura?

 

Czy można to rozumieć jako: "Muszka owocówka, którą, jak się wydaje, dobrze poznaliśmy, znowu zaskoczyła naukowców pokazując, jak mało pomysłowi są ludzie w porównaniu z przypadkiem?".

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Moim zdaniem jakaś sprytna muszka owocówka powinna ten algorytm opatentować i pobierać kasę za jego wykorzystywanie przez wielkie koncerny... bo jak ludzie teraz będą to wykorzystywać to będzie plagiat!

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To ja zgłaszam się na jej pełnomocnika ;).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A co to jest natura?

 

Czy można to rozumieć jako: "Muszka owocówka, którą, jak się wydaje, dobrze poznaliśmy, znowu zaskoczyła naukowców pokazując, jak mało pomysłowi są ludzie w porównaniu z przypadkiem?".

 

Nie przypadkiem ale z doborem naturalnym, i nie mało pomysłowi ale mniej czasu mieli ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Aż mikroskopu trzeba, żeby tak oczywista regułę zauważyć?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie przypadkiem ale z doborem naturalnym, i nie mało pomysłowi ale mniej czasu mieli ;)

 

Czyli natura to dobór naturalny, tak jak masło, to produkt maślany?

 

Dobór naturalny, to też przecież przypadek, bo jego prawidła naskoczyły przypadkowo z tendencją do doskonalenia i replikacji - być może w nieskończoność. Inna hipoteza zakładałaby inteligentny absolut :P.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czyli natura to dobór naturalny, tak jak masło, to produkt maślany?

Dobór naturalny, to też przecież przypadek, bo jego prawidła naskoczyły przypadkowo z tendencją do doskonalenia i replikacji - być może w nieskończoność. Inna hipoteza zakładałaby inteligentny absolut ;).

 

odnoszę wrażenie że za bardzo ujednolicasz pojęcia "dobór naturalny" i "przypadek" w doborze naturalnym przypadek gra często kluczową rolę, jednak to nie znaczy że jest najważniejszy.

 

Trzeba tu trochę belfer-styki, ale co tam :P Czego się nie robi dla kolegów z "forum" :)

 

Wyobraź sobie populację żab która ma milion osobników, powoli (setki  pokoleń - tysiące lat) zaczyna brakować wody. Wody brakuje w porze letniej coraz bardziej w zimę woda porwaca, jednak praktycznie nigdy tak bardzo jak poprzednim razem...

 

Jeziorko/rzeczka okresowo wysycha... żaby uwarunkowane genetycznie na życie w środowisku wodnym czują się coraz gorzej, ale niektóre osobniki lepiej to tolerują inne gorzej, dodatkowo od czasu do czasu pojawia się wśród żab mutacja, raz mutacja doprowadza do powstania żab które mają bardziej wrażliwą skórę na osuszanie, inna mutacja generuje żaby które mogą bez wody w stanie ciekłym wytrzymać dobe, a inne.. mogą wytrzymać w błocie i woda w stanie płynnym jest im niezbyt potrzebna.. te drugie i trzecie rozmnażają się lepiej, ponieważ te pierwsze są słabsze i okresowo zdychają.. jednak po kilkuset latach okazuje się, że te co mogą wytrzymać na powierzchni 24 godziny też nie dają rady, bo potem muszą popływać w czystej H2O, a te co lubią błoto żyją sobie dalej... po 1000 lat popluacja 1 i 2 zanikneła, polulacja nr. 3 to już 80% całości...

 

mija następne kilkaset lat, pojawiło się wiele różnych żab, część z nich bardzo pragnęła środowiska wodnego, lecz wyzdychały zanim osiągneły dorosłość, te co lubiły czystą wodę przetrwały w 5% i żyją w najgłębszych częściach zbiornika, natomiast te które lubią błoto żyją w błocie.... jednak. pojawił się jeszcze jeden element mutacji, takie które lubią poskakać po suchym lądzie! A troche rosy o poranku im wystarcza... one zaczęły się rozmnażać w byle kałuży nawet daleko od głównego zbiornika. po 10 latach jest ich najwięcej! Były żaby wodno lubne, były żaby błoto lubne, były żaby wytrzymujące dużo na powietrzu a wygrały takie które lubią trochę wilgoci... zbiornika dawno nie ma, teraz są tam krzewy i las..

 

Ja tu nie widzę przypadku. to jest ewolucja, wspierana mutacjami które zdarzają się ciągle.

 

Zastanawiam się czy w sytuacji gdy skóra człowieka pod wpływem słońca wydziela witaminę D, i nagle by się okazało że wybuch wulkanu/asteroidy odciął potrzebne do tego promieniowanie słoneczne, i cała populacja ludzka by wymarła, to wśród 9mld ludzi albinosi oraz ludzie którzy mają problem z wychodzeniem na słońce nie byli by predysponowani do przeżycia? Wieksza część ludzkości mogła by wymrzeć, ale kilkaset tysięcy osobników by przetrwało i rozmnażało dalej. Po 1000 lat mieli byśmy znów 8-9 mld ludzi, i ich naukowcy dziwili by się że "praczłowiek" był taki ciemny, gdy oni wszyscy są bladzi, i to nie dzięki "przypadkowi" tylko doborowi naturalnemu :D

 

ech.. ciekawe czy ktokolwiek doczyta to do końca :P

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Zastanawiam się czy w sytuacji gdy skóra człowieka pod wpływem słońca wydziela witaminę D, i nagle by się okazało że wybuch wulkanu/asteroidy odciął potrzebne do tego promieniowanie słoneczne, i cała populacja ludzka by wymarła, to wśród 9mld ludzi albinosi oraz ludzie którzy mają problem z wychodzeniem na słońce nie byli by predysponowani do przeżycia? 

 

;):P  nie cała, nie cała bo ci co lubią solaria by przetrwali.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

odnoszę wrażenie że za bardzo ujednolicasz pojęcia "dobór naturalny" i "przypadek" w doborze naturalnym przypadek gra często kluczową rolę, jednak to nie znaczy że jest najważniejszy.

 

(...) i nagle by się okazało że wybuch wulkanu/asteroidy (...) i to nie dzięki "przypadkowi" tylko doborowi naturalnemu ;)

 

 

Pozwoliłem sobie troszkę w cytacie powycinać, bo naszła mnie myśl, że ewolucja i dobór naturalny jest napędzany wyłącznie "przypadkiem".

 

Wyobraźmy sobie sytuację następującą - tworzymy sztuczne środowisko, w którym umieszczamy jednolitą populację żyjątek, zapewniamy żyjątkom optymalne warunki środowiskowe (stała temperatura, wilgotność, brak kataklizmów, wystarczająca ilość pożywienia, nieograniczone miejsce), żyjątka nie mają wrogów, swobodnie dożywają śmierci "ze starości".

 

Czy w takim wypadku będzie zachodziła ewolucja, tudzież jakikolwiek dobór naturalny?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ciekawe zagadnienie ;) środowisko idealnie dostosowane do organizmu.. ale czy ten organizm sam w sobie byłby idealny? Moim zdaniem w takim środowisku dalej by ewoluował.. jeśli nie musiałby ganiać za pokarmem to zanikały by mu jakieś rzęski ruchowe itd.. ale może ewolucja nie dostosowywała by się do zmian środowiskowych tylko do społecznych? Bo cały czas zachodziły by interakcje między poszczególnymi organizmami. Któryś samczyk musiałby być lepszy "żeby puknąć" samiczkę :P

 

Jakby były obojnakami, to by się rozmnażały i walczyły o przestrzeń życiową która przecież kiedyś by się skończyła. Jak by przestrzeń była z "gumy" i mogła się rozciągać w nieskończoność, to może zmieniała by się długość życia?

 

myślę że jedyny sposób na zablokowanie ewolucji to stworzenie organizmu nieśmiertelnego, który nie musi się rozmnażać, lub rozmnaża się poprzez klonowanie siebie... Tylko skoro byłby nieśmiertelny, to po co miałby się rozmnażać? Robić sobie konkurentów do pożywienia? W każdym innym przypadku jest miejsce dla ewolucji :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Wyobraźmy sobie sytuację następującą - tworzymy sztuczne środowisko, w którym umieszczamy jednolitą populację żyjątek, zapewniamy żyjątkom optymalne warunki środowiskowe (stała temperatura, wilgotność, brak kataklizmów, wystarczająca ilość pożywienia, nieograniczone miejsce), żyjątka nie mają wrogów, swobodnie dożywają śmierci "ze starości".[/size] 

Ależ starym i przebadanym przykładem jest dymion wina - a wynikiem zbiorowa śmierć z zasyfienia środowiska własnymi wydzielinami ( wtym przypadku potrzebnymi innemu gatunkowi do życia)  ;) .

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Dermatolog Harald Kittler z Uniwersytetu Medycznego w Wiedniu stanął na czele austriacko-australijskiego zespołu, który porównał trafność diagnozy i zaleceń dotyczących postępowania z przebarwieniami na skórze stawianych przez lekarzy oraz przez dwa algorytmy sztucznej inteligencji pracujące na smartfonach. Okazało się, że algorytmy równie skutecznie co lekarze diagnozują przebarwienia. Natomiast lekarze podejmują znacznie lepsze decyzje dotyczące leczenia.
      Testy przeprowadzono na prawdziwych przypadkach pacjentów, którzy zgłosili się na Wydział Dermatologii Uniwersytetu Medycznego w Wiedniu oraz do Centrum Diagnozy Czerniaka w Sydney w Australii.
      Testowane były dwa scenariusze. W scenariuszu A porównywano 172 podejrzane przebarwienia na skórze (z których 84 były nowotworami), jakie wystąpiły u 124 pacjentów. W drugim (scenariuszu B) porównano 5696 przebarwień – niekoniecznie podejrzanych – u 66 pacjentów. Wśród nich było 18 przebarwień spowodowanych rozwojem nowotworu. Testowano skuteczność dwóch algorytmów. Jeden z nich był nowym zaawansowanym programem, drugi zaś to starszy algorytm ISIC (International Skin Imaging Collaboration), używany od pewnego czasu do badań retrospektywnych.
      W scenariuszu A nowy algorytm stawiał diagnozę równie dobrze jak eksperci i był wyraźnie lepszy od mniej doświadczonych lekarzy. Z kolei algorytm ISIC był znacząco gorszy od ekspertów, ale lepszy od niedoświadczonych lekarzy.
      Jeśli zaś chodzi o zalecenia odnośnie leczenia, nowoczesny algorytm sprawował się gorzej niż eksperci, ale lepiej niż niedoświadczeni lekarze. Aplikacja ma tendencję do usuwania łagodnych zmian skórnych z zaleceń leczenia, mówi Kittler.
      Algorytmy sztucznej inteligencji są więc już na tyle rozwinięte, że mogą służyć pomocą w diagnozowaniu nowotworów skóry, a szczególnie cenne będą tam, gdzie brak jest dostępu do doświadczonych lekarzy. Ze szczegółami badań można zapoznać się na łamach The Lancet.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Wraz z coraz większą liczbą tekstów publikowanych w internecie, pojawiła się potrzeba stworzenia zautomatyzowanych metod tworzenia abstraktów artykułów czy wywiadów. Większość dostępnych narzędzi jest zależnych od języka, w jakim został napisany oryginalny tekst, a ich stworzenie wymaga trenowania algorytmów na wielkich bazach danych.
      Firma BGN Technologies, zajmująca się transferem technologicznym wynalazków opracowanych na Uniwersytecie Ben Guriona, zaprezentowała nowatorskie automatyczne narzędzie do tworzenia abstraktów, które działa niezależnie od języka oryginalnego tekstu.
      Technologia, opracowana przez profesora Marka Lasta, doktor Marinę Litvak i doktora Menahema Friedmana bazuje na algorytmie, który klasyfikuje poszczególne zdania na podstawie statystycznych obliczeń charakterystycznych cech, które mogą być wyliczone dla każdeog języka. Następnie najwyżej ocenione zdania są wykorzystywane do stworzenia abstraktu. Metoda, nazwana Multilingual Sentence Extractor (MUSE), została przetestowana na języku angielskim, hebrajskim, arabskim, perskim, rosyjskim, chińskim, niemieckim i hiszpańskim. W przypadku angielskiego, hebrajskiego, arabskiego i perskiego stworzone abstrakty były bardzo podobne do abstraktów napisanych przez ludzi.
      Główną zaletą nowego narzędzia jest fakt, że po początkowym treningu algorytmów na opatrzonych odpowiednimi komentarzami artykułach, z których każdemu towarzyszy kilkanaście abstraktów napisanych przez ludzi, algorytmy nie muszą być później trenowane dla każdego języka z osobna. Ten sam model, który wypracowały podczas treningu, może zostać użyty dla wielu różnych języków.
      Podsumowanie tekstu, do którego wybrano zestaw najbardziej pasujących zdań z tekstu źródłowego, a wyboru dokonano na podstawie punktacji przyznawanej zdaniom i wykorzystanie w abstrakcie najwyżej punktowanych zdań, to nieocenione narzędzie do szybkiego przeglądania wielkich ilość tekstów w sposób niezależny od języka. To kluczowe narzędzie zarówno dla wyszukiwarek jak i dla takich użytkowników końcowych jak badacze, biblioteki czy media – stwierdził profesor Last.


      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Eksperymenty przeprowadzone przez naukowców z University of Nottingham wskazują, że algorytmy, które nauczą się przewidywania ryzyka przedwczesnego zgonu mogą w przyszłości być ważnym narzędziem medycyny prewencyjnej.
      Lekarze i naukowcy opracowali algorytm oparty na technologii maszynowego uczenia się, którego zadaniem było przewidywanie ryzyka przedwczesnego zgonu u chronicznie chorych osób w średnim wieku. Okazało się, że sztuczna inteligencja nie tylko była bardzo dokładna, ale potrafiła z większą precyzją niż ludzie określić ryzyko
      Algorytm uczył się na bazie danych obejmujących ponad 500 000 osób w wieku 40–69 lat o których informacje zebrano w latach 2006–2010, a ich losy śledzono do roku 2015.
      Medycyna prewencyjna odgrywa coraz większą rolę w walce z poważnymi chorobami. Od lat pracujemy nad usprawnieniem tej dziedziny opieki zdrowotnej oraz nad ulepszeniem komputerowej oceny ryzyka w dużych populacjach. Większość tego typu prac skupia się na konkretnej chorobie. Ocena ryzyka zgonu z powodu wielu różnych czynników to bardzo złożone zadanie, szczególnie jeśli weźmiemy pod uwagę uwarunkowania środowiskowe i osobnicze, mówi główny autor badań, profesor Stephen Weng.
      Dokonaliśmy poważnego postępu na tym polu opracowując unikatowe całościowe podejście do oceny ryzyka zgonu za pomocą technik maszynowego uczenia się. Używamy komputerów do stworzenia nowego modelu ryzyka uwzględniającego szeroką gamę czynników demograficznych, biologicznych, klinicznych czy stylu życia indywidualnych osób, w tym ich zwyczajów żywieniowych, dodaje uczony. Weng mówi, że gdy odpowiedzi podawane przez algorytm porównano z danymi dotyczącymi zgonów, przyjęć do szpitali, zachorowań na nowotwory i innymi danymi epidemiologicznymi, okazało się, że algorytmy były znacząco dokładniejsze niż opracowane przez ludzi metody oceny ryzyka.
      Algorytm korzystał z metody statystycznej lasów losowych (random forest) oraz głębokiego uczenia się. Obecnie używane metody wykorzystują model regresji Cox'a oraz wielowariantowy model Cox'a, który jest doskonalszy, ale przeszacowuje ryzyko zgonu.
      Najnowsze prace zespołu z Nottingham bazują na pracach wcześniejszych, podczas których ten sam zespół naukowy wykazał, że cztery różne algorytmy sztucznej inteligencji, bazujące na regresji logistycznej, gradient boosting, lasach losowych oraz sieciach neuronowych lepiej niż obecne metody używane w kardiologii pozwalają przewidzieć ryzyko chorób układu krążenia.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Przed czterema laty informowaliśmy, że na University of Oxford powstaje oprogramowanie, która na podstawie wyglądu twarzy ma rozpoznawać rzadkie choroby genetyczne i zdiagnozowało zespół Marfana u prezydenta Lincona. Nie tylko jednak Brytyjczycy pracują nad takim oprogramowaniem.
      W najnowszym numerze Nature Medicine opisano aplikację Face2Gene. Wykorzystuje ona algorytmy maszynowego uczenia się oraz sieci neuronowe do klasyfikowania charakterystycznych ech twarzy świadczących o zaburzeniach rozwoju płodowego i układu nerwowego. Aplikacja na podstawie zdjęcia stawia prawdopodobną diagnozę i wymienia inne, mniej prawdopodobne.
      Autorem oprogramowania jest firma FDNA z Bostonu. Jej specjaliści najpierw nauczyli aplikację odróżniać zespół Cornelii de Lange i zespół Angelmana, które przejawiają się charakterystycznymi cechami twarzy, od innych podobnych schorzeń. Nauczyli go też klasyfikowania różnych form genetycznych syndromu Noonana.
      Następnie algorytmowi dano dostęp do ponad 17 000 zdjęć zdiagnozowanych przypadków obejmujących 216 schorzeń. Gdy następnie oprogramowanie miało do czynienia z zupełnie nową fotografią, potrafiło z 65-procentowym prawdopodobieństwem postawić prawidłową diagnozę. Gdy zaś mogło podjąć kilka prób, odsetek prawidłowych diagnoz zwiększał się do 90%.
      FDNA chce udoskonalić swoją technologię, jednak w tym celu potrzebuje dostępu do większej ilości danych. Dlatego też Face2Gene jest bezpłatnie dostępna dla lekarzy i badaczy, którzy wykorzystują ten system do pomocy w diagnostyce rzadkich schorzeń genetycznych. Korzystają z niego też lekarze, którzy nie mają punktu zaczepienie i w ogóle nie potrafią wstępnie zdiagnozować pacjenta.
      Współautorka artykułu na temat Face2Gene, Karen Gripp, jest genetykiem w szpitalu dziecięcym w stanie Delaware i głównym lekarzem w firmie FDNA. Mówi ona, że algorytm pomógł jej w zdiagnozowaniu dziewczynki, którą leczy od sierpnia. Dzięki niemu doktor Gripp stwierdziła, że dziecko cierpi na zespół Wiedemanna-Steinera. Czterolatka nie ma zbyt wielu cech charakterystycznych tej choroby. Jest niska jak na swój wiek, straciła większość zębów mlecznych i zaczęły jej rosną stałe zęby.
      Gripp postawiła wstępną diagnozę, a następnie zaprzęgła do pracy Face2Gene. Zespół Wiedemanna-Steinera, bardzo rzadkie schorzenie spowodowane mutacją genu KTM2A, został przez aplikację wymieniony na czele listy prawdopodobnych schorzeń. Badania DNA potwierdziły diagnozę. Uczona mówi, że dzięki aplikacji mogła zawęzić liczbę potencjalnych chorób i uniknąć konieczności znacznie droższego szeroko zakrojonego badania DNA.
      Face2Gene powoli staje się coraz doskonalszy. Obecnie program ma do dyspozycji już 150 000 fotografii na podstawie których się uczy. W sierpniu, podczas warsztatów dotyczących wad genetycznych przeprowadzono nieoficjalne porównanie algorytmu i lekarzy. Wzięło w nim udział 49 genetyków klinicznych. Ludzie i algorytm mieli do dyspozycji 10 zdjęć dzieci z dość dobrze rozpoznawalnymi cechami charakterystycznymi różnych chorób. Tylko w przypadku dwóch fotografii dobrą diagnozę postawiło ponad 50% ludzi. Face2Gene dobrze zdiagnozował 7 na 10 przypadków.
      Polegliśmy całkowicie. Face2Gene był niesamowity, mówi Paul Kruszka, genetyk z US National Human Genome Research Institute. Jego zdaniem już wkrótce każdy pediatra i genetyk będzie miał tego typu aplikację i używał jej równie często jak stetoskopu.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Tim Sweeney, założyciel firmy Epic Games stwierdził podczas zakończonej właśnie konferencji DICE Summit, jeszcze za naszego życia doczekamy fotorealistycznych gier 3D renderowanych w czasie rzeczywistym. Sweeney zauważył, że każde kolejne udoskonalenie techniczne pojawiające się w grach od Ponga po Crisis wiedzie nas ku takim właśnie grom.
      Granicę fotorealizmu wyznaczają możliwości ludzkiego oka. Organ ten jest w stanie przetworzyć 30-megapikselowy obraz z prędkością około 70 klatek na sekundę. Zdaniem Sweeneya, żeby oddać wszelkie subtelności obrazu, gry światła, interakcje poszczególnych elementów wirtualnego świata, by stworzyć w czasie rzeczywistym fotorealistyczną trójwymiarową scenę potrzebna jest moc obliczeniowa rzędu 5000 teraflopsów. Tymczasem obecnie najbardziej wydajne karty graficzne oferują 2,5 teraflopsa. Przepaść jest ogromna, jednak wystarczy uświadomić sobie, że w 1993 roku gdy na rynek trafiła gra Doom, wiele osób nie mogło z niej skorzystać, gdyż wymagała ona od karty graficznej mocy rzędu 10 megaflopsów. Różnica pomiędzy wydajnością ówczesnych kart graficznych, a kart używanych obecnie, jest zatem znacznie większa, niż pomiędzy dzisiejszymi kartami, a urządzeniami, jakich będziemy potrzebowali w przyszłości.
      Oczywiście moc obliczeniowa to nie wszystko. Wciąż bowiem nie istnieją algorytmy, które pozwoliłyby na realistyczne odwzorowanie wielu elementów. Specjaliści potrafią stworzyć realistyczny model skóry, dymu czy wody, jednak wciąż poza naszymi możliwościami jest stworzenie dokładnych modeli ludzkiego ruchu czy mowy. Nie mamy algorytmów, więc nawet gdybyśmy już dzisiaj dysponowali doskonałym komputerem ograniczałaby nas nie jego moc obliczeniowa, a nasze umiejętności tworzenia algorytmów - mówi Sweeney.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...