Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Dzisiaj upływa termin składania propozycji nowej funkcji skrótu (Secure Hash Algorithm), służącej do zabezpieczania elektronicznych danych, na potrzeby amerykańskich agend rządowych. Nową funkcję, podobnie jak poprzednie SHA-1 i SHA-2 zamówił Narodowy Instytut Standardów i Technologii (NIST). Konkurs ogłoszono w ubiegłym roku, propozycje można składać do końca października 2008, ale nowa funkcja zostanie oficjalnie wybrana nie wcześniej niż w roku 2012.

Obecnie używane funkcje SHA-1 i SHA-2 nie zostały złamane, jednak przeprowadzono już poważne ataki przeciwko nim.

Wiadomo, że jedną z propozycji jest algorytm "Skein" opracowany przez Bruce'a Schneiera, Nielsa Fergusona, Stefana Lucksa, Douga Whitinga, Mihira Bellare'a, Tadayoshiego Kohno, Jona Callasa i Jesse Walkera. To znani specjaliści, którzy na codzień pracują w różnych miejscach, od Microsoftu, Intela i PGP, po Bauhaus-Universitata Weimar, BT Group, Hifn, University of California czy University of Washington.

Skein to rodzina algorytmów o długości od 256 do 1024 bitów. Skein-256 jest przeznaczony dla mało wydajnych systemów komputerowych, a Skein-1024 ma trafić tam, gdzie wymagany jest największy poziom bezpieczeństwa.

Wiadomo, że oprócz Skeina zgłoszono jeszcze około 40 innych projektów.

W przyszłym roku NIST rozpocznie publiczną debatę nad propozycjami. Zakończy się ona w 2012 roku, kiedy to zostanie wyłoniony zwycięzca - algorytm, który zyska największe uznanie specjalistów z całego świata.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Za 4 lata będziemy dysponować mocą obliczeniową komputerów kwantowych kilka o ile nie kilkanaście rzędów wielkości większą. W dniu opublikowania decyzji o wyborze algorytmu domowy komputer będzie mógł go złamać siłowo w parę dni.

 

Taki scenariusz jest możliwy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ok, skrytykowałeś, ale jaką widzisz alternatywę? Odpuścić sobie prace nad nowymi metodami szyfrowania? Rozumiem, co masz na myśli, ale sama krytyka niekoniecznie wnosi wiele do tematu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Chciałem powiedzieć, że 4 lata w dziedzinie bezpieczeństwa IT to niejeden kamień milowy. Procedury wdrażania od momentu ogłoszenia konkursu nie powinny przekroczyć roku. Alternatywą byłoby tu nie tworzenie nowych algorytmów na potrzeby konkursu ale wykorzystanie co nowszych już istniejących i w praktyce skutecznych rozwiązań, ewentualnie rozwijanie starych sprawdzonych metod (wydłużanie kluczy, łączenie istniejących modeli itp).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Chcialbym stanowczo zaprotestowac przeciwko szacowaniu powstania komputerow kwantowych i to jeszcze w perspektywie 4 lat.

 

Prawdziwa idea komputerow kwantowych jest jeszcze baaardzo daleka od realizacji. Nie chodzi w niej bynajmniej o  zastapienie elektronu kwantami, ale o zupelnie inna koncepcja maszyny rozwiazujacej problemy. W zasadzie nie da sie porownywac mocy obliczeniowych aktualnych liniowych komputerow z komputerami ktore otrzymuja wynik na zasadzie ewolucji.

 

Komputery aktualne sa to bardzo sprawne maszyny ktore robia to, co czlowiek zaprogramuje.

Komputery kwantowe to sa maszyny, ktorym zadaje sie problem, i otrzymuje sie ewolucyjnie wygenerowany wynik, ktory spelnia warunki odpowiedzi. Czlowiek zatem bedzie jedynie kierowal ewolucja rozwiazan, nie bedzie musial znac matematycznego sposobu na znalezienie odpowiedzi.

 

Prawda jest, ze w momencie powstania komputera kwantowego wszystkie aktualne sposoby szyfrowania beda zlamane. Nie dlatego jednak, ze bedzie to "o kilka rzedow szybsza" maszyna. Przyspieszenie o kilka rzedow mozna juz dzisiaj uzyskac za pomoca laczenia komputerow w klastry i stosujac sprzetowe lamacze hasel.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wystarczy szyfrowany tekst przemnożyć przez olbrzymią liczbę pierwszą, tak dużą aby była poza zakresem możliwości użycia przez powszachnie wystepujący sprzęt.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Chciałem powiedzieć, że 4 lata w dziedzinie bezpieczeństwa IT to niejeden kamień milowy.

Podaj może przykład. Z IT mam doczynienia od 1997 i mimo iż minęło już prawie 3 x 4 lata nie dostrzegam jakichś nieprawdopodobnych skoków technologicznych.

Szybkość powszechnie dostępnych procesorów w tym czasie wzrosła z 200 MHz do prawie 4 GHz. Wzrost 20 razy.

Dyski twarde- szybkość wzrosła kilka razy. Pojemność z 2,5 GB do 1000 GB czyli 400 razy.

I tak można mnożyć, ogólnie w ciągu 12 lat, wszystko rosło od kilku do tysiąca razy.

A teraz słowo o kluczach, nie wiem czy znasz system binarny ale wzrost długości klucza z 512 na 1024 to nie jest podwójny wzrost bezpieczeństwa w sensie mocy obliczeniowej. To jest wzrost idący w kilkanaście jak nie kilkadziesiąt rzędów wielkości.

Ile zaś rzędów wielkości zwiększono moc obliczeniową sprzętu w czasie 12 lat o których pisałem? 1000 razy to zaledwie 3 rzędy wielkości. A Ty piszesz o rewolucjach w ciągu 4 lat? Maksymalnie 1 rząd wielkości, taki jest przyrot mocy obliczeniowej w ciągu 4 lat.

Prawda jest, ze w momencie powstania komputera kwantowego wszystkie aktualne sposoby szyfrowania beda zlamane. Nie dlatego jednak, ze bedzie to "o kilka rzedow szybsza" maszyna.

A to czemu?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wystarczy szyfrowany tekst przemnożyć przez olbrzymią liczbę pierwszą, tak dużą aby była poza zakresem możliwości użycia przez powszachnie wystepujący sprzęt.

 

Ale to jest jednokierunkowa funkcja skrótu, nie szyfrowanie, a jak wiemy mnożenie można odwrócić. Poza tym istnieją dość wydajne biblioteki liczb bignum, gdzie można przeprowadzać działania na liczbach o niemal nieskończonej ilości cyfr (ograniczonej pojemnością pamięci, a nie rejestrów procesora), kwestią jest tylko wydajność systemu.

 

Chciałem powiedzieć, że 4 lata w dziedzinie bezpieczeństwa IT to niejeden kamień milowy. Procedury wdrażania od momentu ogłoszenia konkursu nie powinny przekroczyć roku. Alternatywą byłoby tu nie tworzenie nowych algorytmów na potrzeby konkursu ale wykorzystanie co nowszych już istniejących i w praktyce skutecznych rozwiązań, ewentualnie rozwijanie starych sprawdzonych metod (wydłużanie kluczy, łączenie istniejących modeli itp).

 

Po to jest tyle czasu, by matematycy, pasjonaci i inni mieli czas na przeanalizowanie konkursowych algorytmów pod kątem wszelkich podatności (dla fanów teorii spiskowych - także rząd [NSA]). To coś jak konkurs na AES, który wygrał algorytm Rijndael. Poza tym de facto SHA-1 (160 bitów) pozostanie używany jako bezpieczna funkcja skrótu do 2010 - czyli będą to tylko 2 lata, nie 4, zaś SHA-2 (224-512 bitów) dalej będą użyteczne (póki nie zostanie dowiedziona ich słabość, tak jak jakiś czas temu MD5). Natomiast wydłużanie kluczy nic nie da, jeśli struktura algorytmu jest skompromitowana. Zaś skuteczne rozwiązanie wcale nie musi znaczyć najbezpieczniejszego, a chodzi o wyznaczenie nowego standardu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Poszukiwanie nowego algorytmu skrótu jest potrzebne i wcale nie chodzi o to czy można go złamać za pomocą domowego komputera czy też nie. Wszystko się da złamać metodą brute-force bez względu na to ile ma bitów. Wystarczy duży klaster lub choćby botnet (md5 szybko się łamie za pomocą tęczowych tablic).

Funkcje skrótu są używane do kontroli autentycznośći danych, zwykle stosowane są SHA1 lub MD5, obydwa nie są już 100% bezpiecznie gdyż udało się stworzyć w taki sposób zmodyfikowane dane że funkcja skrótu zwróciła tę samą wartość - czyli udowodnono że jest możliwe zmodyfikowanie podpisanych informacji w taki sposób że będą uznane za autentyczne.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Prawda, choć rainbow tables są bezużyteczne, gdy zastosuje się ziarno (salt), które obecnie niemal zawsze stosuje się ze wspomnianego powodu. SHA-1 nie tyle co zostało złamane, a wykazane zostało istnienie kolizji przy ilości prób radykalnie mniejszej od ataku brute-force (2^63 zamiast 2^80 iteracji). Jednakże spreparowanie czytelnego i sensownego dokumentu w przeciwieństwie do sum kontrolnych weryfikujących ściągane z netu pliki jest o niebo trudniejsze (stąd czasem stosuje się tandem SHA1 + np. MD5).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Ale to jest jednokierunkowa funkcja skrótu, nie szyfrowanie, a jak wiemy mnożenie można odwrócić

 

Najwyższe liczby pierwsze są największą tajemnicą systemów bankowych (takie większe niż 128 cyfr) . Każdy inny szyfr (złożenie kilku funkcji) można zastąpić uproszczoną funkcją wynikową przez aproksymację wielu wyników lub w przypadku tekstu przez analizę pewnych statystyk zasad występowania określonych kombinacji liter.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Oto jak ja rozumiem idee komputera kwantowego, w czesci wykreowane przez S.Lema:

 

Nie jest jak zwykle komputery zbudowany na bramkach logicznych zero jedynkowych, ale jest oparty na kwantach, zatem jego bramki maja stan nieokreslony w zakresie 0 .. 1.

Zbior kwantowych bitow przez swoja nieokreslonosc moze reprezentowac wiele ciagow zero-jedynkowych naraz.

Wykonywanie operacji na takim zbiorze jest równoznaczne z wykonaniem tej operacji na wszystkich takich ciagach naraz.

Wynikiem tez sa kwantowe bity, zatem aby wyłuskać z nich potrzebne nam dane, potrzebujemy algorytmów kwantowych.

Komputer dochodzi do rozwiazania wykonujac cale serie wynikow ktorych wartosc jest niepewna. Dopiero usredniona ich wartosc jest zblizona z pewna dokladnoscia do prawidlowego wyniku. Im dokladniejsza chcesz otrzymac wartosc, tym wiecej robisz serii.

 

Co do kryptografii :

Wszystkie artykuly opiewajace komputery kwantowe wspominaja, ze algorytm faktoryzacji Shora, służący do rozbijania liczb na czynniki pierwsze bedzie dzialal znacznie szybciej.

 

Znalazlem na sieci szacowany czas zlamania klucza 512-bitowego, cytuje:

"Ocenia się, że złamanie klucza 512-bitowego wymagałoby kilku tysięcy lat pracy klasycznego komputera, podczas gdy nawet prosty komputer kwantowy pracujący z algorytmem Shora potrzebowałby zaledwie kilku godzin. "

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Komputer dochodzi do rozwiazania wykonujac cale serie wynikow ktorych wartosc jest niepewna.

 

Troche to podobne do nauki ludzkiej świadomości (coś jak uśredniony wynik z GPS choć jednostkowo błędny to uśrednienie miliona pomiarów daje wynik w metrach na powierzchnię kuli ziemskiej).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Najwyższe liczby pierwsze są największą tajemnicą systemów bankowych (takie większe niż 128 cyfr) .

Ty tu mówisz o RSA a to nie jest funkcja skrótu tylko szyfrowanie asymetryczne.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Najwyższe liczby pierwsze są największą tajemnicą systemów bankowych (takie większe niż 128 cyfr) . Każdy inny szyfr (złożenie kilku funkcji) można zastąpić uproszczoną funkcją wynikową przez aproksymację wielu wyników lub w przypadku tekstu przez analizę pewnych statystyk zasad występowania określonych kombinacji liter.

 

128 cyfr? Przecież najdłuższa obecnie znana liczba pierwsza ma niemal 13 milionów cyfr.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wszystkie artykuly opiewajace komputery kwantowe wspominaja, ze algorytm faktoryzacji Shora, służący do rozbijania liczb na czynniki pierwsze bedzie dzialal znacznie szybciej.

 

Wspominają algorytm Shora, bo jest to jeden z niewielu znanych, naprawdę efektywnych kwantowych algorytmów.

 

Nie znamy natomiast kwantowego algorytmu umożliwiającego efektywne (tzn. inaczej niż metodą brute force) wyszukiwanie kolizji dla funkcji haszujących.

 

128 cyfr? Przecież najdłuższa obecnie znana liczba pierwsza ma niemal 13 milionów cyfr.

Generowanie takich dużych liczb trwa zbyt długo, by miały one jakiekolwiek praktyczne znaczenie. Natomiast bzdurną jest oczywiście idea, że jakiekolwiek liczby pierwsze, duże czy nie, są "największą tajemnicą systemów bankowych". To tak jakby ktoś powiedział, że liczby wytworzone przez generator liczb losowych są tajemnicą.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Natomiast bzdurną jest oczywiście idea, że jakiekolwiek liczby pierwsze, duże czy nie, są "największą tajemnicą systemów bankowych". To tak jakby ktoś powiedział, że liczby wytworzone przez generator liczb losowych są tajemnicą.

 

To może podasz mi z jakiej kombinacji liczb pierwszych korzysta Visa ??

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To może podasz mi z jakiej kombinacji liczb pierwszych korzysta Visa ??

 

Nie korzysta z żadnej 'kombinacji' liczb pierwszych, bo w każdym protokole asymetrycznym klucze są generowane losowo.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Skein to rodzina algorytmów o długości od 256 do 1024 bitów.

Rozumiem, że jest to pewien skrót myślowy i pewnie się czepiam, ale gwoli ścisłości - to nie algorytm (czy też rodzina) ma długość od 256 do 1024 bitów, ale wygenerowany przez niego ciąg.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Dermatolog Harald Kittler z Uniwersytetu Medycznego w Wiedniu stanął na czele austriacko-australijskiego zespołu, który porównał trafność diagnozy i zaleceń dotyczących postępowania z przebarwieniami na skórze stawianych przez lekarzy oraz przez dwa algorytmy sztucznej inteligencji pracujące na smartfonach. Okazało się, że algorytmy równie skutecznie co lekarze diagnozują przebarwienia. Natomiast lekarze podejmują znacznie lepsze decyzje dotyczące leczenia.
      Testy przeprowadzono na prawdziwych przypadkach pacjentów, którzy zgłosili się na Wydział Dermatologii Uniwersytetu Medycznego w Wiedniu oraz do Centrum Diagnozy Czerniaka w Sydney w Australii.
      Testowane były dwa scenariusze. W scenariuszu A porównywano 172 podejrzane przebarwienia na skórze (z których 84 były nowotworami), jakie wystąpiły u 124 pacjentów. W drugim (scenariuszu B) porównano 5696 przebarwień – niekoniecznie podejrzanych – u 66 pacjentów. Wśród nich było 18 przebarwień spowodowanych rozwojem nowotworu. Testowano skuteczność dwóch algorytmów. Jeden z nich był nowym zaawansowanym programem, drugi zaś to starszy algorytm ISIC (International Skin Imaging Collaboration), używany od pewnego czasu do badań retrospektywnych.
      W scenariuszu A nowy algorytm stawiał diagnozę równie dobrze jak eksperci i był wyraźnie lepszy od mniej doświadczonych lekarzy. Z kolei algorytm ISIC był znacząco gorszy od ekspertów, ale lepszy od niedoświadczonych lekarzy.
      Jeśli zaś chodzi o zalecenia odnośnie leczenia, nowoczesny algorytm sprawował się gorzej niż eksperci, ale lepiej niż niedoświadczeni lekarze. Aplikacja ma tendencję do usuwania łagodnych zmian skórnych z zaleceń leczenia, mówi Kittler.
      Algorytmy sztucznej inteligencji są więc już na tyle rozwinięte, że mogą służyć pomocą w diagnozowaniu nowotworów skóry, a szczególnie cenne będą tam, gdzie brak jest dostępu do doświadczonych lekarzy. Ze szczegółami badań można zapoznać się na łamach The Lancet.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Wraz z coraz większą liczbą tekstów publikowanych w internecie, pojawiła się potrzeba stworzenia zautomatyzowanych metod tworzenia abstraktów artykułów czy wywiadów. Większość dostępnych narzędzi jest zależnych od języka, w jakim został napisany oryginalny tekst, a ich stworzenie wymaga trenowania algorytmów na wielkich bazach danych.
      Firma BGN Technologies, zajmująca się transferem technologicznym wynalazków opracowanych na Uniwersytecie Ben Guriona, zaprezentowała nowatorskie automatyczne narzędzie do tworzenia abstraktów, które działa niezależnie od języka oryginalnego tekstu.
      Technologia, opracowana przez profesora Marka Lasta, doktor Marinę Litvak i doktora Menahema Friedmana bazuje na algorytmie, który klasyfikuje poszczególne zdania na podstawie statystycznych obliczeń charakterystycznych cech, które mogą być wyliczone dla każdeog języka. Następnie najwyżej ocenione zdania są wykorzystywane do stworzenia abstraktu. Metoda, nazwana Multilingual Sentence Extractor (MUSE), została przetestowana na języku angielskim, hebrajskim, arabskim, perskim, rosyjskim, chińskim, niemieckim i hiszpańskim. W przypadku angielskiego, hebrajskiego, arabskiego i perskiego stworzone abstrakty były bardzo podobne do abstraktów napisanych przez ludzi.
      Główną zaletą nowego narzędzia jest fakt, że po początkowym treningu algorytmów na opatrzonych odpowiednimi komentarzami artykułach, z których każdemu towarzyszy kilkanaście abstraktów napisanych przez ludzi, algorytmy nie muszą być później trenowane dla każdego języka z osobna. Ten sam model, który wypracowały podczas treningu, może zostać użyty dla wielu różnych języków.
      Podsumowanie tekstu, do którego wybrano zestaw najbardziej pasujących zdań z tekstu źródłowego, a wyboru dokonano na podstawie punktacji przyznawanej zdaniom i wykorzystanie w abstrakcie najwyżej punktowanych zdań, to nieocenione narzędzie do szybkiego przeglądania wielkich ilość tekstów w sposób niezależny od języka. To kluczowe narzędzie zarówno dla wyszukiwarek jak i dla takich użytkowników końcowych jak badacze, biblioteki czy media – stwierdził profesor Last.


      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Eksperymenty przeprowadzone przez naukowców z University of Nottingham wskazują, że algorytmy, które nauczą się przewidywania ryzyka przedwczesnego zgonu mogą w przyszłości być ważnym narzędziem medycyny prewencyjnej.
      Lekarze i naukowcy opracowali algorytm oparty na technologii maszynowego uczenia się, którego zadaniem było przewidywanie ryzyka przedwczesnego zgonu u chronicznie chorych osób w średnim wieku. Okazało się, że sztuczna inteligencja nie tylko była bardzo dokładna, ale potrafiła z większą precyzją niż ludzie określić ryzyko
      Algorytm uczył się na bazie danych obejmujących ponad 500 000 osób w wieku 40–69 lat o których informacje zebrano w latach 2006–2010, a ich losy śledzono do roku 2015.
      Medycyna prewencyjna odgrywa coraz większą rolę w walce z poważnymi chorobami. Od lat pracujemy nad usprawnieniem tej dziedziny opieki zdrowotnej oraz nad ulepszeniem komputerowej oceny ryzyka w dużych populacjach. Większość tego typu prac skupia się na konkretnej chorobie. Ocena ryzyka zgonu z powodu wielu różnych czynników to bardzo złożone zadanie, szczególnie jeśli weźmiemy pod uwagę uwarunkowania środowiskowe i osobnicze, mówi główny autor badań, profesor Stephen Weng.
      Dokonaliśmy poważnego postępu na tym polu opracowując unikatowe całościowe podejście do oceny ryzyka zgonu za pomocą technik maszynowego uczenia się. Używamy komputerów do stworzenia nowego modelu ryzyka uwzględniającego szeroką gamę czynników demograficznych, biologicznych, klinicznych czy stylu życia indywidualnych osób, w tym ich zwyczajów żywieniowych, dodaje uczony. Weng mówi, że gdy odpowiedzi podawane przez algorytm porównano z danymi dotyczącymi zgonów, przyjęć do szpitali, zachorowań na nowotwory i innymi danymi epidemiologicznymi, okazało się, że algorytmy były znacząco dokładniejsze niż opracowane przez ludzi metody oceny ryzyka.
      Algorytm korzystał z metody statystycznej lasów losowych (random forest) oraz głębokiego uczenia się. Obecnie używane metody wykorzystują model regresji Cox'a oraz wielowariantowy model Cox'a, który jest doskonalszy, ale przeszacowuje ryzyko zgonu.
      Najnowsze prace zespołu z Nottingham bazują na pracach wcześniejszych, podczas których ten sam zespół naukowy wykazał, że cztery różne algorytmy sztucznej inteligencji, bazujące na regresji logistycznej, gradient boosting, lasach losowych oraz sieciach neuronowych lepiej niż obecne metody używane w kardiologii pozwalają przewidzieć ryzyko chorób układu krążenia.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Przed czterema laty informowaliśmy, że na University of Oxford powstaje oprogramowanie, która na podstawie wyglądu twarzy ma rozpoznawać rzadkie choroby genetyczne i zdiagnozowało zespół Marfana u prezydenta Lincona. Nie tylko jednak Brytyjczycy pracują nad takim oprogramowaniem.
      W najnowszym numerze Nature Medicine opisano aplikację Face2Gene. Wykorzystuje ona algorytmy maszynowego uczenia się oraz sieci neuronowe do klasyfikowania charakterystycznych ech twarzy świadczących o zaburzeniach rozwoju płodowego i układu nerwowego. Aplikacja na podstawie zdjęcia stawia prawdopodobną diagnozę i wymienia inne, mniej prawdopodobne.
      Autorem oprogramowania jest firma FDNA z Bostonu. Jej specjaliści najpierw nauczyli aplikację odróżniać zespół Cornelii de Lange i zespół Angelmana, które przejawiają się charakterystycznymi cechami twarzy, od innych podobnych schorzeń. Nauczyli go też klasyfikowania różnych form genetycznych syndromu Noonana.
      Następnie algorytmowi dano dostęp do ponad 17 000 zdjęć zdiagnozowanych przypadków obejmujących 216 schorzeń. Gdy następnie oprogramowanie miało do czynienia z zupełnie nową fotografią, potrafiło z 65-procentowym prawdopodobieństwem postawić prawidłową diagnozę. Gdy zaś mogło podjąć kilka prób, odsetek prawidłowych diagnoz zwiększał się do 90%.
      FDNA chce udoskonalić swoją technologię, jednak w tym celu potrzebuje dostępu do większej ilości danych. Dlatego też Face2Gene jest bezpłatnie dostępna dla lekarzy i badaczy, którzy wykorzystują ten system do pomocy w diagnostyce rzadkich schorzeń genetycznych. Korzystają z niego też lekarze, którzy nie mają punktu zaczepienie i w ogóle nie potrafią wstępnie zdiagnozować pacjenta.
      Współautorka artykułu na temat Face2Gene, Karen Gripp, jest genetykiem w szpitalu dziecięcym w stanie Delaware i głównym lekarzem w firmie FDNA. Mówi ona, że algorytm pomógł jej w zdiagnozowaniu dziewczynki, którą leczy od sierpnia. Dzięki niemu doktor Gripp stwierdziła, że dziecko cierpi na zespół Wiedemanna-Steinera. Czterolatka nie ma zbyt wielu cech charakterystycznych tej choroby. Jest niska jak na swój wiek, straciła większość zębów mlecznych i zaczęły jej rosną stałe zęby.
      Gripp postawiła wstępną diagnozę, a następnie zaprzęgła do pracy Face2Gene. Zespół Wiedemanna-Steinera, bardzo rzadkie schorzenie spowodowane mutacją genu KTM2A, został przez aplikację wymieniony na czele listy prawdopodobnych schorzeń. Badania DNA potwierdziły diagnozę. Uczona mówi, że dzięki aplikacji mogła zawęzić liczbę potencjalnych chorób i uniknąć konieczności znacznie droższego szeroko zakrojonego badania DNA.
      Face2Gene powoli staje się coraz doskonalszy. Obecnie program ma do dyspozycji już 150 000 fotografii na podstawie których się uczy. W sierpniu, podczas warsztatów dotyczących wad genetycznych przeprowadzono nieoficjalne porównanie algorytmu i lekarzy. Wzięło w nim udział 49 genetyków klinicznych. Ludzie i algorytm mieli do dyspozycji 10 zdjęć dzieci z dość dobrze rozpoznawalnymi cechami charakterystycznymi różnych chorób. Tylko w przypadku dwóch fotografii dobrą diagnozę postawiło ponad 50% ludzi. Face2Gene dobrze zdiagnozował 7 na 10 przypadków.
      Polegliśmy całkowicie. Face2Gene był niesamowity, mówi Paul Kruszka, genetyk z US National Human Genome Research Institute. Jego zdaniem już wkrótce każdy pediatra i genetyk będzie miał tego typu aplikację i używał jej równie często jak stetoskopu.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Tim Sweeney, założyciel firmy Epic Games stwierdził podczas zakończonej właśnie konferencji DICE Summit, jeszcze za naszego życia doczekamy fotorealistycznych gier 3D renderowanych w czasie rzeczywistym. Sweeney zauważył, że każde kolejne udoskonalenie techniczne pojawiające się w grach od Ponga po Crisis wiedzie nas ku takim właśnie grom.
      Granicę fotorealizmu wyznaczają możliwości ludzkiego oka. Organ ten jest w stanie przetworzyć 30-megapikselowy obraz z prędkością około 70 klatek na sekundę. Zdaniem Sweeneya, żeby oddać wszelkie subtelności obrazu, gry światła, interakcje poszczególnych elementów wirtualnego świata, by stworzyć w czasie rzeczywistym fotorealistyczną trójwymiarową scenę potrzebna jest moc obliczeniowa rzędu 5000 teraflopsów. Tymczasem obecnie najbardziej wydajne karty graficzne oferują 2,5 teraflopsa. Przepaść jest ogromna, jednak wystarczy uświadomić sobie, że w 1993 roku gdy na rynek trafiła gra Doom, wiele osób nie mogło z niej skorzystać, gdyż wymagała ona od karty graficznej mocy rzędu 10 megaflopsów. Różnica pomiędzy wydajnością ówczesnych kart graficznych, a kart używanych obecnie, jest zatem znacznie większa, niż pomiędzy dzisiejszymi kartami, a urządzeniami, jakich będziemy potrzebowali w przyszłości.
      Oczywiście moc obliczeniowa to nie wszystko. Wciąż bowiem nie istnieją algorytmy, które pozwoliłyby na realistyczne odwzorowanie wielu elementów. Specjaliści potrafią stworzyć realistyczny model skóry, dymu czy wody, jednak wciąż poza naszymi możliwościami jest stworzenie dokładnych modeli ludzkiego ruchu czy mowy. Nie mamy algorytmów, więc nawet gdybyśmy już dzisiaj dysponowali doskonałym komputerem ograniczałaby nas nie jego moc obliczeniowa, a nasze umiejętności tworzenia algorytmów - mówi Sweeney.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...