Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Niezależni kalifornijscy specjaliści ds. bezpieczeństwa, we współpracy z ekspertami z holenderskiego Centrum Wiskunde & Informatica (CWI), uniwersytetu technicznego w Eindhoven (TU/e) oraz szwajcarskiego EPFL odkryli lukę w powszechnie wykorzystywanych w Internecie cyfrowych certyfikatach. Dziura umożliwia takie podrobienie certyfikatu, że zostanie on zaakceptowany przez każdą przeglądarkę. Pozwala to atakującemu na przygotowanie witryny lub serwisu pocztowego, który bez najmniejszego problemu podszyje się pod prawdziwą stronę. Przestępca może wówczas niezauważenie dokonać ataku phishingowego.

Eksperci poinformowali o swoim odkryciu podczas odbywającej się właśnie w Berlinie konferencji 25C3. Mają nadzieję, że dzięki ich ostrzeżeniu upowszechnią się bezpieczniejsze algorytmy.
Mowa tutaj o sytuacji, gdy korzystamy z powszechnie stosowanego protokołu https. Przeglądarka informuje nas o tym fakcie wyświetlając zamkniętą kłódkę, co oznacza, że witryna, którą odwiedzamy, została zabezpieczona szyfrowanym certyfikatem. W takich wypadkach stosuje się kilka algorytmów, a jednym z najpowszechniejszych jest MD5. I to w nim właśnie znaleziono lukę.

O pierwszych problemach z MD5 poinformowali Chińczycy w 2005 roku. Byli oni w stanie znaleźć kolizję dla tego algorytmu i przeprowadzić atak polegający na wysłaniu dwóch różnych wiadomości chronionych tym samym podpisem cyfrowym. Chińska metoda była jednak bardzo trudna do wykonania. W maju 2007 roku uczeni z CWI, EPFL i TU/e pokazali, że podczas podobnego ataku można wykorzystać dowolne wiadomości.

Obecnie ci sami eksperci dowiedli, że możliwe jest podrobienie dowolnego certyfikatu tak, że zostanie on zaakceptowany przez wszystkie popularne przeglądarki internetowe. Co więcej, do podrobienia certyfikatu wystarczy moc obliczeniowa ponad 200 współczesnych konsoli do gier.
Specjaliści zwracają uwagę, że połączenie podrobionego certyfikatu ze znanymi słabościami systemu DNS pozwala na przeprowadzenie niewykrywalnego ataku phishingowego. Może on polegać na przykład na przekierowaniu użytkowników online'owych banków na fałszywe witryny, które będą wyglądały identycznie jak witryny banków, a przedstawione przez nie certyfikaty bezpieczeństwa zostaną zaakceptowane. Użytkownik, wierząc, że odwiedza witrynę swojego banku, nieświadomie prześle przestępcom wszelkie informacje, które będą im potrzebne do skutecznego wyczyszczenia jego konta z pieniędzy.

Wspomniani na wstępie specjaliści poinformowali już firmy produkujące popularne przeglądarki o problemie.

Odkrywcy luki uważają, że instytucje wydające certyfikaty bezpieczeństwa powinny zrezygnować z używania MD5 i korzystać z innych algorytmów, takich jak np. SHA-2.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ciekawe odkrycie które oczywiście wiele wnosi do świata ludzi szybkosiębogacących i szybkobiedniejących ale "luka w MD5" to tak naprawdę od lat znana właściwość, "skutek uboczny" niezłomności szyfrowania MD5.

MD5 potrafi każdy ciąg liter, cyfr, czegokolwiek sprowadzić do 32 znaków. Co na szczęście powoduje że jest nieodwracalny. Jednak jak się głębiej zastanowić to na 100% istnieją dwa wyrażenia które dają takie same wyniki działania MD5.

Proste liczenie. Ile jest możliwości przy 32 znakach a ile przy nieskończonej liczbie. Prędzej czy później muszą się powtórzyć.

Co więcej w internecie już od paru lat dostępne są słowniki MD5. Jeszcze niewiele tam wyrazów z pośród wszystkich możliwych ale ciągle się rozwijają.

Mimo wszystko MD5 nadal jest najskuteczniejszym z najszybszych algorytmów.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ej, powoli ... 32 znaki szesnastkowe, czyli jakoś 3.4*10^38 kombinacji - powodzenia z szukaniem bez użycia jakiegoś na prawdę dobrego triku...

Ale ogólnie to nie rozumiem jak można opierać praktycznie światowe bezpieczeństwo na kryptosystemach tworzonych w sposób: używaj najprostrzysch operacji logicznych tak długo dopuki nie będzie wyglądało na bezpieczne.

Przecież można użyć porządnej nieliniowości. Na przykład są szybkie, zupełnie nieprzewidywalne generatory liczb losowych - inicjalizujemy go naszym kluczem i dostajemy potencjalnie nieskończony, unikalny ciąg losowy - używamy go do zmiksowania naszej wiadomości i ... nikt nawet nie pomyśli o próbie łamania tego.

Choć ... ostatnio myślałem nad nowymi podejściami wykorzystania fizyki do rozwiązywania ciężkich problemów:

http://www.topix.com/forum/science/cryptography/T1S37KE55VQ8LN50K

Pewnie to nierealne, ale daleko jestem od bycia tego pewnym. W każdym razie żeby zabezpieczyć kryptosystem przed taką ewentualnością, powinien wymagać długiej inicjalizacji specyficznej dla danego klucza(jak oparte na asymmetric numeral systems).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

O pierwszych problemach z MD5 poinformowali Chińczycy w 2005 roku.

 

O (praktycznych) kolizjach w MD5 wiadomo już przynajmniej od 1996. Nikt rozsądny nie polega na MD5 tylko (a nawet w ogóle), certyfikaty zawierają dlatego tandem MD5+SHA1. A te 200 konsol, to były PS3.

 

Ale ogólnie to nie rozumiem jak można opierać praktycznie światowe bezpieczeństwo na kryptosystemach tworzonych w sposób: używaj najprostrzysch operacji logicznych tak długo dopuki nie będzie wyglądało na bezpieczne.

 

Ale tutaj nie są to algorytmy szyfrujące, a funkcje skrótu. Poza tym istota tkwi w ilości rund, które teoretycznie wykładniczo podnoszą bezpieczeństwo.

 

Są też algorytmy oparte na problemach NP-zupełnych, jak np. problem faktoryzacji iloczynu liczb pierwszych (RSA), problem logarytmu dyskretnego (ElGamal) czy krzywe eliptyczne. Tu wszystko opiera się na złożoności matematycznej.

 

Na przykład są szybkie, zupełnie nieprzewidywalne generatory liczb losowych - inicjalizujemy go naszym kluczem i dostajemy potencjalnie nieskończony, unikalny ciąg losowy - używamy go do zmiksowania naszej wiadomości i ... nikt nawet nie pomyśli o próbie łamania tego.

 

I czym to się różni od obecnych systemów? Jak jednorazowy, unikalny klucz prześlesz drugiej osobie? Poza tym nie ma idealnego PRNG. Jest projekt http://random.org który zbiera także szumy z echa radiowego. Są też szyfry one-time pad, jak szyfr Vernama, które używają jednorazowych kluczy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
teoretycznie wykładniczo podnoszą bezpieczeństwo

no właśnie z tego co wiem jedynym argumentem to bo tak się wydaje. Bo dowodzenie że nie ma drogi na skróty to coś w stylu dowodzenia że P!=NP...

Nie mówię o RSA, krzywych eliptycznych - one są dużo bardziej wyrafinowane, ale za to dużo wolniejsze - asymetryczność kosztuje.

Natomiast większość używanych kryptosystemów symetrycznych, systemów haszujących używa podstawowych operacji logicznych i przestawiania bitów KROPKA. Czyli tworzenie takich łamigłówek logicznych ... bo wydaje się że jest bezpieczne.

Użycie generatora liczb losowych inicjalizowanego kluczem zupełnie zmienia sytuację: używając wygenerowanej sekwencji definiujesz unikalny koder. Losowań było tak dużo że jego konstrukcja jest oparta praktycznie tylko na statystyce. Nie ma szans odtworzyć kodera, a jeśli nawet to i tak klucz jest bezpieczny. Przyglądnij się asymmetric numeral systems.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

PRNG nigdy nie daje bezokresowego ciągu, a tylko gwarantowaną długość cyklu. Jak rozumiem kluczem ma być seed i numer iteracji? Ok, ale w czym to daje przewagę nad innymi systemami? PRNG to iteracyjna maszyna stanu, też używa prostych instrukcji (xorshift, isaac, mt, nawet zwyczajna funkcja skrótu czy system kryptografii symetrycznej ze sprzężeniem zwrotnym może działać jak PRNG). A dlaczego używa się prostych instrukcji w rundach? Dlatego, że to jest szybkie i daje się łatwo zoptymalizować.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak tylko chcemy, to te okresy są tak długie że nie mamy szans się do nich zbliżyć (mt, kryprografia symetryczna ze sprzężeniem zwrotnym).

Klucz daje seed, a z wyjściowym ciągiem robimy co chcemy, jak na przykład użycie go do określenia parametrów algorytmu, określenia interesujących nas w tym ciągu pozycji.

Jak dobrze się to ustali, to nawet przy scenariuszach typu adaptive chosen ciphertext nie ma szans ustalić tych ukrytych parametrów. A tym bardziej szukać jakichś regularności.

ANS na przykład losuje w ten sposób dość specyficzne tablice kodujące bliskie pewnej statystyki. Dzięki takiemu podejściu (większość obliczeń jest wykonywane podczas inicjalizacji) z jednej strony kodowanie jest już błyskawiczne, z drugiej jest dodatkowo odporny na ataki brute force - żeby sprawdzić klucz trzeba wykonać pełną inicjalizację, co zajmuje wybraną przez użytkownika ilość czasu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Póki to podejście zapewnia spełnienie rygorów dyfuzji, konfuzji, lawinowości i zupełności (to kryterium odpada, bo jak rozumiem ten system jest strumieniowy z racji konstrukcji OFB), to ok. Jakkolwiek nie wiem jaki to ma związek z problemem funkcji skrótu, a raczej z certyfikatami, które są domeną kryptografii asymetrycznej. :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Funkcje hashujące też są zwykle oparte na powtarzaniu kosmiczną ilość razy podstawowych operacji logicznych, podczas gdy wystarczy na przykład użyć dobrego kodera kryptograficznego żeby zakodować plik (ze stałym lub pozyskiwanym z pliku kluczem), potem najlepiej zakodować wyjście jeszcze raz w odwrotnym kierunku i jako funkcję haszującą wziąść ostatnie uzyskane bity...

 

ANS jest trochę poza klasyfikacją typu OFB - dla klucza generujemy zgodnie ze statystyką dużą tablicę kodującą, która mówi jak zmienia się stan kodera (ukryta zmienna) i co wypluwa pod wpływem nowych bitów. Bloki są krótkie, ale za to o bardzo zmiennej długości. Możliwe zachowania są losowo, w przybliżeniu jednorodnie rozrzucone po przestrzeni stanów kodera - najmniejsza zmiana i wszystko się chaotycznie rozjeżdża.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tam nie ma kosmicznej ilości rund. SHA-1 używa 80 rund, zaś MD5 jedynie 4. Natomiast użycie jedynie ostatnich bitów nie gwarantuje:

 

1. wiązania każdego bitu wiadomości z wyjściem funkcji (nawet w trybie CBC/CFB)

2. efektu lawinowego zapewniającego przy zmianie dowolnego bitu zmianę przynajmniej połowy bitów wyjściowych

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ok ... MD5 używa 'tylko' 4 rund ... po 16 operacji ;D

Według mnie to jednak dość dużo. A co do użycia kryptosystemu, to 'dobry' dla mnie znaczy m.in. że najmniejsza zmiana na wejściu oznacza wyprodukowanie zupełnie innego, losowego ciągu (jak ANS), czyli tym bardziej praktycznie losowo zmieni te ostatnie wyprodukowane bity. A przejście tam i potem spowrotem powoduje że znalezienie dwóch plików dających to samo staje się praktycznie niewykonalane.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ok ... MD5 używa 'tylko' 4 rund ... po 16 operacji ;D

Według mnie to jednak dość dużo.

 

Jeśli znasz operacje szybsze niż xor, and, or, not, shl/shr (operacje zajmujące 1-4 cykli procesora, w zależności od typu adresowania), to gratuluję. ;)

 

A przejście tam i potem spowrotem powoduje że znalezienie dwóch plików dających to samo staje się praktycznie niewykonalane.

 

Trochę kłopotliwe jest to, że jednocześnie piszesz o jednokierunkowych funkcjach skrótu (nas za określenie "funkcja haszująca" wykładowca by zamordował :]), szyfrowaniu i generatorach liczb pseudolosowych. Wybacz, że się tak czepiam, ale jeśli chodzi Ci w tym cytacie o funkcje skrótu, to oczywiście, że się da. Z prostej przyczyny - one mają określoną długość bitów na wyjściu, a przerabiają dowolne zbiory danych (od 1 bajtu, po obrazy iso). Siła tkwi w tym, że spreparowana wiadomość musi mieć sens. W przypadku szyfrowania - wiadomo, do tego dążymy. Jak będę miał dłuższą chwilkę obiecuję przyjrzeć się dokładniej Twojemu podejściu (ANS). :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tylko że pojedyńcza składa się z jakichś 10 takich ... razy 64 to już trochę.

Co do nazw to wolę używać orginalnych, 'funkcja skrótu' to jak dla mnie lekka przesada z potrzebą spolszczania. Co do łączenia to najwięcej wymaga się od kryptosystemu, bo zarówno powinien być m.in. możliwy do wykorzystania jako generator liczb losowych, jak i ma dość niedaleko do użycia go jako funkcji haszującej... z której znowu łatwo zrobić PRNG ... a z takiego nietrudno kryptosystem :)

Jak trochę (w sumie nad czymkolwiek) pomyślisz, to wszystko jest strasznie rozymte i się z wszystkim łączy ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Dermatolog Harald Kittler z Uniwersytetu Medycznego w Wiedniu stanął na czele austriacko-australijskiego zespołu, który porównał trafność diagnozy i zaleceń dotyczących postępowania z przebarwieniami na skórze stawianych przez lekarzy oraz przez dwa algorytmy sztucznej inteligencji pracujące na smartfonach. Okazało się, że algorytmy równie skutecznie co lekarze diagnozują przebarwienia. Natomiast lekarze podejmują znacznie lepsze decyzje dotyczące leczenia.
      Testy przeprowadzono na prawdziwych przypadkach pacjentów, którzy zgłosili się na Wydział Dermatologii Uniwersytetu Medycznego w Wiedniu oraz do Centrum Diagnozy Czerniaka w Sydney w Australii.
      Testowane były dwa scenariusze. W scenariuszu A porównywano 172 podejrzane przebarwienia na skórze (z których 84 były nowotworami), jakie wystąpiły u 124 pacjentów. W drugim (scenariuszu B) porównano 5696 przebarwień – niekoniecznie podejrzanych – u 66 pacjentów. Wśród nich było 18 przebarwień spowodowanych rozwojem nowotworu. Testowano skuteczność dwóch algorytmów. Jeden z nich był nowym zaawansowanym programem, drugi zaś to starszy algorytm ISIC (International Skin Imaging Collaboration), używany od pewnego czasu do badań retrospektywnych.
      W scenariuszu A nowy algorytm stawiał diagnozę równie dobrze jak eksperci i był wyraźnie lepszy od mniej doświadczonych lekarzy. Z kolei algorytm ISIC był znacząco gorszy od ekspertów, ale lepszy od niedoświadczonych lekarzy.
      Jeśli zaś chodzi o zalecenia odnośnie leczenia, nowoczesny algorytm sprawował się gorzej niż eksperci, ale lepiej niż niedoświadczeni lekarze. Aplikacja ma tendencję do usuwania łagodnych zmian skórnych z zaleceń leczenia, mówi Kittler.
      Algorytmy sztucznej inteligencji są więc już na tyle rozwinięte, że mogą służyć pomocą w diagnozowaniu nowotworów skóry, a szczególnie cenne będą tam, gdzie brak jest dostępu do doświadczonych lekarzy. Ze szczegółami badań można zapoznać się na łamach The Lancet.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Wraz z coraz większą liczbą tekstów publikowanych w internecie, pojawiła się potrzeba stworzenia zautomatyzowanych metod tworzenia abstraktów artykułów czy wywiadów. Większość dostępnych narzędzi jest zależnych od języka, w jakim został napisany oryginalny tekst, a ich stworzenie wymaga trenowania algorytmów na wielkich bazach danych.
      Firma BGN Technologies, zajmująca się transferem technologicznym wynalazków opracowanych na Uniwersytecie Ben Guriona, zaprezentowała nowatorskie automatyczne narzędzie do tworzenia abstraktów, które działa niezależnie od języka oryginalnego tekstu.
      Technologia, opracowana przez profesora Marka Lasta, doktor Marinę Litvak i doktora Menahema Friedmana bazuje na algorytmie, który klasyfikuje poszczególne zdania na podstawie statystycznych obliczeń charakterystycznych cech, które mogą być wyliczone dla każdeog języka. Następnie najwyżej ocenione zdania są wykorzystywane do stworzenia abstraktu. Metoda, nazwana Multilingual Sentence Extractor (MUSE), została przetestowana na języku angielskim, hebrajskim, arabskim, perskim, rosyjskim, chińskim, niemieckim i hiszpańskim. W przypadku angielskiego, hebrajskiego, arabskiego i perskiego stworzone abstrakty były bardzo podobne do abstraktów napisanych przez ludzi.
      Główną zaletą nowego narzędzia jest fakt, że po początkowym treningu algorytmów na opatrzonych odpowiednimi komentarzami artykułach, z których każdemu towarzyszy kilkanaście abstraktów napisanych przez ludzi, algorytmy nie muszą być później trenowane dla każdego języka z osobna. Ten sam model, który wypracowały podczas treningu, może zostać użyty dla wielu różnych języków.
      Podsumowanie tekstu, do którego wybrano zestaw najbardziej pasujących zdań z tekstu źródłowego, a wyboru dokonano na podstawie punktacji przyznawanej zdaniom i wykorzystanie w abstrakcie najwyżej punktowanych zdań, to nieocenione narzędzie do szybkiego przeglądania wielkich ilość tekstów w sposób niezależny od języka. To kluczowe narzędzie zarówno dla wyszukiwarek jak i dla takich użytkowników końcowych jak badacze, biblioteki czy media – stwierdził profesor Last.


      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Eksperymenty przeprowadzone przez naukowców z University of Nottingham wskazują, że algorytmy, które nauczą się przewidywania ryzyka przedwczesnego zgonu mogą w przyszłości być ważnym narzędziem medycyny prewencyjnej.
      Lekarze i naukowcy opracowali algorytm oparty na technologii maszynowego uczenia się, którego zadaniem było przewidywanie ryzyka przedwczesnego zgonu u chronicznie chorych osób w średnim wieku. Okazało się, że sztuczna inteligencja nie tylko była bardzo dokładna, ale potrafiła z większą precyzją niż ludzie określić ryzyko
      Algorytm uczył się na bazie danych obejmujących ponad 500 000 osób w wieku 40–69 lat o których informacje zebrano w latach 2006–2010, a ich losy śledzono do roku 2015.
      Medycyna prewencyjna odgrywa coraz większą rolę w walce z poważnymi chorobami. Od lat pracujemy nad usprawnieniem tej dziedziny opieki zdrowotnej oraz nad ulepszeniem komputerowej oceny ryzyka w dużych populacjach. Większość tego typu prac skupia się na konkretnej chorobie. Ocena ryzyka zgonu z powodu wielu różnych czynników to bardzo złożone zadanie, szczególnie jeśli weźmiemy pod uwagę uwarunkowania środowiskowe i osobnicze, mówi główny autor badań, profesor Stephen Weng.
      Dokonaliśmy poważnego postępu na tym polu opracowując unikatowe całościowe podejście do oceny ryzyka zgonu za pomocą technik maszynowego uczenia się. Używamy komputerów do stworzenia nowego modelu ryzyka uwzględniającego szeroką gamę czynników demograficznych, biologicznych, klinicznych czy stylu życia indywidualnych osób, w tym ich zwyczajów żywieniowych, dodaje uczony. Weng mówi, że gdy odpowiedzi podawane przez algorytm porównano z danymi dotyczącymi zgonów, przyjęć do szpitali, zachorowań na nowotwory i innymi danymi epidemiologicznymi, okazało się, że algorytmy były znacząco dokładniejsze niż opracowane przez ludzi metody oceny ryzyka.
      Algorytm korzystał z metody statystycznej lasów losowych (random forest) oraz głębokiego uczenia się. Obecnie używane metody wykorzystują model regresji Cox'a oraz wielowariantowy model Cox'a, który jest doskonalszy, ale przeszacowuje ryzyko zgonu.
      Najnowsze prace zespołu z Nottingham bazują na pracach wcześniejszych, podczas których ten sam zespół naukowy wykazał, że cztery różne algorytmy sztucznej inteligencji, bazujące na regresji logistycznej, gradient boosting, lasach losowych oraz sieciach neuronowych lepiej niż obecne metody używane w kardiologii pozwalają przewidzieć ryzyko chorób układu krążenia.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Przed czterema laty informowaliśmy, że na University of Oxford powstaje oprogramowanie, która na podstawie wyglądu twarzy ma rozpoznawać rzadkie choroby genetyczne i zdiagnozowało zespół Marfana u prezydenta Lincona. Nie tylko jednak Brytyjczycy pracują nad takim oprogramowaniem.
      W najnowszym numerze Nature Medicine opisano aplikację Face2Gene. Wykorzystuje ona algorytmy maszynowego uczenia się oraz sieci neuronowe do klasyfikowania charakterystycznych ech twarzy świadczących o zaburzeniach rozwoju płodowego i układu nerwowego. Aplikacja na podstawie zdjęcia stawia prawdopodobną diagnozę i wymienia inne, mniej prawdopodobne.
      Autorem oprogramowania jest firma FDNA z Bostonu. Jej specjaliści najpierw nauczyli aplikację odróżniać zespół Cornelii de Lange i zespół Angelmana, które przejawiają się charakterystycznymi cechami twarzy, od innych podobnych schorzeń. Nauczyli go też klasyfikowania różnych form genetycznych syndromu Noonana.
      Następnie algorytmowi dano dostęp do ponad 17 000 zdjęć zdiagnozowanych przypadków obejmujących 216 schorzeń. Gdy następnie oprogramowanie miało do czynienia z zupełnie nową fotografią, potrafiło z 65-procentowym prawdopodobieństwem postawić prawidłową diagnozę. Gdy zaś mogło podjąć kilka prób, odsetek prawidłowych diagnoz zwiększał się do 90%.
      FDNA chce udoskonalić swoją technologię, jednak w tym celu potrzebuje dostępu do większej ilości danych. Dlatego też Face2Gene jest bezpłatnie dostępna dla lekarzy i badaczy, którzy wykorzystują ten system do pomocy w diagnostyce rzadkich schorzeń genetycznych. Korzystają z niego też lekarze, którzy nie mają punktu zaczepienie i w ogóle nie potrafią wstępnie zdiagnozować pacjenta.
      Współautorka artykułu na temat Face2Gene, Karen Gripp, jest genetykiem w szpitalu dziecięcym w stanie Delaware i głównym lekarzem w firmie FDNA. Mówi ona, że algorytm pomógł jej w zdiagnozowaniu dziewczynki, którą leczy od sierpnia. Dzięki niemu doktor Gripp stwierdziła, że dziecko cierpi na zespół Wiedemanna-Steinera. Czterolatka nie ma zbyt wielu cech charakterystycznych tej choroby. Jest niska jak na swój wiek, straciła większość zębów mlecznych i zaczęły jej rosną stałe zęby.
      Gripp postawiła wstępną diagnozę, a następnie zaprzęgła do pracy Face2Gene. Zespół Wiedemanna-Steinera, bardzo rzadkie schorzenie spowodowane mutacją genu KTM2A, został przez aplikację wymieniony na czele listy prawdopodobnych schorzeń. Badania DNA potwierdziły diagnozę. Uczona mówi, że dzięki aplikacji mogła zawęzić liczbę potencjalnych chorób i uniknąć konieczności znacznie droższego szeroko zakrojonego badania DNA.
      Face2Gene powoli staje się coraz doskonalszy. Obecnie program ma do dyspozycji już 150 000 fotografii na podstawie których się uczy. W sierpniu, podczas warsztatów dotyczących wad genetycznych przeprowadzono nieoficjalne porównanie algorytmu i lekarzy. Wzięło w nim udział 49 genetyków klinicznych. Ludzie i algorytm mieli do dyspozycji 10 zdjęć dzieci z dość dobrze rozpoznawalnymi cechami charakterystycznymi różnych chorób. Tylko w przypadku dwóch fotografii dobrą diagnozę postawiło ponad 50% ludzi. Face2Gene dobrze zdiagnozował 7 na 10 przypadków.
      Polegliśmy całkowicie. Face2Gene był niesamowity, mówi Paul Kruszka, genetyk z US National Human Genome Research Institute. Jego zdaniem już wkrótce każdy pediatra i genetyk będzie miał tego typu aplikację i używał jej równie często jak stetoskopu.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Tim Sweeney, założyciel firmy Epic Games stwierdził podczas zakończonej właśnie konferencji DICE Summit, jeszcze za naszego życia doczekamy fotorealistycznych gier 3D renderowanych w czasie rzeczywistym. Sweeney zauważył, że każde kolejne udoskonalenie techniczne pojawiające się w grach od Ponga po Crisis wiedzie nas ku takim właśnie grom.
      Granicę fotorealizmu wyznaczają możliwości ludzkiego oka. Organ ten jest w stanie przetworzyć 30-megapikselowy obraz z prędkością około 70 klatek na sekundę. Zdaniem Sweeneya, żeby oddać wszelkie subtelności obrazu, gry światła, interakcje poszczególnych elementów wirtualnego świata, by stworzyć w czasie rzeczywistym fotorealistyczną trójwymiarową scenę potrzebna jest moc obliczeniowa rzędu 5000 teraflopsów. Tymczasem obecnie najbardziej wydajne karty graficzne oferują 2,5 teraflopsa. Przepaść jest ogromna, jednak wystarczy uświadomić sobie, że w 1993 roku gdy na rynek trafiła gra Doom, wiele osób nie mogło z niej skorzystać, gdyż wymagała ona od karty graficznej mocy rzędu 10 megaflopsów. Różnica pomiędzy wydajnością ówczesnych kart graficznych, a kart używanych obecnie, jest zatem znacznie większa, niż pomiędzy dzisiejszymi kartami, a urządzeniami, jakich będziemy potrzebowali w przyszłości.
      Oczywiście moc obliczeniowa to nie wszystko. Wciąż bowiem nie istnieją algorytmy, które pozwoliłyby na realistyczne odwzorowanie wielu elementów. Specjaliści potrafią stworzyć realistyczny model skóry, dymu czy wody, jednak wciąż poza naszymi możliwościami jest stworzenie dokładnych modeli ludzkiego ruchu czy mowy. Nie mamy algorytmów, więc nawet gdybyśmy już dzisiaj dysponowali doskonałym komputerem ograniczałaby nas nie jego moc obliczeniowa, a nasze umiejętności tworzenia algorytmów - mówi Sweeney.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...