Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Niezależni kalifornijscy specjaliści ds. bezpieczeństwa, we współpracy z ekspertami z holenderskiego Centrum Wiskunde & Informatica (CWI), uniwersytetu technicznego w Eindhoven (TU/e) oraz szwajcarskiego EPFL odkryli lukę w powszechnie wykorzystywanych w Internecie cyfrowych certyfikatach. Dziura umożliwia takie podrobienie certyfikatu, że zostanie on zaakceptowany przez każdą przeglądarkę. Pozwala to atakującemu na przygotowanie witryny lub serwisu pocztowego, który bez najmniejszego problemu podszyje się pod prawdziwą stronę. Przestępca może wówczas niezauważenie dokonać ataku phishingowego.

Eksperci poinformowali o swoim odkryciu podczas odbywającej się właśnie w Berlinie konferencji 25C3. Mają nadzieję, że dzięki ich ostrzeżeniu upowszechnią się bezpieczniejsze algorytmy.
Mowa tutaj o sytuacji, gdy korzystamy z powszechnie stosowanego protokołu https. Przeglądarka informuje nas o tym fakcie wyświetlając zamkniętą kłódkę, co oznacza, że witryna, którą odwiedzamy, została zabezpieczona szyfrowanym certyfikatem. W takich wypadkach stosuje się kilka algorytmów, a jednym z najpowszechniejszych jest MD5. I to w nim właśnie znaleziono lukę.

O pierwszych problemach z MD5 poinformowali Chińczycy w 2005 roku. Byli oni w stanie znaleźć kolizję dla tego algorytmu i przeprowadzić atak polegający na wysłaniu dwóch różnych wiadomości chronionych tym samym podpisem cyfrowym. Chińska metoda była jednak bardzo trudna do wykonania. W maju 2007 roku uczeni z CWI, EPFL i TU/e pokazali, że podczas podobnego ataku można wykorzystać dowolne wiadomości.

Obecnie ci sami eksperci dowiedli, że możliwe jest podrobienie dowolnego certyfikatu tak, że zostanie on zaakceptowany przez wszystkie popularne przeglądarki internetowe. Co więcej, do podrobienia certyfikatu wystarczy moc obliczeniowa ponad 200 współczesnych konsoli do gier.
Specjaliści zwracają uwagę, że połączenie podrobionego certyfikatu ze znanymi słabościami systemu DNS pozwala na przeprowadzenie niewykrywalnego ataku phishingowego. Może on polegać na przykład na przekierowaniu użytkowników online'owych banków na fałszywe witryny, które będą wyglądały identycznie jak witryny banków, a przedstawione przez nie certyfikaty bezpieczeństwa zostaną zaakceptowane. Użytkownik, wierząc, że odwiedza witrynę swojego banku, nieświadomie prześle przestępcom wszelkie informacje, które będą im potrzebne do skutecznego wyczyszczenia jego konta z pieniędzy.

Wspomniani na wstępie specjaliści poinformowali już firmy produkujące popularne przeglądarki o problemie.

Odkrywcy luki uważają, że instytucje wydające certyfikaty bezpieczeństwa powinny zrezygnować z używania MD5 i korzystać z innych algorytmów, takich jak np. SHA-2.

Share this post


Link to post
Share on other sites

Ciekawe odkrycie które oczywiście wiele wnosi do świata ludzi szybkosiębogacących i szybkobiedniejących ale "luka w MD5" to tak naprawdę od lat znana właściwość, "skutek uboczny" niezłomności szyfrowania MD5.

MD5 potrafi każdy ciąg liter, cyfr, czegokolwiek sprowadzić do 32 znaków. Co na szczęście powoduje że jest nieodwracalny. Jednak jak się głębiej zastanowić to na 100% istnieją dwa wyrażenia które dają takie same wyniki działania MD5.

Proste liczenie. Ile jest możliwości przy 32 znakach a ile przy nieskończonej liczbie. Prędzej czy później muszą się powtórzyć.

Co więcej w internecie już od paru lat dostępne są słowniki MD5. Jeszcze niewiele tam wyrazów z pośród wszystkich możliwych ale ciągle się rozwijają.

Mimo wszystko MD5 nadal jest najskuteczniejszym z najszybszych algorytmów.

Share this post


Link to post
Share on other sites

Ej, powoli ... 32 znaki szesnastkowe, czyli jakoś 3.4*10^38 kombinacji - powodzenia z szukaniem bez użycia jakiegoś na prawdę dobrego triku...

Ale ogólnie to nie rozumiem jak można opierać praktycznie światowe bezpieczeństwo na kryptosystemach tworzonych w sposób: używaj najprostrzysch operacji logicznych tak długo dopuki nie będzie wyglądało na bezpieczne.

Przecież można użyć porządnej nieliniowości. Na przykład są szybkie, zupełnie nieprzewidywalne generatory liczb losowych - inicjalizujemy go naszym kluczem i dostajemy potencjalnie nieskończony, unikalny ciąg losowy - używamy go do zmiksowania naszej wiadomości i ... nikt nawet nie pomyśli o próbie łamania tego.

Choć ... ostatnio myślałem nad nowymi podejściami wykorzystania fizyki do rozwiązywania ciężkich problemów:

http://www.topix.com/forum/science/cryptography/T1S37KE55VQ8LN50K

Pewnie to nierealne, ale daleko jestem od bycia tego pewnym. W każdym razie żeby zabezpieczyć kryptosystem przed taką ewentualnością, powinien wymagać długiej inicjalizacji specyficznej dla danego klucza(jak oparte na asymmetric numeral systems).

Share this post


Link to post
Share on other sites

O pierwszych problemach z MD5 poinformowali Chińczycy w 2005 roku.

 

O (praktycznych) kolizjach w MD5 wiadomo już przynajmniej od 1996. Nikt rozsądny nie polega na MD5 tylko (a nawet w ogóle), certyfikaty zawierają dlatego tandem MD5+SHA1. A te 200 konsol, to były PS3.

 

Ale ogólnie to nie rozumiem jak można opierać praktycznie światowe bezpieczeństwo na kryptosystemach tworzonych w sposób: używaj najprostrzysch operacji logicznych tak długo dopuki nie będzie wyglądało na bezpieczne.

 

Ale tutaj nie są to algorytmy szyfrujące, a funkcje skrótu. Poza tym istota tkwi w ilości rund, które teoretycznie wykładniczo podnoszą bezpieczeństwo.

 

Są też algorytmy oparte na problemach NP-zupełnych, jak np. problem faktoryzacji iloczynu liczb pierwszych (RSA), problem logarytmu dyskretnego (ElGamal) czy krzywe eliptyczne. Tu wszystko opiera się na złożoności matematycznej.

 

Na przykład są szybkie, zupełnie nieprzewidywalne generatory liczb losowych - inicjalizujemy go naszym kluczem i dostajemy potencjalnie nieskończony, unikalny ciąg losowy - używamy go do zmiksowania naszej wiadomości i ... nikt nawet nie pomyśli o próbie łamania tego.

 

I czym to się różni od obecnych systemów? Jak jednorazowy, unikalny klucz prześlesz drugiej osobie? Poza tym nie ma idealnego PRNG. Jest projekt http://random.org który zbiera także szumy z echa radiowego. Są też szyfry one-time pad, jak szyfr Vernama, które używają jednorazowych kluczy.

Share this post


Link to post
Share on other sites
teoretycznie wykładniczo podnoszą bezpieczeństwo

no właśnie z tego co wiem jedynym argumentem to bo tak się wydaje. Bo dowodzenie że nie ma drogi na skróty to coś w stylu dowodzenia że P!=NP...

Nie mówię o RSA, krzywych eliptycznych - one są dużo bardziej wyrafinowane, ale za to dużo wolniejsze - asymetryczność kosztuje.

Natomiast większość używanych kryptosystemów symetrycznych, systemów haszujących używa podstawowych operacji logicznych i przestawiania bitów KROPKA. Czyli tworzenie takich łamigłówek logicznych ... bo wydaje się że jest bezpieczne.

Użycie generatora liczb losowych inicjalizowanego kluczem zupełnie zmienia sytuację: używając wygenerowanej sekwencji definiujesz unikalny koder. Losowań było tak dużo że jego konstrukcja jest oparta praktycznie tylko na statystyce. Nie ma szans odtworzyć kodera, a jeśli nawet to i tak klucz jest bezpieczny. Przyglądnij się asymmetric numeral systems.

Share this post


Link to post
Share on other sites

PRNG nigdy nie daje bezokresowego ciągu, a tylko gwarantowaną długość cyklu. Jak rozumiem kluczem ma być seed i numer iteracji? Ok, ale w czym to daje przewagę nad innymi systemami? PRNG to iteracyjna maszyna stanu, też używa prostych instrukcji (xorshift, isaac, mt, nawet zwyczajna funkcja skrótu czy system kryptografii symetrycznej ze sprzężeniem zwrotnym może działać jak PRNG). A dlaczego używa się prostych instrukcji w rundach? Dlatego, że to jest szybkie i daje się łatwo zoptymalizować.

Share this post


Link to post
Share on other sites

Jak tylko chcemy, to te okresy są tak długie że nie mamy szans się do nich zbliżyć (mt, kryprografia symetryczna ze sprzężeniem zwrotnym).

Klucz daje seed, a z wyjściowym ciągiem robimy co chcemy, jak na przykład użycie go do określenia parametrów algorytmu, określenia interesujących nas w tym ciągu pozycji.

Jak dobrze się to ustali, to nawet przy scenariuszach typu adaptive chosen ciphertext nie ma szans ustalić tych ukrytych parametrów. A tym bardziej szukać jakichś regularności.

ANS na przykład losuje w ten sposób dość specyficzne tablice kodujące bliskie pewnej statystyki. Dzięki takiemu podejściu (większość obliczeń jest wykonywane podczas inicjalizacji) z jednej strony kodowanie jest już błyskawiczne, z drugiej jest dodatkowo odporny na ataki brute force - żeby sprawdzić klucz trzeba wykonać pełną inicjalizację, co zajmuje wybraną przez użytkownika ilość czasu.

Share this post


Link to post
Share on other sites

Póki to podejście zapewnia spełnienie rygorów dyfuzji, konfuzji, lawinowości i zupełności (to kryterium odpada, bo jak rozumiem ten system jest strumieniowy z racji konstrukcji OFB), to ok. Jakkolwiek nie wiem jaki to ma związek z problemem funkcji skrótu, a raczej z certyfikatami, które są domeną kryptografii asymetrycznej. :)

Share this post


Link to post
Share on other sites

Funkcje hashujące też są zwykle oparte na powtarzaniu kosmiczną ilość razy podstawowych operacji logicznych, podczas gdy wystarczy na przykład użyć dobrego kodera kryptograficznego żeby zakodować plik (ze stałym lub pozyskiwanym z pliku kluczem), potem najlepiej zakodować wyjście jeszcze raz w odwrotnym kierunku i jako funkcję haszującą wziąść ostatnie uzyskane bity...

 

ANS jest trochę poza klasyfikacją typu OFB - dla klucza generujemy zgodnie ze statystyką dużą tablicę kodującą, która mówi jak zmienia się stan kodera (ukryta zmienna) i co wypluwa pod wpływem nowych bitów. Bloki są krótkie, ale za to o bardzo zmiennej długości. Możliwe zachowania są losowo, w przybliżeniu jednorodnie rozrzucone po przestrzeni stanów kodera - najmniejsza zmiana i wszystko się chaotycznie rozjeżdża.

Share this post


Link to post
Share on other sites

Tam nie ma kosmicznej ilości rund. SHA-1 używa 80 rund, zaś MD5 jedynie 4. Natomiast użycie jedynie ostatnich bitów nie gwarantuje:

 

1. wiązania każdego bitu wiadomości z wyjściem funkcji (nawet w trybie CBC/CFB)

2. efektu lawinowego zapewniającego przy zmianie dowolnego bitu zmianę przynajmniej połowy bitów wyjściowych

Share this post


Link to post
Share on other sites

Ok ... MD5 używa 'tylko' 4 rund ... po 16 operacji ;D

Według mnie to jednak dość dużo. A co do użycia kryptosystemu, to 'dobry' dla mnie znaczy m.in. że najmniejsza zmiana na wejściu oznacza wyprodukowanie zupełnie innego, losowego ciągu (jak ANS), czyli tym bardziej praktycznie losowo zmieni te ostatnie wyprodukowane bity. A przejście tam i potem spowrotem powoduje że znalezienie dwóch plików dających to samo staje się praktycznie niewykonalane.

Share this post


Link to post
Share on other sites

Ok ... MD5 używa 'tylko' 4 rund ... po 16 operacji ;D

Według mnie to jednak dość dużo.

 

Jeśli znasz operacje szybsze niż xor, and, or, not, shl/shr (operacje zajmujące 1-4 cykli procesora, w zależności od typu adresowania), to gratuluję. ;)

 

A przejście tam i potem spowrotem powoduje że znalezienie dwóch plików dających to samo staje się praktycznie niewykonalane.

 

Trochę kłopotliwe jest to, że jednocześnie piszesz o jednokierunkowych funkcjach skrótu (nas za określenie "funkcja haszująca" wykładowca by zamordował :]), szyfrowaniu i generatorach liczb pseudolosowych. Wybacz, że się tak czepiam, ale jeśli chodzi Ci w tym cytacie o funkcje skrótu, to oczywiście, że się da. Z prostej przyczyny - one mają określoną długość bitów na wyjściu, a przerabiają dowolne zbiory danych (od 1 bajtu, po obrazy iso). Siła tkwi w tym, że spreparowana wiadomość musi mieć sens. W przypadku szyfrowania - wiadomo, do tego dążymy. Jak będę miał dłuższą chwilkę obiecuję przyjrzeć się dokładniej Twojemu podejściu (ANS). :)

Share this post


Link to post
Share on other sites

Tylko że pojedyńcza składa się z jakichś 10 takich ... razy 64 to już trochę.

Co do nazw to wolę używać orginalnych, 'funkcja skrótu' to jak dla mnie lekka przesada z potrzebą spolszczania. Co do łączenia to najwięcej wymaga się od kryptosystemu, bo zarówno powinien być m.in. możliwy do wykorzystania jako generator liczb losowych, jak i ma dość niedaleko do użycia go jako funkcji haszującej... z której znowu łatwo zrobić PRNG ... a z takiego nietrudno kryptosystem :)

Jak trochę (w sumie nad czymkolwiek) pomyślisz, to wszystko jest strasznie rozymte i się z wszystkim łączy ;)

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Wraz z coraz większą liczbą tekstów publikowanych w internecie, pojawiła się potrzeba stworzenia zautomatyzowanych metod tworzenia abstraktów artykułów czy wywiadów. Większość dostępnych narzędzi jest zależnych od języka, w jakim został napisany oryginalny tekst, a ich stworzenie wymaga trenowania algorytmów na wielkich bazach danych.
      Firma BGN Technologies, zajmująca się transferem technologicznym wynalazków opracowanych na Uniwersytecie Ben Guriona, zaprezentowała nowatorskie automatyczne narzędzie do tworzenia abstraktów, które działa niezależnie od języka oryginalnego tekstu.
      Technologia, opracowana przez profesora Marka Lasta, doktor Marinę Litvak i doktora Menahema Friedmana bazuje na algorytmie, który klasyfikuje poszczególne zdania na podstawie statystycznych obliczeń charakterystycznych cech, które mogą być wyliczone dla każdeog języka. Następnie najwyżej ocenione zdania są wykorzystywane do stworzenia abstraktu. Metoda, nazwana Multilingual Sentence Extractor (MUSE), została przetestowana na języku angielskim, hebrajskim, arabskim, perskim, rosyjskim, chińskim, niemieckim i hiszpańskim. W przypadku angielskiego, hebrajskiego, arabskiego i perskiego stworzone abstrakty były bardzo podobne do abstraktów napisanych przez ludzi.
      Główną zaletą nowego narzędzia jest fakt, że po początkowym treningu algorytmów na opatrzonych odpowiednimi komentarzami artykułach, z których każdemu towarzyszy kilkanaście abstraktów napisanych przez ludzi, algorytmy nie muszą być później trenowane dla każdego języka z osobna. Ten sam model, który wypracowały podczas treningu, może zostać użyty dla wielu różnych języków.
      Podsumowanie tekstu, do którego wybrano zestaw najbardziej pasujących zdań z tekstu źródłowego, a wyboru dokonano na podstawie punktacji przyznawanej zdaniom i wykorzystanie w abstrakcie najwyżej punktowanych zdań, to nieocenione narzędzie do szybkiego przeglądania wielkich ilość tekstów w sposób niezależny od języka. To kluczowe narzędzie zarówno dla wyszukiwarek jak i dla takich użytkowników końcowych jak badacze, biblioteki czy media – stwierdził profesor Last.


      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Eksperymenty przeprowadzone przez naukowców z University of Nottingham wskazują, że algorytmy, które nauczą się przewidywania ryzyka przedwczesnego zgonu mogą w przyszłości być ważnym narzędziem medycyny prewencyjnej.
      Lekarze i naukowcy opracowali algorytm oparty na technologii maszynowego uczenia się, którego zadaniem było przewidywanie ryzyka przedwczesnego zgonu u chronicznie chorych osób w średnim wieku. Okazało się, że sztuczna inteligencja nie tylko była bardzo dokładna, ale potrafiła z większą precyzją niż ludzie określić ryzyko
      Algorytm uczył się na bazie danych obejmujących ponad 500 000 osób w wieku 40–69 lat o których informacje zebrano w latach 2006–2010, a ich losy śledzono do roku 2015.
      Medycyna prewencyjna odgrywa coraz większą rolę w walce z poważnymi chorobami. Od lat pracujemy nad usprawnieniem tej dziedziny opieki zdrowotnej oraz nad ulepszeniem komputerowej oceny ryzyka w dużych populacjach. Większość tego typu prac skupia się na konkretnej chorobie. Ocena ryzyka zgonu z powodu wielu różnych czynników to bardzo złożone zadanie, szczególnie jeśli weźmiemy pod uwagę uwarunkowania środowiskowe i osobnicze, mówi główny autor badań, profesor Stephen Weng.
      Dokonaliśmy poważnego postępu na tym polu opracowując unikatowe całościowe podejście do oceny ryzyka zgonu za pomocą technik maszynowego uczenia się. Używamy komputerów do stworzenia nowego modelu ryzyka uwzględniającego szeroką gamę czynników demograficznych, biologicznych, klinicznych czy stylu życia indywidualnych osób, w tym ich zwyczajów żywieniowych, dodaje uczony. Weng mówi, że gdy odpowiedzi podawane przez algorytm porównano z danymi dotyczącymi zgonów, przyjęć do szpitali, zachorowań na nowotwory i innymi danymi epidemiologicznymi, okazało się, że algorytmy były znacząco dokładniejsze niż opracowane przez ludzi metody oceny ryzyka.
      Algorytm korzystał z metody statystycznej lasów losowych (random forest) oraz głębokiego uczenia się. Obecnie używane metody wykorzystują model regresji Cox'a oraz wielowariantowy model Cox'a, który jest doskonalszy, ale przeszacowuje ryzyko zgonu.
      Najnowsze prace zespołu z Nottingham bazują na pracach wcześniejszych, podczas których ten sam zespół naukowy wykazał, że cztery różne algorytmy sztucznej inteligencji, bazujące na regresji logistycznej, gradient boosting, lasach losowych oraz sieciach neuronowych lepiej niż obecne metody używane w kardiologii pozwalają przewidzieć ryzyko chorób układu krążenia.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Przed czterema laty informowaliśmy, że na University of Oxford powstaje oprogramowanie, która na podstawie wyglądu twarzy ma rozpoznawać rzadkie choroby genetyczne i zdiagnozowało zespół Marfana u prezydenta Lincona. Nie tylko jednak Brytyjczycy pracują nad takim oprogramowaniem.
      W najnowszym numerze Nature Medicine opisano aplikację Face2Gene. Wykorzystuje ona algorytmy maszynowego uczenia się oraz sieci neuronowe do klasyfikowania charakterystycznych ech twarzy świadczących o zaburzeniach rozwoju płodowego i układu nerwowego. Aplikacja na podstawie zdjęcia stawia prawdopodobną diagnozę i wymienia inne, mniej prawdopodobne.
      Autorem oprogramowania jest firma FDNA z Bostonu. Jej specjaliści najpierw nauczyli aplikację odróżniać zespół Cornelii de Lange i zespół Angelmana, które przejawiają się charakterystycznymi cechami twarzy, od innych podobnych schorzeń. Nauczyli go też klasyfikowania różnych form genetycznych syndromu Noonana.
      Następnie algorytmowi dano dostęp do ponad 17 000 zdjęć zdiagnozowanych przypadków obejmujących 216 schorzeń. Gdy następnie oprogramowanie miało do czynienia z zupełnie nową fotografią, potrafiło z 65-procentowym prawdopodobieństwem postawić prawidłową diagnozę. Gdy zaś mogło podjąć kilka prób, odsetek prawidłowych diagnoz zwiększał się do 90%.
      FDNA chce udoskonalić swoją technologię, jednak w tym celu potrzebuje dostępu do większej ilości danych. Dlatego też Face2Gene jest bezpłatnie dostępna dla lekarzy i badaczy, którzy wykorzystują ten system do pomocy w diagnostyce rzadkich schorzeń genetycznych. Korzystają z niego też lekarze, którzy nie mają punktu zaczepienie i w ogóle nie potrafią wstępnie zdiagnozować pacjenta.
      Współautorka artykułu na temat Face2Gene, Karen Gripp, jest genetykiem w szpitalu dziecięcym w stanie Delaware i głównym lekarzem w firmie FDNA. Mówi ona, że algorytm pomógł jej w zdiagnozowaniu dziewczynki, którą leczy od sierpnia. Dzięki niemu doktor Gripp stwierdziła, że dziecko cierpi na zespół Wiedemanna-Steinera. Czterolatka nie ma zbyt wielu cech charakterystycznych tej choroby. Jest niska jak na swój wiek, straciła większość zębów mlecznych i zaczęły jej rosną stałe zęby.
      Gripp postawiła wstępną diagnozę, a następnie zaprzęgła do pracy Face2Gene. Zespół Wiedemanna-Steinera, bardzo rzadkie schorzenie spowodowane mutacją genu KTM2A, został przez aplikację wymieniony na czele listy prawdopodobnych schorzeń. Badania DNA potwierdziły diagnozę. Uczona mówi, że dzięki aplikacji mogła zawęzić liczbę potencjalnych chorób i uniknąć konieczności znacznie droższego szeroko zakrojonego badania DNA.
      Face2Gene powoli staje się coraz doskonalszy. Obecnie program ma do dyspozycji już 150 000 fotografii na podstawie których się uczy. W sierpniu, podczas warsztatów dotyczących wad genetycznych przeprowadzono nieoficjalne porównanie algorytmu i lekarzy. Wzięło w nim udział 49 genetyków klinicznych. Ludzie i algorytm mieli do dyspozycji 10 zdjęć dzieci z dość dobrze rozpoznawalnymi cechami charakterystycznymi różnych chorób. Tylko w przypadku dwóch fotografii dobrą diagnozę postawiło ponad 50% ludzi. Face2Gene dobrze zdiagnozował 7 na 10 przypadków.
      Polegliśmy całkowicie. Face2Gene był niesamowity, mówi Paul Kruszka, genetyk z US National Human Genome Research Institute. Jego zdaniem już wkrótce każdy pediatra i genetyk będzie miał tego typu aplikację i używał jej równie często jak stetoskopu.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Tim Sweeney, założyciel firmy Epic Games stwierdził podczas zakończonej właśnie konferencji DICE Summit, jeszcze za naszego życia doczekamy fotorealistycznych gier 3D renderowanych w czasie rzeczywistym. Sweeney zauważył, że każde kolejne udoskonalenie techniczne pojawiające się w grach od Ponga po Crisis wiedzie nas ku takim właśnie grom.
      Granicę fotorealizmu wyznaczają możliwości ludzkiego oka. Organ ten jest w stanie przetworzyć 30-megapikselowy obraz z prędkością około 70 klatek na sekundę. Zdaniem Sweeneya, żeby oddać wszelkie subtelności obrazu, gry światła, interakcje poszczególnych elementów wirtualnego świata, by stworzyć w czasie rzeczywistym fotorealistyczną trójwymiarową scenę potrzebna jest moc obliczeniowa rzędu 5000 teraflopsów. Tymczasem obecnie najbardziej wydajne karty graficzne oferują 2,5 teraflopsa. Przepaść jest ogromna, jednak wystarczy uświadomić sobie, że w 1993 roku gdy na rynek trafiła gra Doom, wiele osób nie mogło z niej skorzystać, gdyż wymagała ona od karty graficznej mocy rzędu 10 megaflopsów. Różnica pomiędzy wydajnością ówczesnych kart graficznych, a kart używanych obecnie, jest zatem znacznie większa, niż pomiędzy dzisiejszymi kartami, a urządzeniami, jakich będziemy potrzebowali w przyszłości.
      Oczywiście moc obliczeniowa to nie wszystko. Wciąż bowiem nie istnieją algorytmy, które pozwoliłyby na realistyczne odwzorowanie wielu elementów. Specjaliści potrafią stworzyć realistyczny model skóry, dymu czy wody, jednak wciąż poza naszymi możliwościami jest stworzenie dokładnych modeli ludzkiego ruchu czy mowy. Nie mamy algorytmów, więc nawet gdybyśmy już dzisiaj dysponowali doskonałym komputerem ograniczałaby nas nie jego moc obliczeniowa, a nasze umiejętności tworzenia algorytmów - mówi Sweeney.
    • By KopalniaWiedzy.pl
      Co znajduje się na zapadających w pamięć zdjęciach? Choć widoki są ładne, to nie one znajdują się na pierwszym miejscu w tej kategorii. Podczas badań pierwsze miejsce zajęły bowiem fotografie ludzi, a za nimi uplasowały się ujęcia wnętrz oraz obiektów wielkości człowieka.
      Przyjemność dla oka i zapamiętywalność to nie to samo – tłumaczy Phillip Isola z MIT-u. Dotąd sądzono, że zapamiętywalność obrazu jest czymś niedostępnym dla nauki, ponieważ pamięć wzrokowa bywa bardzo subiektywna. Ludzie sądzą, że nie można znaleźć niczego spójnego – dodaje prof. Aude Oliva. Po badaniach na setkach ludzi amerykański zespół udowodnił jednak, że można tu wykryć pewne prawidłowości. Zgodność ochotników była wręcz zadziwiająca. Bazując na uzyskanych wynikach, naukowcy opracowali komputerowy algorytm, który może uszeregować zdjęcia według ich zapadalności w pamięć.
      Podczas wcześniejszych studiów Oliva wykazała, że ludzki mózg może zapamiętać z dość drobnymi szczegółami tysiące obrazów. Nietrudno jednak stwierdzić, że nie wszystkie są zapamiętywane równie dobrze. Na potrzeby badań zespół z MIT-u stworzył kolekcję 10 tys. różnorodnych zdjęć. Wykorzystano program Amazona Mechanical Turk, który pozwala, by ludzie wykonywali różne zadania na własnych komputerach. Ochotnikom pokazano serię zdjęć. Część z nich się powtarzała. Wyświetlenie widzianej wcześniej fotografii należało zasygnalizować naciśnięciem guzika. Zapamiętywalność każdego zdjęcia określano, wyliczając, ile osób poprawnie rozpoznało je jako znane.
      Na końcu zespół Olivy poprosił wolontariuszy o stworzenie "mapy zapamiętywalności" każdego zdjęcia. Należało oznaczyć wszystkie obiekty na fotografii. Komputer analizował mapy, by określić, jakie obiekty/cechy (barwy, rozmieszczenie krawędzi itp.) sprawiają, że obraz zapada w pamięć.
      Choć pojawiły się, oczywiście, różnice indywidualne, ogólnie najlepiej zapamiętywano zdjęcia ludzi, a w dalszej kolejności przestrzeni dopasowanej wielkością do człowieka, np. alejek w sklepach, oraz zbliżenia obiektów. Najgorzej zapamiętywano krajobrazy, chyba że zawierały jakiś zaskakujący element, np. niecodziennie przycięty krzew czy kolorową rzeźbę.
      Komu przyda się wspomniany wcześniej algorytm? Wykorzystają go zapewne graficy czy osoby pracujące nad okładkami książek i magazynów. Isola myśli też nad stworzeniem aplikacji na iPhone'a, która od razu po zrobieniu zdjęcia informowałaby użytkownika, do jakiego stopnia jest ono zapamiętywalne. Nie można też zapominać o zastosowaniach klinicznych i badaniu np. deficytów pamięci wzrokowej w przebiegu różnych chorób.
×
×
  • Create New...