Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Dzisiaj upływa termin składania propozycji nowej funkcji skrótu (Secure Hash Algorithm), służącej do zabezpieczania elektronicznych danych, na potrzeby amerykańskich agend rządowych. Nową funkcję, podobnie jak poprzednie SHA-1 i SHA-2 zamówił Narodowy Instytut Standardów i Technologii (NIST). Konkurs ogłoszono w ubiegłym roku, propozycje można składać do końca października 2008, ale nowa funkcja zostanie oficjalnie wybrana nie wcześniej niż w roku 2012.

Obecnie używane funkcje SHA-1 i SHA-2 nie zostały złamane, jednak przeprowadzono już poważne ataki przeciwko nim.

Wiadomo, że jedną z propozycji jest algorytm "Skein" opracowany przez Bruce'a Schneiera, Nielsa Fergusona, Stefana Lucksa, Douga Whitinga, Mihira Bellare'a, Tadayoshiego Kohno, Jona Callasa i Jesse Walkera. To znani specjaliści, którzy na codzień pracują w różnych miejscach, od Microsoftu, Intela i PGP, po Bauhaus-Universitata Weimar, BT Group, Hifn, University of California czy University of Washington.

Skein to rodzina algorytmów o długości od 256 do 1024 bitów. Skein-256 jest przeznaczony dla mało wydajnych systemów komputerowych, a Skein-1024 ma trafić tam, gdzie wymagany jest największy poziom bezpieczeństwa.

Wiadomo, że oprócz Skeina zgłoszono jeszcze około 40 innych projektów.

W przyszłym roku NIST rozpocznie publiczną debatę nad propozycjami. Zakończy się ona w 2012 roku, kiedy to zostanie wyłoniony zwycięzca - algorytm, który zyska największe uznanie specjalistów z całego świata.

Share this post


Link to post
Share on other sites

Za 4 lata będziemy dysponować mocą obliczeniową komputerów kwantowych kilka o ile nie kilkanaście rzędów wielkości większą. W dniu opublikowania decyzji o wyborze algorytmu domowy komputer będzie mógł go złamać siłowo w parę dni.

 

Taki scenariusz jest możliwy.

Share this post


Link to post
Share on other sites

Ok, skrytykowałeś, ale jaką widzisz alternatywę? Odpuścić sobie prace nad nowymi metodami szyfrowania? Rozumiem, co masz na myśli, ale sama krytyka niekoniecznie wnosi wiele do tematu.

Share this post


Link to post
Share on other sites

Chciałem powiedzieć, że 4 lata w dziedzinie bezpieczeństwa IT to niejeden kamień milowy. Procedury wdrażania od momentu ogłoszenia konkursu nie powinny przekroczyć roku. Alternatywą byłoby tu nie tworzenie nowych algorytmów na potrzeby konkursu ale wykorzystanie co nowszych już istniejących i w praktyce skutecznych rozwiązań, ewentualnie rozwijanie starych sprawdzonych metod (wydłużanie kluczy, łączenie istniejących modeli itp).

Share this post


Link to post
Share on other sites

Chcialbym stanowczo zaprotestowac przeciwko szacowaniu powstania komputerow kwantowych i to jeszcze w perspektywie 4 lat.

 

Prawdziwa idea komputerow kwantowych jest jeszcze baaardzo daleka od realizacji. Nie chodzi w niej bynajmniej o  zastapienie elektronu kwantami, ale o zupelnie inna koncepcja maszyny rozwiazujacej problemy. W zasadzie nie da sie porownywac mocy obliczeniowych aktualnych liniowych komputerow z komputerami ktore otrzymuja wynik na zasadzie ewolucji.

 

Komputery aktualne sa to bardzo sprawne maszyny ktore robia to, co czlowiek zaprogramuje.

Komputery kwantowe to sa maszyny, ktorym zadaje sie problem, i otrzymuje sie ewolucyjnie wygenerowany wynik, ktory spelnia warunki odpowiedzi. Czlowiek zatem bedzie jedynie kierowal ewolucja rozwiazan, nie bedzie musial znac matematycznego sposobu na znalezienie odpowiedzi.

 

Prawda jest, ze w momencie powstania komputera kwantowego wszystkie aktualne sposoby szyfrowania beda zlamane. Nie dlatego jednak, ze bedzie to "o kilka rzedow szybsza" maszyna. Przyspieszenie o kilka rzedow mozna juz dzisiaj uzyskac za pomoca laczenia komputerow w klastry i stosujac sprzetowe lamacze hasel.

Share this post


Link to post
Share on other sites

Wystarczy szyfrowany tekst przemnożyć przez olbrzymią liczbę pierwszą, tak dużą aby była poza zakresem możliwości użycia przez powszachnie wystepujący sprzęt.

Share this post


Link to post
Share on other sites
Chciałem powiedzieć, że 4 lata w dziedzinie bezpieczeństwa IT to niejeden kamień milowy.

Podaj może przykład. Z IT mam doczynienia od 1997 i mimo iż minęło już prawie 3 x 4 lata nie dostrzegam jakichś nieprawdopodobnych skoków technologicznych.

Szybkość powszechnie dostępnych procesorów w tym czasie wzrosła z 200 MHz do prawie 4 GHz. Wzrost 20 razy.

Dyski twarde- szybkość wzrosła kilka razy. Pojemność z 2,5 GB do 1000 GB czyli 400 razy.

I tak można mnożyć, ogólnie w ciągu 12 lat, wszystko rosło od kilku do tysiąca razy.

A teraz słowo o kluczach, nie wiem czy znasz system binarny ale wzrost długości klucza z 512 na 1024 to nie jest podwójny wzrost bezpieczeństwa w sensie mocy obliczeniowej. To jest wzrost idący w kilkanaście jak nie kilkadziesiąt rzędów wielkości.

Ile zaś rzędów wielkości zwiększono moc obliczeniową sprzętu w czasie 12 lat o których pisałem? 1000 razy to zaledwie 3 rzędy wielkości. A Ty piszesz o rewolucjach w ciągu 4 lat? Maksymalnie 1 rząd wielkości, taki jest przyrot mocy obliczeniowej w ciągu 4 lat.

Prawda jest, ze w momencie powstania komputera kwantowego wszystkie aktualne sposoby szyfrowania beda zlamane. Nie dlatego jednak, ze bedzie to "o kilka rzedow szybsza" maszyna.

A to czemu?

Share this post


Link to post
Share on other sites

Wystarczy szyfrowany tekst przemnożyć przez olbrzymią liczbę pierwszą, tak dużą aby była poza zakresem możliwości użycia przez powszachnie wystepujący sprzęt.

 

Ale to jest jednokierunkowa funkcja skrótu, nie szyfrowanie, a jak wiemy mnożenie można odwrócić. Poza tym istnieją dość wydajne biblioteki liczb bignum, gdzie można przeprowadzać działania na liczbach o niemal nieskończonej ilości cyfr (ograniczonej pojemnością pamięci, a nie rejestrów procesora), kwestią jest tylko wydajność systemu.

 

Chciałem powiedzieć, że 4 lata w dziedzinie bezpieczeństwa IT to niejeden kamień milowy. Procedury wdrażania od momentu ogłoszenia konkursu nie powinny przekroczyć roku. Alternatywą byłoby tu nie tworzenie nowych algorytmów na potrzeby konkursu ale wykorzystanie co nowszych już istniejących i w praktyce skutecznych rozwiązań, ewentualnie rozwijanie starych sprawdzonych metod (wydłużanie kluczy, łączenie istniejących modeli itp).

 

Po to jest tyle czasu, by matematycy, pasjonaci i inni mieli czas na przeanalizowanie konkursowych algorytmów pod kątem wszelkich podatności (dla fanów teorii spiskowych - także rząd [NSA]). To coś jak konkurs na AES, który wygrał algorytm Rijndael. Poza tym de facto SHA-1 (160 bitów) pozostanie używany jako bezpieczna funkcja skrótu do 2010 - czyli będą to tylko 2 lata, nie 4, zaś SHA-2 (224-512 bitów) dalej będą użyteczne (póki nie zostanie dowiedziona ich słabość, tak jak jakiś czas temu MD5). Natomiast wydłużanie kluczy nic nie da, jeśli struktura algorytmu jest skompromitowana. Zaś skuteczne rozwiązanie wcale nie musi znaczyć najbezpieczniejszego, a chodzi o wyznaczenie nowego standardu.

Share this post


Link to post
Share on other sites

Poszukiwanie nowego algorytmu skrótu jest potrzebne i wcale nie chodzi o to czy można go złamać za pomocą domowego komputera czy też nie. Wszystko się da złamać metodą brute-force bez względu na to ile ma bitów. Wystarczy duży klaster lub choćby botnet (md5 szybko się łamie za pomocą tęczowych tablic).

Funkcje skrótu są używane do kontroli autentycznośći danych, zwykle stosowane są SHA1 lub MD5, obydwa nie są już 100% bezpiecznie gdyż udało się stworzyć w taki sposób zmodyfikowane dane że funkcja skrótu zwróciła tę samą wartość - czyli udowodnono że jest możliwe zmodyfikowanie podpisanych informacji w taki sposób że będą uznane za autentyczne.

Share this post


Link to post
Share on other sites

Prawda, choć rainbow tables są bezużyteczne, gdy zastosuje się ziarno (salt), które obecnie niemal zawsze stosuje się ze wspomnianego powodu. SHA-1 nie tyle co zostało złamane, a wykazane zostało istnienie kolizji przy ilości prób radykalnie mniejszej od ataku brute-force (2^63 zamiast 2^80 iteracji). Jednakże spreparowanie czytelnego i sensownego dokumentu w przeciwieństwie do sum kontrolnych weryfikujących ściągane z netu pliki jest o niebo trudniejsze (stąd czasem stosuje się tandem SHA1 + np. MD5).

Share this post


Link to post
Share on other sites
Ale to jest jednokierunkowa funkcja skrótu, nie szyfrowanie, a jak wiemy mnożenie można odwrócić

 

Najwyższe liczby pierwsze są największą tajemnicą systemów bankowych (takie większe niż 128 cyfr) . Każdy inny szyfr (złożenie kilku funkcji) można zastąpić uproszczoną funkcją wynikową przez aproksymację wielu wyników lub w przypadku tekstu przez analizę pewnych statystyk zasad występowania określonych kombinacji liter.

Share this post


Link to post
Share on other sites

Oto jak ja rozumiem idee komputera kwantowego, w czesci wykreowane przez S.Lema:

 

Nie jest jak zwykle komputery zbudowany na bramkach logicznych zero jedynkowych, ale jest oparty na kwantach, zatem jego bramki maja stan nieokreslony w zakresie 0 .. 1.

Zbior kwantowych bitow przez swoja nieokreslonosc moze reprezentowac wiele ciagow zero-jedynkowych naraz.

Wykonywanie operacji na takim zbiorze jest równoznaczne z wykonaniem tej operacji na wszystkich takich ciagach naraz.

Wynikiem tez sa kwantowe bity, zatem aby wyłuskać z nich potrzebne nam dane, potrzebujemy algorytmów kwantowych.

Komputer dochodzi do rozwiazania wykonujac cale serie wynikow ktorych wartosc jest niepewna. Dopiero usredniona ich wartosc jest zblizona z pewna dokladnoscia do prawidlowego wyniku. Im dokladniejsza chcesz otrzymac wartosc, tym wiecej robisz serii.

 

Co do kryptografii :

Wszystkie artykuly opiewajace komputery kwantowe wspominaja, ze algorytm faktoryzacji Shora, służący do rozbijania liczb na czynniki pierwsze bedzie dzialal znacznie szybciej.

 

Znalazlem na sieci szacowany czas zlamania klucza 512-bitowego, cytuje:

"Ocenia się, że złamanie klucza 512-bitowego wymagałoby kilku tysięcy lat pracy klasycznego komputera, podczas gdy nawet prosty komputer kwantowy pracujący z algorytmem Shora potrzebowałby zaledwie kilku godzin. "

Share this post


Link to post
Share on other sites
Komputer dochodzi do rozwiazania wykonujac cale serie wynikow ktorych wartosc jest niepewna.

 

Troche to podobne do nauki ludzkiej świadomości (coś jak uśredniony wynik z GPS choć jednostkowo błędny to uśrednienie miliona pomiarów daje wynik w metrach na powierzchnię kuli ziemskiej).

Share this post


Link to post
Share on other sites

Najwyższe liczby pierwsze są największą tajemnicą systemów bankowych (takie większe niż 128 cyfr) .

Ty tu mówisz o RSA a to nie jest funkcja skrótu tylko szyfrowanie asymetryczne.

Share this post


Link to post
Share on other sites

Najwyższe liczby pierwsze są największą tajemnicą systemów bankowych (takie większe niż 128 cyfr) . Każdy inny szyfr (złożenie kilku funkcji) można zastąpić uproszczoną funkcją wynikową przez aproksymację wielu wyników lub w przypadku tekstu przez analizę pewnych statystyk zasad występowania określonych kombinacji liter.

 

128 cyfr? Przecież najdłuższa obecnie znana liczba pierwsza ma niemal 13 milionów cyfr.

Share this post


Link to post
Share on other sites

Wszystkie artykuly opiewajace komputery kwantowe wspominaja, ze algorytm faktoryzacji Shora, służący do rozbijania liczb na czynniki pierwsze bedzie dzialal znacznie szybciej.

 

Wspominają algorytm Shora, bo jest to jeden z niewielu znanych, naprawdę efektywnych kwantowych algorytmów.

 

Nie znamy natomiast kwantowego algorytmu umożliwiającego efektywne (tzn. inaczej niż metodą brute force) wyszukiwanie kolizji dla funkcji haszujących.

 

128 cyfr? Przecież najdłuższa obecnie znana liczba pierwsza ma niemal 13 milionów cyfr.

Generowanie takich dużych liczb trwa zbyt długo, by miały one jakiekolwiek praktyczne znaczenie. Natomiast bzdurną jest oczywiście idea, że jakiekolwiek liczby pierwsze, duże czy nie, są "największą tajemnicą systemów bankowych". To tak jakby ktoś powiedział, że liczby wytworzone przez generator liczb losowych są tajemnicą.

Share this post


Link to post
Share on other sites
Natomiast bzdurną jest oczywiście idea, że jakiekolwiek liczby pierwsze, duże czy nie, są "największą tajemnicą systemów bankowych". To tak jakby ktoś powiedział, że liczby wytworzone przez generator liczb losowych są tajemnicą.

 

To może podasz mi z jakiej kombinacji liczb pierwszych korzysta Visa ??

Share this post


Link to post
Share on other sites

To może podasz mi z jakiej kombinacji liczb pierwszych korzysta Visa ??

 

Nie korzysta z żadnej 'kombinacji' liczb pierwszych, bo w każdym protokole asymetrycznym klucze są generowane losowo.

Share this post


Link to post
Share on other sites

Skein to rodzina algorytmów o długości od 256 do 1024 bitów.

Rozumiem, że jest to pewien skrót myślowy i pewnie się czepiam, ale gwoli ścisłości - to nie algorytm (czy też rodzina) ma długość od 256 do 1024 bitów, ale wygenerowany przez niego ciąg.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Wraz z coraz większą liczbą tekstów publikowanych w internecie, pojawiła się potrzeba stworzenia zautomatyzowanych metod tworzenia abstraktów artykułów czy wywiadów. Większość dostępnych narzędzi jest zależnych od języka, w jakim został napisany oryginalny tekst, a ich stworzenie wymaga trenowania algorytmów na wielkich bazach danych.
      Firma BGN Technologies, zajmująca się transferem technologicznym wynalazków opracowanych na Uniwersytecie Ben Guriona, zaprezentowała nowatorskie automatyczne narzędzie do tworzenia abstraktów, które działa niezależnie od języka oryginalnego tekstu.
      Technologia, opracowana przez profesora Marka Lasta, doktor Marinę Litvak i doktora Menahema Friedmana bazuje na algorytmie, który klasyfikuje poszczególne zdania na podstawie statystycznych obliczeń charakterystycznych cech, które mogą być wyliczone dla każdeog języka. Następnie najwyżej ocenione zdania są wykorzystywane do stworzenia abstraktu. Metoda, nazwana Multilingual Sentence Extractor (MUSE), została przetestowana na języku angielskim, hebrajskim, arabskim, perskim, rosyjskim, chińskim, niemieckim i hiszpańskim. W przypadku angielskiego, hebrajskiego, arabskiego i perskiego stworzone abstrakty były bardzo podobne do abstraktów napisanych przez ludzi.
      Główną zaletą nowego narzędzia jest fakt, że po początkowym treningu algorytmów na opatrzonych odpowiednimi komentarzami artykułach, z których każdemu towarzyszy kilkanaście abstraktów napisanych przez ludzi, algorytmy nie muszą być później trenowane dla każdego języka z osobna. Ten sam model, który wypracowały podczas treningu, może zostać użyty dla wielu różnych języków.
      Podsumowanie tekstu, do którego wybrano zestaw najbardziej pasujących zdań z tekstu źródłowego, a wyboru dokonano na podstawie punktacji przyznawanej zdaniom i wykorzystanie w abstrakcie najwyżej punktowanych zdań, to nieocenione narzędzie do szybkiego przeglądania wielkich ilość tekstów w sposób niezależny od języka. To kluczowe narzędzie zarówno dla wyszukiwarek jak i dla takich użytkowników końcowych jak badacze, biblioteki czy media – stwierdził profesor Last.


      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Eksperymenty przeprowadzone przez naukowców z University of Nottingham wskazują, że algorytmy, które nauczą się przewidywania ryzyka przedwczesnego zgonu mogą w przyszłości być ważnym narzędziem medycyny prewencyjnej.
      Lekarze i naukowcy opracowali algorytm oparty na technologii maszynowego uczenia się, którego zadaniem było przewidywanie ryzyka przedwczesnego zgonu u chronicznie chorych osób w średnim wieku. Okazało się, że sztuczna inteligencja nie tylko była bardzo dokładna, ale potrafiła z większą precyzją niż ludzie określić ryzyko
      Algorytm uczył się na bazie danych obejmujących ponad 500 000 osób w wieku 40–69 lat o których informacje zebrano w latach 2006–2010, a ich losy śledzono do roku 2015.
      Medycyna prewencyjna odgrywa coraz większą rolę w walce z poważnymi chorobami. Od lat pracujemy nad usprawnieniem tej dziedziny opieki zdrowotnej oraz nad ulepszeniem komputerowej oceny ryzyka w dużych populacjach. Większość tego typu prac skupia się na konkretnej chorobie. Ocena ryzyka zgonu z powodu wielu różnych czynników to bardzo złożone zadanie, szczególnie jeśli weźmiemy pod uwagę uwarunkowania środowiskowe i osobnicze, mówi główny autor badań, profesor Stephen Weng.
      Dokonaliśmy poważnego postępu na tym polu opracowując unikatowe całościowe podejście do oceny ryzyka zgonu za pomocą technik maszynowego uczenia się. Używamy komputerów do stworzenia nowego modelu ryzyka uwzględniającego szeroką gamę czynników demograficznych, biologicznych, klinicznych czy stylu życia indywidualnych osób, w tym ich zwyczajów żywieniowych, dodaje uczony. Weng mówi, że gdy odpowiedzi podawane przez algorytm porównano z danymi dotyczącymi zgonów, przyjęć do szpitali, zachorowań na nowotwory i innymi danymi epidemiologicznymi, okazało się, że algorytmy były znacząco dokładniejsze niż opracowane przez ludzi metody oceny ryzyka.
      Algorytm korzystał z metody statystycznej lasów losowych (random forest) oraz głębokiego uczenia się. Obecnie używane metody wykorzystują model regresji Cox'a oraz wielowariantowy model Cox'a, który jest doskonalszy, ale przeszacowuje ryzyko zgonu.
      Najnowsze prace zespołu z Nottingham bazują na pracach wcześniejszych, podczas których ten sam zespół naukowy wykazał, że cztery różne algorytmy sztucznej inteligencji, bazujące na regresji logistycznej, gradient boosting, lasach losowych oraz sieciach neuronowych lepiej niż obecne metody używane w kardiologii pozwalają przewidzieć ryzyko chorób układu krążenia.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Przed czterema laty informowaliśmy, że na University of Oxford powstaje oprogramowanie, która na podstawie wyglądu twarzy ma rozpoznawać rzadkie choroby genetyczne i zdiagnozowało zespół Marfana u prezydenta Lincona. Nie tylko jednak Brytyjczycy pracują nad takim oprogramowaniem.
      W najnowszym numerze Nature Medicine opisano aplikację Face2Gene. Wykorzystuje ona algorytmy maszynowego uczenia się oraz sieci neuronowe do klasyfikowania charakterystycznych ech twarzy świadczących o zaburzeniach rozwoju płodowego i układu nerwowego. Aplikacja na podstawie zdjęcia stawia prawdopodobną diagnozę i wymienia inne, mniej prawdopodobne.
      Autorem oprogramowania jest firma FDNA z Bostonu. Jej specjaliści najpierw nauczyli aplikację odróżniać zespół Cornelii de Lange i zespół Angelmana, które przejawiają się charakterystycznymi cechami twarzy, od innych podobnych schorzeń. Nauczyli go też klasyfikowania różnych form genetycznych syndromu Noonana.
      Następnie algorytmowi dano dostęp do ponad 17 000 zdjęć zdiagnozowanych przypadków obejmujących 216 schorzeń. Gdy następnie oprogramowanie miało do czynienia z zupełnie nową fotografią, potrafiło z 65-procentowym prawdopodobieństwem postawić prawidłową diagnozę. Gdy zaś mogło podjąć kilka prób, odsetek prawidłowych diagnoz zwiększał się do 90%.
      FDNA chce udoskonalić swoją technologię, jednak w tym celu potrzebuje dostępu do większej ilości danych. Dlatego też Face2Gene jest bezpłatnie dostępna dla lekarzy i badaczy, którzy wykorzystują ten system do pomocy w diagnostyce rzadkich schorzeń genetycznych. Korzystają z niego też lekarze, którzy nie mają punktu zaczepienie i w ogóle nie potrafią wstępnie zdiagnozować pacjenta.
      Współautorka artykułu na temat Face2Gene, Karen Gripp, jest genetykiem w szpitalu dziecięcym w stanie Delaware i głównym lekarzem w firmie FDNA. Mówi ona, że algorytm pomógł jej w zdiagnozowaniu dziewczynki, którą leczy od sierpnia. Dzięki niemu doktor Gripp stwierdziła, że dziecko cierpi na zespół Wiedemanna-Steinera. Czterolatka nie ma zbyt wielu cech charakterystycznych tej choroby. Jest niska jak na swój wiek, straciła większość zębów mlecznych i zaczęły jej rosną stałe zęby.
      Gripp postawiła wstępną diagnozę, a następnie zaprzęgła do pracy Face2Gene. Zespół Wiedemanna-Steinera, bardzo rzadkie schorzenie spowodowane mutacją genu KTM2A, został przez aplikację wymieniony na czele listy prawdopodobnych schorzeń. Badania DNA potwierdziły diagnozę. Uczona mówi, że dzięki aplikacji mogła zawęzić liczbę potencjalnych chorób i uniknąć konieczności znacznie droższego szeroko zakrojonego badania DNA.
      Face2Gene powoli staje się coraz doskonalszy. Obecnie program ma do dyspozycji już 150 000 fotografii na podstawie których się uczy. W sierpniu, podczas warsztatów dotyczących wad genetycznych przeprowadzono nieoficjalne porównanie algorytmu i lekarzy. Wzięło w nim udział 49 genetyków klinicznych. Ludzie i algorytm mieli do dyspozycji 10 zdjęć dzieci z dość dobrze rozpoznawalnymi cechami charakterystycznymi różnych chorób. Tylko w przypadku dwóch fotografii dobrą diagnozę postawiło ponad 50% ludzi. Face2Gene dobrze zdiagnozował 7 na 10 przypadków.
      Polegliśmy całkowicie. Face2Gene był niesamowity, mówi Paul Kruszka, genetyk z US National Human Genome Research Institute. Jego zdaniem już wkrótce każdy pediatra i genetyk będzie miał tego typu aplikację i używał jej równie często jak stetoskopu.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Tim Sweeney, założyciel firmy Epic Games stwierdził podczas zakończonej właśnie konferencji DICE Summit, jeszcze za naszego życia doczekamy fotorealistycznych gier 3D renderowanych w czasie rzeczywistym. Sweeney zauważył, że każde kolejne udoskonalenie techniczne pojawiające się w grach od Ponga po Crisis wiedzie nas ku takim właśnie grom.
      Granicę fotorealizmu wyznaczają możliwości ludzkiego oka. Organ ten jest w stanie przetworzyć 30-megapikselowy obraz z prędkością około 70 klatek na sekundę. Zdaniem Sweeneya, żeby oddać wszelkie subtelności obrazu, gry światła, interakcje poszczególnych elementów wirtualnego świata, by stworzyć w czasie rzeczywistym fotorealistyczną trójwymiarową scenę potrzebna jest moc obliczeniowa rzędu 5000 teraflopsów. Tymczasem obecnie najbardziej wydajne karty graficzne oferują 2,5 teraflopsa. Przepaść jest ogromna, jednak wystarczy uświadomić sobie, że w 1993 roku gdy na rynek trafiła gra Doom, wiele osób nie mogło z niej skorzystać, gdyż wymagała ona od karty graficznej mocy rzędu 10 megaflopsów. Różnica pomiędzy wydajnością ówczesnych kart graficznych, a kart używanych obecnie, jest zatem znacznie większa, niż pomiędzy dzisiejszymi kartami, a urządzeniami, jakich będziemy potrzebowali w przyszłości.
      Oczywiście moc obliczeniowa to nie wszystko. Wciąż bowiem nie istnieją algorytmy, które pozwoliłyby na realistyczne odwzorowanie wielu elementów. Specjaliści potrafią stworzyć realistyczny model skóry, dymu czy wody, jednak wciąż poza naszymi możliwościami jest stworzenie dokładnych modeli ludzkiego ruchu czy mowy. Nie mamy algorytmów, więc nawet gdybyśmy już dzisiaj dysponowali doskonałym komputerem ograniczałaby nas nie jego moc obliczeniowa, a nasze umiejętności tworzenia algorytmów - mówi Sweeney.
    • By KopalniaWiedzy.pl
      Co znajduje się na zapadających w pamięć zdjęciach? Choć widoki są ładne, to nie one znajdują się na pierwszym miejscu w tej kategorii. Podczas badań pierwsze miejsce zajęły bowiem fotografie ludzi, a za nimi uplasowały się ujęcia wnętrz oraz obiektów wielkości człowieka.
      Przyjemność dla oka i zapamiętywalność to nie to samo – tłumaczy Phillip Isola z MIT-u. Dotąd sądzono, że zapamiętywalność obrazu jest czymś niedostępnym dla nauki, ponieważ pamięć wzrokowa bywa bardzo subiektywna. Ludzie sądzą, że nie można znaleźć niczego spójnego – dodaje prof. Aude Oliva. Po badaniach na setkach ludzi amerykański zespół udowodnił jednak, że można tu wykryć pewne prawidłowości. Zgodność ochotników była wręcz zadziwiająca. Bazując na uzyskanych wynikach, naukowcy opracowali komputerowy algorytm, który może uszeregować zdjęcia według ich zapadalności w pamięć.
      Podczas wcześniejszych studiów Oliva wykazała, że ludzki mózg może zapamiętać z dość drobnymi szczegółami tysiące obrazów. Nietrudno jednak stwierdzić, że nie wszystkie są zapamiętywane równie dobrze. Na potrzeby badań zespół z MIT-u stworzył kolekcję 10 tys. różnorodnych zdjęć. Wykorzystano program Amazona Mechanical Turk, który pozwala, by ludzie wykonywali różne zadania na własnych komputerach. Ochotnikom pokazano serię zdjęć. Część z nich się powtarzała. Wyświetlenie widzianej wcześniej fotografii należało zasygnalizować naciśnięciem guzika. Zapamiętywalność każdego zdjęcia określano, wyliczając, ile osób poprawnie rozpoznało je jako znane.
      Na końcu zespół Olivy poprosił wolontariuszy o stworzenie "mapy zapamiętywalności" każdego zdjęcia. Należało oznaczyć wszystkie obiekty na fotografii. Komputer analizował mapy, by określić, jakie obiekty/cechy (barwy, rozmieszczenie krawędzi itp.) sprawiają, że obraz zapada w pamięć.
      Choć pojawiły się, oczywiście, różnice indywidualne, ogólnie najlepiej zapamiętywano zdjęcia ludzi, a w dalszej kolejności przestrzeni dopasowanej wielkością do człowieka, np. alejek w sklepach, oraz zbliżenia obiektów. Najgorzej zapamiętywano krajobrazy, chyba że zawierały jakiś zaskakujący element, np. niecodziennie przycięty krzew czy kolorową rzeźbę.
      Komu przyda się wspomniany wcześniej algorytm? Wykorzystają go zapewne graficy czy osoby pracujące nad okładkami książek i magazynów. Isola myśli też nad stworzeniem aplikacji na iPhone'a, która od razu po zrobieniu zdjęcia informowałaby użytkownika, do jakiego stopnia jest ono zapamiętywalne. Nie można też zapominać o zastosowaniach klinicznych i badaniu np. deficytów pamięci wzrokowej w przebiegu różnych chorób.
×
×
  • Create New...