Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Czego potrzebują fotorealistyczne gry 3D?

Recommended Posts

Tim Sweeney, założyciel firmy Epic Games stwierdził podczas zakończonej właśnie konferencji DICE Summit, jeszcze za naszego życia doczekamy fotorealistycznych gier 3D renderowanych w czasie rzeczywistym. Sweeney zauważył, że każde kolejne udoskonalenie techniczne pojawiające się w grach od Ponga po Crisis wiedzie nas ku takim właśnie grom.

Granicę fotorealizmu wyznaczają możliwości ludzkiego oka. Organ ten jest w stanie przetworzyć 30-megapikselowy obraz z prędkością około 70 klatek na sekundę. Zdaniem Sweeneya, żeby oddać wszelkie subtelności obrazu, gry światła, interakcje poszczególnych elementów wirtualnego świata, by stworzyć w czasie rzeczywistym fotorealistyczną trójwymiarową scenę potrzebna jest moc obliczeniowa rzędu 5000 teraflopsów. Tymczasem obecnie najbardziej wydajne karty graficzne oferują 2,5 teraflopsa. Przepaść jest ogromna, jednak wystarczy uświadomić sobie, że w 1993 roku gdy na rynek trafiła gra Doom, wiele osób nie mogło z niej skorzystać, gdyż wymagała ona od karty graficznej mocy rzędu 10 megaflopsów. Różnica pomiędzy wydajnością ówczesnych kart graficznych, a kart używanych obecnie, jest zatem znacznie większa, niż pomiędzy dzisiejszymi kartami, a urządzeniami, jakich będziemy potrzebowali w przyszłości.

Oczywiście moc obliczeniowa to nie wszystko. Wciąż bowiem nie istnieją algorytmy, które pozwoliłyby na realistyczne odwzorowanie wielu elementów. Specjaliści potrafią stworzyć realistyczny model skóry, dymu czy wody, jednak wciąż poza naszymi możliwościami jest stworzenie dokładnych modeli ludzkiego ruchu czy mowy. Nie mamy algorytmów, więc nawet gdybyśmy już dzisiaj dysponowali doskonałym komputerem ograniczałaby nas nie jego moc obliczeniowa, a nasze umiejętności tworzenia algorytmów - mówi Sweeney.

Share this post


Link to post
Share on other sites

[...]wymagała ona od karty graficznej mocy rzędu 10 megaflopsów. [...]

od procesora, nie karty graficznej

Share this post


Link to post
Share on other sites

Fotorealistyczne gry 3D potrzebują… dobrej fabuły. A nie chodzenia od markera do markera i oglądania skryptowanych cutscenek na engine.

Dobrej fabuły... i dobrego Matrixa i SI ;-) Wiele gier nie potrzebuje nawet super oryginalnej fabuły jeśli mamy świat w którym można wszystko a sama gra jest "nieliniową" symulacją lub przeciwnicy mogą nas zaskoczyć.

 

Tak apropo tematu, to ciekawe czy do tych przybliżeń uwzględnił generowanie obrazu 3D, jeśli nie, to będzie potrzeba 10000 petaflopsów. Może nie potrzeba będzie tyle, jeśli weźmiemy pod uwagę że oko ludzkie może skupić się na małym fragmencie ekranu a pozostałe elementy mogą być rozmyte, potrzebna będzie do tego kamerka rejestrująca oczy.

 

Bardzo fajny filmik, szkoda że nie dopracowali jeszcze światła (np. HDR, odbłyski...). Ostatecznie i tak zostanie problem pamięci a nie mocy obliczeniowej :(

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Wraz z coraz większą liczbą tekstów publikowanych w internecie, pojawiła się potrzeba stworzenia zautomatyzowanych metod tworzenia abstraktów artykułów czy wywiadów. Większość dostępnych narzędzi jest zależnych od języka, w jakim został napisany oryginalny tekst, a ich stworzenie wymaga trenowania algorytmów na wielkich bazach danych.
      Firma BGN Technologies, zajmująca się transferem technologicznym wynalazków opracowanych na Uniwersytecie Ben Guriona, zaprezentowała nowatorskie automatyczne narzędzie do tworzenia abstraktów, które działa niezależnie od języka oryginalnego tekstu.
      Technologia, opracowana przez profesora Marka Lasta, doktor Marinę Litvak i doktora Menahema Friedmana bazuje na algorytmie, który klasyfikuje poszczególne zdania na podstawie statystycznych obliczeń charakterystycznych cech, które mogą być wyliczone dla każdeog języka. Następnie najwyżej ocenione zdania są wykorzystywane do stworzenia abstraktu. Metoda, nazwana Multilingual Sentence Extractor (MUSE), została przetestowana na języku angielskim, hebrajskim, arabskim, perskim, rosyjskim, chińskim, niemieckim i hiszpańskim. W przypadku angielskiego, hebrajskiego, arabskiego i perskiego stworzone abstrakty były bardzo podobne do abstraktów napisanych przez ludzi.
      Główną zaletą nowego narzędzia jest fakt, że po początkowym treningu algorytmów na opatrzonych odpowiednimi komentarzami artykułach, z których każdemu towarzyszy kilkanaście abstraktów napisanych przez ludzi, algorytmy nie muszą być później trenowane dla każdego języka z osobna. Ten sam model, który wypracowały podczas treningu, może zostać użyty dla wielu różnych języków.
      Podsumowanie tekstu, do którego wybrano zestaw najbardziej pasujących zdań z tekstu źródłowego, a wyboru dokonano na podstawie punktacji przyznawanej zdaniom i wykorzystanie w abstrakcie najwyżej punktowanych zdań, to nieocenione narzędzie do szybkiego przeglądania wielkich ilość tekstów w sposób niezależny od języka. To kluczowe narzędzie zarówno dla wyszukiwarek jak i dla takich użytkowników końcowych jak badacze, biblioteki czy media – stwierdził profesor Last.


      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Eksperymenty przeprowadzone przez naukowców z University of Nottingham wskazują, że algorytmy, które nauczą się przewidywania ryzyka przedwczesnego zgonu mogą w przyszłości być ważnym narzędziem medycyny prewencyjnej.
      Lekarze i naukowcy opracowali algorytm oparty na technologii maszynowego uczenia się, którego zadaniem było przewidywanie ryzyka przedwczesnego zgonu u chronicznie chorych osób w średnim wieku. Okazało się, że sztuczna inteligencja nie tylko była bardzo dokładna, ale potrafiła z większą precyzją niż ludzie określić ryzyko
      Algorytm uczył się na bazie danych obejmujących ponad 500 000 osób w wieku 40–69 lat o których informacje zebrano w latach 2006–2010, a ich losy śledzono do roku 2015.
      Medycyna prewencyjna odgrywa coraz większą rolę w walce z poważnymi chorobami. Od lat pracujemy nad usprawnieniem tej dziedziny opieki zdrowotnej oraz nad ulepszeniem komputerowej oceny ryzyka w dużych populacjach. Większość tego typu prac skupia się na konkretnej chorobie. Ocena ryzyka zgonu z powodu wielu różnych czynników to bardzo złożone zadanie, szczególnie jeśli weźmiemy pod uwagę uwarunkowania środowiskowe i osobnicze, mówi główny autor badań, profesor Stephen Weng.
      Dokonaliśmy poważnego postępu na tym polu opracowując unikatowe całościowe podejście do oceny ryzyka zgonu za pomocą technik maszynowego uczenia się. Używamy komputerów do stworzenia nowego modelu ryzyka uwzględniającego szeroką gamę czynników demograficznych, biologicznych, klinicznych czy stylu życia indywidualnych osób, w tym ich zwyczajów żywieniowych, dodaje uczony. Weng mówi, że gdy odpowiedzi podawane przez algorytm porównano z danymi dotyczącymi zgonów, przyjęć do szpitali, zachorowań na nowotwory i innymi danymi epidemiologicznymi, okazało się, że algorytmy były znacząco dokładniejsze niż opracowane przez ludzi metody oceny ryzyka.
      Algorytm korzystał z metody statystycznej lasów losowych (random forest) oraz głębokiego uczenia się. Obecnie używane metody wykorzystują model regresji Cox'a oraz wielowariantowy model Cox'a, który jest doskonalszy, ale przeszacowuje ryzyko zgonu.
      Najnowsze prace zespołu z Nottingham bazują na pracach wcześniejszych, podczas których ten sam zespół naukowy wykazał, że cztery różne algorytmy sztucznej inteligencji, bazujące na regresji logistycznej, gradient boosting, lasach losowych oraz sieciach neuronowych lepiej niż obecne metody używane w kardiologii pozwalają przewidzieć ryzyko chorób układu krążenia.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Przed czterema laty informowaliśmy, że na University of Oxford powstaje oprogramowanie, która na podstawie wyglądu twarzy ma rozpoznawać rzadkie choroby genetyczne i zdiagnozowało zespół Marfana u prezydenta Lincona. Nie tylko jednak Brytyjczycy pracują nad takim oprogramowaniem.
      W najnowszym numerze Nature Medicine opisano aplikację Face2Gene. Wykorzystuje ona algorytmy maszynowego uczenia się oraz sieci neuronowe do klasyfikowania charakterystycznych ech twarzy świadczących o zaburzeniach rozwoju płodowego i układu nerwowego. Aplikacja na podstawie zdjęcia stawia prawdopodobną diagnozę i wymienia inne, mniej prawdopodobne.
      Autorem oprogramowania jest firma FDNA z Bostonu. Jej specjaliści najpierw nauczyli aplikację odróżniać zespół Cornelii de Lange i zespół Angelmana, które przejawiają się charakterystycznymi cechami twarzy, od innych podobnych schorzeń. Nauczyli go też klasyfikowania różnych form genetycznych syndromu Noonana.
      Następnie algorytmowi dano dostęp do ponad 17 000 zdjęć zdiagnozowanych przypadków obejmujących 216 schorzeń. Gdy następnie oprogramowanie miało do czynienia z zupełnie nową fotografią, potrafiło z 65-procentowym prawdopodobieństwem postawić prawidłową diagnozę. Gdy zaś mogło podjąć kilka prób, odsetek prawidłowych diagnoz zwiększał się do 90%.
      FDNA chce udoskonalić swoją technologię, jednak w tym celu potrzebuje dostępu do większej ilości danych. Dlatego też Face2Gene jest bezpłatnie dostępna dla lekarzy i badaczy, którzy wykorzystują ten system do pomocy w diagnostyce rzadkich schorzeń genetycznych. Korzystają z niego też lekarze, którzy nie mają punktu zaczepienie i w ogóle nie potrafią wstępnie zdiagnozować pacjenta.
      Współautorka artykułu na temat Face2Gene, Karen Gripp, jest genetykiem w szpitalu dziecięcym w stanie Delaware i głównym lekarzem w firmie FDNA. Mówi ona, że algorytm pomógł jej w zdiagnozowaniu dziewczynki, którą leczy od sierpnia. Dzięki niemu doktor Gripp stwierdziła, że dziecko cierpi na zespół Wiedemanna-Steinera. Czterolatka nie ma zbyt wielu cech charakterystycznych tej choroby. Jest niska jak na swój wiek, straciła większość zębów mlecznych i zaczęły jej rosną stałe zęby.
      Gripp postawiła wstępną diagnozę, a następnie zaprzęgła do pracy Face2Gene. Zespół Wiedemanna-Steinera, bardzo rzadkie schorzenie spowodowane mutacją genu KTM2A, został przez aplikację wymieniony na czele listy prawdopodobnych schorzeń. Badania DNA potwierdziły diagnozę. Uczona mówi, że dzięki aplikacji mogła zawęzić liczbę potencjalnych chorób i uniknąć konieczności znacznie droższego szeroko zakrojonego badania DNA.
      Face2Gene powoli staje się coraz doskonalszy. Obecnie program ma do dyspozycji już 150 000 fotografii na podstawie których się uczy. W sierpniu, podczas warsztatów dotyczących wad genetycznych przeprowadzono nieoficjalne porównanie algorytmu i lekarzy. Wzięło w nim udział 49 genetyków klinicznych. Ludzie i algorytm mieli do dyspozycji 10 zdjęć dzieci z dość dobrze rozpoznawalnymi cechami charakterystycznymi różnych chorób. Tylko w przypadku dwóch fotografii dobrą diagnozę postawiło ponad 50% ludzi. Face2Gene dobrze zdiagnozował 7 na 10 przypadków.
      Polegliśmy całkowicie. Face2Gene był niesamowity, mówi Paul Kruszka, genetyk z US National Human Genome Research Institute. Jego zdaniem już wkrótce każdy pediatra i genetyk będzie miał tego typu aplikację i używał jej równie często jak stetoskopu.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Masowe polowania na wieloryby, które mogły zagrozić istnieniu wielu gatunków, mogły rozpocząć się o wiele wieków wcześniej, niż się obecnie uważa. Tak przynajmniej twierdzą archeolodzy z Uppsali i Yorku, którzy na łamach European Journal of Archeology zaprezentowali wyniki swoich najnowszych badań.
      W szwedzkich muzeach można znaleźć tysiące egzemplarzy gier planszowych pochodzących z epoki żelaza. Szczegółowe badania ujawniły, że materiał większości z nich to kości wielorybów upolowanych w połowie VI wieku naszej ery. Wspomniane gry były wytwarzane według tych samych standardów i produkowano je w dużych ilościach, co oznacza, że potrzebne były stałe dostawy dużych ilości materiału. Jako, że znalezienie padłego wieloryba na brzegu nie jest rzeczą łatwą, badacze uważają, że wspomniane gry to dowód na celowe polowania na wieloryby.
      Naukowcy wykorzystali technikę spektrometrii mas, za pomocą której zbadali niewielką liczbę gier, by ustalić, z jakiego gatunku walenia pochodziły kości. Okazało się, że wszystkie przeanalizowane egzemplarze pochodziły od wala biskajskiego. To przedstawiciel rodzaju Eubalaena, którego anglojęzyczna nazwa brzmi „right whale”, gdzie „right” to ni mniej, ni więcej co „właściwy do upolowania”. Zwierzęta te były ulubionymi ofiarami wielorybników, gdyż są powolne, pływają blisko wybrzeży i zawierają tyle tłuszczu, że nie toną po zabiciu. Jak twierdzą autorzy najnowszych badań, nie tylko XVIII- i XIX-wieczni wielorybnicy masowo zabijali te zwierzęta.
      Gry planszowe z wielorybich kości pojawiają się na północy Norwegii w tym samym czasie, co wielkie hangary na łodzie i urządzenia do wytapiania tłuszczu. To najprawdopodobniej w Norwegii były wytwarzane gry, które później trafiały do Szwecji, gdzie były składane jako dary podczas ceremonii pogrzebowych.
      Początki masowych polowań na wieloryby giną w pomroce dziejów. Znane nam źródła pisane sięgają epoki Wikingów. Sagi z IX wieku opowiadają o norweskim kupcu Ottarze, goszczącym na dworze króla Alfreda Wielkiego, który często polował na wielkie wieloryby. Jednak specjaliści wątpią, czy sagi te opisują prawdziwe wydarzenia.
      Obecność tysięcy gier planszowych wykonanych w krótkim czasie z kości wali biskajskich, w połączeniu z innymi badaniami archeologicznymi, to dowód na szybko rosnącą eksploatację ekosystemu morskiego przez człowieka. Sporo też mówi o sieciach handlowych z tamtego okresu.
      Powyższe badania posłużą też do pogłębienia naszej wiedzy o wpływie człowieka na ekosystem morski oraz populację waleni. Pokazują one bowiem, że masowe polowania na wieloryby zaczęły się na setki lat wcześniej, niż sądziliśmy.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Największe na świecie muzeum i instytucja badawcza - Smithsonian Institution - chce ułatwić dostęp do swych niezwykle bogatych zbiorów. W skład kolekcji Smithsonian wchodzi... 137 milionów przedmiotów. Jednak powierzchnia wystawiennicza instytucji pozwala na jednoczesne zaprezentowanie jedynie 2% z nich.
      Smithsonian chce wykonać trójwymiarowe modele swoich zabytków i udostępnić je badaczom, szkołom czy muzeom na całym świecie.
      Wszystko rozpoczęło się od stworzenia repliki popiersia Thomasa Jeffersona. Jak twierdzą przedstawiciele muzeum, jest to największa na świecie trówymiarowa replika zabytku spełniająca standardy muzealne. Dotychczas takie kopie tworzono ręcznie z różnych materiałów. Wraz z rozwojem techniki możliwe stało się wykorzystanie trójwymiarowych drukarek, które, w połączeniu ze specjalnymi skanerami odtwarzają obiekty z dokładnością liczoną w mikrometrach.
      Popiersie Jeffersona to dokładna kopia posągu z Monticello. Zostało ono wykonane na potrzeby wystawy „Niewolnictwo w Monticello Jeffersona: paradoks wolności“.
      Replikę stworzyli Adam Metallo i Vince Rossi przy użyciu wartego 100 000 skanera laserowego Minolty. Koordynowali oni prace firm Studio EIS, które odpowiadało za zdigitalizowanie statuy polityka, oraz RedEye on Demand, które zajęło się drukowaniem.
      Teraz Metallo i Rossi wpadli na pomysł wykorzystania tańszych urządzeń, jak aparaty cyfrowe i dostępne w chmurach obliczeniowych oprogramowanie do digitalizacji, by stworzyć cyfrowe trójwymiarowe archiwum Smithsonian. Potrzebują jednak pomocy większej liczby firm zajmujących się tworzeniem samych wydruków.
      Z jednej strony chcieliby zeskanować jak najwięcej obiektów, z drugiej - obecnie pracują we dwójkę, muszą zatem dobrze zastanawiać się, jakie przedmioty wybrać. Ponadto, jak mówi Rossi, chcą być pewni, że tworzone przez nich dane cyfrowe będą dostępne również i za kilkadziesiąt lat. Ma on jednak nadzieję, że nie będzie z tym większego problemu. Modele 3D to tekstowy opis milionów punktów z jakich się składają. Odczytanie i ewentualna konwersja takich danych nie powinna zatem nastręczać trudności przyszłym pokoleniom.
      Jak na razie obaj specjaliści są w stanie zdigitalizować kilkadziesiąt przedmiotów rocznie. Część z nich zostanie wydrukowana, reszta będzie dostępna w formie cyfrowej. Metallo nie wyklucza, że wydrukowane obiekty będą wypożyczane przez Smithsonian. Jednak prawdziwy postęp dokona się wówczas, gdy trójwymiarowe drukarki staną się szeroko dostępne i każde zainteresowana instytucja będzie mogła pobrać z internetu trójwymiarowy model zabytku i wydrukować go na swoje potrzeby.
×
×
  • Create New...