Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Film „Avatar" był osiągnięciem nie tylko kinowym i kasowym, ale również, a może nawet przede wszystkim technologicznym. Nakręcenie tego trójwymiarowego obrazu wymagało wpierw stworzenia odpowiedniej, nieistniejącej przedtem technologii. Filmy niejednokrotnie w historii kina sięgały po najnowsze i przełomowe technologie, choć dziś, kiedy na domowym pececie możemy stworzyć lepsze efekty niż dawni mistrzowie zdjęć trickowych, nie zawsze o tym pamiętamy. Kwestią czasu było, kiedy ktoś zechce technologie użyte przez Jamesa Camerona przenieść na rynek domowej rozrywki. Nie trzeba było czekać długo.

Jedną z technologii opracowanych specjalnie dla potrzeb filmu była Simul-cam - pozwalająca w czasie rzeczywistym przetwarzać obraz z kamery tak, by reżyser widział od razu końcowy wygląd sceny kręconej przy użyciu techniki „motion capture" w komputerowo generowanej rzeczywistości. Wcześniej bowiem kręcono „na wyczucie", a ostateczny wygląd scena nabierała dopiero po wielotygodniowej, żmudnej obróbce komputerowej.

Te technologiczne osiągnięcia postanowił przenieść do domowej rozrywki Matt Bett, wykładowca technik programowania gier na szkockim University of Abertay w Dundee. Opracowana przez niego, inspirowana Simul-camem, wirtualna kamera wykorzystuje do wizualizacji moc typowego peceta, zaś do kontroli (zamiast prawdziwej kamery) sterownika podobnego do tych używanych w konsolach Wii. Para sterowników Sixense z elektromagnetycznymi czujnikami położenia (zapewniają wysoką, milimetrową precyzję) kosztuje poniżej stu funtów.

Motus, podstawowa aplikacja, napisana przez Betta i Erina Michno jest bazą dla dalszych zastosowań. Podstawowym oczywiście, ze względu na profil wydziału, jest wykorzystanie w grach, w których gracze będą mogli głębiej „poczuć" wykreowaną rzeczywistość. Twórcy oczekują jednak także wykorzystywania jej do tworzenia prezentacji na żywo w wirtualnych sceneriach, nauki i edukacji, zaawansowanej symulacji, wreszcie, oczywiście - do kręcenia filmów.

O swoim wynalazku opowiada sam twórca.

 

http://www.youtube.com/watch?v=H9ujnzMPBoc

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

co w tym przełomowego? bo prezentacja pokazuje że zachowuje się to jak playstation move... troche lepiej, ale jednak rewolucji nie widze

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Simul-cam także nie jest prawdziwą kamerą. Jest to urządzenie z bardzo precyzyjnymi czujnikami położenia z wbudowanym monitorem. "Filmowanie" tym urządzeniem polega po prostu na zapisie pozycji i kierunku "patrzenia" w danej chwili, co potem jest wykorzystane przy ostatecznym renderowaniu scen. Sam simul-cam nie posiada żadnej optyki. Wykorzystuje olbrzymią ilość kamer rozmieszczonych dookoła + pozycje aktorów (dane z motion capture w czasie rzeczywistym) + mocno uproszczone modele świata (użycie modeli w pełnej jakości widzianej w filmie wymagałoby olbrzymiej mocy obliczeniowej).

 

Polecam obejrzeć film o tym jak kręcono Avatara. Cameron wyjaśnia to tam dość szczegółowo.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale trochę to biedne. Jak na przykład zrobić obrót o 360 stopni oglądając jednoczesnie ekran? Trzeba chyba nieźle rękę wykręcać :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Szaman'ie.. a pomyślałeś nad innym rozwiązaniem niż ekran?

Sądzę, że połączenie tej technologii z hełmami bądź okularami 3D może okazać się dużo funkcjonalniejsze.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      DARPA, amerykańska Agencja Badawcza Zaawansowanych Projektów Obronnych, ujawniła, że w swoim najnowszym budżecie przeznaczyła 7 milionów dolarów na projekt „Avatar“. Nazwa nie jest przypadkowa. W ramach programu Avatar będą prowadzone prace nad programami i algorytmami, które pozwolą na zapewnienie żołnierzowi towarzystwa dwunożnej półautonomicznej maszyny, która będzie działała w jego zastępstwie - czytamy w dokumentach DARPA. Urządzenie ma być na tyle inteligentne i zręczne, by móc zastąpić człowieka podczas takich zadań jak walka w pomieszczeniach, kontrola jeńców i wynoszenie rannych z pola walki.
      Warto tutaj przypomnieć, że na zlecenie DARPA trwają już prace nad humanoidalnym Petmanem czy opisywanym przez nas AlphaDogiem.
      Swoją drogą, niedawno pokazano film, na którym widać AlphaDoga podczas prób terenowych. Urządzenie niosło 180-kilogramowy ładunek, było w stanie przejść 32 kilometry na jednym ładowaniu baterii i bez przeszkód podążało za ludzkim przewodnikiem.
      Avatar, jak wspomniano, ma być urządzeniem półautonomicznym, a to oznacza, że w pewnym stopniu będzie on sterowany przez operatora. Na razie nie wiadomo, jak miałoby się to odbywać. Jednak w przeszłości DARPA prowadziła udane eksperymenty z kontrolowaniem robotów za pomocą myśli.
    • przez KopalniaWiedzy.pl
      Astronomowie prześcigają się w szukaniu nowych sposobów na poszukiwanie planet krążących wokół innych systemów planetarnych. A jak postrzegaliby nasz Układ Słoneczny obserwatorzy z odległych gwiazd? Wbrew pozorom nie jest to pusta ciekawość.
      Obserwacje astronomiczne już od dawna nie bazują na „patrzeniu". Dane wizualne są tylko jednym ze źródeł informacji dla symulacji komputerowych, matematycznych modeli, skomplikowanych wyliczeń. Obserwacje w różnych zakresach promieniowania są pożywką dla wykorzystania wiedzy na temat praw fizyki.
      Dociekanie, jak wygląda nasza planetarna okolica z daleka może stanowić ciekawy przyczynek dla poszukiwań systemów podobnych do naszego. Z tego powodu zadaniem tym zajęli się naukowcy NASA, zaprzęgając do tego superkomputery. A skoro już zabrali się za symulację, sprawdzili również, jak zmieniał się wygląd naszej okolicy w czasie.
      Najbardziej widocznym elementem naszego systemu słonecznego wbrew pozorom nie są wielkie planety, ale drobnica - tak zwany pas Kuipera, czyli krążące poza orbitą Neptuna zbiorowisko skalnych i lodowych brył, z których najmniejsze to milimetrowe okruszki i cząsteczki pyłu, największymi są zaś planety karłowate: Pluton, Haumea i Makemake. Najważniejsze są wbrew pozorom te drobne, tworzą one bowiem widoczny w podczerwieni z daleka pierścień pyłu.
      Jakich informacji może dostarczyć obcoplanetarnym astronomom obserwacja takiego pierścienia? Drobne cząstki są bardzo wrażliwe na zakłócenia grawitacji (zwane rezonansem grawitacyjnym), ich ruch ulega więc zmianie pod wpływem planet. Zwłaszcza pobliski Neptun powoduje wyraźne zawirowania w materii pasa Kuipera, razem z nim „porusza się" obszar o mniejszym zapyleniu. Analizując je, odległy obserwator byłby w stanie stwierdzić obecność planety, jej masę i parametry ruchu.
      Sprawdzono, jak wyglądałby pas Kuipera gdyby był bardziej gesty, a także zasymulowano, jak wyglądał w różnych okresach przeszłości. Okazuje się, że dawniej był znacznie bardziej gęsty i jaskrawy. Co astronomów podekscytowało szczególnie: wyglądał niemal identycznie, jak pierścień pyłowy, który zaobserwowano wokół gwiazdy Fomalhaut, gdzie zaobserwowano jedną z ezgoplanet.
      Planowane jest rozwinięcie symulacji przez dodanie kolejnych elementów, w tym pasa asteroid. Być może w ten właśnie sposób - przez porównanie - najłatwiej rozpoznamy układu planetarne podobne do naszego.
      O przedsięwzięciu zespół NASA's Goddard Space Flight Center opowiada w krótkim filmie, który polecamy obejrzeć:
       
      http://www.youtube.com/watch?v=op1mSSfLbiY
    • przez KopalniaWiedzy.pl
      Chińska góra Podniebna Kolumna Południowa z miasta Zhangjiajie w prowincji Hunan została przemianowana na górę Alleluja Avatar. Władzom chodziło o uhonorowanie filmu Avatar i jego twórców, którzy zainspirowali się ponoć lokalnym krajobrazem.
      Według lokalnych władz, fotografie góry zostały wykorzystane jako baza dla fikcyjnego świata Pandory. Być może dlatego film Jamesa Camerona zrobił w Chinach zawrotną karierę i jak dotąd zarobił aż 80 mln dolarów.
      Jak podaje gazeta Xiaoxiang Morning News, nazwa została oficjalnie zmieniona w poniedziałek (25 stycznia). Dziennikarze twierdzą, że fotograf z Hollywood odwiedził w 2008 roku region krajobrazowy i historyczny Wulingyuan, czyli rezerwat, w którym znajduje się góra, a wiele z uwiecznionych przez niego obiektów stało się potem prototypami różnych elementów świata przedstawionego w Avatarze.
      Zhangjiajie chce w jakiś sposób zarobić na sukcesie filmu. Stąd hasło reklamowe: Pandora jest daleko, a Zhangjiajie blisko. Turystom oferuje się wycieczki po okolicy.
    • przez KopalniaWiedzy.pl
      Dzięki pracom psychologa Mike'a Dowmana i jego kolegów z brytyjskiego University of Abertay możliwe będzie identyfikowanie użytkowników komputerów nie tylko za pomocą haseł, ale również dzięki rytmowi pisania. Pomoże on zarówno zidentyfikować uprawnionego użytkownika, jak i zdradzi, czy nie znajduje się on w stresującej sytuacji.
      Od dawna wiadomo, że rytm pisania jest stały, co pozwoliło snuć przypuszczenia, iż pozwoli identyfikować osoby czy rozpoznawać wczesne oznaki Alzheimera. Dotychczas nie badano jednak wpływu stresu na zmiany rytmu.
      Brytyjscy naukowcy zaangażowali do swojego eksperymentu 35 osób. Każda z nich logowała się do komputera 36 razy w ciągu trzech sesji. Poszczególne sesje dzielił od siebie nawet miesiąc czasu. Wszystkie osoby korzystały z tego samego hasła i nazwy użytkownika i wszystkie były poddawane czynnikom stresującym, takim jak wystawianie na działanie różnych dźwięków, o których wiadomo, że wywołują określone emocje.
      Maszyna zapisywała czas trwania naciśnięcia klawiszy oraz odstępy pomiędzy uderzeniami w poszczególne klawisze. W ten sposób dla każdej z osób stworzono unikatowy wzorzec jej pisania. Do skóry badanych przyczepiono zaś elektrody, które miały wykrywać związane ze stresem pocenie się.
      Na podstawie uzyskanych danych stworzono oprogramowanie, które jest w stanie zidentyfikować osobę po jej stylu pisania. Testy wykazały, że do działania wystarczy mu wpisanie 36 znaków podczas logowania się. Przeprowadzono 42 840 prób logowania i program prawidłowo zidentyfikował osoby w 97,2% przypadków.
      Wykazano również, że pod wpływem stresu zmienia się schemat pisania, co można wykryć. Możliwe jest zatem stworzenie takiego systemu zabezpieczeń, który pozwoli na logowanie się tylko uprawnionej osobie, to znaczy takiej, która posługując się hasłem i nazwą użytkownika będzie pisała w charakterystyczny dla niej sposób, a jeśli będzie logowała się pod wpływem stresu (co może wskazywać np. na to, iż zmuszono ją do uwierzytelnienia się), system podniesie alarm.
      Skuteczność nowej metody jest podobna do skuteczności innych systemów biometrycznych. Możliwe więc, że po udoskonaleniu, trafi ona do codziennego użytku.
    • przez KopalniaWiedzy.pl
      Zajmujący się sztuczną inteligencją eksperci z Rensselaer Polytechnic Institute są przekonani, że najpotężniejszy superkomputer świata - BlueGene/L - może przejść częściowy Test Turinga.
      Wymyślony przez Alana Turinga test ma być kamieniem milowym, po przekroczeniu którego będziemy mogli mówić o istnieniu sztucznej inteligencji.
      W Teście bierze udział kilka osób i maszyna. Każdy z uczestników znajduje się w innym pomieszczeniu i prowadzi rozmowę w języku naturalnym z sędzią-człowiekiem. Jeśli sędzia nie rozpozna maszyny, uznaje się, że ta zdała test.
      Selmer Bringsjord, szef Wydziału Nauk Poznawczych w Rensselaer Institute informuje, że powtał już jest wirtualny byt, który jest właśnie wyposażany w podstawy wiedzy o sobie - gdzie chodził do szkoły, jacy są członkowie jego rodziny, itd. "Chcemy stworzyć inteligentny twór i rozmawiać z nim w interaktywnym środowisku podobnym do holodeka z serialu Star Trek" - mów Bringsjord.
      Wirtualna postać zostanie wyposażona we wszelkie osobiste informacje, które naukowcom dostarcza jeden ze studentów. Avatar będzie mógł dystukować na ten temat z innymi wirtualnymi bytami: podzieli się z nimi informacjami o swojej rodzinie, wspomnieniami z wakacji, opowie o swoich przekonaniach i wierzeniach.
      Test odbędzie się najbliższej jesieni, najprawdopodobniej w środowisku Second Life. Wezmą w nim udział same avatary. Jednak większość z nich będzie bezpośrednio sterowanych przez ludzi. Wirtualną postacią będzie sterowało oprogramowanie Rascals (Renssalaer Advanced Synthetic Architecture for Living Systems).
      Rascals opiera się na silniku badającym prawdziwość twierdzeń, który wnioskuje na podstawie zachowań pasujących do wzorców zawartych w jego wiedzy (bazie danych). Każde twierdzenie uznane za prawdziwe wywołuje odpowiednią reakcję avatara. Dotychczas podobne techniki stosowano do rozwiązywania bardzo prostych problemów. Rascals posiada tak olbrzymią bazę danych wiedzy i doświadczeń, że może spróbować udawać człowieka. Jednak przetworzenie olbrzymiej ilości danych wymaga dużych mocy obliczeniowych - stąd pomysł, by wykorzystać superkomputery.
      Zespołowi Bringsjorda udało się osiągnąć kamień milowy, gdyż nauczyli swój program rozumienia "fałszywego przekonania". Pojęcie fałszywego przekonania wykształca się u człowieka dopiero pomiędzy 4. a 5. rokiem życia. Polega ono na tym, że jeśli w jednym z dwóch pudełek schowamy np. jabłko i chowaniu będzie przypatrywało się dziecko i człowiek dorosły, następnie dorosły wyjdzie, a my przełożymy jabłko do drugiego pudełka, to dziecko rozumie, iż dorosły ma teraz fałszywe przekonanie o tym, gdzie jabłko się znajduje.
      Innymi słowy, dziecko, podobnie jak teraz program Rascals, posiada własne sądy na temat sądów innych osób.
      Zadaniem sędziów będzie odróżnienie samodzielnego avatara stworzonego przez RI. Zostanie on poddany Testowi w październiku bieżącego roku.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...