Zaloguj się, aby obserwować tę zawartość
Obserwujący
0
Automat balansujący ołówkiem
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Aktorzy często dla potrzeb roli muszą poważnie schudnąć, albo wręcz przeciwnie: przytyć. Inni pracowicie rozwijają muskulaturę, która ma im zapewnić karierę, o powiększaniu biustów już nie mówiąc. Dzięki pracy niemieckich inżynierów od teraz będzie to zbędne. Co więcej, będą mogli urosnąć, zmaleć, czy wydłużyć sobie nogi, co było niewykonalne nawet przy największych poświęceniach.
Zespół programistów z niemieckiego Max Planck Institute for Informatics w Saarbrucken pod kierunkiem Christiana Theobalta opracował oprogramowanie pozwalające wirtualnie modyfikować wygląd sylwetki, z użyciem kilku prostych suwaków. Przeznaczony dla potrzeb filmu program może wywołać małą rewolucję. Oczywiście takie sztuczki były możliwe od dawna, ale nie w tak prosty sposób - trzeba było stworzyć wizualizację ciała danego aktora, pracowicie modyfikować jego parametry dla każdego ujęcia i klatki - jednym słowem: dłubanina. Tymczasem MovieReShape - bo tak nazywa się oprogramowanie - automatycznie rozpoznaje sylwetkę człowieka i pozwala natychmiast zmienić jego wygląd, modyfikując go w locie. Używać można go nie tylko z użyciem techniki blue box, ale nawet w gotowych, nakręconych już scenach - jako przykład autorzy pokazują scenę ze znanego serialu „Baywatch", w której dodali muskulatury biegnącemu mężczyźnie.
Łatwość użycia i niska cena sprawi, że po upowszechnieniu się, technologia morfingu na wysokim poziomie będzie dostępna nie tylko dla wielkich wytwórni, ale także dla amatorów i hobbystów.
Droga do celu nie była prosta: najpierw, z wykorzystaniem częściowo powszechnie dostępnego, częściowo własnego oprogramowania zeskanowano niezliczoną ilość postaci ludzkich o różnych kształtach i różnych pozach. Zrobiono to z wykorzystaniem zwykłych zdjęć i nagrań, bez trójwymiaru, czy tradycyjnej techniki motion capture ze specjalnym kombinezonem. MovieReShape potrafi rozpoznać sylwetkę człowieka na ekranie, nałożyć ją na trójwymiarowy model, przeskalować parametry i natychmiast nałożyć zmienioną postać na oryginalną. Mimo pewnych niedoskonałości - na przykład zbyt duże zmiany na gotowym filmie mogą powodować zniekształcenia tła - jest to niesamowity wynalazek.
Kiedy w filmie fantastycznym „Uciekinier" (The Running Man) z 1987 roku pokazano wymyśloną technikę pozwalającą w locie podmienić twarz aktora, nie wydawało się to realne, a jednak nie tak długo potem zaczęto podobną technikę naprawdę. W wielu filmach można też zobaczyć sceny z nierealistycznym oprogramowaniem, pozwalającym zmieniać parametry obrazu przy pomocy suwaka. Od teraz krytykowanie ich nierealizmu staje się nieuzasadnione.
Zachęcam do obejrzenia filmu demonstrującego możliwości oprogramowania MovieReShape.
http://www.youtube.com/watch?v=zXSj4pcl9Ao -
przez KopalniaWiedzy.pl
Usługa Google Street View zrobiła wielką furorę - zarówno w pozytywnym, jak i negatywnym znaczeniu tego słowa. Oferując poza planem możliwość obejrzenia świata okiem przechodnia stała się rewolucją w dziedzinie interaktywnych map. Oskarżana jest jednocześnie w wielu krajach o naruszanie prywatności. Przypomnijmy, że na przykład w Japonii kamery Google rejestrowały wnętrza mieszkań na niskim parterze - konieczne było rejestrowanie widoku ulic na nowo.
Pretensjom obrońców prywatności i problemom prawnym mają zaradzić wdrażane coraz to nowe narzędzia. Obecnie Street View automatycznie zamazuje twarze ludzi i tablice rejestracyjne pojazdów. Nie wszystkich to zadowala, sylwetka człowieka i ubranie często pozwalają zidentyfikować przechodnia, który przypadkowo znalazł się na zdjęciu a może sobie nie życzyć światowej „popularności". Arturo Flores, absolwent informatyki na Uniwersytecie Kalifornijskim w San Diego jest twórcą narzędzia przetwarzającego obraz, które może rozwiązać część kłopotów. To program samoczynnie wymazujący ludzi ze zdjęć w Google Street View.
Samochody fotografujące ulice rejestrują je jako ciąg zdjęć, które nakładają się na siebie - umożliwia to niewidoczne „zszycie" wielu fotografii w jeden widok. Aplikacja Arturo Floresa identyfikuje ludzi i wymazuje ich, używając zawartości tła pobieranego za i przed postacią ludzką. Robi to na tyle dobrze, że zwykle nie widać manipulacji, przynajmniej bez bliższego przyjrzenia się.
Cuda i duchy
Nie ma jednak techniki niezawodnej. Problem pojawia się, kiedy sfotografowany przypadkiem człowiek poruszał się w tym samym kierunku i z tą samą prędkością, co samochód Street View - znajduje się on wtedy na całej serii zdjęć, co może uniemożliwić aplikacji poprawne rozpoznanie i wymazanie. Bywają jednak inne, bardziej zabawne artefakty.
Zdarza się, że analiza postaci nie obejmie całej sylwetki, ale pominie jakiś fragment lub przedmioty. Pojawiają się wtedy zabawne sceny jak: pies na wiszącej w powietrzu smyczy, unoszący się samodzielnie parasol, czy idące po chodniku same buty. To jednak i tak niewielkie usterki, jak na w pełni zautomatyzowany program.
Inną wadą algorytmu jest to, że działa wyłącznie w mieście. Nie da się go zastosować w obszarach niezabudowanych. Według przykładu, jaki podaje sam autor, jego program poprawnie usunie postać człowieka na tle graffiti przedstawiającego konie na pastwisku i zrekonstruuje wygląd malowidła. Ta sama operacja na zdjęciu, które przedstawia człowieka na tle prawdziwych koni na łące nie powiedzie się. Rekonstruowane może być wyłącznie płaskie tło.
Być może działanie programu zostanie jeszcze ulepszone. Najbliższy cel Floresa to jednak funkcja usuwania z obrazu całych grup ludzi.
Inspiratorem projektu był Serge Belongie, wykładowca Floresa na Wydziale Nauk i Inżynierii Komputerowej. Flores wykorzystał też i ulepszył algorytm wykrywania postaci ludzkich, napisany przez Bastiana Leibego z Uniwersytetu RWTH w Aachen.
-
przez KopalniaWiedzy.pl
Niemal wszystkie wizje przyszłości z literatury i filmów mieściły w sobie roboty. I niemal zawsze były to stworzenia - jeśli można je tak nazwać - z którymi rozmawiało się prawie jak z człowiekiem. Niestety, do realizacji tej wizji jest jeszcze bardzo daleko: ani systemy rozpoznawania głosu, ani rozumienie gramatyki nie są na odpowiednim poziomie i jeszcze długo nie będą. Co najwyżej synteza głosu jest już zadowalająca. Inżynierowie z holenderskiego Uniwersytetu Technologicznego w Eindhoven (Eindhoven University of Technology) postanowili podejść do tematu od drugiej strony. Skoro roboty mają taki problem nauczyć się mówić po ludzku, to niech człowiek nauczy się języka robotów. A czy jest taki? Ano właśnie powstaje.
ROILA - tak właśnie nazywa się tworzony w Eindhoven sztuczny język, w którym można będzie porozumiewać się z robotami, o ile oczywiście wejdzie on do użytku. Na razie jest w fazie powstawania, są pierwsi zainteresowani i sponsorzy a otwarta licencja (Creative Commons) też temu sprzyja, być może rozwinie się on dzięki pasjonatom.
RObot Interaction LAnguage (Język Interakcji z Robotami), jak brzmi jego nazwa, może być zatem wykorzystywany przez każdego, a strona projektu ROILA.org udostępnia instrukcje, podręczniki i narzędzia do wykorzystania we własnych projektach. Pierwszym zainteresowanym jest firma LEGO, która wsparła projekt, oferując 20 zestawów NXT oraz metr sześcienny elementów konstrukcyjnych. Efektem jest gotowa implementacja języka dla LEGO NXT, która pozwala nawigować przy pomocy głosu.
Autorzy - Christoph Bartneck, Loe Feijs i Omar Mubin - przygotowując się do projektu przejrzeli wiele języków naturalnych i sztucznych pod kątem przydatności. Jak zauważają, żaden sztuczny język nie zyskał nigdy nawet umiarkowanej popularności, z wyjątkiem Esperanto. Dla swoich celów postanowili stworzyć język całkowicie od nowa, konstruując odpowiednio prostą gramatykę, morfologię i fonologię. Powstał język z całkowicie regularną gramatyką, łatwą wymową - dla ludzi z różnych kultur, z brzmieniem umożliwiającym łatwe i jednoznaczne zarówno rozpoznawanie tekstu mówionego, jak i jego syntezowanie. Do stworzenia słownika posłużono się zaawansowanymi technologiami, jak algorytmy genetyczne.
Kursy języka ROILA, który „na ucho" przypomina nieco brzmieniem japoński, już powstają na społecznościowym forum. Kto wie być może nie tylko dla robotów będzie on użyteczny (jeśli, oczywiście, będzie). Twórcy mają nadzieję, że rozpowszechni się szybko na istniejących już robotach: automatycznych odkurzaczach itp. Na razie ROILA wzbudza zainteresowanie głównie majsterkowiczów, zwłaszcza skupionych wokół pisma MakeZine.
-
przez KopalniaWiedzy.pl
My, ludzie, uważamy swój wzrok za coś doskonałego i traktujemy jako „wzorzec" wyglądu świata. A tymczasem pod wieloma względami na tym polu biją nas nie tylko zwierzęta takie jak sowy ale także wiele owadów, nawet głupiutkie muszki - owocówki.
Jakich właściwości wzroku powinnyśmy najbardziej zazdrościć innym stworzeniom? Wybór jest szeroki: widzenie w ciemnościach, postrzeganie podczerwieni i ultrafioletu, postrzeganie polaryzacji światła, natychmiastowa detekcja ruchu. Tylko filmowy Predator miał to wszystko. Każdy pewnie wybrałby co innego, sportowcom, na przykład piłkarzom, zapewne przydałaby się umiejętność natychmiastowej reakcji na ruch - jakże wzrosła by ich skuteczność! My możemy sobie tylko o tym pomarzyć a tymczasem taką umiejętnością dysponują zwykłe muchy. Jak się okazuje, mikroskopijny móżdżek muchy potrafi przetwarzać sygnały wizualne z szybkością nieosiągalną ani dla nas, ani dla najlepszych superkomputerów. Postrzegają one najszybszy nawet ruch, trwający ułamki sekund, w sposób, jaki można porównać jedynie z obserwowaniem ruchu w zwolnionym tempie.
Matematyczny model przewidujący w jaki sposób mózg muchy przetwarza obraz powstał już w 1956 roku. Potwierdziło go wiele eksperymentów, przez pół wieku jednak niewykonalne było zbadanie i zweryfikowanie rzeczywistej architektury połączeń pomiędzy jego neuronami. Nawet dziś, kiedy potrafimy mierzyć aktywność poszczególnych komórek nerwowych przy pomocy miniaturowych elektrod, mózg muchy jest po prostu zbyt mały na zastosowanie takiej techniki.
Z zagadnieniem zmierzyli się naukowcy Instytutu Neurologicznego Maxa Plancka w Martinsried, badając w działaniu system nerwowy muszki owocówki (Drosophila melanogaster). Podeszli oni jednak do zagadnienia w zupełnie inny sposób i zamiast elektrod posłużyli się najnowszymi zdobyczami biologii i zmodyfikowali obiekt swoich badań genetycznie. Do komórek nerwowych muszki wprowadzono molekułę TN-XXL, mającą właściwości fluorescencyjne. W ten sposób neurony zmodyfikowanych muszek same sygnalizowały swoją aktywność. Do śledzenia tej sygnalizacji posłużono się laserowym mikroskopem dwufotonowym.
Jako źródło „wrażeń" dla badanych Drosophila melanogaster wykorzystano ekran LED wyświetlający świetlne wzory. Potrzebne było jeszcze wyłowienie słabych sygnałów świetlnych fluorescencyjnych neuronów spośród znacznie silniejszego światła ekranu, ale po uporaniu się z tym problem i synchronizacji mikroskopu z wyświetlaczem można było przeprowadzić badania nad systemem wykrywania ruchu owocówek.
W pierwszych doświadczeniach zbadano funkcjonowanie komórek L2, otrzymujących sygnały bezpośrednio z fotoreceptorów w oku muchy. Fotoreceptory reagują na dwa rodzaje zdarzeń: zwiększanie intensywności światła i jej zmniejszanie, przekazując sygnał dalej. Okazało się jednak, że badane komórki L2 przetwarzają otrzymywany sygnał i przekazują dalej tylko informację o zmniejszaniu się siły światła. Nie jest znana rola takiego szczególnego filtrowania, ale oczywiste jest, że w takim razie musi istnieć inna grupa komórek, odpowiedzialna za przekazywanie sygnałów o zwiększaniu intensywności światła.
Już pierwsze eksperymenty przyniosły więc zaskakujące wyniki i odsłoniły nowe obszary badań. Zespół badawczy pod kierunkiem Dierka Reiffa liczy na wiele jeszcze odkryć i zastosowań. Zamierza on krok po kroku i neuron po neuronie prześledzić cały układ detekcji ruchu i sposób, w jaki przetwarza on informacje na poziomie komórek. Na rezultaty badań niecierpliwie czekają też współpracownicy z projektu Robotics.
Członkowie zespołu to Dierk F. Reiff, Johannes Plett, Marco Mank, Oliver Griesbeck, Alexander Borst; ich praca na ten temat została opublikowana w magazynie Nature Neuroscience.
-
przez KopalniaWiedzy.pl
Ponowna amerykańska załogowa wyprawa na Księżyc stoi dziś pod poważnym znakiem zapytania. Powodem są oczywiście finanse - od momentu udowodnienia w latach sześćdziesiątych, że technika amerykańska jest lepsza niż radziecka, zniknęły ideologiczne i ambicjonalne powody, dla których topiono w misje Apollo gigantyczne kwoty. Dziś przeważa zimna kalkulacja ekonomiczna, zaś od momentu rozpoczęcia się światowego kryzysu jeszcze bardziej bezwzględna.
A tymczasem ostatnie badania wskazują, że Księżyc może być znacznie ciekawszy, niż dotąd sądzono. Odkrycie w księżycowej glebie pokaźnych ilości wody to nie tylko świetna wiadomość dla zwolenników załogowej bazy na naszym satelicie. To również doskonały cel badań, bo podobny mechanizm gromadzenia i powstawania wody mógłby istnieć także na innych planetach.
Misja na Księżyc zapewne jednak wreszcie się odbędzie, NASA planuje ją na przyszłą dekadę. Ludzi mają jednak wspomagać wysoko wykwalifikowane roboty. Skoro samodzielne łaziki doskonale radzą sobie na odległym Marsie, wzbudzając nawet powszechne zainteresowanie, to również na Księżycu roboty będą poczynać sobie doskonale, a dzięki niewielkiej odległości w zasadzie możliwe jest nawet manualne nimi sterowanie. Przygotowany w kalifornijskich zakładach Jet Propulsion Laboratory (Laboratorium Napędów Odrzutowych - jeden z ważniejszych oddziałów NASA) robot jest trochę niecodzienny.
ATHLETE (czyli All Terrain Hex-Limbed Extra Terrestrial Explorer) to sześcionożny pojazd, potrafi przenosić duże ciężary na swoim sześciokątnym, płaskim grzbiecie, kopać dziury, podnosić różne obiekty przy pomocy narzędzi mocowanych do kół, kręci stereoskopowe filmy swoją kamerą, bez trudu nawiguje i porusza się po każdej nawierzchni. Prototyp o wysokości ponad 180 centymetrów i średnicy ponad 270 centymetrów, czyli połowę mniejszy od planowanej ostatecznej wersji, potrafi podróżować z prędkością 10 kilometrów na godzinę. Ma jednak spore ograniczenia.
Usprawnieniem pojazdu zajął się się robotyk-eksperymentator i profesor informatyki Marty Vona. Zmodyfikował oryginalną koncepcję, dodając nowe stawy, które działają jak łokcie i nowe człony, pełniące funkcję przedramion. Odbyło się to wirtualnie, poprzez modyfikację graficznego projektu robota przy pomocy algorytmów. Zaprojektował również odpowiedni interfejs komputerowy, przy pomocy którego operator może łączyć na różne sposoby zaprojektowane wirtualne przeguby z modelem rzeczywistego robota. Pozwala to na wykonywanie wielu trudnych, wymagających koordynacji zadań, tak samo, jak gdyby wirtualny model istniał naprawdę. Przyspiesza to zdecydowanie rozwój projektu, oszczędzając i czas i pieniądze.
Roboty to duże i kosztowne projekty - mówi Vona. - Więc lepiej być zawczasu pewnym, jak będą sobie radzić w konkretnych okolicznościach. Idealnie byłoby, gdyby roboty i ludzie pracowali jako zespół.
Marty Vona współpracował już wcześniej z Jet Propulsion Laboratory, gdzie opracował oprogramowanie dla marsjańskich łazików Spirit i Opportunity Mars rovers. W 2004 NASA roku otrzymała nagrodę Software of the Year Award za swoją pracę. Obecnie wykłada przedmioty informatyczne i komputerowe na Northeastern University w Bostonie. Projekt rozwoju ATHLETE finansowała National Science Foundation.
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.