Znajdź zawartość
Wyświetlanie wyników dla tagów 'przetwarzanie obrazu' .
Znaleziono 5 wyników
-
Wśród najtrudniejszych zagadnień informatyki i robotyki prym wiodą balansowanie - utrzymywanie równowagi i przetwarzanie obrazu z wydobywaniem z niego istotnych informacji. Wiele dekad zajęło konstruktorom skonstruowanie robota, który potrafiłby iść, nie mówiąc już o bieganiu. Z kolei „rozumienie" obrazu, który zwykle zawiera mnóstwo nadmiarowej i zbędnej informacji, trudnej zwykle do odseparowania, wymaga bardzo dużej mocy obliczeniowej i wymyślnych algorytmów. Połączenie tych dwóch zagadnień, czyli utrzymywanie równowagi na podstawie danych wizualnych urasta przy tym do rangi superproblemu, choć przecież nawet proste biologiczne organizmy potrafią to robić całkowicie intuicyjnie. O ile balansowanie dużym kijem jest dla zaawansowanych konstrukcji wykonalne, o tyle zrobienie tego samego w mniejszej skali niedawno było nierealne. Bo przecież, choć balansować kijem od szczotki może nauczyć się każdy, to balansowanie ołówkiem nawet dla człowieka jest trudniejsze. Trzej inżynierowie z Instytutu Neuroinformatyki na University Zurich: Jorg Conradt, Tobi Delbruck i Matthew Cook, dokonali przełomu, konstruując automat potrafiący dowolnie długo balansować zwykłym ołówkiem, korzystając jedynie z obrazu z dwóch prostopadłych kamer: http://www.youtube.com/watch?v=f9UngTdngY4 Wbrew temu, co można by myśleć, kluczem do sukcesu nie jest superszybki komputer ukryty pod stołem. Zamiast szukać skutecznego algorytmu autorzy pomysłu zastosowali sprytny trik: kamery, obserwujące ołówek nie rejestrują pełnej informacji o obrazie, ale jedynie jego zmiany. Kamera, nazwana przez nich krzemową siatkówką, złożona jest z fotoczułych elementów, które reagują na zmiany jasności. W rezultacie każdy piksel reprezentuje już przefiltrowaną informację o zmianach zachodzących przed okiem kamery. Odpowiednie algorytmy już bez trudu wyławiają z nich położenie i kąt nachylenia ołówka, a odpowiednio szybkie serwomotory korygują jego położenie. Inspiracją dla rozwiązania były biologiczne sieci neuronowe.
- 16 odpowiedzi
-
- Matthew Cook
- Tobi Delbruck
- (i 6 więcej)
-
Aktorzy często dla potrzeb roli muszą poważnie schudnąć, albo wręcz przeciwnie: przytyć. Inni pracowicie rozwijają muskulaturę, która ma im zapewnić karierę, o powiększaniu biustów już nie mówiąc. Dzięki pracy niemieckich inżynierów od teraz będzie to zbędne. Co więcej, będą mogli urosnąć, zmaleć, czy wydłużyć sobie nogi, co było niewykonalne nawet przy największych poświęceniach. Zespół programistów z niemieckiego Max Planck Institute for Informatics w Saarbrucken pod kierunkiem Christiana Theobalta opracował oprogramowanie pozwalające wirtualnie modyfikować wygląd sylwetki, z użyciem kilku prostych suwaków. Przeznaczony dla potrzeb filmu program może wywołać małą rewolucję. Oczywiście takie sztuczki były możliwe od dawna, ale nie w tak prosty sposób - trzeba było stworzyć wizualizację ciała danego aktora, pracowicie modyfikować jego parametry dla każdego ujęcia i klatki - jednym słowem: dłubanina. Tymczasem MovieReShape - bo tak nazywa się oprogramowanie - automatycznie rozpoznaje sylwetkę człowieka i pozwala natychmiast zmienić jego wygląd, modyfikując go w locie. Używać można go nie tylko z użyciem techniki blue box, ale nawet w gotowych, nakręconych już scenach - jako przykład autorzy pokazują scenę ze znanego serialu „Baywatch", w której dodali muskulatury biegnącemu mężczyźnie. Łatwość użycia i niska cena sprawi, że po upowszechnieniu się, technologia morfingu na wysokim poziomie będzie dostępna nie tylko dla wielkich wytwórni, ale także dla amatorów i hobbystów. Droga do celu nie była prosta: najpierw, z wykorzystaniem częściowo powszechnie dostępnego, częściowo własnego oprogramowania zeskanowano niezliczoną ilość postaci ludzkich o różnych kształtach i różnych pozach. Zrobiono to z wykorzystaniem zwykłych zdjęć i nagrań, bez trójwymiaru, czy tradycyjnej techniki motion capture ze specjalnym kombinezonem. MovieReShape potrafi rozpoznać sylwetkę człowieka na ekranie, nałożyć ją na trójwymiarowy model, przeskalować parametry i natychmiast nałożyć zmienioną postać na oryginalną. Mimo pewnych niedoskonałości - na przykład zbyt duże zmiany na gotowym filmie mogą powodować zniekształcenia tła - jest to niesamowity wynalazek. Kiedy w filmie fantastycznym „Uciekinier" (The Running Man) z 1987 roku pokazano wymyśloną technikę pozwalającą w locie podmienić twarz aktora, nie wydawało się to realne, a jednak nie tak długo potem zaczęto podobną technikę naprawdę. W wielu filmach można też zobaczyć sceny z nierealistycznym oprogramowaniem, pozwalającym zmieniać parametry obrazu przy pomocy suwaka. Od teraz krytykowanie ich nierealizmu staje się nieuzasadnione. Zachęcam do obejrzenia filmu demonstrującego możliwości oprogramowania MovieReShape. http://www.youtube.com/watch?v=zXSj4pcl9Ao
- 12 odpowiedzi
-
- Christian Theobalt
- MovieReShape
-
(i 5 więcej)
Oznaczone tagami:
-
Usługa Google Street View zrobiła wielką furorę - zarówno w pozytywnym, jak i negatywnym znaczeniu tego słowa. Oferując poza planem możliwość obejrzenia świata okiem przechodnia stała się rewolucją w dziedzinie interaktywnych map. Oskarżana jest jednocześnie w wielu krajach o naruszanie prywatności. Przypomnijmy, że na przykład w Japonii kamery Google rejestrowały wnętrza mieszkań na niskim parterze - konieczne było rejestrowanie widoku ulic na nowo. Pretensjom obrońców prywatności i problemom prawnym mają zaradzić wdrażane coraz to nowe narzędzia. Obecnie Street View automatycznie zamazuje twarze ludzi i tablice rejestracyjne pojazdów. Nie wszystkich to zadowala, sylwetka człowieka i ubranie często pozwalają zidentyfikować przechodnia, który przypadkowo znalazł się na zdjęciu a może sobie nie życzyć światowej „popularności". Arturo Flores, absolwent informatyki na Uniwersytecie Kalifornijskim w San Diego jest twórcą narzędzia przetwarzającego obraz, które może rozwiązać część kłopotów. To program samoczynnie wymazujący ludzi ze zdjęć w Google Street View. Samochody fotografujące ulice rejestrują je jako ciąg zdjęć, które nakładają się na siebie - umożliwia to niewidoczne „zszycie" wielu fotografii w jeden widok. Aplikacja Arturo Floresa identyfikuje ludzi i wymazuje ich, używając zawartości tła pobieranego za i przed postacią ludzką. Robi to na tyle dobrze, że zwykle nie widać manipulacji, przynajmniej bez bliższego przyjrzenia się. Cuda i duchy Nie ma jednak techniki niezawodnej. Problem pojawia się, kiedy sfotografowany przypadkiem człowiek poruszał się w tym samym kierunku i z tą samą prędkością, co samochód Street View - znajduje się on wtedy na całej serii zdjęć, co może uniemożliwić aplikacji poprawne rozpoznanie i wymazanie. Bywają jednak inne, bardziej zabawne artefakty. Zdarza się, że analiza postaci nie obejmie całej sylwetki, ale pominie jakiś fragment lub przedmioty. Pojawiają się wtedy zabawne sceny jak: pies na wiszącej w powietrzu smyczy, unoszący się samodzielnie parasol, czy idące po chodniku same buty. To jednak i tak niewielkie usterki, jak na w pełni zautomatyzowany program. Inną wadą algorytmu jest to, że działa wyłącznie w mieście. Nie da się go zastosować w obszarach niezabudowanych. Według przykładu, jaki podaje sam autor, jego program poprawnie usunie postać człowieka na tle graffiti przedstawiającego konie na pastwisku i zrekonstruuje wygląd malowidła. Ta sama operacja na zdjęciu, które przedstawia człowieka na tle prawdziwych koni na łące nie powiedzie się. Rekonstruowane może być wyłącznie płaskie tło. Być może działanie programu zostanie jeszcze ulepszone. Najbliższy cel Floresa to jednak funkcja usuwania z obrazu całych grup ludzi. Inspiratorem projektu był Serge Belongie, wykładowca Floresa na Wydziale Nauk i Inżynierii Komputerowej. Flores wykorzystał też i ulepszył algorytm wykrywania postaci ludzkich, napisany przez Bastiana Leibego z Uniwersytetu RWTH w Aachen.
- 8 odpowiedzi
-
- Bastian Leibe
- Serge Belongie
- (i 6 więcej)
-
My, ludzie, uważamy swój wzrok za coś doskonałego i traktujemy jako „wzorzec" wyglądu świata. A tymczasem pod wieloma względami na tym polu biją nas nie tylko zwierzęta takie jak sowy ale także wiele owadów, nawet głupiutkie muszki - owocówki. Jakich właściwości wzroku powinnyśmy najbardziej zazdrościć innym stworzeniom? Wybór jest szeroki: widzenie w ciemnościach, postrzeganie podczerwieni i ultrafioletu, postrzeganie polaryzacji światła, natychmiastowa detekcja ruchu. Tylko filmowy Predator miał to wszystko. Każdy pewnie wybrałby co innego, sportowcom, na przykład piłkarzom, zapewne przydałaby się umiejętność natychmiastowej reakcji na ruch - jakże wzrosła by ich skuteczność! My możemy sobie tylko o tym pomarzyć a tymczasem taką umiejętnością dysponują zwykłe muchy. Jak się okazuje, mikroskopijny móżdżek muchy potrafi przetwarzać sygnały wizualne z szybkością nieosiągalną ani dla nas, ani dla najlepszych superkomputerów. Postrzegają one najszybszy nawet ruch, trwający ułamki sekund, w sposób, jaki można porównać jedynie z obserwowaniem ruchu w zwolnionym tempie. Matematyczny model przewidujący w jaki sposób mózg muchy przetwarza obraz powstał już w 1956 roku. Potwierdziło go wiele eksperymentów, przez pół wieku jednak niewykonalne było zbadanie i zweryfikowanie rzeczywistej architektury połączeń pomiędzy jego neuronami. Nawet dziś, kiedy potrafimy mierzyć aktywność poszczególnych komórek nerwowych przy pomocy miniaturowych elektrod, mózg muchy jest po prostu zbyt mały na zastosowanie takiej techniki. Z zagadnieniem zmierzyli się naukowcy Instytutu Neurologicznego Maxa Plancka w Martinsried, badając w działaniu system nerwowy muszki owocówki (Drosophila melanogaster). Podeszli oni jednak do zagadnienia w zupełnie inny sposób i zamiast elektrod posłużyli się najnowszymi zdobyczami biologii i zmodyfikowali obiekt swoich badań genetycznie. Do komórek nerwowych muszki wprowadzono molekułę TN-XXL, mającą właściwości fluorescencyjne. W ten sposób neurony zmodyfikowanych muszek same sygnalizowały swoją aktywność. Do śledzenia tej sygnalizacji posłużono się laserowym mikroskopem dwufotonowym. Jako źródło „wrażeń" dla badanych Drosophila melanogaster wykorzystano ekran LED wyświetlający świetlne wzory. Potrzebne było jeszcze wyłowienie słabych sygnałów świetlnych fluorescencyjnych neuronów spośród znacznie silniejszego światła ekranu, ale po uporaniu się z tym problem i synchronizacji mikroskopu z wyświetlaczem można było przeprowadzić badania nad systemem wykrywania ruchu owocówek. W pierwszych doświadczeniach zbadano funkcjonowanie komórek L2, otrzymujących sygnały bezpośrednio z fotoreceptorów w oku muchy. Fotoreceptory reagują na dwa rodzaje zdarzeń: zwiększanie intensywności światła i jej zmniejszanie, przekazując sygnał dalej. Okazało się jednak, że badane komórki L2 przetwarzają otrzymywany sygnał i przekazują dalej tylko informację o zmniejszaniu się siły światła. Nie jest znana rola takiego szczególnego filtrowania, ale oczywiste jest, że w takim razie musi istnieć inna grupa komórek, odpowiedzialna za przekazywanie sygnałów o zwiększaniu intensywności światła. Już pierwsze eksperymenty przyniosły więc zaskakujące wyniki i odsłoniły nowe obszary badań. Zespół badawczy pod kierunkiem Dierka Reiffa liczy na wiele jeszcze odkryć i zastosowań. Zamierza on krok po kroku i neuron po neuronie prześledzić cały układ detekcji ruchu i sposób, w jaki przetwarza on informacje na poziomie komórek. Na rezultaty badań niecierpliwie czekają też współpracownicy z projektu Robotics. Członkowie zespołu to Dierk F. Reiff, Johannes Plett, Marco Mank, Oliver Griesbeck, Alexander Borst; ich praca na ten temat została opublikowana w magazynie Nature Neuroscience.
-
- Max-Planck-Gesellschaft
- Drosophila melanogaster
- (i 5 więcej)
-
Jednym z popularnych chwytów stosowanych przez filmowców są nagłe poruszenia całego kadru, służące do podkreślenia pokazywanego chaosu czy dezorientacji. Zastanawiające jest jednak to, że na co dzień nie zauważamy dygoczącego świata, mimo że nasze oczy poruszają po kilka razy na sekundę. Rozwiązaniem zagadki zajęli się niemieccy uczeni z University of Munster. Badacze zauważyli, że każdemu spojrzeniu towarzyszy seria procesów zachodzących w naszym mózgu. Okazało się między innymi, że na 50 milisekund przed przeniesieniem wzroku w nowe miejsce, mózg koncentruje swą uwagę na obszarze docelowym. W ten sposób poprawia się czułość neuronów przetwarzających obraz, a zarazem nasila się reakcja na to, co zobaczymy. Kolejnym zjawiskiem jest dynamiczne angażowanie komórek do analizowania obrazu wokół przyszłego "celu". Dzięki dodatkowej pracy mózgu, postrzegamy detale znajdujące się w nowym miejscu zanim jeszcze skoncentrujemy na nim wzrok. Właśnie ta znajomość powoduje, że widzimy stabilny obraz świata. Choć już teraz wyniki uzyskane przez niemieckich naukowców są bardzo ciekawe, to jeszcze nie koniec ich pracy. Liczą oni, że zebrane informacje pomogą przy tworzeniu nowej generacji komputerowych systemów rozpoznawania obrazu.
- 18 odpowiedzi
-
- mózg
- poruszenia
-
(i 1 więcej)
Oznaczone tagami: