Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Wśród najtrudniejszych zagadnień informatyki i robotyki prym wiodą balansowanie - utrzymywanie równowagi i przetwarzanie obrazu z wydobywaniem z niego istotnych informacji. Wiele dekad zajęło konstruktorom skonstruowanie robota, który potrafiłby iść, nie mówiąc już o bieganiu. Z kolei „rozumienie" obrazu, który zwykle zawiera mnóstwo nadmiarowej i zbędnej informacji, trudnej zwykle do odseparowania, wymaga bardzo dużej mocy obliczeniowej i wymyślnych algorytmów. Połączenie tych dwóch zagadnień, czyli utrzymywanie równowagi na podstawie danych wizualnych urasta przy tym do rangi superproblemu, choć przecież nawet proste biologiczne organizmy potrafią to robić całkowicie intuicyjnie.

O ile balansowanie dużym kijem jest dla zaawansowanych konstrukcji wykonalne, o tyle zrobienie tego samego w mniejszej skali niedawno było nierealne. Bo przecież, choć balansować kijem od szczotki może nauczyć się każdy, to balansowanie ołówkiem nawet dla człowieka jest trudniejsze. Trzej inżynierowie z Instytutu Neuroinformatyki na University Zurich: Jorg Conradt, Tobi Delbruck i Matthew Cook, dokonali przełomu, konstruując automat potrafiący dowolnie długo balansować zwykłym ołówkiem, korzystając jedynie z obrazu z dwóch prostopadłych kamer:

 

http://www.youtube.com/watch?v=f9UngTdngY4

 

Wbrew temu, co można by myśleć, kluczem do sukcesu nie jest superszybki komputer ukryty pod stołem. Zamiast szukać skutecznego algorytmu autorzy pomysłu zastosowali sprytny trik: kamery, obserwujące ołówek nie rejestrują pełnej informacji o obrazie, ale jedynie jego zmiany. Kamera, nazwana przez nich krzemową siatkówką, złożona jest z fotoczułych elementów, które reagują na zmiany jasności. W rezultacie każdy piksel reprezentuje już przefiltrowaną informację o zmianach zachodzących przed okiem kamery. Odpowiednie algorytmy już bez trudu wyławiają z nich położenie i kąt nachylenia ołówka, a odpowiednio szybkie serwomotory korygują jego położenie. Inspiracją dla rozwiązania były biologiczne sieci neuronowe.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

"Wśród najtrudniejszych zagadnień informatyki i robotyki prym wiodą balansowanie - utrzymywanie równowagi"

To raczej teria sterowania, czyli jedna z dziedzin automatyki i nazywa się to po prostu regulacją, jest wielkość którą należy utrzymać na danym poziomie, w tym momencie są to dwa kąty. podobne zadanie realizowane jest od wielu lat na każdej uczelni świata, polega na utrzymywaniu równowagi co prawda w jednej osi ale zasada jest taka sama, nazywamy to wahadłem odwróconym (inverted pandulum) i wcale nie jest długości kija od miotły.

dodatkowo w wahadle pozycja jest utzymywana na tyle stabinie że można na końcówce wahadła filiżankę z kawą postawić i ją utrzyma w centrum osi, tutaj ołówek jeździ po całej platformie i praktycznie nigdy nie jest w pionie. ale z drugiej strony zadanie tutaj jest utrudnione.

 

"Inspiracją dla rozwiązania były biologiczne sieci neuronowe." czyli w skrócie znany od wielu lat regulator rozmyty neuronowy. polega to na tym że sam się dostraja na podstawie swoich błędów.

 

Troszkę się podłamałem jakie triki stosują autorzy tekstów. wszystko ubrane jest w takie słowa, że wydaje się rewolucją na skalę światową, a tutaj mamy rozwiązanie starego problemu (nieco utrudnionego) do którego użytych starych algorytmów i nowoczesnych metod.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Troszkę się podłamałem jakie triki stosują autorzy tekstów. wszystko ubrane jest w takie słowa, że wydaje się rewolucją na skalę światową, a tutaj mamy rozwiązanie starego problemu (nieco utrudnionego) do którego użytych starych algorytmów i nowoczesnych metod.

Ja się trochę podłamałem czytając następną demotywującą osobę.

Uważam że autorzy tekstów idealnie zaszczepić pasję nauki i innowacji. Jakby pisali twoim jeżykiem to nikt by nie czytał koplaniawiedzy.pl

Wraz z kolegą składamy naszego własnego robota i ten artykuł był dla mnie jak mała rewolucja.

Coraz więcej osób zaczyna dostrzegać że proste rozwiązania są najlepsze, czasami jedynie trzeba zaliczyć te złożone.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

zaszczepić pasję nauki i innowacji. Jakby pisali twoim jeżykiem to nikt by nie czytał koplaniawiedzy.pl

Wraz z kolegą składamy naszego własnego robota i ten artykuł był dla mnie jak mała rewolucja.

 

Czy ja kogoś demotywuje? wskazuje tylko że nie ma tu nic innowacyjnego.

Zgadzam się z Tobą że nikt bynie czytałbo to populatnonaukowy portal, jednak to co tu napisane nie ukazuje całej prawdy i faktycznego stanu wiedzy...od wielu lat po lotniskach czy innych obiektach poruszają się ludzie na wózkach wykorzystujących zasadze regulacji wahadła odwrotnego. Artykuł ciekawy, jednak czepiam się samego ujęcia tematu jako wielkiej rewolucji...To tak jakby ktoś rozwinął przybliżenie liczby pi do kolejnego miejsca po przecinku, to coś nowego ale nie rewolucyjnego, chyba że zastosowanoby do tego nowych metod a metody opisane tutaj są znane od dawna, projekt na studiach który wykonałem sam w praktyce to właśnie wahadło odwrotne, a to tylko projekt, na dyplomie miałem włąśnie sterowanie rozmyte suwnicą 3D, też w praktyce i nie uważam tego za rewolucje. Życzę powodzeniu w budowaniu robota. I troche mnie ciekawi czy robot ma być o podobnej zasadzie działania. jeśli tak to mam kilka pomysłów jak uprościć to co wykonali autorzy regulatora pionu ołówka.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

tutaj mamy praktyczne wykorzystanie tej zasady, filmik sprzed 3 lat. tutaj nie ma wielkiego komputera pod stolikiem, jest zoptymalizowany algorytm mieszczący się na konstrukcji która się porusza.

Moim zdaniem pierwszy taki robot był rewolucyjny, pierwsze systemy pionowego staru (rakiety z IIWŚ) to były rewolucje a nie balastowanie ołówkiem.

tutaj kolejny bardzo ciekawy przykłąd regulacji, moim zdaniem znacznie ciekawszy niż ołówek,

tutaj możemy zakłócać regulacje a ołówka prawie nie można dotknąć, przynajmniej nie zaprezentowano tego, zmieniano niby tło na 2 filmiku w artykule, ale z jaką prędkością? to nie są realne zakłócenia a automatyka czy robotyka ma się przydawać i działąć w realnym świecie. a ten ołówek to co w biurze sobie postawie?

Przepraszam za mój język, może nie jest jasny do końca i dla każdego ale prawda jest taka że nie widzę tu nic nowego, pozdrawiam

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja się trochę podłamałem czytając następną demotywującą osobę.(...)

(...)Coraz więcej osób zaczyna dostrzegać że proste rozwiązania są najlepsze, czasami jedynie trzeba zaliczyć te złożone.(...)

Popieram kolegę. Niestety istnieje pewna delikatna granica pomiędzy tymi, którzy po prostu tworzą a tymi, którzy czyhają nad nimi i wbijają szpilę w tyłek. Choć nie przeczę, że pewna krytyka... też musi istnieć;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wszyscy fascynują się utrzymywaniem ołówka w równowadze, a przciez automatyka utrzymuje tysiące procesów w równowadze , elektronika równiez (stabilność obrazu na twoim monitorze to równiez wynik równowagi ) , przyroda robi to od tysięcy lat, co więc fascynującego w stojącym ołówku ?? nic. Ale miło się ogląda.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Niestety istnieje pewna delikatna granica pomiędzy tymi, którzy po prostu tworzą a tymi, którzy czyhają nad nimi i wbijają szpilę w tyłek. Choć nie przeczę, że pewna krytyka... też musi istnieć;)

 

Jeśli myślisz że ja nic nie robie i tylko krytykuje to się mylisz, na studiach zrobiłem kilka praktycznych projektów, praca dplomowa okazała się wystarczająco dobra by mój promotor na jej podstawie zrobił habilitację, ale nie chwale się tylko bronie przed Twoim oskarżeniem, dodatkowo pracuje aktywnie w zawodzie wiec nie mów o mnie że nic nie robię i tylko w tyłek szpilkę wbijam. Wszystko ok, cały artykuł, sposób rozwiązania, nikogo nie chce urazić ani zdemotywować, chce tylko aby wszyscy byli świadomi że nie ma w tym nic nowego, zupełnie nic. a tak jak kolega wyżej zauważył tysiące podobnych procesów jest stale regulowane.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Niewątpliwie ciekawe urządzenie, ale szkoda, że nie doprowadza w ogóle do punktu równowagi, a jedynie nieustannie balansuje tym ołówkiem niwelując każde odchylenie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

zgadzam się z IrQ, żadna z tego rewelacja, Do tego myślę że wielu studentów z kierunku automatyki i robotyki takie coś bez problemu mogłogłoby  zrobić gdyby im się tylko chciało ;-) po linkach widać też że to żadna nowość. To jest tak że większość zagranicznych uczelni reklamuje się udostępniając ciekawostki w internecie żeby przyciągnąć sponsorów, a w rzeczywistości na nowo odkrywają koło. Dla robotyki największym i najciekawszym problemem który trzeba rozwiązać to balans przy chodzeniu na dwóch nogach (najlepiej na siłownikach czy "mięśniach") przy większych prędkościach. Mówię o tym co jest ciekawe dla zwykłego zjadacza chleba, w końcu większości z nas marzy się taki robot na dwóch nogach ;]. Nie mniej ważne przełomy robotyki często nie są tak bardzo nagłaśniane i spektakularne ale po prostu wykorzystane do stworzenia np. takich nowoczesnych maszyn CNC, gdyby je nagłośnili zaraz Chińczycy staraliby się skopiować technologię ;-), a tak to najpierw kupią parę urządzeń ;-)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dla robotyki największym i najciekawszym problemem który trzeba rozwiązać to balans przy chodzeniu na dwóch nogach (najlepiej na siłownikach czy "mięśniach") przy większych prędkościach. Mówię o tym co jest ciekawe dla zwykłego zjadacza chleba, w końcu większości z nas marzy się taki robot na dwóch nogach ;].

a propos problemu który trzeba rozwiązać, on też jest już od kilku lat rozwiązany, niektóre roboty potrafią biegać na 2 nogach. Polecam filmik robota hondy:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

a propos problemu który trzeba rozwiązać, on też jest już od kilku lat rozwiązany, niektóre roboty potrafią biegać na 2 nogach. Polecam filmik robota hondy:

Rozwiązany ? Rozwiązanie raczkuje... Jeśli od wolnego chodu ten robot zacznie biegać podnosząc obie kończyny w powietrze i radzić sobie różnych warunkach (kąty nachylenia, powierzchnie, dodatkowe obciążenia, zdarzenia losowe) to wtedy mogę przyznać że problem jest rozwiązany ;] Krótko mówiąc chcemy robota sprawnego jak Sunny z filmu "Ja-robot". Fakt te roboty stają się już całkiem niezłe np:

(większa wersja:
) , w przypadku czworonogów problem jest ciut mniej skomplikowany.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dla mnie fajna sprawa, ale raczej tylko ze względu na widzenie maszynowe. Chociaż jak mieli kamery rejestrujące tylko zmiany w obrazie to wystarczy detekcja linii prostych pewnie z paroma małymi dodatkami i gotowe ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli myślisz że ja nic nie robie i tylko krytykuje to się mylisz

ok, przepraszam. tym razem to ja wyszedłem na forumowego trolla.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@IrQ: żaden z przykładów, które podałeś nie wykorzystuje optyki. Wykorzystanie 3-osiowych akcelerometrów lub żyroskopów + wyliczanie delty nie jest rzeczywiście skomplikowane. Dane z tego typu czujników nie są tak zaśmiecone dodatkowymi danymi z tła jak w przypadku optyki (owszem, jest tam jakiś szum, ale są to dane, które można łatwo odfiltrować). Natomiast ustalanie położenia obiektu tylko i wyłącznie wykorzystując do tego obraz z kamery (lub dwóch) bez użycia dedykowanego tła (np typu blue lub green box) już nie jest tak proste.

 

A pomysł tych gości z artykułu chociaż prosty (kamery wykrywające zmiany czyli i ruch) jest jednak nowatorski i aż dziwne, że nie został wcześniej do czegoś takiego wykorzystany. W końcu oko działa na podobnej zasadzie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
A pomysł tych gości z artykułu chociaż prosty (kamery wykrywające zmiany czyli i ruch) jest jednak nowatorski i aż dziwne, że nie został wcześniej do czegoś takiego wykorzystany. W końcu oko działa na podobnej zasadzie. 

Człowiek niosący rozłozoną drabinę, narciarz.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli wolno mi zdemotywować to mój zarzut brzmi: ułatwili sobie sprawę dając kamery prostopadle. Ustawienie równolegle byłoby bardziej "człowiecze". Jak już pokonają ten problem to będę się domagał wirującego talerza na końcu ołówka ;) lub dwóch ołówków jeden na drugim. Skoro już wpadłem w klimaty cyrkowe to stary żart ale chyba pasuje do dyskusji: Cyrkowiec stoi na głowie, na jednej nodze balansuje drabinę na drugiej ma piramidę krzeseł. Dodatkowo gra na skrzypcach. No co, jeden z widzów: No Kulka(*) to on nie jest...

 

Kulka - słynny polski skrzypak

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Aktorzy często dla potrzeb roli muszą poważnie schudnąć, albo wręcz przeciwnie: przytyć. Inni pracowicie rozwijają muskulaturę, która ma im zapewnić karierę, o powiększaniu biustów już nie mówiąc. Dzięki pracy niemieckich inżynierów od teraz będzie to zbędne. Co więcej, będą mogli urosnąć, zmaleć, czy wydłużyć sobie nogi, co było niewykonalne nawet przy największych poświęceniach.
      Zespół programistów z niemieckiego Max Planck Institute for Informatics w Saarbrucken pod kierunkiem Christiana Theobalta opracował oprogramowanie pozwalające wirtualnie modyfikować wygląd sylwetki, z użyciem kilku prostych suwaków. Przeznaczony dla potrzeb filmu program może wywołać małą rewolucję. Oczywiście takie sztuczki były możliwe od dawna, ale nie w tak prosty sposób - trzeba było stworzyć wizualizację ciała danego aktora, pracowicie modyfikować jego parametry dla każdego ujęcia i klatki - jednym słowem: dłubanina. Tymczasem MovieReShape - bo tak nazywa się oprogramowanie - automatycznie rozpoznaje sylwetkę człowieka i pozwala natychmiast zmienić jego wygląd, modyfikując go w locie. Używać można go nie tylko z użyciem techniki blue box, ale nawet w gotowych, nakręconych już scenach - jako przykład autorzy pokazują scenę ze znanego serialu „Baywatch", w której dodali muskulatury biegnącemu mężczyźnie.
      Łatwość użycia i niska cena sprawi, że po upowszechnieniu się, technologia morfingu na wysokim poziomie będzie dostępna nie tylko dla wielkich wytwórni, ale także dla amatorów i hobbystów.
      Droga do celu nie była prosta: najpierw, z wykorzystaniem częściowo powszechnie dostępnego, częściowo własnego oprogramowania zeskanowano niezliczoną ilość postaci ludzkich o różnych kształtach i różnych pozach. Zrobiono to z wykorzystaniem zwykłych zdjęć i nagrań, bez trójwymiaru, czy tradycyjnej techniki motion capture ze specjalnym kombinezonem. MovieReShape potrafi rozpoznać sylwetkę człowieka na ekranie, nałożyć ją na trójwymiarowy model, przeskalować parametry i natychmiast nałożyć zmienioną postać na oryginalną. Mimo pewnych niedoskonałości - na przykład zbyt duże zmiany na gotowym filmie mogą powodować zniekształcenia tła - jest to niesamowity wynalazek.
      Kiedy w filmie fantastycznym „Uciekinier" (The Running Man) z 1987 roku pokazano wymyśloną technikę pozwalającą w locie podmienić twarz aktora, nie wydawało się to realne, a jednak nie tak długo potem zaczęto podobną technikę naprawdę. W wielu filmach można też zobaczyć sceny z nierealistycznym oprogramowaniem, pozwalającym zmieniać parametry obrazu przy pomocy suwaka. Od teraz krytykowanie ich nierealizmu staje się nieuzasadnione.
      Zachęcam do obejrzenia filmu demonstrującego możliwości oprogramowania MovieReShape.
       
      http://www.youtube.com/watch?v=zXSj4pcl9Ao
    • przez KopalniaWiedzy.pl
      Usługa Google Street View zrobiła wielką furorę - zarówno w pozytywnym, jak i negatywnym znaczeniu tego słowa. Oferując poza planem możliwość obejrzenia świata okiem przechodnia stała się rewolucją w dziedzinie interaktywnych map. Oskarżana jest jednocześnie w wielu krajach o naruszanie prywatności. Przypomnijmy, że na przykład w Japonii kamery Google rejestrowały wnętrza mieszkań na niskim parterze - konieczne było rejestrowanie widoku ulic na nowo.
      Pretensjom obrońców prywatności i problemom prawnym mają zaradzić wdrażane coraz to nowe narzędzia. Obecnie Street View automatycznie zamazuje twarze ludzi i tablice rejestracyjne pojazdów. Nie wszystkich to zadowala, sylwetka człowieka i ubranie często pozwalają zidentyfikować przechodnia, który przypadkowo znalazł się na zdjęciu a może sobie nie życzyć światowej „popularności". Arturo Flores, absolwent informatyki na Uniwersytecie Kalifornijskim w San Diego jest twórcą narzędzia przetwarzającego obraz, które może rozwiązać część kłopotów. To program samoczynnie wymazujący ludzi ze zdjęć w Google Street View.
      Samochody fotografujące ulice rejestrują je jako ciąg zdjęć, które nakładają się na siebie - umożliwia to niewidoczne „zszycie" wielu fotografii w jeden widok. Aplikacja Arturo Floresa identyfikuje ludzi i wymazuje ich, używając zawartości tła pobieranego za i przed postacią ludzką. Robi to na tyle dobrze, że zwykle nie widać manipulacji, przynajmniej bez bliższego przyjrzenia się.
       
      Cuda i duchy
       
      Nie ma jednak techniki niezawodnej. Problem pojawia się, kiedy sfotografowany przypadkiem człowiek poruszał się w tym samym kierunku i z tą samą prędkością, co samochód Street View - znajduje się on wtedy na całej serii zdjęć, co może uniemożliwić aplikacji poprawne rozpoznanie i wymazanie. Bywają jednak inne, bardziej zabawne artefakty.
      Zdarza się, że analiza postaci nie obejmie całej sylwetki, ale pominie jakiś fragment lub przedmioty. Pojawiają się wtedy zabawne sceny jak: pies na wiszącej w powietrzu smyczy, unoszący się samodzielnie parasol, czy idące po chodniku same buty. To jednak i tak niewielkie usterki, jak na w pełni zautomatyzowany program.
      Inną wadą algorytmu jest to, że działa wyłącznie w mieście. Nie da się go zastosować w obszarach niezabudowanych. Według przykładu, jaki podaje sam autor, jego program poprawnie usunie postać człowieka na tle graffiti przedstawiającego konie na pastwisku i zrekonstruuje wygląd malowidła. Ta sama operacja na zdjęciu, które przedstawia człowieka na tle prawdziwych koni na łące nie powiedzie się. Rekonstruowane może być wyłącznie płaskie tło.
      Być może działanie programu zostanie jeszcze ulepszone. Najbliższy cel Floresa to jednak funkcja usuwania z obrazu całych grup ludzi.
      Inspiratorem projektu był Serge Belongie, wykładowca Floresa na Wydziale Nauk i Inżynierii Komputerowej. Flores wykorzystał też i ulepszył algorytm wykrywania postaci ludzkich, napisany przez Bastiana Leibego z Uniwersytetu RWTH w Aachen.
    • przez KopalniaWiedzy.pl
      Niemal wszystkie wizje przyszłości z literatury i filmów mieściły w sobie roboty. I niemal zawsze były to stworzenia - jeśli można je tak nazwać - z którymi rozmawiało się prawie jak z człowiekiem. Niestety, do realizacji tej wizji jest jeszcze bardzo daleko: ani systemy rozpoznawania głosu, ani rozumienie gramatyki nie są na odpowiednim poziomie i jeszcze długo nie będą. Co najwyżej synteza głosu jest już zadowalająca. Inżynierowie z holenderskiego Uniwersytetu Technologicznego w Eindhoven (Eindhoven University of Technology) postanowili podejść do tematu od drugiej strony. Skoro roboty mają taki problem nauczyć się mówić po ludzku, to niech człowiek nauczy się języka robotów. A czy jest taki? Ano właśnie powstaje.
      ROILA - tak właśnie nazywa się tworzony w Eindhoven sztuczny język, w którym można będzie porozumiewać się z robotami, o ile oczywiście wejdzie on do użytku. Na razie jest w fazie powstawania, są pierwsi zainteresowani i sponsorzy a otwarta licencja (Creative Commons) też temu sprzyja, być może rozwinie się on dzięki pasjonatom.
      RObot Interaction LAnguage (Język Interakcji z Robotami), jak brzmi jego nazwa, może być zatem wykorzystywany przez każdego, a strona projektu ROILA.org udostępnia instrukcje, podręczniki i narzędzia do wykorzystania we własnych projektach. Pierwszym zainteresowanym jest firma LEGO, która wsparła projekt, oferując 20 zestawów NXT oraz metr sześcienny elementów konstrukcyjnych. Efektem jest gotowa implementacja języka dla LEGO NXT, która pozwala nawigować przy pomocy głosu.
      Autorzy - Christoph Bartneck, Loe Feijs i Omar Mubin - przygotowując się do projektu przejrzeli wiele języków naturalnych i sztucznych pod kątem przydatności. Jak zauważają, żaden sztuczny język nie zyskał nigdy nawet umiarkowanej popularności, z wyjątkiem Esperanto. Dla swoich celów postanowili stworzyć język całkowicie od nowa, konstruując odpowiednio prostą gramatykę, morfologię i fonologię. Powstał język z całkowicie regularną gramatyką, łatwą wymową - dla ludzi z różnych kultur, z brzmieniem umożliwiającym łatwe i jednoznaczne zarówno rozpoznawanie tekstu mówionego, jak i jego syntezowanie. Do stworzenia słownika posłużono się zaawansowanymi technologiami, jak algorytmy genetyczne.
      Kursy języka ROILA, który „na ucho" przypomina nieco brzmieniem japoński, już powstają na społecznościowym forum. Kto wie być może nie tylko dla robotów będzie on użyteczny (jeśli, oczywiście, będzie). Twórcy mają nadzieję, że rozpowszechni się szybko na istniejących już robotach: automatycznych odkurzaczach itp. Na razie ROILA wzbudza zainteresowanie głównie majsterkowiczów, zwłaszcza skupionych wokół pisma MakeZine.
    • przez KopalniaWiedzy.pl
      My, ludzie, uważamy swój wzrok za coś doskonałego i traktujemy jako „wzorzec" wyglądu świata. A tymczasem pod wieloma względami na tym polu biją nas nie tylko zwierzęta takie jak sowy ale także wiele owadów, nawet głupiutkie muszki - owocówki.
      Jakich właściwości wzroku powinnyśmy najbardziej zazdrościć innym stworzeniom? Wybór jest szeroki: widzenie w ciemnościach, postrzeganie podczerwieni i ultrafioletu, postrzeganie polaryzacji światła, natychmiastowa detekcja ruchu. Tylko filmowy Predator miał to wszystko. Każdy pewnie wybrałby co innego, sportowcom, na przykład piłkarzom, zapewne przydałaby się umiejętność natychmiastowej reakcji na ruch - jakże wzrosła by ich skuteczność! My możemy sobie tylko o tym pomarzyć a tymczasem taką umiejętnością dysponują zwykłe muchy. Jak się okazuje, mikroskopijny móżdżek muchy potrafi przetwarzać sygnały wizualne z szybkością nieosiągalną ani dla nas, ani dla najlepszych superkomputerów. Postrzegają one najszybszy nawet ruch, trwający ułamki sekund, w sposób, jaki można porównać jedynie z obserwowaniem ruchu w zwolnionym tempie.
      Matematyczny model przewidujący w jaki sposób mózg muchy przetwarza obraz powstał już w 1956 roku. Potwierdziło go wiele eksperymentów, przez pół wieku jednak niewykonalne było zbadanie i zweryfikowanie rzeczywistej architektury połączeń pomiędzy jego neuronami. Nawet dziś, kiedy potrafimy mierzyć aktywność poszczególnych komórek nerwowych przy pomocy miniaturowych elektrod, mózg muchy jest po prostu zbyt mały na zastosowanie takiej techniki.
      Z zagadnieniem zmierzyli się naukowcy Instytutu Neurologicznego Maxa Plancka w Martinsried, badając w działaniu system nerwowy muszki owocówki (Drosophila melanogaster). Podeszli oni jednak do zagadnienia w zupełnie inny sposób i zamiast elektrod posłużyli się najnowszymi zdobyczami biologii i zmodyfikowali obiekt swoich badań genetycznie. Do komórek nerwowych muszki wprowadzono molekułę TN-XXL, mającą właściwości fluorescencyjne. W ten sposób neurony zmodyfikowanych muszek same sygnalizowały swoją aktywność. Do śledzenia tej sygnalizacji posłużono się laserowym mikroskopem dwufotonowym.
      Jako źródło „wrażeń" dla badanych Drosophila melanogaster wykorzystano ekran LED wyświetlający świetlne wzory. Potrzebne było jeszcze wyłowienie słabych sygnałów świetlnych fluorescencyjnych neuronów spośród znacznie silniejszego światła ekranu, ale po uporaniu się z tym problem i synchronizacji mikroskopu z wyświetlaczem można było przeprowadzić badania nad systemem wykrywania ruchu owocówek.
      W pierwszych doświadczeniach zbadano funkcjonowanie komórek L2, otrzymujących sygnały bezpośrednio z fotoreceptorów w oku muchy. Fotoreceptory reagują na dwa rodzaje zdarzeń: zwiększanie intensywności światła i jej zmniejszanie, przekazując sygnał dalej. Okazało się jednak, że badane komórki L2 przetwarzają otrzymywany sygnał i przekazują dalej tylko informację o zmniejszaniu się siły światła. Nie jest znana rola takiego szczególnego filtrowania, ale oczywiste jest, że w takim razie musi istnieć inna grupa komórek, odpowiedzialna za przekazywanie sygnałów o zwiększaniu intensywności światła.
      Już pierwsze eksperymenty przyniosły więc zaskakujące wyniki i odsłoniły nowe obszary badań. Zespół badawczy pod kierunkiem Dierka Reiffa liczy na wiele jeszcze odkryć i zastosowań. Zamierza on krok po kroku i neuron po neuronie prześledzić cały układ detekcji ruchu i sposób, w jaki przetwarza on informacje na poziomie komórek. Na rezultaty badań niecierpliwie czekają też współpracownicy z projektu Robotics.
      Członkowie zespołu to Dierk F. Reiff, Johannes Plett, Marco Mank, Oliver Griesbeck, Alexander Borst; ich praca na ten temat została opublikowana w magazynie Nature Neuroscience.
    • przez KopalniaWiedzy.pl
      Ponowna amerykańska załogowa wyprawa na Księżyc stoi dziś pod poważnym znakiem zapytania. Powodem są oczywiście finanse - od momentu udowodnienia w latach sześćdziesiątych, że technika amerykańska jest lepsza niż radziecka, zniknęły ideologiczne i ambicjonalne powody, dla których topiono w misje Apollo gigantyczne kwoty. Dziś przeważa zimna kalkulacja ekonomiczna, zaś od momentu rozpoczęcia się światowego kryzysu jeszcze bardziej bezwzględna.
      A tymczasem ostatnie badania wskazują, że Księżyc może być znacznie ciekawszy, niż dotąd sądzono. Odkrycie w księżycowej glebie pokaźnych ilości wody to nie tylko świetna wiadomość dla zwolenników załogowej bazy na naszym satelicie. To również doskonały cel badań, bo podobny mechanizm gromadzenia i powstawania wody mógłby istnieć także na innych planetach.
      Misja na Księżyc zapewne jednak wreszcie się odbędzie, NASA planuje ją na przyszłą dekadę. Ludzi mają jednak wspomagać wysoko wykwalifikowane roboty. Skoro samodzielne łaziki doskonale radzą sobie na odległym Marsie, wzbudzając nawet powszechne zainteresowanie, to również na Księżycu roboty będą poczynać sobie doskonale, a dzięki niewielkiej odległości w zasadzie możliwe jest nawet manualne nimi sterowanie. Przygotowany w kalifornijskich zakładach Jet Propulsion Laboratory (Laboratorium Napędów Odrzutowych - jeden z ważniejszych oddziałów NASA) robot jest trochę niecodzienny.
      ATHLETE (czyli All Terrain Hex-Limbed Extra Terrestrial Explorer) to sześcionożny pojazd, potrafi przenosić duże ciężary na swoim sześciokątnym, płaskim grzbiecie, kopać dziury, podnosić różne obiekty przy pomocy narzędzi mocowanych do kół, kręci stereoskopowe filmy swoją kamerą, bez trudu nawiguje i porusza się po każdej nawierzchni. Prototyp o wysokości ponad 180 centymetrów i średnicy ponad 270 centymetrów, czyli połowę mniejszy od planowanej ostatecznej wersji, potrafi podróżować z prędkością 10 kilometrów na godzinę. Ma jednak spore ograniczenia.
      Usprawnieniem pojazdu zajął się się robotyk-eksperymentator i profesor informatyki Marty Vona. Zmodyfikował oryginalną koncepcję, dodając nowe stawy, które działają jak łokcie i nowe człony, pełniące funkcję przedramion. Odbyło się to wirtualnie, poprzez modyfikację graficznego projektu robota przy pomocy algorytmów. Zaprojektował również odpowiedni interfejs komputerowy, przy pomocy którego operator może łączyć na różne sposoby zaprojektowane wirtualne przeguby z modelem rzeczywistego robota. Pozwala to na wykonywanie wielu trudnych, wymagających koordynacji zadań, tak samo, jak gdyby wirtualny model istniał naprawdę. Przyspiesza to zdecydowanie rozwój projektu, oszczędzając i czas i pieniądze.
      Roboty to duże i kosztowne projekty - mówi Vona. - Więc lepiej być zawczasu pewnym, jak będą sobie radzić w konkretnych okolicznościach. Idealnie byłoby, gdyby roboty i ludzie pracowali jako zespół.
      Marty Vona współpracował już wcześniej z Jet Propulsion Laboratory, gdzie opracował oprogramowanie dla marsjańskich łazików Spirit i Opportunity Mars rovers. W 2004 NASA roku otrzymała nagrodę Software of the Year Award za swoją pracę. Obecnie wykłada przedmioty informatyczne i komputerowe na Northeastern University w Bostonie. Projekt rozwoju ATHLETE finansowała National Science Foundation.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...