Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Wikipedia i internet dla robotów

Recommended Posts

W Szwajcarii trwają prace nad internetem dla... robotów. W ramach projektu RoboEarth ma powstać sieć, w której roboty będą dzieliły się swoimi doświadczeniami zebranymi podczas wykonywania zadań oraz prosiły o pomoc przy zmaganiu się z nowymi wyzwaniami. Twórcy projektu wierzą, że dzięki temu maszyny będą szybciej zdolne do pracy, gdyż będą miały dostęp do rosnących zasobów wiedzy.

Doktor Markus Waibel ze Szwajcarskiego Federalnego Instytutu Technologii w Zurichu, który bierze udział w projekcie RoboEarth, mówi, że obecnie większość robotów postrzega rzeczywistość w sobie tylko właściwy sposób, gdyż niewiele rzeczy w tym zakresie ustandaryzowano. RoboEarth ma być składnicą wiedzy przekazywaną przez same roboty, z której będą mogły korzystać inne maszyny. Powstanie baza danych z opisami miejsc, w których roboty pracują, obiektów, z którymi się stykają oraz instrukcjami dotyczącymi wykonywania różnych zadań. To ma być rodzaj Wikipedii dla robotów - bazy wiedzy, którą każda maszyna będzie mogła edytować, poszerzać. Dzięki temu, jak ma nadzieję Waibel, gdy robot znajdzie się w obcym sobie miejscu, połączy się z RoboEarth, pobierze szczegółowy opis miejsca oraz zadań do wykonania i natychmiast przystąpi do pracy.

Uczony mówi, że np. w przyszłości, gdy roboty zadomowią się w naszych domach, RoboEarth pozwoli nowej maszynie zrozumieć, co oznacza prośba o nakrycie do stołu, co jest potrzebne, by ją spełnić i jak należy wykonać poszczególne czynności.

Share this post


Link to post
Share on other sites

[...]<p>Uczony mówi, że np. w przyszłości, gdy roboty zadomowią się w naszych domach, RoboEarth pozwoli nowej maszynie zrozumieć, co oznacza prośba o nakrycie do stołu, co jest potrzebne, by ją spełnić i jak należy wykonać poszczególne czynności.</p>

 

Czyli wystarczy włamać się do bazy i wstawić inne dane ręcznie, albo nauczyć jednego robota, który przekaże dane dalej, że np prośba o nakrycie do stołu oznacza coś zupełnie innego (potencjalnie groźnego jak np zrobienie krzywdy komuś w jakiś sposó;) i wszystkie roboty zaczną to robić.

Share this post


Link to post
Share on other sites

Teraz wydaje się to zabawne, ale w przyszłości bez takiej skarbnicy wiedzy roboty mogą sobie nie poradzić.

Share this post


Link to post
Share on other sites

To jest wynalazek na siłę, że niby co to da? Roboty niekorzystające z ogólnej sieci internet tylko ze specjalnej wersji stworzonej dla nich byłyby prawie bezużyteczne. Jeśli już taki internet powstałby to i tak twórcy robotów dążyliby do wykorzystania ludzkiego internetu. Już teraz komputery mają stworzone olbrzymie wiedzy z których taki robot może korzystać (jak chociażby ten superkomputer który wygrywa w Vabanku). Jeśli ta sieć nie przedstawiałaby jakiejś "super inteligencji" nie widziałbym w tym nic szczególnego. Nie zaprzeczam oczywiście że roboty powinny się jakoś porozumiewać lokalnie i globalnie i może wymieniać doświadczenia, to jest jednak tylko problem odpowiednich wewnętrznych protokołów zaszytych w nich samych, na 99% proces ten będzie scentralizowany, tzn będzie tworzona baza zachowań robotów. W sumie to praktycznie niczym nie będzie się różnić od aktualizacji Windowsa. Zdecentralizowanie tego procesu może źle się skończyć dla ludzi ]:->,tak jak koledzy wspomnieli.

Dopóki na świecie nie ma żadnego masowo produkowanego robota do domowego użytku takie prace są bez sensu. To tak jakby twórcy "ludzkiego" internetu zaczęli go projektować bez komputera jego podstawowej jednostki składowej. Wszystkie prawdziwe wynalazki tworzone są przy okazji i nie na zamówienie, ci naukowcy chcą się tylko wylansować.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Naturalne jaskinie to ważne cele przyszłych misji NASA. Będą one miejscem poszukiwań dawnego oraz obecnego życia w kosmosie, a także staną się schronieniem dla ludzi, mówi Ali Agha z Team CoSTAR, który rozwija roboty wyspecjalizowane w eksploracji jaskiń. Jak wcześniej informowaliśmy, na Księżycu istnieją gigantyczne jaskinie, w których mogą powstać bazy.
      Team CoSTAR, w skład którego wchodzą specjaliści z Jet Propulsion Laboratory i California Instute of Technology to jednym z zespołów, który przygotowuje się do wzięcia udziału w tegorocznych zawodach SubT Challenge organizowanych przez DARPA (Agencja Badawcza Zaawansowanych Projektów Obronnych).
      CoSTAR wygrał ubiegłoroczną edycję SubT Urban Circuit, w ramach której roboty eksplorowały tunele stworzone przez człowieka. Teraz coś na coś trudniejszego i mniej przewidywalnego. Czas na naturalne jaskinie i tunele.
      Specjaliści z CoSTAR i ich roboty pracują w jaskiniach w Lava Beds National Monument w północnej Kalifornii. Jaskiniowa edycja Subterranean Challenge jest dla nas szczególnie interesująca, gdyż lokalizacja taka bardzo dobrze pasuje do długoterminowych planów NASA. Chce ona eksplorować jaskinie na Księżycu i Marsie, w szczególności jaskinie lawowe, które powstały w wyniku przepływu lawy. Wiemy, że takie jaskinie istnieją na innych ciałach niebieskich. Kierowany przez Jen Blank zespół z NASA prowadził już testy w jaskiniach lawowych i wybrał Lava Beds National Monument jako świetny przykład jaskiń podobnych do tych z Marsa. Miejsce to stawia przed nami bardzo zróżnicowane wyzwania. Jest tam ponad 800 jaskiń, mówi Ben Morrell z CoSTAR.
      Eksperci zwracają uwagę, że istnieje bardzo duża różnica w dostępności pomiędzy tunelami stworzonymi przez człowieka, a naturalnymi jaskiniami. Z jednej strony struktury zbudowane ludzką ręką są bardziej rozwinięte w linii pionowej, są wielopiętrowe, z wieloma poziomami, schodami, przypominają labirynt. Jaskinie natomiast charakteryzuje bardzo trudny teren, który stanowi poważne wyzwanie nawet dla ludzi. Są one trudniej dostępne, z ich eksploracją wiąże się większe ryzyko, są znacznie bardziej wymagające dla systemów unikania kolizji stosowanych w robotach.
      Agha i Morrell mówią, że jaskinie lawowe ich zaskoczyły. Okazały się znacznie trudniejsze niż sądzili. Stromizny stanowią duże wyzwanie dla robotów. Powierzchnie tych jaskiń są niezwykle przyczepne. To akurat korzystne dla robotów wyposażonych w nogi, jednak roboty na kołach miały tam poważne problemy. Przed urządzeniami stoją tam zupełnie inne wyzwania. Zamiast rozpoznawania schodów i urządzeń, co było im potrzebne w tunelach budowanych przez człowieka, muszą radzić sobie np. z nagłymi spadkami czy obniżającym się terenem.
      Miejskie tunele są dobrze rozplanowane, nachylone pod wygodnymi kątami, z odpowiednimi zakrętami, prostymi korytarzami i przejściami. Można się tam spodziewać równego podłoża, wiele rzeczy można z góry zaplanować. W przypadku jaskiń wielu rzeczy nie można przewidzieć.
      Celem SubT Challenge oraz zespołu CoSTAR jest stworzenie w pełni autonomicznych robotów do eksploracji jaskiń. I cel ten jest coraz bliżej.
      Byliśmy bardzo szczęśliwi, gdy podczas jednego z naszych testów robot Spot [Boston Dynamics – red.] w pełni autonomicznie przebył całą jaskinię. Pełna autonomia to cel, nad którym pracujemy zarówno na potrzeby NASA jak i zawodów, więc pokazanie, że to możliwe jest wielkim sukcesem, mówi Morrell. Innym wielkim sukcesem było bardzo łatwe przełożenie wirtualnego środowiska, takiego jak systemy planowania, systemy operacyjne i autonomiczne na rzeczywiste zachowanie się robota, dodaje. Jak jednak przyznaje, zanotowano również porażki. Roboty wyposażone w koła miały problemy w jaskiniach lawowych. Dochodziło do zużycia podzespołów oraz poważnych awarii sprzętu. Ze względu na epidemię trudno było sobie z nimi poradzić w miejscu testów, stwierdza ekspert.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Inżynierowie w University of Texas at Austin stworzyli najmniejsze w dziejach urządzenie do przechowywania danych. Profesor Deji Akiwande i jego zespół opierali się na opisywanych już przez nas badaniach, w czasie których powstał atomistor, najcieńsze urządzenie do składowania danych. Teraz naukowcy poczynili krok naprzód zmniejszając przekrój swojego urządzenie do zaledwie 1 nm2.
      Kluczem do dalszej redukcji rozmiarów urządzenia było dobre poznanie właściwości materiałów w tak małej skali i wykorzystanie roli defektów w materiale. Gdy pojedynczy dodatkowy atom metalu wypełnia dziurę, przekazuje materiałowi nieco ze swojego przewodnictwa, co prowadzi do zmiany czyli pojawienia się efektu pamięciowego, mówi Akinwande. Mniejsze układy pamięci pozwolą na stworzenie mniejszych komputerów i telefonów. Układy takie zużywają też mniej energii, pozwalają przechować więcej danych w mniejszej przestrzeni, działają też szybciej.
      Wyniki tych badań przecierają drogę do opracowania przyszłych generacji interesującego Departament Obrony sprzętu takiego jak ultragęste układy pamięci, neuromorficzne systemy komputerowe, systemy komunikacyjne działające w zakresie fal radiowych i inne, mówi Pani Veranasi, menedżer w US Army Research Office, które finansowało najnowsze badaniach.
      Atomristor, na którym oparto najnowsze badania, był już najcieńszym układem pamięci. Jego grubość wynosiła zaledwie 1 atom. Jednak dla zmniejszenia urządzeń ważny jest również ich przekrój poprzeczny. Tym, czego poszukiwaliśmy było spowodowanie by pojedynczy atom kontrolował funkcje pamięci. Udało się nam to osiągnąć, mówi Akinwande.
      Nowe urządzenie należy do kategorii memrystorów, urządzeń zdolnych do modyfikowania oporności pomiędzy dwoma punktami końcowymi bez potrzeby używania bramki w roli pośrednika. Opracowana właśnie odmiana memrystora, którą stworzono dzięki wykorzystaniu zaawansowanych narzędzi z Oak Ridge National Laboratory, daje szanse na osiągnięcie gęstości zapisu rzędu 25 Tb/cm2. To 100 krotnie więcej niż obecnie dostępne komercyjne układ flash.
      Nowy układ pamięci wykorzystuje dwusiarczek molibdenu (MoS2). Jednak jego twórcy zapewniają, że w tej roli można wykorzystać setki innych materiałów o podobnej budowie.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Badacze z Rutgers University stworzyli kierowanego USG robota do pobierania krwi, który radził sobie z tym zadaniem tak samo dobrze, a nawet lepiej niż ludzie. Odsetek skutecznych procedur wyliczony dla 31 pacjentów wynosił 87%. Dla 25 osób z łatwo dostępnymi żyłami współczynnik powodzenia sięgał zaś aż 97%.
      W urządzeniu znajduje się analizator hematologiczny z wbudowaną wirówką. Może ono być wykorzystywane przy łóżkach pacjentów, a także w karetkach czy gabinetach lekarskich.
      Wenopunkcja, czyli nakłuwanie żyły, by wprowadzić igłę bądź cewnik, to częsta procedura medyczna. W samych Stanach rocznie przeprowadza się ją ponad 1,4 mld razy. Wcześniejsze badania wykazały, że nie udaje się to u 27% pacjentów z niewidocznymi żyłami, 40% osób bez żył wyczuwalnych palpacyjnie i u 60% wyniszczonych chorych.
      Powtarzające się niepowodzenia związane z wkłuciem pod kroplówkę zwiększają ryzyko zakażeń czy zakrzepicy. Czas poświęcany na przeprowadzenie procedury się wydłuża, rosną koszty i liczba zaangażowanych w to osób.
      Takie urządzenie jak nasze może pomóc pracownikom służby zdrowia szybko, skutecznie i bezpiecznie pozyskać próbki, zapobiegając w ten sposób niepotrzebnym komplikacjom i bólowi towarzyszącemu kolejnym próbom wprowadzenia igły - podkreśla doktorant Josh Leipheimer.
      W przyszłości urządzenie może być wykorzystywane w takich procedurach, jak cewnikowanie dożylne, dializowanie czy wprowadzanie kaniuli tętniczej.
      Kolejnym etapem prac ma być udoskonalenie urządzenia, tak by zwiększyć odsetek udanych procedur u pacjentów z trudno dostępnymi żyłami. Jak podkreślają Amerykanie, dane uzyskane w czasie tego studium zostaną wykorzystane do usprawnienia sztucznej inteligencji w robocie.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Robot z piórami gołębia to najnowsze dzieło naukowców z Uniwersytetu Stanforda. Korzysta ono z dodatkowego elementu, ułatwiającego ptakom latanie – możliwości manipulowania rozstawem piór i kształtem skrzydeł.
      David Lentink ze Stanforda przyglądał się sposobowi pracy skrzydeł, poruszając skrzydłami martwego gołębia. Zauważył, że najważniejszy dla zmiany kształtu skrzydeł są kąty poruszania się dwóch stawów: palca i nadgarstka. To dzięki ich zmianie sztywne pióra zmieniają kształt tak, że zmienia się cały układ skrzydeł, co znakomicie pomaga w kontroli lotu.
      Korzystając z tych doświadczeń Lentink wraz z zespołem zbudowali robota, którego wyposażyli w prawdziwe pióra gołębia.
      Robot to urządzenie badawcze. Dzięki niemu naukowcy z USA mogą prowadzić eksperymenty bez udziału zwierząt. Zresztą wielu testów i tak nie udało by się przeprowadzić wykorzystując zwierzęta. Na przykład uczeni zastanawiali się, czy gołąb może skręcać poruszając palcem tylko przy jednym skrzydle.
      Problem w tym, że nie wiem, jak wytresować ptaka, by poruszył tylko jednym palcem, a jestem bardzo dobry w tresurze ptaków, mówi Lentink, inżynier i biolog z Uniwersytetu Stanforda. Robotyczne skrzydła rozwiązują ten problem. Testy wykazały, że zgięcie tylko jednego z palców pozwala robotowi na wykonanie zakrętu, a to wskazuje, że ptaki również mogą tak robić.
      Uczeni przeprowadzili też próby chcąc się dowiedzieć, jak ptaki zapobiegają powstaniu zbyt dużych przerw pomiędzy rozłożonymi piórami. Pocierając jedno pióro o drugie zauważyli, że początkowo łatwo się one z siebie ześlizgują, by później się sczepić. Badania mikroskopowe wykazały, że na krawędziach piór znajdują się niewielkie haczyki zapobiegające ich zbytniemu rozłożeniu. Gdy pióra znowu się do siebie zbliżają, haczyki rozczepiają się. W tym tkwi ich tajemnica. Mają kierunkowe rzepy, które utrzymują pióra razem, mówi Lentink.
      Uczeni, aby potwierdzić swoje spostrzeżenia, odwrócili pióra i tak skonstruowane skrzydło umieścili w tunelu aerodynamicznym. Pęd powietrza utworzył takie przerwy między piórami, że wydajność skrzydła znacznie spadła.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Iskra
      Dokładnie 50 lat temu, późnym wieczorem 29 października 1969 roku na Uniwersytecie Kalifornijskim w Los Angeles (UCLA) dwóch naukowców prowadziło pozornie nieznaczący eksperyment. Jego konsekwencje ujawniły się dopiero wiele lat później, a skutki pracy profesora Leonarda Kleinrocka i jego studenta Charleya Kline'a odczuwamy do dzisiaj.
      Kleinrock i Kline mieli do rozwiązania poważny problem. Chcieli zmusić dwa oddalone od siebie komputery, by wymieniły informacje. To, co dzisiaj wydaje się oczywistością, przed 50 laty było praktycznie nierozwiązanym problemem technicznym. Nierozwiązanym aż do późnego wieczora 29 października 1969 roku.
      Jeden ze wspomnianych komputerów znajdował się w UCLA, a drugi w oddalonym o 600 kilometrów Stanford Research Institute (SRI) w Menlo Park. Próby nawiązania łączności trwały wiele godzin. Kline próbował zalogować się do komputera w SRI, zdążył w linii poleceń wpisać jedynie  „lo”, gdy jego maszyna uległa awarii. Wymagała ponownego zrestartowania i ustanowienia połączenia. W końcu około godziny 22:30 po wielu nieudanych próbach udało się nawiązać łączność i oba komputery mogły ze sobą „porozmawiać”. Wydaje się jednak, że pierwszą wiadomością wysłaną za pomocą sieci ARPANETu było „lo”.
       

       
      Trudne początki
      Początków ARPANETU możemy szukać w... Związku Radzieckim, a konkretnie w wielkim osiągnięciu, jakim było wystrzelenie Sputnika, pierwszego sztucznego satelity Ziemi. To był dla Amerykanów policzek. Rosjanie pokazali, że pod względem technologicznym nie odstają od Amerykanów. Cztery lata zajęło im nadgonienie nas w technologii bomby atomowej, dziewięć miesięcy gonili nas w dziedzinie bomby wodorowej. Teraz my próbujemy dogonić ich w technice satelitarnej, stwierdził w 1957 roku George Reedy, współpracownik senatora, późniejszego prezydenta, Lyndona Johnsona.
      Po wystrzeleniu Sputnika prezydent Eisenhower powołał do życia Advanced Research Project Agency (ARPA), której zadaniem była koordynacja wojskowych projektów badawczo-rozwojowych. ARPA zajmowała się m.in. badaniami związanymi z przestrzenią kosmiczną. Jednak niedługo później powstała NASA, która miała skupiać się na cywilnych badaniach kosmosu, a programy wojskowe rozdysponowano pomiędzy różne wydziały Pentagonu. ARPA zaś, ku zadowoleniu środowisk naukowych, została przekształcona w agencję zajmującą się wysoce ryzykownymi, bardzo przyszłościowymi badaniami o dużym teoretycznym potencjale. Jednym z takich pól badawczych był czysto teoretyczny sektor nauk komputerowych.
      Kilka lat później, w 1962 roku, dyrektorem Biura Technik Przetwarzania Informacji (IPTO) w ARPA został błyskotliwy naukowiec Joseph Licklider. Już w 1960 roku w artykule „Man-Computer Symbiosis” uczony stwierdzał, że w przyszłości ludzkie mózgi i maszyny obliczeniowe będą bardzo ściśle ze sobą powiązane. Już wtedy zdawał on sobie sprawę, że komputery staną się ważną częścią ludzkiego życia.
      W tych czasach komputery były olbrzymimi, niezwykle drogimi urządzeniami, na które mogły pozwolić sobie jedynie najbogatsze instytucje. Gdy Licklider zaczął pracować dla ARPA szybko zauważył, że aby poradzić sobie z olbrzymimi kosztami związanymi z działaniem centrów zajmujących się badaniami nad komputerami, ARPA musi kupić wyspecjalizowane systemy do podziału czasu. Tego typu systemy pozwalały mniejszym komputerom na jednoczesne łączenie się z wielkim mainframe'em i lepsze wykorzystanie czasu jego procesora. Dzięki nim wielki komputer wykonywać różne zadania zlecane przez wielu operatorów. Zanim takie systemy powstały komputery były siłą rzeczy przypisane do jednego operatora i w czasie, gdy np. wpisywał on ciąg poleceń, moc obliczeniowa maszyny nie była wykorzystywana, co było oczywistym marnowaniem jej zasobów i pieniędzy wydanych na zbudowanie i utrzymanie mainframe’a.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...