Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Wikipedia i internet dla robotów

Rekomendowane odpowiedzi

W Szwajcarii trwają prace nad internetem dla... robotów. W ramach projektu RoboEarth ma powstać sieć, w której roboty będą dzieliły się swoimi doświadczeniami zebranymi podczas wykonywania zadań oraz prosiły o pomoc przy zmaganiu się z nowymi wyzwaniami. Twórcy projektu wierzą, że dzięki temu maszyny będą szybciej zdolne do pracy, gdyż będą miały dostęp do rosnących zasobów wiedzy.

Doktor Markus Waibel ze Szwajcarskiego Federalnego Instytutu Technologii w Zurichu, który bierze udział w projekcie RoboEarth, mówi, że obecnie większość robotów postrzega rzeczywistość w sobie tylko właściwy sposób, gdyż niewiele rzeczy w tym zakresie ustandaryzowano. RoboEarth ma być składnicą wiedzy przekazywaną przez same roboty, z której będą mogły korzystać inne maszyny. Powstanie baza danych z opisami miejsc, w których roboty pracują, obiektów, z którymi się stykają oraz instrukcjami dotyczącymi wykonywania różnych zadań. To ma być rodzaj Wikipedii dla robotów - bazy wiedzy, którą każda maszyna będzie mogła edytować, poszerzać. Dzięki temu, jak ma nadzieję Waibel, gdy robot znajdzie się w obcym sobie miejscu, połączy się z RoboEarth, pobierze szczegółowy opis miejsca oraz zadań do wykonania i natychmiast przystąpi do pracy.

Uczony mówi, że np. w przyszłości, gdy roboty zadomowią się w naszych domach, RoboEarth pozwoli nowej maszynie zrozumieć, co oznacza prośba o nakrycie do stołu, co jest potrzebne, by ją spełnić i jak należy wykonać poszczególne czynności.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

[...]<p>Uczony mówi, że np. w przyszłości, gdy roboty zadomowią się w naszych domach, RoboEarth pozwoli nowej maszynie zrozumieć, co oznacza prośba o nakrycie do stołu, co jest potrzebne, by ją spełnić i jak należy wykonać poszczególne czynności.</p>

 

Czyli wystarczy włamać się do bazy i wstawić inne dane ręcznie, albo nauczyć jednego robota, który przekaże dane dalej, że np prośba o nakrycie do stołu oznacza coś zupełnie innego (potencjalnie groźnego jak np zrobienie krzywdy komuś w jakiś sposó;) i wszystkie roboty zaczną to robić.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Teraz wydaje się to zabawne, ale w przyszłości bez takiej skarbnicy wiedzy roboty mogą sobie nie poradzić.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Spokojnie Panowie. To i tak o wiele za mało, aby dorównać ludzkiej inteligencji ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To jest wynalazek na siłę, że niby co to da? Roboty niekorzystające z ogólnej sieci internet tylko ze specjalnej wersji stworzonej dla nich byłyby prawie bezużyteczne. Jeśli już taki internet powstałby to i tak twórcy robotów dążyliby do wykorzystania ludzkiego internetu. Już teraz komputery mają stworzone olbrzymie wiedzy z których taki robot może korzystać (jak chociażby ten superkomputer który wygrywa w Vabanku). Jeśli ta sieć nie przedstawiałaby jakiejś "super inteligencji" nie widziałbym w tym nic szczególnego. Nie zaprzeczam oczywiście że roboty powinny się jakoś porozumiewać lokalnie i globalnie i może wymieniać doświadczenia, to jest jednak tylko problem odpowiednich wewnętrznych protokołów zaszytych w nich samych, na 99% proces ten będzie scentralizowany, tzn będzie tworzona baza zachowań robotów. W sumie to praktycznie niczym nie będzie się różnić od aktualizacji Windowsa. Zdecentralizowanie tego procesu może źle się skończyć dla ludzi ]:->,tak jak koledzy wspomnieli.

Dopóki na świecie nie ma żadnego masowo produkowanego robota do domowego użytku takie prace są bez sensu. To tak jakby twórcy "ludzkiego" internetu zaczęli go projektować bez komputera jego podstawowej jednostki składowej. Wszystkie prawdziwe wynalazki tworzone są przy okazji i nie na zamówienie, ci naukowcy chcą się tylko wylansować.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Jeden niepozorny błąd - źle wpisany adres e-mail, przypadkowo udostępniony plik w chmurze czy dokument pozostawiony w biurowej drukarce - może kosztować firmę naprawdę wiele. W dzisiejszym świecie dane to jeden z najcenniejszych zasobów, a ich ochrona staje się równie ważna jak zabezpieczenie pieniędzy czy sprzętu. Co istotne, zagrożenia nie zawsze przychodzą z zewnątrz - często wynikają z codziennej, rutynowej komunikacji. Dlatego zapobieganie utracie firmowych danych to temat, którego nie można odkładać na później. Jak robić to skutecznie? Odpowiadamy.


      Kanały ryzyka Do wycieku danych wcale nie potrzeba zaawansowanego ataku - często wystarczy zwykła codzienna pomyłka. Mail z poufnym załącznikiem trafiający do złego odbiorcy, wydruk pozostawiony w biurowej drukarce, pendrive zgubiony w drodze na spotkanie, czy plik udostępniony w chmurze bez właściwych uprawnień - to scenariusze, które zdarzają się częściej, niż mogłoby się wydawać. Do tego dochodzą rozmowy na komunikatorach i wideokonferencjach, gdzie łatwo pokazać zbyt wiele. Każdy z tych kanałów wygląda niepozornie, ale to właśnie tam najczęściej kryją się wektory wycieku, dlatego tak ważne jest stosowanie różnych mechanizmów ochrony, dopasowanych do konkretnego sposobu pracy.
       
      Podstawowe mechanizmy DLP Nowoczesne systemy DLP działają trochę jak inteligentny strażnik - potrafią rozpoznać, które pliki zawierają wrażliwe informacje, nadać im odpowiednie „etykiety” i pilnować, co dalej się z nimi dzieje. Jeśli ktoś spróbuje wysłać taki dokument na zewnątrz, system może go zablokować, poprosić o dodatkowe potwierdzenie albo przynajmniej ostrzec, że coś jest nie tak.
      Uzupełnieniem tej ochrony jest IRM, czyli zarządzanie prawami do informacji. To rozwiązanie działa bezpośrednio na samym pliku - można ustawić, kto ma prawo go otworzyć, edytować czy wydrukować. Dzięki temu nawet jeśli dokument przypadkiem trafi w niepowołane ręce, jego zawartość nadal pozostaje zabezpieczona.
       
      Kopie zapasowe i audyt Sama technologia DLP to ważny element układanki, ale nie rozwiązuje problemu w stu procentach. Nawet najlepiej skonfigurowany system nie pomoże, jeśli firma nie zadba o coś tak podstawowego jak regularne kopie zapasowe. To one pozwalają szybko wrócić do pracy po awarii, ataku ransomware czy zwykłej pomyłce pracownika. Ważne jest nie tylko ich wykonywanie, ale też sprawdzanie, czy faktycznie da się z nich odtworzyć dane - wielu organizacjom zdarzało się boleśnie odkryć, że kopie były, ale bezużyteczne.

      Drugim filarem jest audyt. To nic innego jak szczegółowe „mapowanie” danych w firmie - sprawdzenie, gdzie dokładnie się znajdują, kto ma do nich dostęp i jakimi kanałami są przesyłane. Bez takiej wiedzy trudno ustawić skuteczne zabezpieczenia. Audyt pomaga też wychwycić miejsca, w których ryzyko wycieku jest największe, na przykład dział, który korzysta z wielu zewnętrznych narzędzi czy wymienia dużo informacji z partnerami. Dzięki temu można lepiej dopasować polityki bezpieczeństwa do realnych potrzeb, zamiast wprowadzać ogólne zasady, które albo są zbyt luźne, albo nadmiernie utrudniają pracę.
       
      Architektura ochrony Najlepsze rozwiązania w zakresie ochrony informacji opierają się na wielu warstwach, bo tylko takie podejście daje realne efekty. Na poziomie komputerów i urządzeń mobilnych kontrolowane są działania użytkowników, w sieci monitorowany jest ruch wychodzący, a w aplikacjach i chmurze zabezpieczane są pliki współdzielone na co dzień. To właśnie dzięki takiej wielopoziomowej architekturze zapobieganie utracie danych staje się skuteczne - bo nawet jeśli jedno zabezpieczenie zawiedzie, kolejne wciąż stanowią barierę przed wyciekiem.
       
      Proces wdrożenia Wdrożenie systemu zapobiegania utracie danych to proces etapowy. Najpierw robi się audyt i inwentaryzację, by wiedzieć, jakie informacje firma posiada i gdzie one są. Potem następuje klasyfikacja i oznaczanie danych - ustalenie, co jest poufne, a co mniej wrażliwe. Kolejny krok to pilotaż w ograniczonym zakresie, który pozwala sprawdzić działanie systemu i reakcje użytkowników. Dopiero później wdraża się rozwiązanie w całej organizacji, a na końcu dba o stałe monitorowanie i dopasowywanie polityk, tak aby były skuteczne, ale nie paraliżowały codziennej pracy.
       
      Ograniczenia i przykłady rozwiązań Żaden system nie gwarantuje stuprocentowej ochrony. Zagrożenia mogą pojawić się w kanałach, które nie zostały objęte kontrolą, a zbyt restrykcyjne reguły mogą paraliżować pracę. Dlatego w praktyce łączy się różne podejścia: DLP, IRM, archiwizację i szkolenia pracowników. Na rynku dostępne są rozwiązania, które integrują te mechanizmy - przykładem jest GTB DLP Suite, oferowane przez iiTD, które umożliwia zarówno analizę treści, jak i kontrolę kanałów komunikacji. To jedno z narzędzi, które pokazuje, jak technologia wspiera organizacje w redukowaniu ryzyka.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Kamienie nerkowe to jedna z najbardziej rozpowszechnionych chorób układu moczowego. Cierpi na nie około 12% populacji. Obecnie usuwa się je za pomocą leków lub podczas zabiegów chirurgicznych. Jednak metody te są bardzo uciążliwe dla osób, które nie tolerują leków, albo też mają problem z wciąż nawracającymi kamieniami. Międzynarodowy zespół z Kanady, Hiszpanii i Niemiec pracuje nad niewielkimi robotami, których celem będzie rozpuszczanie kamieni nerkowych.
      Nowa minimalnie inwazyjna technika została już z powodzeniem przetestowana na wydrukowanym trójwymiarowym modelu nerki. Roboty mają trafić w pobliże kamienia i rozpuścić go do tego stopnia, że w ciągu kilku dni samodzielnie opuści układ moczowy.
      Testowane roboty mają około 1 centymetra długości, są wykonane z hydrożelu i zawierają mikromagnesy. Po wprowadzeniu do cewki moczowej, robotami można sterować za pomocą pola magnetycznego i umieścić je w pobliżu kamienia. Roboty zostały wyposażone w ureazę. To enzym, który odpowiada za rozkład mocznika na amoniak i dwutlenek węgla. Ureaza uwalnia się z hydrożelu i zwiększa zasadowość moczu, dzięki czemu znakomicie przyspiesza rozpuszczanie kamieni moczanowych i cystynowych, które w ciągu kilku dni opuszczają organizm. Dodatkową zaletą tej techniki jest fakt, że dzięki magnesom roboty są dobrze widoczne na USG, zatem przebieg leczenia można łatwo kontrolować. Roboty mają wymiary 1x1x12 mm, więc bez problemu powinny zmieścić się w każdym zakamarku układu moczowego i dotrzeć wszędzie tam, gdzie będą potrzebne.
      Nie od dzisiaj wiadomo, że proces rozpuszczania kamieni nerkowych znacząco przyspiesza przy pH > 6, a ideałem jest osiągnięcie pH 7,0–7,2. Leki stosowane w leczeniu kamieni nerkowych mają za zadanie zwiększyć alkaliczność moczu. Jest to jednak proces długotrwały, a leki muszą być ciągle przyjmowane. Autorzy badań, wykorzystując swoje roboty, zwiększyli zasadowość sztucznego moczu z pH 6 do pH 7 w ciągu zaledwie godziny, a pH 9 osiągnęli w ciągu 24 godzin.
      Oczywiście nie ma potrzeby, a nawet nie powinno się, zmieniać odczynu moczu na aż tak bardzo zasadowy. Nadmierna alkalizacja, pH > 7,5, sprzyja bowiem powstawaniu kamieni fosforanowych i struwitowych. Potwierdziły to zresztą badania. Najlepsze wyniki w redukcji masy kamienia – o 30% w ciągu 5 dni – osiągnięto przy pH 7.
      Z wynikami badań można zapoznać się na stronie Advanced Healthcare Materials.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Roboty przeszły długą drogę. Od maszyn wykonujących serię z góry zaprogramowanych ruchów, po urządzenia uczące się, analizujące środowisko i samodzielnie podejmujące decyzje. O ile więc potrafią rozwijać swoją część logiczną, to element fizyczny pozostaje niezmienny. Robot to zamknięty system. Nie jest zdolny do naprawy czy dostosowania się do środowiska. Tymczasem prawdziwa autonomia robotów oznacza, że muszą one nie tylko samodzielnie myśleć, ale być w stanie podtrzymać swoje istnienie, mówi Philippe Martin Wyder. Tak jak systemy biologiczne pobierają zasoby ze środowiska i włączają je w swoje organizmy, nasze roboty rosną, dostosowują się i reperują korzystając z zasobów otoczenia lub części innych robotów, dodaje uczony.
      Wyder stoi na czele grupy naukowców z Columbia University, która opublikowała na łamach Science Advances artykuł pod znamiennym tytułem Robot metabolism: Toward machines that can grow by consuming other machines.
      Naukowcy stworzyli, inspirowany zabawką Geomag, robotyczne wyposażone w magnesy urządzenie o nazwie Truss Link. Truss Link może rozszerzać się, kurczyć i łączyć z innymi identycznymi modułami, tworząc coraz bardziej skomplikowane struktury. Badacze pokazali, w jaki sposób Truss Link samodzielnie buduje kształt dwuwymiarowy, następnie trójwymiary. A widoczny na filmie czworościan udoskonalił się, dołączając kolejny element, dzięki któremu zwiększył prędkość swojego przemieszczania się o ponad 66,5%.
      To oczywiście początek badań i prezentacja pewnej koncepcji, wyznacza jednak kolejny kierunek rozwoju robotów. Naukowcy z Columbia University uważają, że w przyszłości roboty będą posiadały umiejętność podtrzymywania swojego istnienia poprzez samodzielne naprawy za pomocą zasobów otoczenia, będą mogły rozbudowywać się czy zmieniać w zależności od potrzeb. Uczeni nazwali te proces „metabolizmem robotów”.
      Metabolizm robotów do cyfrowy interfejs ze światem fizycznym, który pozwala sztucznej inteligencji nie tylko rozwijać się pod względem poznawczym, ale również fizycznym. To nowy wymiar autonomii. Początkowo systemy zdolne do takiego metabolizmu będą wykorzystywane w wyspecjalizowanych zadaniach, jak eksploracja kosmosu czy usuwanie skutków katastrof. W końcu jednak o otwiera to perspektywę świata, w którym sztuczna inteligencja buduje fizyczne struktury lub tworzy roboty równie łatwo, jak dzisiaj pisze maila, wyjaśnia Wyder.
      Współautor badań, Hod Lipson, zauważa, że wizja samoreplikujących się lub przebudowujących robotów wygląda jak scenariusz z filmu science fiction. Jednak faktem jest, że już teraz powierzamy robotom coraz większą część naszego życia – od autonomicznych pojazdów, poprzez automatyczne fabryki po zadania z zakresu obronności czy eksploracji kosmosu. Kto będzie konserwował i naprawiał te roboty? Nie możemy polegać wyłącznie na ludziach. Roboty muszą w końcu nauczyć się dbać same o siebie.


      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Szerokie rozpowszechnienie się internetu i technologii komunikacyjnych przyciąga ludzi do centrów miast. Zachodzi więc zjawisko odwrotne, niż przewidywano u zarania internetu i ery informacyjnej, informują naukowcy z Uniwersytetu w Bristolu.
      Pomimo tego, że internet pozwala nam na niezwykle łatwy dostęp do wszelkich informacji i umożliwia łatwe i szybkie nawiązanie kontaktu z osobami z drugiego końca świata, jego rozwój nie doprowadził do odpływu ludności z miast. Wręcz przeciwnie, specjaliści zauważyli odwrotne zjawisko. Coraz większe rozpowszechnienie się technologii informacyjnych prowadzi zwiększenia koncentracji ludzi w miastach.
      Nie od dzisiaj wiemy, że np. przedsiębiorstwa działające na uzupełniających się polach, mają tendencje do grupowania się na tym samym obszarze, gdyż zmniejsza to koszty działalności. Technologie informacyjne miały to zmienić.
      Doktor Emmanouil Tranos z Univeristy of Bristol i Yannis M. Ioannides z Tufts Univeristy przeanalizowali skutki zachodzących w czasie zmian dostępności i prędkości łączy internetowych oraz użytkowania internetu na obszary miejskie w USA i Wielkiej Brytanii. Geografowie, planiści i ekonomiści miejscy, którzy na początku epoki internetu rozważali jego wpływ na miasta, dochodzili czasem do dziwacznych wniosków. Niektórzy wróżyli rozwój „tele-wiosek”, krajów bez granic, a nawet mówiono o końcu miasta.
      Dzisiaj, 25 lat po komercjalizacji internetu, wiemy, że przewidywania te wyolbrzymiały wpływ internetu i technologii informacyjnych w zakresie kontaktów i zmniejszenia kosztów związanych z odległością. Wciąż rosnąca urbanizacja pokazuje coś wręcz przeciwnego. Widzimy, że istnieje komplementarność pomiędzy internetem a aglomeracjami. Nowoczesne technologie informacyjne nie wypchnęły ludzi z miast, a ich do nich przyciągają.
      Artykuł Ubiquitous digital technologies and spatial structure; an update został opublikowany na łamach PLOS One.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Naturalne jaskinie to ważne cele przyszłych misji NASA. Będą one miejscem poszukiwań dawnego oraz obecnego życia w kosmosie, a także staną się schronieniem dla ludzi, mówi Ali Agha z Team CoSTAR, który rozwija roboty wyspecjalizowane w eksploracji jaskiń. Jak wcześniej informowaliśmy, na Księżycu istnieją gigantyczne jaskinie, w których mogą powstać bazy.
      Team CoSTAR, w skład którego wchodzą specjaliści z Jet Propulsion Laboratory i California Instute of Technology to jednym z zespołów, który przygotowuje się do wzięcia udziału w tegorocznych zawodach SubT Challenge organizowanych przez DARPA (Agencja Badawcza Zaawansowanych Projektów Obronnych).
      CoSTAR wygrał ubiegłoroczną edycję SubT Urban Circuit, w ramach której roboty eksplorowały tunele stworzone przez człowieka. Teraz coś na coś trudniejszego i mniej przewidywalnego. Czas na naturalne jaskinie i tunele.
      Specjaliści z CoSTAR i ich roboty pracują w jaskiniach w Lava Beds National Monument w północnej Kalifornii. Jaskiniowa edycja Subterranean Challenge jest dla nas szczególnie interesująca, gdyż lokalizacja taka bardzo dobrze pasuje do długoterminowych planów NASA. Chce ona eksplorować jaskinie na Księżycu i Marsie, w szczególności jaskinie lawowe, które powstały w wyniku przepływu lawy. Wiemy, że takie jaskinie istnieją na innych ciałach niebieskich. Kierowany przez Jen Blank zespół z NASA prowadził już testy w jaskiniach lawowych i wybrał Lava Beds National Monument jako świetny przykład jaskiń podobnych do tych z Marsa. Miejsce to stawia przed nami bardzo zróżnicowane wyzwania. Jest tam ponad 800 jaskiń, mówi Ben Morrell z CoSTAR.
      Eksperci zwracają uwagę, że istnieje bardzo duża różnica w dostępności pomiędzy tunelami stworzonymi przez człowieka, a naturalnymi jaskiniami. Z jednej strony struktury zbudowane ludzką ręką są bardziej rozwinięte w linii pionowej, są wielopiętrowe, z wieloma poziomami, schodami, przypominają labirynt. Jaskinie natomiast charakteryzuje bardzo trudny teren, który stanowi poważne wyzwanie nawet dla ludzi. Są one trudniej dostępne, z ich eksploracją wiąże się większe ryzyko, są znacznie bardziej wymagające dla systemów unikania kolizji stosowanych w robotach.
      Agha i Morrell mówią, że jaskinie lawowe ich zaskoczyły. Okazały się znacznie trudniejsze niż sądzili. Stromizny stanowią duże wyzwanie dla robotów. Powierzchnie tych jaskiń są niezwykle przyczepne. To akurat korzystne dla robotów wyposażonych w nogi, jednak roboty na kołach miały tam poważne problemy. Przed urządzeniami stoją tam zupełnie inne wyzwania. Zamiast rozpoznawania schodów i urządzeń, co było im potrzebne w tunelach budowanych przez człowieka, muszą radzić sobie np. z nagłymi spadkami czy obniżającym się terenem.
      Miejskie tunele są dobrze rozplanowane, nachylone pod wygodnymi kątami, z odpowiednimi zakrętami, prostymi korytarzami i przejściami. Można się tam spodziewać równego podłoża, wiele rzeczy można z góry zaplanować. W przypadku jaskiń wielu rzeczy nie można przewidzieć.
      Celem SubT Challenge oraz zespołu CoSTAR jest stworzenie w pełni autonomicznych robotów do eksploracji jaskiń. I cel ten jest coraz bliżej.
      Byliśmy bardzo szczęśliwi, gdy podczas jednego z naszych testów robot Spot [Boston Dynamics – red.] w pełni autonomicznie przebył całą jaskinię. Pełna autonomia to cel, nad którym pracujemy zarówno na potrzeby NASA jak i zawodów, więc pokazanie, że to możliwe jest wielkim sukcesem, mówi Morrell. Innym wielkim sukcesem było bardzo łatwe przełożenie wirtualnego środowiska, takiego jak systemy planowania, systemy operacyjne i autonomiczne na rzeczywiste zachowanie się robota, dodaje. Jak jednak przyznaje, zanotowano również porażki. Roboty wyposażone w koła miały problemy w jaskiniach lawowych. Dochodziło do zużycia podzespołów oraz poważnych awarii sprzętu. Ze względu na epidemię trudno było sobie z nimi poradzić w miejscu testów, stwierdza ekspert.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...