Jump to content
Forum Kopalni Wiedzy
  • ×   Pasted as rich text.   Paste as plain text instead

      Only 75 emoji are allowed.

    ×   Your link has been automatically embedded.   Display as a link instead

    ×   Your previous content has been restored.   Clear editor

    ×   You cannot paste images directly. Upload or insert images from URL.

  • Similar Content

    • By KopalniaWiedzy.pl
      We wrześniu firma Boston Dynamics ujawniła, że produkowany przez nią robot-pies Spot jest testowany podczas wykonywania takich zadań jak monitorowanie budów, sprawdzanie infrastruktury gazowej, energetycznej i paliwowej oraz w zadaniach związanych z bezpieczeństwem publicznym. Teraz dowiadujemy się, że Spot był przez 90 dni testowany przez jednostkę saperską Massachusetts State Police (MSP).
      American Civil Liberties Union (ACLU) zwrócila się o szczegółowe informacje na temat reklamowanego przez MSP na Facebooku wydarzenia pod tytułem „Robotyka w organach ścigania”. Dzięki temu dowiedzieliśmy się, że stanowa policja wypożyczyła Spota na 3 miesiące.
      Jak wyjaśnia rzecznik prasowy MSP, Spot był używany w roli zdalnego mobilnego urządzenia obserwacyjnego, które dostarczało policji obraz miejsc niebezpiecznych, gdzie mogły znajdować się np. materiały wybuchowe czy uzbrojeni przestępcy. Roboty to wartościowe narzędzia, gdyż mogą dostarczyć informacji o potencjalnie niebezpiecznych miejscach, stwierdził David Procopio.
      Spot wyposażony jest w kamerę rejestrującą obraz w promieniu 360 stopni i radzi sobie w nieprzyjaznym terenie. Może też przenosić ładunki o wadze do 14 kilogramów.
      We wrześniu Boston Dynamics rozpoczęła sprzedaż Spota wraz z SDK, dzięki czemu klienci mogą rozwijać własne aplikacje oraz lepiej kontrolować robota.
       


      « powrót do artykułu
    • By KopalniaWiedzy.pl
      ROBOpilot Unmanned Aircraft Conversion System pomyślnie zdał egzamin przed Federalną Administracją Lotniczą (FAA), otrzymał zgodę na pilotowanie lekkich samolotów i zaczął samodzielnie latać. Wbrew temu, co mogłoby się wydawać, ROBOpilot nie jest tradycyjnym autopilotem. To urządzenie, które steruje samolotem tak, jak człowiek. Robot za pomocą ramienia manipuluje wolantem, naciska pedały i korzystając z systemu wizyjnego odczytuje dane ze wskaźników.
      System autorstwa firmy DZYNE Technologies ma z zadanie pomóc w rozwoju autonomicznych samolotów. Ma być znacznie tańszą alternatywą dla obecnie stosowanych metod. Zamiana myśliwca F-16 w samolot autonomiczny kosztowała około 1 miliona dolarów. Tymczasem technologia opracowywana przez DZYNE ma pozwolić na zainstalowaniu ROBOpilota w dowolnym samolocie, a gdy nie będzie on potrzebny, można go usunąć i samolot nadaje się do pilotowania przez człowieka.
      Wcześniejsze rozwiązania podobne do ROBOpilota to południowokoreański Pibot oraz ALIAS opracowany przez Pentagon. Jednak żaden z nich nie był w stanie samodzielnie prowadzić pełnowymiarowego samolotu.
      ROBOpilot potrafi wystartować, prowadzić samolot w czasie lotu i wylądować. To imponujące osiągnięcie w dziedzinie robotyki, mówi Louise Dennis z University of Liverpool. W przeciwieństwie do autopilota, który ma bezpośredni dostęp do czujników i systemu sterowania, ten robot jest umieszczany na miejscu pilota i musi prowadzić fizyczną interakcję z urządzeniami sterującymi oraz odczytywać wskaźniki.
      Twórcy ROBOpilota mówią, że może się on przydać do sterowania samolotami transportowymi, maszynami mającymi wlatywać w niebezpieczne środowisko oraz samolotami wykonującymi misje zwiadowcze i szpiegowskie.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Badacze z Wydziału Fizyki Uniwersytetu Warszawskiego, przy użyciu technologii światłoczułych elastomerów, zademonstrowali mikrorobota naśladującego ruch ślimaka. 10-milimetrowej długości robot, napędzany i sterowany przy pomocy modulowanej wiązki lasera, potrafi poruszać się po płaskim podłożu, wspinać po pionowej ścianie i pełzać po szklanym suficie.
      W przyrodzie organizmy różnej wielkości – od mikroskopijnych nicieni, przez dżdżownice, po mięczaki – poruszają się w rozmaitych środowiskach dzięki przemieszczającym się deformacjom miękkiego ciała. W szczególności ślimaki używają śluzu – śliskiej, wodnistej wydzieliny – by poprawić kontakt między miękką nogą a podłożem. Taki sposób poruszania się ma kilka unikalnych cech: działa na różnych podłożach: drewnie, szkle, teflonie czy piasku i w różnych konfiguracjach, włączając w to pełzanie po suficie. W robotyce, prosty mechanizm pojedynczej nogi mógłby zapewnić odporność na warunki zewnętrzne i zużycie elementów oraz duży margines bezpieczeństwa dzięki ciągłemu kontaktowi z podłożem. Do tej pory zademonstrowano jedynie nieliczne roboty naśladujące pełzanie ślimaków w skali centymetrów, z napędem elektro-mechanicznym.
      Ciekłokrystaliczne elastomery (LCE) to inteligentne materiały, które mogą szybko, w odwracalny sposób zmieniać kształt, na przykład po oświetleniu. Dzięki odpowiedniemu uporządkowaniu (orientacji) cząsteczek elastomeru można programować deformację takiego elementu. Umożliwia to zdalne zasilanie i sterowanie mechanizmów wykonawczych i robotów przy pomocy światła.
      Wykorzystując technologię światłoczułych elastomerów badacze z Wydziału Fizyki Uniwersytetu Warszawskiego we współpracy z Wydziałem Matematyki Uniwersytetu w Suzhou w Chinach zbudowali pierwszego na świecie robota, który porusza się naśladując pełzanie ślimaka w naturalnej skali. Ruch robota generowany jest przez poruszające się deformacje miękkiego ciała, wywołane wiązką lasera i ich oddziaływanie z podłożem przez warstwę sztucznego śluzu. Oświetlany wiązką lasera 10-milimetrowy robot może wspinać się na pionową ścianę i pełzać po szklanym suficie z prędkością kilku milimetrów na minutę, wciąż około 50 razy wolniej niż ślimaki porównywalnej wielkości.
       Mimo niewielkiej prędkości, konieczności ciągłego uzupełniania warstwy śluzu i niskiej sprawności energetycznej, nasz robot umożliwia nowe spojrzenie na mikro-mechanikę inteligentnych materiałów oraz badania nad poruszaniem się ślimaków i podobnych zwierząt – mówi Piotr Wasylczyk z Pracowni Nanostruktur Fotonicznych, który kierował projektem. W naszych badaniach biorą udział studenci już od pierwszych lat studiów na Wydziale Fizyki. Pierwszym autorem publikacji o robocie-ślimaku w Macromolecular Rapid Communications jest Mikołaj Rogóż, laureat Diamentowego Grantu, który właśnie kończy pracę magisterską na temat ciekłokrystalicznych elastomerów i zaczyna doktorat w naszej grupie.
      Badacze, którzy wcześniej zademonstrowali napędzanego światłem robota-gąsienicę naturalnej wielkości, wierzą, że nowe inteligentne materiały w połączeniu z nowatorskimi metodami wytwarzania miniaturowych elementów, pozwolą im konstruować kolejne mikro-roboty i napędy – obecnie pracują nad miniaturowym silnikiem i mikro-pęsetą sterowaną światłem.
      Badania nad miękkimi mikro-robotami i polimerowymi mechanizmami wykonawczymi finansowane są przez Narodowe Centrum Nauki w ramach projektu „Mechanizmy wykonawcze w mikro-skali na bazie foto-responsywnych polimerów” oraz przez Ministerstwo Nauki i Szkolnictwa Wyższego w ramach "Diamentowego Grantu" przyznanego M. Rogóżowi.
      Fizyka i astronomia na Uniwersytecie Warszawskim pojawiły się w 1816 roku w ramach ówczesnego Wydziału Filozofii. W roku 1825 powstało Obserwatorium Astronomiczne. Obecnie w skład Wydziału Fizyki UW wchodzą Instytuty: Fizyki Doświadczalnej, Fizyki Teoretycznej, Geofizyki, Katedra Metod Matematycznych oraz Obserwatorium Astronomiczne. Badania pokrywają niemal wszystkie dziedziny współczesnej fizyki, w skalach od kwantowej do kosmologicznej. Kadra naukowo-dydaktyczna Wydziału składa się z ponad 200 nauczycieli akademickich, wśród których jest 77 pracowników z tytułem profesora. Na Wydziale Fizyki UW studiuje ok. 1000 studentów i ponad 170 doktorantów.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Już wkrótce roboty i protezy mogą zyskać zmysł dotyku podobny do ludzkiego lub nawet od niego doskonalszy. Asynchronous Coded Electronic Skin (ACES) to sztuczny system nerwowy opracowany na National University of Singapore.
      Nowa elektroniczna skóra charakteryzuje się wysoką czułością,szybkością reakcji i odpornością na uszkodzenia, może być łączona z dowolnymi czujnikami. Jej twórcy to profesor Benjamin Tee i jego zespół z Wydziału Inżynierii i Nauk Materiałowych.
      Ludzie wykorzystują zmysł dotyku do zrealizowania niemal każdej czynności, od podniesienia filiżanki kawy po wymianę uścisków dłoni. Bez niego tracimy równowagę podczas chodzenia. Podobnie jest z robotami, które potrzebują zmysłu dotyku, by lepiej wchodzić z interakcje z ludźmi. Jednak współczesne roboty wciąż nie czują zbyt dobrze obiektów, mówi profesor Tee, który od  opnad dekaty pracuje nad elektroniczną skórą.
      System ACES wykrywa sygnały podobnie, jak ludzki układ nerwowy, jednak – w przeciwieństwie do niego – są one przesyłane za pomocą pojedynczego przewodu. To zupełnie inne podejście niż w istniejących elektronicznych skórach, która korzystają ze złożonego systemu przewodów, co powoduje, że całość jest podatna na uszkodzenia i trudna w skalowaniu.
      ACES wykrywa dotknięcie nawet 1000-krotnie szybciej niż ludzki układ nerwowy. Jest w stanie odróżnić fizyczny kontakt z poszczególnymi czujnikami w czasie krótszym niż 60 nanosekund. Nawet gdy impuls został odebrany jednocześnie przez wiele czujników. To szybciej, niż jakikolwiek wcześniej stworzony system.
      W ciągu zaledwie 10 milisekund – a więc 10-krotnie szybciej niż mrugnięcie okiem – ACES jest w stanie określić kształt, teksturę i twardość dotykanego obiektu.
      Platforma ACES pozwala też na stworzenie wytrzymałej elektronicznej skóry. To niezwykle ważna cecha dla urządzenia, które ma często wchodzić w kontakt fizyczny z otoczeniem.
      Olbrzymimi zaletami ACES są prostota okablowania całego systemu oraz szybka reakcja na impuls, nawet w przypadku wykorzystywania wielu czujników. To znakomicie ułatwia skalowanie ACES i wykorzystanie jej w wielu różnych zastosowaniach. Skalowalność to podstawowa cecha, gdyż potrzebujemy dużych wydajnych połaci elektronicznej skóry, którą możemy pokryć robota czy protezę, wyjaśnia profesor Tee. ACES można łatwo łączyć z dowolnymi czujnikami, np. rejestrującymi temperaturę, dotyk czy wilgotność, dodaje uczony.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Paryska straż pożarna ujawniła, że w walce o ocalenie katedry Notre Dame ważną rolę odegrał robot Colossus. To ważący pół tony zdalnie sterowany pojazd gąsienicowy zbudowany przez firmę Shark Robotics, który jest wyposażony w działko wodne o wydajności ponad 2500 litrów na minutę.
      Czas działał przeciwko nam, wiatr działał przeciwko nam, potrzebowaliśmy pomocy. Priorytetem było ocalenie dwóch dzwonnic. Wyobraźcie sobie, że drewniane struktury podtrzymujące dzwony zostałyby osłabione i dzwony by spadły. Tego się właśnie baliśmy. Na początku nietrudno było sobie wyobrazić, że cała katedra się zawali, powiedział Gabriel Plus, rzecznik prasowy paryskiej straży pożarnej. Upadek wielotonowych dzwonów spowodowałby zawalenie się wież i katedry.
      Gdy zawaliła się iglica i część dachu, ze środka Notre Dame wycofano strażaków. Dowodzący akcją obawiali się zawalenia reszty dachu, który mógł zabić pracujących wewnątrz ludzi.
      Wtedy to do środka wysłano Colossusa. Robot jest zdalnie sterowany, a operator ma nad nim kontrolę na odległość ponad 400 metrów. Urządzenie jest wodoodporne i może pracować w wysokich temperaturach, a jego akumulatory pozwalają na ośmiogodzinną pracę. Można go wyposażyć w kamery, czujniki oraz wentylator rozpraszający dym. To właśnie Colossus powstrzymał dalsze rozprzestrzenianie się płomieni we wnętrzu katedry.
      Na załączonym filmie możemy zobaczyć robota podczas walki z pożarem Notre Dame.
       


      « powrót do artykułu
×
×
  • Create New...