Jump to content
Forum Kopalni Wiedzy

Search the Community

Showing results for tags ' robot'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Found 21 results

  1. Od piątku (8 maja) w Singapurze trwają 2-tygodniowe testy robota-psa firmy Boston Dynamics. Poza godzinami szczytu Spot patroluje część Bishan-Ang Mo Kio Park, przypominając ludziom o społecznym dystansowaniu. Jeśli robot się sprawdzi, będzie patrolować także inne parki. Jak napisano w relacji prasowej National Parks Board, kontrolowany zdalnie Spot ma zmniejszyć siłę roboczą potrzebną do patrolowania parków i zminimalizować fizyczny kontakt między załogą, wolontariuszami [...] i odwiedzającymi. Spot jest wyposażony w kamery z funkcją analizy wideo, dzięki czemu możliwe jest oszacowanie liczby ludzi w parku. Czworonożny robot, któremu w okresie testowym towarzyszy oficer, będzie odtwarzać komunikat przypominający o zachowaniu bezpiecznych odległości. NParks podkreślają, że kamery robota nie pozwalają na śledzenie i/lub rozpoznawanie konkretnych osób. Nie będą też zbierane żadne dane osobowe. Spot dobrze sobie radzi w różnych rodzajach terenu. Potrafi omijać przeszkody, dlatego świetnie się nadaje do działania w publicznych parkach i ogrodach. Wyposażono go w algorytmy i czujniki bezpieczeństwa, dzięki którym wykrywa obiekty i ludzi na swojej trasie. Jeśli 2-tygodniowe testy zakończą się sukcesem, NParks wykorzystają Spoty także podczas porannego i wieczornego szczytu oraz w innych parkach, np. w Jurong Lake Gardens. W Singapurze Spoty są już wykorzystywane w izolatorium na terenie Changi Exhibition Centre, gdzie dostarczają pacjentom posiłki czy leki.   « powrót do artykułu
  2. Jeden z zespołów NASA rozwija koncepcję zbudowania na niewidocznej stronie Księżyca największego radioteleskopu w Układzie Słonecznym. Na razie pomysł znajduje się na bardzo wczesnym etapie rozwoju, ale jeśli radioteleskop powstanie, pozwoli on na badanie przestrzeni kosmicznej w nieosiągalny dotychczas sposób i może zarejestrować sygnały pochodzące z wieków ciemnych, czyli epoki, która rozpoczęła się około 400 000 lat po Wielkim Wybuchu. Niewidoczna strona Księżyca ma olbrzymie zalety z punktu widzenia radioastronomii. Srebrny Glob stanowi świetną osłonę przed zakłóceniami z Ziemi. Izolowałby teleskop nie tylko od zakłóceń generowanych przez człowieka, ale też od zakłóceń jonosfery, satelitów krążących wokół naszej planety, a w czasie księżycowej nocy, również od zakłóceń ze strony Słońca. Wielki radioteleskop mógłby prowadzić obserwacje sygnałów o częstotliwości poniżej 30MHz (długość fali większa niż 10 metrów). Takich obserwacji praktycznie nie można prowadzić z powierzchni Ziemi, gdyż fale o tej długości są zakłócane przez atmosferę. Nawet teleskopy kosmiczne mają problem z poradzeniem sobie z zakłóceniami z naszej planety. Nie mówiąc już o tym, że nie jesteśmy w stanie zbudować i wysłać w przestrzeń kosmiczną zbyt dużego radioteleskopu. Dlatego też inżynier Saptarshi Bandyopadhyay z Jet Propulsion Laboratory proponuje wybudowanie za pomocą robotów DuAxel w 3,5-kilometrowym kraterze radioteleskopu o średnicy 1-kilometra. Jak czytamy w złożonej propozycji Lunar Crater Radio Telescope (LCRT) byłby największym radioteleskopem w Układzie Słonecznym! LCRT umożliwiłby dokonanie niezwykłych odkryć w dziedzinie kosmologii obserwując sygnały z wczesnego wszechświata w paśmie 10–50 metrów (6–30Hz), które dotychczas nie było badane przez człowieka. Bandyopadhyay przedstawił swój projekt w ramach rozpisanego przez NASA Innovative Advanced Concepts Program. Uznano go za na tyle interesujący, że przeszedł przez 1. z trzech faz programu. Inżynier i jego zespół otrzymali dofinansowanie w wysokości 125 000 USD. To pieniądze przeznaczone na obmyślenie projektu mechanicznego LCRT, wyszukanie odpowiednich kraterów na Księżycu oraz porównanie spodziewanych korzyści i wydajności LCRT z innymi pomysłami zaproponowanymi w literaturze fachowej. Jak mówi sam Bandyopadhyay, wszystko to oznacza, że jego pomysł znajduje się na bardzo wczesnym etapie rozwoju. Jeśli jednak doszłoby do realizacji projektu, LCRT miałby być budowany przez grupę robotów zdolnych do wspinania się po ścianach krateru. W propozycji pada nazwa DuAxel. Bandyopadhyay posługuje się tutaj terminologią zaproponowaną przed 8 laty przez innych ekspertów z Jet Propulsion Laboratory. Jak czytamy w pracy Axel and DuAxel rovers for the sustainable exploration of extreme terrains łazik Axel to sterowany za pomocą kabla dwukołowy robot zdolny do przemierzania w dół stromych zboczy i jazdę po trudnym terenie. Łazik DuAxel to czterokołowy robot zbudowany z dwóch łazików Axel, który swobodnie – bez kabla – porusza się po ekstremalnie trudnym terenie. Nie ma żadnej gwarancji, że pomysł Bandyopadhyaya będzie realizowany. Ma on bowiem silną konkurencję. O fundusze stara się wiele zespołów naukowych, które proponują m.in. nowatorskie materiały do budowy żagla słonecznego, skaczące próbniki eksplorujące ciała niebieskie, metody pozyskiwania wody na Księżycu czy systemy napędowe do eksploracji głębokiego kosmosu. Obecnie największym radioteleskopem jest chiński FAST o średnicy 500 metrów, który pracuje w zakresie od 70MHz do 3GHz « powrót do artykułu
  3. W szpitalu polowym w Wuhan roboty zajmują się osobami zarażonymi koronawirusem SARS-CoV-2. Szpital Wuchang stał się polem testowym dla nowych technologii. Sześć różnych typów robotów dba tam o 200 pacjentów cierpiących na COVID-19. Maszyny zajmują się pomiarami temperatury, dostarczaniem pożywienia, patrolują i odkażają pomieszczenia. W ten sposób z jednej strony odciążają pracowników służby zdrowia, z drugiej zaś chronią ich przed infekcjami. W szpitalu znajduje się 200 pacjentów w średnio poważnym stanie. Roboty wykorzystują sieci 5G, dzięki czemu lekarze mogą na bieżąco zbierać dane i monitorować pacjentów. W prowincji Hubei, centrum epidemii, koronawirusem SARS-CoV-2 zaraziło się ponad 3000 pracowników służby zdrowia. Brakuje personelu, więc roboty to nieoceniona pomoc. Tym bardziej, że mogą zapobiegać kolejnym infekcjom. Urządzenia są zdolne do samodzielnego poruszania się i samodzielnego ładowania akumulatorów, nie wymagają więc bieżącej obsługi. Prace nad projektem wykorzystania robotów rozpoczęły się 28 lutego, gdy urzędnicy z Hubei nawiązali kontakt z Chińską Akademią Nauk. Technologiczny startup CloudMinds dostarczył 12 robotów i wraz z państwową firmą China Mobile w ciągu tygodnia zbudował w szpitalu odpowiednią infrastrukturę. Szpital Wuchang jest jedynym w tak dużej mierze obsługiwanym przez roboty, ale nie jedynym, w którym urządzenia takie pracują. W jednym ze szpitali w prowincji Guangdong pracują dwa roboty, które dostarczają leki i pożywienia, zbierają śmieci i zmieniają pościel. Urządzenia potrafią też same się odkażać. « powrót do artykułu
  4. Wyobraźmy sobie całkowicie elastycznego robota, który nie zawiera żadnych obwodów i jest napędzany światłem słonecznym, mówi Amos Meeks z Uniwersytetu Harvarda (SEAS) i główny autor najnowszych badań. Badań, których autorzy opracowali nowatorską całkowicie optyczną platformę obliczeniową. Taką, w której do obliczeń wykorzystuje się tylko i wyłącznie światło. W większości współczesnych systemów obliczeniowych wykorzystuje się twarde materiały, takie jak metalowe kable, półprzewodniki i fotodiody łączące elektronikę i światło, stwierdza Meeks. U podstaw wyłącznie optycznej platformy obliczeniowej leży chęć pozbycia się tych elementów i kontrolowanie światła za pomocą światła, dodaje. Tego typu platformy wykorzystują materiały nieliniowe, które zmieniają indeks refrakcyjny w reakcji na intensywność światła. Gdy światło przechodzi przez taki materiał, zwiększa się jego indeks refrakcyjny i w materiale pojawia się, generowany światłem, światłowód. Problem jednak w tym, że obecnie większość materiałów nieliniowych wymaga albo użycia potężnych laserów, albo też w wyniku oddziaływania światła na stałe zmieniają się ich właściwości. Naukowcy z Harvard John A. Paulson School of Engineering and Applied Sciences (SEAS) we współpracy z uczonymi z McMaster University oraz University of Pittsburgh opracowali nowatorski materiał, który w reakcji na światło lasera o niskiej mocy zmiania swój indeks refrakcyjny zmniejszając i zwiększając swoje rozmiary, a zmiany te są odwracalne. Nowy materiał to hydrożel zbudowany z sieci polimerowej nasączonej wodą oraz z niewielkiej liczby spiropyranów, molekuł reagujących na światło. Gdy hydrożel zostaje oświetlony, nieco się kurczy i zmienia się jego indeks refrakcyjny. Po wyłączeniu światła żel powraca do oryginalnego kształtu. Gdy zaś hydrożel zostanie oświetlony przez wiele źródeł światła, wchodzą one w interakcje i wpływają na siebie. Na przykład promień A może blokować promień B, promień B może blokować promień A, oba mogą blokować się nawzajem lub oba mogą przez siebie przechodzić. Powstaje w ten sposób bramka logiczna. Mimo, że to oddzielne promienie, mogą na siebie wpływać. Możemy wyobrazić sobie, że w przyszłości taki sposób reakcji na światło może zostać wykorzystany do wykonywania obliczeń, mówi Kalaichelvi Saravanamuttu z McMaster University. Nauki materiałowe się zmieniają. Samoregulujące, adaptacyjne materiały zdolne do optymalizowania swoich właściwości w reakcji na otoczenie zastępują statyczne, nieefektywne energetycznie i zewnętrznie regulowane materiały. Zaprezentowany przez nas materiał, który kontroluje światło o niezwykle niskiej intensywności to kolejny pokaz nadchodzącej rewolucji technologicznej, dodaje profesor Joanna Aizenberg z SEAS. « powrót do artykułu
  5. W Japonii powstaje największy robot humanoidalny w historii. Gigant budowany w Gundam Factory Yokohama będzie miał 18 metrów wysokości, a jego waga sięgnie 25 ton. Urządzenie będzie poruszane za pomocą elektrycznych i hydraulicznych siłowników o 24 stopniach swobody. Uwagę zwraca już sama nazwa fabryki. Gundam to anime, w którym bohaterami są ogromne roboty. Roboty te to rodzaj kombinezonu poruszanego przez człowieka siedzącego w torsie. Gundamy mają humanoidalny kształt, charakterystyczny hełm i są białe, z niebieskimi, złotymi i czerwonymi wstawkami. Gundam są tak zakorzenione w japońskiej kulturze, że w Tokio powstały nawet ich 20-metrowe pomniki. Teraz powstanie gigantyczny rzeczywiście poruszający się gundam. Na razie niewiele o nim wiadomo. Udostępniono symulację robota wykonaną przez JSK Lab z Uniwersytetu Tokijskiego. Fabryka z Jokohamy zaprezentowała też pomniejszony model robota i rusztowania, które posłużą do jego budowy i przy których będzie stał. Wiadomo, że robot będzie chodzł, nie wiemy jednak, na ile długi będzie to spacer. Najprawdopodobniej będzie w stanie przejść kilka kroków do przodu i do tyłu, pozostając przy rusztowaniu. Prawdopodobnie robot będzie zdalnie sterowany, a publiczność będzie mogła go oglądać z pewnej odległości. Pierwszy publiczny pokaz olbrzyma zapowiadany jest na październik bieżącego roku.   « powrót do artykułu
  6. Amerykańscy naukowcy stworzyli pierwsze żywe maszyny. Zbudowali je z komórek żaby szponiastej (Xenopus laevis), bezogonowego płaza zamieszkującego Afrykę. Roboty poruszają się i można je dostosowywać do swoich potrzeb. Jednym z najbardziej udanych jest miniaturowa maszyna wyposażona w dwie nogi. Z kolei inny projekt zawiera wewnątrz otwór, w którym może transportować niewielkie ładunki. Jak zapewnia Michael Levin, dyrektor Allen Discovery Center na Tufts University, to całkowicie nowe formy życia. Nigdy wcześniej nie istniały one na Ziemi. To żywe, programowalne organizmy. Tego typu rozwiązanie ma olbrzymie zalety w porównaniu z tradycyjnymi robotami. Po pierwsze, żywe roboty potrafią samodzielnie się naprawić. Po drugie zaś, można je zaprogramować tak, by po wykonaniu zadania ginęły, ulegając naturalnemu rozkładowi, jak inne organizmy żywe. Ich twórcy uważają, że w przyszłości tego typu roboty mogą np. oczyszczać oceany z mikroplastiku, samodzielnie lokalizować i przetwarzać toksyczne substancje, dostarczać leki do wyznaczonego miejsca w organizmie czy w końcu oczyszczać ze złogów ściany naczyń krwionośnych. Projektowaniem robotów zajmuje się specjalny „algorytm ewolucyjny” działający na superkomputerze. Projektowanie zaczyna się od symulacji przypadkowego połączenia 500 do 1000 komórek skóry i serca. Następnie każdy z takich robotów jest wirtualnie testowany. Te projekty, które najlepiej odpowiadają oczekiwaniu naukowców, mają największą szansę wykonać założone zadania, są dalej rozwijane i na ich podstawie tworzy się nowe roboty. Urządzenia są napędzane przez komórki serca, które spontanicznie kurczą się i rozszerzają, działając jak niewielkie silniki. Robotów nie trzeba niczym zasilać. Komórki mają na tyle dużo energii, że żyją przez 7-10 dni. Grupa Levina poczekała na 100. generację robotów stworzonych przez algorytm i z niej wybrała niektóre projekty do zbudowania ich w laboratorium. Jako, że do stworzenia maszyn użyto komórek Xenopus, urządzenia zyskały miano „xenobotów”. Architektura xenobotów jest, jak zapewniają twórcy, skalowalna. Podczas eksperymentów z prawdziwymi robotami powstały takie, które poruszały się w wodzie po linii prostej, inne krążyły w kółko, jeszcze inne tworzyły grupy. Można je wyposażyć w naczynia krwionośne, układ nerwowy czy komórki odbierające np. bodźce świetlne i stworzyć w ten sposób proste oczy. Jeśli do zbudowania robotów użyjemy komórek ssaków, urządzenia będą mogły pracować na suchym lądzie. Głównym celem prac zespołu Levina jest zrozumienie życia i tego, jak ono powstaje i funkcjonuje. Oczywiście rodzi to wiele pytań etycznych, chociażby o status xenobotów. Czy należy uznawać je za roboty, czy za organizmy żywe. I do jakiego stopnia złożony powinien być ich układ nerwowy. Xenoboty zostały szczegółowo opisane na łamach PNAS, w artykule A scalable pipeline for designing reconfigurable organisms. « powrót do artykułu
  7. W 2019 r. w polskich szpitalach przeprowadzono rekordową liczbę niemal 900 zabiegów przy użyciu robotów da Vinci – wynika z danych udostępnionych PAP przez firmę Synektik, dystrybutora tego systemu w naszym kraju. Polska chirurgia robotyczna wciąż jest jednak w powijakach. Pierwszy robot chirurgiczny da Vinci trafił do Polski już w 2010 r., ale robotyka chirurgiczna wciąż się w Polsce rozwija. Przełomowy był 2018 r., kiedy w polskich szpitalach uruchomiono pięć robotów operacyjnych da Vinci i przeprowadzono przy ich użyciu 60 zabiegów. Aż cztery aparaty zaczęto używać dopiero w czwartym kwartale tego roku, stąd tak duży wzrost zrobotyzowanych operacji w 2019 r. Rok 2019 zamykamy już z ośmioma systemami i niemal 900 przeprowadzonymi operacjami. Liczymy, że dynamika wzrostu zostanie utrzymana przez polski rynek chirurgii robotycznej także w 2020 roku – podkreśla Artur Ostrowski z firmy Synektik, która podsumowała skalę wykorzystania robotów. Zabiegi z udziałem systemu da Vinci przeprowadza się w Polsce zarówno w szpitalach prywatnych, jak i publicznych: we Wrocławiu, Warszawie, Poznaniu, Białymstoku, Krakowie, Wieliszewie i Siedlcach. Według eksperta zalety operacji z użyciem robota to niska utrata krwi, minimalizacja powikłań, mniejsze blizny pooperacyjne, co skraca rekonwalescencję i pobyt pacjentów w szpitalu. Wszystko to sprawia, że choć samo użycie robota pozostaje droższe niż klasyczna operacja, rozwój chirurgii robotycznej wiąże się dla całego polskiego systemu ochrony zdrowia z wymiernymi oszczędnościami – podkreślił Ostrowski. Na stosunkowo niedużą skalę wykorzystania robotów chirurgicznych w Polsce wskazuje raport „Rynek robotyki chirurgicznej w Polsce 2019. Prognozy na lata 2020-2023”, opracowany przez Upper Finance i PMR i opublikowany pod koniec 2019 r. Wynika z niego, że w USA przypada jeden robot chirurgiczny da Vinci na 100 tys. mieszkańców, w Europie jeden na 800 tys. mieszkańców, zaś w Polsce – jeden na aż 6,5 mln mieszkańców. Zdaniem Joanny Szyman z Upper Finance w kraju wielkości Polski powinno być około 40–50 robotów da Vinci. Biorąc pod uwagę stopień rozwoju rynku, sposób finansowania opieki zdrowotnej oraz warunki makroekonomiczne, do końca 2023 r. możemy się spodziewać w sumie około 30 instalacji - dodaje. W 2019 r. na świecie przeprowadzono około 1,25 mln operacji z wykorzystaniem niemal 5,5 tys. tego typu robotów. Najczęściej są one wykorzystywane w urologii, ginekologii, onkologii, bariatrii i chirurgii ogólnej, a ostatnio także w chirurgii klatki piersiowej oraz chirurgii głowy i szyi. Europejskim liderem w dostępie do robotyki medycznej są Niemcy, gdzie pracuje ponad 130 systemów da Vinci, oraz Włochy, gdzie jest ich ponad 120. Zdaniem analityków Upper Finance wykorzystanie robotów chirurgicznych w naszym kraju mogłoby wzrosnąć dzięki wprowadzeniu osobnego programu finansowania procedur z udziałem tych aparatów. Na razie nie ma takich możliwości, choć w 2017 r. Agencja Oceny Technologii Medycznych i Taryfikacji pozytywnie zaopiniowała refundację operacji robotycznych dla trzech wskazań: raka jelita grubego, raka gruczołu krokowego oraz raka błony śluzowej macicy. Zrobotyzowane operacje w naszym kraju są wykonywane prywatnie, w ramach grantów naukowych oraz usług finansowanych przez NFZ (jednak bez uwzględnienia dodatkowych kosztów związanych z eksploatacją robota). Najwięcej takich zabiegów dotyczy urologii, np. w usuwania guzów prostaty u mężczyzn. Zdaniem Artura Ostrowskiego poza finansowaniem kluczowy dla skutecznej i bezpiecznej implementacji tej technologii jest proces szkolenia operatorów. Systemy robotyczne pozostają przede wszystkim narzędziami w rękach wysoko wykwalifikowanych chirurgów. Potwierdza to Monika Stefańczyk z Pharma and Healthcare Business Unit Director w PMR. Twierdzi, że silnym hamulcem w całej opiece zdrowotnej zarówno prywatnej jak i publicznej są problemy z niewystarczającą liczbą wykwalifikowanej kadry medycznej. W przypadku zakupu robota świadczeniodawca nie może zapomnieć również o środkach związanych ze szkoleniem lekarzy i przygotowaniem kadry do obsługi tak skomplikowanego sprzętu. Warto zaznaczyć, że jest to również długotrwały proces – dodaje. Prezydent Międzynarodowego Stowarzyszenia na Rzecz Robotyki Medycznej prof. Zbigniew Nawrat, główny konstruktor robota Robin Heart, który ma być wykorzystywany w operacjach serca, uważa, że roboty dają siłę słabszym, sprawność tam, gdzie brakuje jej ludziom. Robot da Vinci optymalizuje ruchy operatora poprzez eliminację naturalnego drżenia mięśni i poprawienie pola widzenia. To z kolei pozwala zawęzić obszar interwencji chirurgicznej, a precyzja nacięć sprawia, że sam zabieg jest mniejszym obciążeniem dla pacjentów. « powrót do artykułu
  8. We wrześniu firma Boston Dynamics ujawniła, że produkowany przez nią robot-pies Spot jest testowany podczas wykonywania takich zadań jak monitorowanie budów, sprawdzanie infrastruktury gazowej, energetycznej i paliwowej oraz w zadaniach związanych z bezpieczeństwem publicznym. Teraz dowiadujemy się, że Spot był przez 90 dni testowany przez jednostkę saperską Massachusetts State Police (MSP). American Civil Liberties Union (ACLU) zwrócila się o szczegółowe informacje na temat reklamowanego przez MSP na Facebooku wydarzenia pod tytułem „Robotyka w organach ścigania”. Dzięki temu dowiedzieliśmy się, że stanowa policja wypożyczyła Spota na 3 miesiące. Jak wyjaśnia rzecznik prasowy MSP, Spot był używany w roli zdalnego mobilnego urządzenia obserwacyjnego, które dostarczało policji obraz miejsc niebezpiecznych, gdzie mogły znajdować się np. materiały wybuchowe czy uzbrojeni przestępcy. Roboty to wartościowe narzędzia, gdyż mogą dostarczyć informacji o potencjalnie niebezpiecznych miejscach, stwierdził David Procopio. Spot wyposażony jest w kamerę rejestrującą obraz w promieniu 360 stopni i radzi sobie w nieprzyjaznym terenie. Może też przenosić ładunki o wadze do 14 kilogramów. We wrześniu Boston Dynamics rozpoczęła sprzedaż Spota wraz z SDK, dzięki czemu klienci mogą rozwijać własne aplikacje oraz lepiej kontrolować robota.   « powrót do artykułu
  9. Melson – konstrukcja Koła Naukowego Robotyków KNR działającego przy Wydziale Mechanicznym Energetyki i Lotnictwa Politechniki Warszawskiej z sukcesami zakończył swój udział w zawodach International Robotic Competition RoboChallenge 2019 w Rumunii (1-3 listopada 2019). Robot zajął pierwsze miejsce w kategorii Humanoid Robot, drugie miejsce w kategorii Humanoid Sumo oraz został wyróżniony w kategorii Freestyle Showcase. Konkurencja Humanoid Robot składała się z dwóch części. Roboty musiały wejść na schody składające się z trzech stopni oraz przejść tor z postawionymi na nim przeszkodami. Melson bez problemu wykonał pierwszą część zadania. W drugiej także poradził sobie świetnie – bezbłędnie omijał przeszkody na swoim torze, utrzymując przy tym poprawny toru ruchu. Zwycięstwo w tej kategorii smakuje wyjątkowo, bo robot naszych studentów jako jedyny był skonstruowany i oprogramowany przez samych zawodników – uczestników zawodów. W konkurencji Humanoid Sumo dwa roboty umieszczane są na dużym ringu (dohyo). Ich zadaniem jest przewrócenie przeciwnika. Roboty są w pełni autonomiczne i lokalizują przeciwnika na podstawie odczytów z czujników. Za przewrócenie rywala robot otrzymuje punkt, a w gdy ten nie wstanie przez 10 sekund, następuje knock-out. Roboty głównie wyprowadzały ciosy, padając do przodu swoim „ciałem”, licząc, że to wywróci przeciwnika – opowiada Kornelia Łukojć. Jedynie Melson walczył, stosując typowe ruchy bokserskie, które przewracały rywali. Ostatecznie nasz robot zajął drugie miejsce, ale finał był najbardziej emocjonującą walką w tej konkurencji. Kategoria Freestyle Showcase to rywalizacja, w której liczy się pomysłowość i innowacyjność. Ocenie podlegają prezentacja i dokumentacja projektu. Wyróżnienie dla Melsona w tej konkurencji to kolejne potwierdzenie inżynierskich umiejętności jego twórców. Zawody RoboChallenge to największe zawody robotów organizowane w Europie i jedne z największych na świecie. W tegorocznej edycji wzięły udział 158 zespoły z 17 krajów, w tym 615 uczestników i 533 roboty startujące w 14 konkurencjach. Zespół Melsona: Maksymilian Szumowski (twórca), Kacper Mikołajczyk (koordynator), Bartosz Bok, Dominik Górczynski, Kornelia Łukojć, Jerzy Piwkowski, Przemysław Płoński, Patryk Saffer, Jakub Soboń, Larysa Zaremba, Paweł Żakieta, Karol Niemczycki « powrót do artykułu
  10. ROBOpilot Unmanned Aircraft Conversion System pomyślnie zdał egzamin przed Federalną Administracją Lotniczą (FAA), otrzymał zgodę na pilotowanie lekkich samolotów i zaczął samodzielnie latać. Wbrew temu, co mogłoby się wydawać, ROBOpilot nie jest tradycyjnym autopilotem. To urządzenie, które steruje samolotem tak, jak człowiek. Robot za pomocą ramienia manipuluje wolantem, naciska pedały i korzystając z systemu wizyjnego odczytuje dane ze wskaźników. System autorstwa firmy DZYNE Technologies ma z zadanie pomóc w rozwoju autonomicznych samolotów. Ma być znacznie tańszą alternatywą dla obecnie stosowanych metod. Zamiana myśliwca F-16 w samolot autonomiczny kosztowała około 1 miliona dolarów. Tymczasem technologia opracowywana przez DZYNE ma pozwolić na zainstalowaniu ROBOpilota w dowolnym samolocie, a gdy nie będzie on potrzebny, można go usunąć i samolot nadaje się do pilotowania przez człowieka. Wcześniejsze rozwiązania podobne do ROBOpilota to południowokoreański Pibot oraz ALIAS opracowany przez Pentagon. Jednak żaden z nich nie był w stanie samodzielnie prowadzić pełnowymiarowego samolotu. ROBOpilot potrafi wystartować, prowadzić samolot w czasie lotu i wylądować. To imponujące osiągnięcie w dziedzinie robotyki, mówi Louise Dennis z University of Liverpool. W przeciwieństwie do autopilota, który ma bezpośredni dostęp do czujników i systemu sterowania, ten robot jest umieszczany na miejscu pilota i musi prowadzić fizyczną interakcję z urządzeniami sterującymi oraz odczytywać wskaźniki. Twórcy ROBOpilota mówią, że może się on przydać do sterowania samolotami transportowymi, maszynami mającymi wlatywać w niebezpieczne środowisko oraz samolotami wykonującymi misje zwiadowcze i szpiegowskie. « powrót do artykułu
  11. Badacze z Wydziału Fizyki Uniwersytetu Warszawskiego, przy użyciu technologii światłoczułych elastomerów, zademonstrowali mikrorobota naśladującego ruch ślimaka. 10-milimetrowej długości robot, napędzany i sterowany przy pomocy modulowanej wiązki lasera, potrafi poruszać się po płaskim podłożu, wspinać po pionowej ścianie i pełzać po szklanym suficie. W przyrodzie organizmy różnej wielkości – od mikroskopijnych nicieni, przez dżdżownice, po mięczaki – poruszają się w rozmaitych środowiskach dzięki przemieszczającym się deformacjom miękkiego ciała. W szczególności ślimaki używają śluzu – śliskiej, wodnistej wydzieliny – by poprawić kontakt między miękką nogą a podłożem. Taki sposób poruszania się ma kilka unikalnych cech: działa na różnych podłożach: drewnie, szkle, teflonie czy piasku i w różnych konfiguracjach, włączając w to pełzanie po suficie. W robotyce, prosty mechanizm pojedynczej nogi mógłby zapewnić odporność na warunki zewnętrzne i zużycie elementów oraz duży margines bezpieczeństwa dzięki ciągłemu kontaktowi z podłożem. Do tej pory zademonstrowano jedynie nieliczne roboty naśladujące pełzanie ślimaków w skali centymetrów, z napędem elektro-mechanicznym. Ciekłokrystaliczne elastomery (LCE) to inteligentne materiały, które mogą szybko, w odwracalny sposób zmieniać kształt, na przykład po oświetleniu. Dzięki odpowiedniemu uporządkowaniu (orientacji) cząsteczek elastomeru można programować deformację takiego elementu. Umożliwia to zdalne zasilanie i sterowanie mechanizmów wykonawczych i robotów przy pomocy światła. Wykorzystując technologię światłoczułych elastomerów badacze z Wydziału Fizyki Uniwersytetu Warszawskiego we współpracy z Wydziałem Matematyki Uniwersytetu w Suzhou w Chinach zbudowali pierwszego na świecie robota, który porusza się naśladując pełzanie ślimaka w naturalnej skali. Ruch robota generowany jest przez poruszające się deformacje miękkiego ciała, wywołane wiązką lasera i ich oddziaływanie z podłożem przez warstwę sztucznego śluzu. Oświetlany wiązką lasera 10-milimetrowy robot może wspinać się na pionową ścianę i pełzać po szklanym suficie z prędkością kilku milimetrów na minutę, wciąż około 50 razy wolniej niż ślimaki porównywalnej wielkości.  Mimo niewielkiej prędkości, konieczności ciągłego uzupełniania warstwy śluzu i niskiej sprawności energetycznej, nasz robot umożliwia nowe spojrzenie na mikro-mechanikę inteligentnych materiałów oraz badania nad poruszaniem się ślimaków i podobnych zwierząt – mówi Piotr Wasylczyk z Pracowni Nanostruktur Fotonicznych, który kierował projektem. W naszych badaniach biorą udział studenci już od pierwszych lat studiów na Wydziale Fizyki. Pierwszym autorem publikacji o robocie-ślimaku w Macromolecular Rapid Communications jest Mikołaj Rogóż, laureat Diamentowego Grantu, który właśnie kończy pracę magisterską na temat ciekłokrystalicznych elastomerów i zaczyna doktorat w naszej grupie. Badacze, którzy wcześniej zademonstrowali napędzanego światłem robota-gąsienicę naturalnej wielkości, wierzą, że nowe inteligentne materiały w połączeniu z nowatorskimi metodami wytwarzania miniaturowych elementów, pozwolą im konstruować kolejne mikro-roboty i napędy – obecnie pracują nad miniaturowym silnikiem i mikro-pęsetą sterowaną światłem. Badania nad miękkimi mikro-robotami i polimerowymi mechanizmami wykonawczymi finansowane są przez Narodowe Centrum Nauki w ramach projektu „Mechanizmy wykonawcze w mikro-skali na bazie foto-responsywnych polimerów” oraz przez Ministerstwo Nauki i Szkolnictwa Wyższego w ramach "Diamentowego Grantu" przyznanego M. Rogóżowi. Fizyka i astronomia na Uniwersytecie Warszawskim pojawiły się w 1816 roku w ramach ówczesnego Wydziału Filozofii. W roku 1825 powstało Obserwatorium Astronomiczne. Obecnie w skład Wydziału Fizyki UW wchodzą Instytuty: Fizyki Doświadczalnej, Fizyki Teoretycznej, Geofizyki, Katedra Metod Matematycznych oraz Obserwatorium Astronomiczne. Badania pokrywają niemal wszystkie dziedziny współczesnej fizyki, w skalach od kwantowej do kosmologicznej. Kadra naukowo-dydaktyczna Wydziału składa się z ponad 200 nauczycieli akademickich, wśród których jest 77 pracowników z tytułem profesora. Na Wydziale Fizyki UW studiuje ok. 1000 studentów i ponad 170 doktorantów. « powrót do artykułu
  12. Już wkrótce roboty i protezy mogą zyskać zmysł dotyku podobny do ludzkiego lub nawet od niego doskonalszy. Asynchronous Coded Electronic Skin (ACES) to sztuczny system nerwowy opracowany na National University of Singapore. Nowa elektroniczna skóra charakteryzuje się wysoką czułością,szybkością reakcji i odpornością na uszkodzenia, może być łączona z dowolnymi czujnikami. Jej twórcy to profesor Benjamin Tee i jego zespół z Wydziału Inżynierii i Nauk Materiałowych. Ludzie wykorzystują zmysł dotyku do zrealizowania niemal każdej czynności, od podniesienia filiżanki kawy po wymianę uścisków dłoni. Bez niego tracimy równowagę podczas chodzenia. Podobnie jest z robotami, które potrzebują zmysłu dotyku, by lepiej wchodzić z interakcje z ludźmi. Jednak współczesne roboty wciąż nie czują zbyt dobrze obiektów, mówi profesor Tee, który od  opnad dekaty pracuje nad elektroniczną skórą. System ACES wykrywa sygnały podobnie, jak ludzki układ nerwowy, jednak – w przeciwieństwie do niego – są one przesyłane za pomocą pojedynczego przewodu. To zupełnie inne podejście niż w istniejących elektronicznych skórach, która korzystają ze złożonego systemu przewodów, co powoduje, że całość jest podatna na uszkodzenia i trudna w skalowaniu. ACES wykrywa dotknięcie nawet 1000-krotnie szybciej niż ludzki układ nerwowy. Jest w stanie odróżnić fizyczny kontakt z poszczególnymi czujnikami w czasie krótszym niż 60 nanosekund. Nawet gdy impuls został odebrany jednocześnie przez wiele czujników. To szybciej, niż jakikolwiek wcześniej stworzony system. W ciągu zaledwie 10 milisekund – a więc 10-krotnie szybciej niż mrugnięcie okiem – ACES jest w stanie określić kształt, teksturę i twardość dotykanego obiektu. Platforma ACES pozwala też na stworzenie wytrzymałej elektronicznej skóry. To niezwykle ważna cecha dla urządzenia, które ma często wchodzić w kontakt fizyczny z otoczeniem. Olbrzymimi zaletami ACES są prostota okablowania całego systemu oraz szybka reakcja na impuls, nawet w przypadku wykorzystywania wielu czujników. To znakomicie ułatwia skalowanie ACES i wykorzystanie jej w wielu różnych zastosowaniach. Skalowalność to podstawowa cecha, gdyż potrzebujemy dużych wydajnych połaci elektronicznej skóry, którą możemy pokryć robota czy protezę, wyjaśnia profesor Tee. ACES można łatwo łączyć z dowolnymi czujnikami, np. rejestrującymi temperaturę, dotyk czy wilgotność, dodaje uczony. « powrót do artykułu
  13. Paryska straż pożarna ujawniła, że w walce o ocalenie katedry Notre Dame ważną rolę odegrał robot Colossus. To ważący pół tony zdalnie sterowany pojazd gąsienicowy zbudowany przez firmę Shark Robotics, który jest wyposażony w działko wodne o wydajności ponad 2500 litrów na minutę. Czas działał przeciwko nam, wiatr działał przeciwko nam, potrzebowaliśmy pomocy. Priorytetem było ocalenie dwóch dzwonnic. Wyobraźcie sobie, że drewniane struktury podtrzymujące dzwony zostałyby osłabione i dzwony by spadły. Tego się właśnie baliśmy. Na początku nietrudno było sobie wyobrazić, że cała katedra się zawali, powiedział Gabriel Plus, rzecznik prasowy paryskiej straży pożarnej. Upadek wielotonowych dzwonów spowodowałby zawalenie się wież i katedry. Gdy zawaliła się iglica i część dachu, ze środka Notre Dame wycofano strażaków. Dowodzący akcją obawiali się zawalenia reszty dachu, który mógł zabić pracujących wewnątrz ludzi. Wtedy to do środka wysłano Colossusa. Robot jest zdalnie sterowany, a operator ma nad nim kontrolę na odległość ponad 400 metrów. Urządzenie jest wodoodporne i może pracować w wysokich temperaturach, a jego akumulatory pozwalają na ośmiogodzinną pracę. Można go wyposażyć w kamery, czujniki oraz wentylator rozpraszający dym. To właśnie Colossus powstrzymał dalsze rozprzestrzenianie się płomieni we wnętrzu katedry. Na załączonym filmie możemy zobaczyć robota podczas walki z pożarem Notre Dame.   « powrót do artykułu
  14. Znalezienie miejsca na parkingu przy lotnisku może być poważnym wyzwaniem. Może wiązać się też z dużym stresem, gdy musimy o wyznaczonej godzinie stawić się na odprawę, a nie możemy znaleźć miejsca, by pozostawić samochód. Na francuskim lotnisku Lyon-Saint Exupery prowadzony jest test interesujących robotów parkujących. Mowa tutaj o robotach Stan firmy Stanley Robotics. To maszyna, która samodzielnie wykrywa samochód, delikatnie go podnosi i przenosi na miejsce parkowania, mówi menedżer firmy Stephane Evanno. Aby Stan zajął się naszym samochodem musimy wjechać do specjalnego hangaru. Zostawiamy tam pojazd i udajemy się na lotnisko. W tym czasie samochód jest skanowany, dzięki czemu automatycznie rozpoznawana jest marka i model. Gdy zjawia się Stan drzwi hangaru zostają otwarte, robot podjeżdża, podnosi samochód i samodzielnie wiezie go na miejsce parkowania. Gdy wracamy, na krótko przed lądowaniem Stan dostarczy nasz samochód w odpowiednie miejsce. Wykorzystanie robotów Stan to same korzyści. Urządzenia są napędzane elektrycznie, więc mniej zanieczyszczają środowisko niż samochody krążące w poszukiwaniu miejsca parkingowego. Są bardzo precyzyjne. Ustawiają samochody w odległości zaledwie kilku centymetrów od siebie, co pozwala zaoszczędzić nawet 50% miejsca na parkingu. Dla lotnisk, to znakomita wiadomość, gdyż zawsze brakuje na nich miejsca na parkingi. Ponadto hangary, w których kierowcy zostawiają samochody dla Stana znajdują się blisko wejścia na lotnisko, co oszczędza podróżującym czasu i stresów. Automatyczny parking jest niedostępny dla ludzi. Nie można tam samodzielnie wjechać. Samochód musimy pozostawić w hangarze. Ruchem robotów dość łatwo jest zarządzać, gdyż pasażerowie, którzy chcą skorzystać z automatycznego parkingu, muszą zawczasu zarezerwować sobie miejsce. Ponadto w odwodzie zawsze trzymanych jest kilka robotów, na wypadek, gdyby jednocześnie lądowało więcej samolotów, niż przewidziano. Stanley Robotics ma nadzieję, że władze innych lotnisk szybko przekonają się co do korzyści ze współpracy i roboty Stan wkrótce zagoszczą w innych miastach.   « powrót do artykułu
  15. Na targach Consumer Electronics Show (CES) w Las Vegas zaprezentowano BreadBota - robota do pieczenia chleba. Dziennie może on przygotować i upiec do 235 bochenków. Randall Wilkinson, dyrektor wykonawczy firmy Wilkinson Baking Company, podkreśla, że maszyna może znacznie obniżyć koszty i zapewnić świeższe pieczywo niż to dostępne w większości amerykańskich supermarketów. Konsumentom zależy na jak najświeższym pieczywie, ale kiedy idą oni do sklepu, nie wiedzą, kiedy chleb był upieczony. Wilkinson dodaje, że BreadBot ma wielkość średniego samochodu i jest całkowicie zautomatyzowany. Mając go na wyposażeniu sklepu, można wyeliminować transport ciężarówkami, który stanowi nawet 45% kosztu większości chlebów. To z kolei oznacza wzrost zysków. Wilkinson Baking Company prowadzi już rozmowy z największymi sieciami supermarketów i myśli o dostarczaniu BreadBotów amerykańskiej armii (na lotniskowce). Na razie BreadBot piecze standardowe bochenki, ale wg Wilkinsona, roboty można przystosować do innych rodzajów pieczywa i uzyskać nawet francuskie bagietki. Pewnego dnia będzie można złożyć zamówienie telefoniczne - np. z dodatkiem słonecznika i mniejszą ilością soli - i odebrać je w ciągu godziny.   « powrót do artykułu
  16. Humanoidalne roboty będą powoli wkraczały do naszej codzienności. Dlatego też psychologów interesuje kwestia interakcji człowieka z takimi maszynami i chcą znać odpowiedź na pytanie, jak reagujemy na obecność humanoida. Okazuje się, że obecność takiej maszyny zmienia np. naszą zdolność koncentracji. Grupa francuskich naukowców przeprowadziła eksperyment, w którym wzięło udział 58 osób. Badani mieli do rozwiązania standardowy test skupienia uwagi. Na ekranie pokazywano im różne wyrazy, a ich zadaniem było odpowiedzenie, jakiego koloru są litery. Trzeba było zatem skupić się na kolorze, a ignorować znaczenie słowa. Szybkość odpowiedzi świadczyła o stopniu skupienia uwagi. Respondenci byli poddawani testom dwukrotnie. Raz gdy byli sami, a drugi raz gdy w odległości 1,5 metra od nich stał humanoidalny robot i obserwował ich przez 60% czasu testu. Zanim jednak przystąpili do testu ludzie zapoznawali się z robotem. Zadawali mu serię zdefiniowanych wcześniej pytań. Robot odpowiadał albo przyjaźnie, przekazując pozytywne odpowiedzi, albo był niegrzeczny, a treść odpowiedzi miała negatywny wydźwięk. Okazało się, że osoby, które były obserwowane przez „niegrzecznego” robota kończyły test wcześniej niż wówczas, gdy wykonywały go same. W przypadku, gdy mieli do czynienia z „dobrym” robotem nie zauważono żadnej zmiany tempa odpowiedzi. Naukowcy spekulują, że w obecności nieprzyjaźnie nastawionego robota ludzie są bardziej czujni, co pozwala na lepsze skupienie uwagi. Wcześniej podobne zjawisko zaobserwowano u osób, które były obserwowane przez krytycznie nastawionych do nich ludzi. Tutaj opisano pierwsze badania, w których ludzi zastąpiono robotem. « powrót do artykułu
  17. Na australijskim University of Wollongong fikcja naukowa stała się nauką. Uczeni uzyskali efekt „bicia serca” w płynnym metalu. Spowodowali, że płynny metal pulsował w regularnym przewidywalnym rytmie. Osiągnięcie zostało opisane w najnowszym numerze Physical Review Letters. Naukowcy uzyskali wspomniany efekt za pomocą elektrochemicznej stymulacji kropli ciekłego galu. Gal to miękki metal, który staje się płynny w temperaturze powyżej 29,7 stopnia Celsjusza. Osiągnięcie australijskich naukowców może znależć zastosowanie w akuatorach dla sztucznych mięśni, robotyce oraz układach scalonych. Dzięki stworzeniu specjalnych elektrod i podaniu napięcia do kropli płynnego metalu byliśmy w stanie spowodować, że metal poruszał sie jak bijące serce, mówi profesor Xiaolin Wang, który stał na czele grupy badawczej. Podobny efekt uzyskiwano wcześniej w płynnej rtęci, jednak pojawiał się tam przypadkowy poboczny ruch, który trudno było zlikwidować czy kontrolować. Ponadto rtęć jest wysoce toksyczna, przez co nie nadaje się do większości zastosowań. Płynny gal nie jest toksyczny i można w nim uzyskać regularny ruch o częstotliwości od 30 do 100 impulsów na minute. Częstotliwość ta jest zależna od wpływu grawitacji i wielkości kropli. Profesor Wang przyznaje, że inspiracją dla jego prac były częściowo systemy biologiczne a częściowo science-fiction, takie jak robot T-1000 z filmu Terminator 2. Dla mnie nic nie jest fikcją. Science-fiction to nauka, która nie została jeszcze odkryta. Gdy widzę jakieś zjawisko w filmach science-fiction, zastanawiam się, jak można by je odtworzyć w laboratorium, wyjaśnia uczony. Nie martwcie się, nie chcę stworzyć robota z Terminatora. Jednak funkcjonalność płynnego robota może przydać się w codziennym życiu, więc chcę odkryć jak najwięcej przydatnych funkcji w płynnym metalu. Płynny robot z Terminatora 2 ma dwie interesujące cechy. Pierwsza to zmiana kształtu i możliwość powrotu do kształtu poprzedniego. Druga to możliwość przejścia ze stanu miękkiego do twardego. Przypomnijcie sobie scenę, w której wydłuża ramię i zmienia je w miecz, dodaje Wang. Uczony przypomina, że oba stany już zostały odkryte. Grupa w Chinach i inna grupa w Stanach Zjednoczonych odkryły pierwszy z tych stanów, zmianę kształtu i powrót do kształtu pierwotnego. A moja grupa, tutaj na University of Wollongong odkryła drugie z tych zjawisk, przejście od stanu miękkiego do twardego za pomocą napięcia prądu elektrycznego. Zdaniem uczonego przyszłością są elastyczne, miękkie roboty. A do ich zasilania może przydać się miękkie urządzenie działające jak ludzkie serce. W wielu systemach biologicznych to serce wszystko napędza. Więc metal poruszający się jak bijące serce mógłby być użyty jako pompa wymuszająca ruch płynu w kanałach, dodaje Wang. Takie urządzenie może działać też jak oscylator. Istotnym elementem układów elektronicznych jest precyzyjna kontrola czasu. Regularnie bijące metalowe serce może taką kontrolę zapewniać. « powrót do artykułu
  18. Stworzony na MIT robot Cheetah 3 potrafi skakać i biegać po nierównym terenie, chodzić po schodach, na których ustawiono przeszkody oraz szybko odzyskać równowagę, gdy ją straci. A wszystko to bez systemu wizyjnego. Urządzenie waży nieco ponad 40 kilogramów i jest wielkości dorosłego labradora. Jego twórcy nie wyposażyli go w żadne kamery ani innego typu czujniki pozwalające „widzieć” otoczenie. Robot porusza się mniej więcej tak, jak człowiek w całkowicie ciemnym pokoju. Musi dotykiem wyczuwać otoczenie. Istnieje bardzo dużo niespodziewanych sytuacji, w których robot powinien sobie poradzić bez zbytnego polegania na wizji. Obraz może wprowadzać dużo szumu, może być nieco niedokładny, a czasem po prostu niedostępny. Jeśli chcesz polegać na systemie wizyjnym, to robot musi niezwykle precyzyjnie się pozycjonować i będzie powolny. My chcemy, by nasz robot polegał na wrażeniach dotykowych. Dzięki temu poradzi sobie z przeszkodami podczas szybkiego przemieszczania się, mówi profesor Sangbae Kim, twórca Cheetaha. Kim przewiduje, że w ciągu kilku najbliższych lat roboty będą wykonywały zadania zbyt niebezpieczne dla ludzi. Cheetah 3 został zaprojektowany z myślą o wykonywaniu takich zadań jak inspekcje elektrowni, co wymaga poruszania się po różnym terenie, w tym po schodach, przechodzenia przez krawężniki czy radzeniu sobie z przeszkodami. Istnieje wiele prostych zadań, do wykonania których możemy wysłać roboty zamiast ludzi. Niebezpieczne, brudne czy trudne prace można bardziej bezpiecznie wykonać za pośrednictwem zdalnie sterowanego robota, stwierdza uczony. Sterujący Cheetahem 3 algorytm bez przerwy oblicza dla każdej z nóg trzy prawdopodobieństwa: prawdopodobieństwo kontaktu nogi z gruntem, prawdopodobieństwo oddziaływania siły wskutek takiego kontaktu oraz prawdopodobieństwo poślizgu. Prawdopodobieństwa te są wyliczane na podstawie danych z akcelerometrów, żyroskopów i pozycji stawów w nogach urządzenia, z których dostarczane są informacje o kącie i wysokości nad gruntem. Jeśli na przykład robot nastąpi na przeszkodę, która obsunie mu się spod nogi, jego pozycja ulegnie gwałtownej zmianie, dane dostaną dostarczone do algorytmu, który dla każdej z nóg wyliczy odpowiednie działanie pozwalające na odzyskanie równowagi. Algorytm sterujący został przetestowany w laboratorium i na zbudowanych tam schodach. Robot nie znał wysokości schodów ani rozkładu przeszkód. Musiał sobie radzić z nimi tak, jak radziłby sobie człowiek idący z zamkniętymi oczami. Algorytm podejmując decyzje co do wymaganych działań usiłuje przewidzieć, jaki skutek działania te będą miały pół sekundy później. Wyobraźmy sobie, że ktoś kopnie robota z boku. Gdy dana noga robota ma kontakt z gruntem, algorytm musi zdecydować, z jaką siłą trzeba oddziaływać na grunt w sytuacji, gdy z lewej strony niespodziewanie przyłożono dodatkową siłę. Dojdzie do wniosku, że należy przyłożyć siłę ze strony przeciwnej. Musi jeszcze obliczyć siłę, którą trzeba przyłożyć oraz przewidzieć, jaki będzie to miało skutek pół sekundy później, wyjaśnia Kim. Tego typu obliczenia wykonywane są dla każdej nóg co 50 milisekund, zatem 20 razy na sekundę. Cheetah 3 został też właśnie wyposażony w kamery, które dają mu ogólny obraz otoczenia i pozwalają wcześniej zauważyć ściany czy drzwi. Jednak głównym celem jest udoskonalenie nawigacji bez systemu wizyjnego. Chcemy, by bardzo dobrze potrafił się kontrolować bez posiadania obrazu otoczenia. A gdy dodamy wizję, to – nawet gdy z kamer dostanie niewłaściwe informacje – jego nogi powinny poradzić sobie z przeszkodami. Co się bowiem wydarzy, gdy nadepnie na coś, czego kamera nie zauważyła? Co robot zrobi? To właśnie w takich przypadkach musi działać lokomocja bez systemu wizyjnego. Nie chcemy polegać zbytnio na obrazie.   « powrót do artykułu
  19. Będziemy kontynuowali badania nad robotami humanoidalnymi, ale nasze kolejne roboty mogą nie nazywać się ASIMO, powiedział rzecznik prasowy Hondy, Hajime Kaneko. Niewykluczone zatem, że obecna siódma generacja ASIMO będzie ostatnią. Pierwszy humanoid ASIMO został pokazany w 2000 roku. Robot ASIMO grał w piłkę z Barackiem Obamą, dyrygował orkiestrą i tańczył z Angelą Merkel. To niewątpliwie najsłynniejszy humanoidalny robot. Komentarze dotyczące przyszłości ASIMO pojawiły się po tym, jak stacja NHK doniosła, iż Honda zakończyła prace nad ASIMO i rozwiązała zespół odpowiedzialny za prace nad robotem. Przyczyną rezygnacji miała być rosnąca konkurencja na polu robotyki. Jako przykład podano tutaj robota Atlas autorstwa firmy Boston Dynamisk. Honda zaprzeczyła, że zlikwidowała zespół pracujący nad ASIMO, jednak nie można wykluczyć, że będzie się on zajmował teraz innymi robotami. Dziennikarze, powołując się na anonimowe źródło, twierdzą, że Honda skupi się na humanoidach, których zadaniem będzie opieka nad starszymi i niepełnosprawnymi. Obecna, siódma, generacja ASIMO zadebiutowała w 2011 roku. « powrót do artykułu
  20. Apple zainstalowało w swojej fabryce robota Daisy, którego zadaniem jest recykling iPhone'ów. Daisy jest w stanie przetworzyć 200 urządzeń na godzinę, odzyskując z nich cenne materiały. Daisy to ulepszona wersja Liama z 2016 roku. Przy jej budowie wykorzystano zresztą niektóre części Liama. Starszy robot radził sobie z recyklingiem tylko iPhone'ów 6. Daisy pracuje z 9 modelami telefonów Apple'a. Robota uruchomiono w związku ze zbliżającym się Dniem Ziemi. W Apple'u wciąż pracujemy nad rozwiązaniami, których celem jest powstrzymanie zmian klimatycznych i zaoszczędzenie cennych zasobów naszej planety. W uznaniu Dnia Ziemi postaraliśmy się, by oddanie starego iPhone'a i jego recykling były tak proste, jak to tylko możliwe. Klienci mogą to zrobić za pośrednictwem programu Apple GiveBack. Jednocześnie przedstawiamy Daisy światu pokazując, czego można dokonać, gdy spotykają się innowacyjność i ochrona środowiska, powiedziała Lisa Jackson, wiceprezes Apple'a ds. inicjatyw środowiskowych i społecznych. Z okazji Dnia Ziemi Apple pochwaliło się też, że firmowe fabryki, biura i centra bazodanowe są w 100 procentach zasilane energią odnawialną. Greenpeace pochwaliło inicjatywę Apple'a, jednak ekolodzy zwracają uwagę, że firma powinna bardziej skupić się na produkcji urządzeń, które można naprawiać i rozbudowywać. Zamiast skupiać się na budowie kolejnego robota do recyklingu należy zmienić projekt iPhone'a, radzą przedstawiciele Greenpeace'u. Dzięki temu użytkownicy wykorzystywaliby telefon znacznie dłużej, odwlekając dzień, w którym musi się nim zająć Daisy, czytamy w oświadczeniu Greenpeace'u.   « powrót do artykułu
  21. Największy na świecie prywatny pracodawca, Walmart, rozpoczął testy robotów wspomagających pracę załogi. W 50 sklepach w USA pojawiły się urządzenia, dzięki którym pracownicy będą mogli więcej czasu poświęcić obsłudze klienta. Walmart, który na całym świecie zatrudnia 2,3 miliona osób, posiada sieć ponad 11 700 sklepów. Jak w każdym dużym sklepie pracownicy znaczną część czasu spędzają na przeglądaniu półek sprawdzając, czy nie należy dołożyć towaru, czy towary i ceny są dobrze oznaczone, czy klienci nie pomieszali towarów. Właśnie z tych nużących, przewidywalnych i łatwych do zaplanowania zadań mają ich w przyszłości zwolnić roboty. Urządzenia samodzielnie powoli jadą wśród półek i je skanują. Gdy zauważą jakieś nieprawidłowości, przesyłają odpowiednie informacje, dzięki czemu pracownik może podejść i uzupełnić towar na półce czy przełożyć nieprawidłowo odłożony przez klienta towar. Roboty sprawdzają półki znacznie szybciej niż ludzie, dzięki czemu ci drudzy mogą w tym czasie wykonywać inne zadania, na przykład pomagać klientom. Wiceprezes Walmarta, John Crecelius, odpowiedzialny w firmie za innowacje, mówi, że na razie roboty nie jeżdżą przez cały dzień. Są one uruchamiane rano, w środku dnia oraz wieczorem. Firma przygląda się ich pracy, sprawdza reakcje klientów i pracowników. Na razie nie opracowano jeszcze schematu, wedle którego urządzenia miałyby pracować. Wiadomo jednak, że i klienci i pracownicy przyjęli dobrze nowe urządzenia. W niektórych sklepach pracownicy przyczepili robotom plakietki z imionami. To zwykle dobry znak. Tak się dzieje, gdy pracownicy czują, że coś im pomaga, stwierdza Crecelius. Koncern nie zdradza swoich planów co do przyszłości robotów skanujących. Przyszłość pokaże, na ile się one sprawdzą i czy firma zdecyduje się na ich wdrożenie na szerszą skalę. « powrót do artykułu
×
×
  • Create New...