Znajdź zawartość
Wyświetlanie wyników dla tagów ' robot' .
Znaleziono 30 wyników
-
Uczestnicy słynnego eksperymentu Milgrama tak bardzo ulegali autorytetowi prowadzącego, że byli w stanie na jego polecenie zadawać silny ból innemu człowiekowi. Takie bezwzględne bezrefleksyjne posłuszeństwo może prowadzić do zbrodni. Naukowcy z Uniwersytetu SWPS powtórzyli eksperyment Milgrama, ale prowadzącym był robot. Okazało się, że ludzie są skłonni podporządkować się poleceniom robota i na jego rozkaz krzywdzić innych. W latach 60. XX wieku amerykański psycholog Stanley Milgram, zastanawiając się nad przyczynami, dla których ludzie w czasie II wojny światowej wykonywali zbrodnicze rozkazy, przeprowadził eksperyment, którego celem było wykazanie, na ile H. sapiens ma skłonność do ulegania autorytetom. Osobom, które brały udział w eksperymencie powiedziano, że jego celem jest zbadanie wpływu kar na skuteczność uczenia się. W eksperymencie brał udział uczestnik-nauczyciel oraz uczeń. Eksperymentator zaś kazał nauczycielowi karać ucznia aplikując mu coraz silniejszy wstrząs elektryczny. Uczeń, którym była podstawiona osoba, w rzeczywistości nie był rażonym prądem (ale uczestnik-nauczyciel o tym nie wiedział), jednak w odpowiedzi na rzekomo podawane napięcie elektryczne, krzyczał z bólu. Eksperyment wykazał, że aż 62% uczestników – ulegając autorytetowi eksperymentatora – nacisnęło w końcu na generatorze przycisk 450 V, czyli najwyższy. Naukowcy z Uniwersytetu SWPS postanowili sprawdzić, czy ludzie będą równie posłuszni robotowi, jak innemu człowiekowi. Przeniesienie różnych funkcji nadzoru i podejmowania decyzji na robota budzi jednak szczególnie silne emocje, ponieważ wiąże się z różnymi zagrożeniami etycznymi i moralnymi. Pojawia się pytanie, czy wspomniane wyżej posłuszeństwo wykazywane przez badanych zgodnie z paradygmatem Milgrama nadal występowałoby, gdyby to robot (zamiast człowieka, tj. profesora uczelni) kazał uczestnikom zadać elektrowstrząsy innej osobie? Celem naszego badania było udzielenie odpowiedzi na to pytanie, mówi doktor Konrad Maj. Doktor Maj we współpracy z profesorem Dariuszem Dolińskim i doktorem Tomaszem Grzybem, powtórzył eksperyment Milgrama, ale w roli eksperymentatora osadzono robota. W grupie kontrolnej eksperymentatorem był człowiek. W badaniach wzięli udział uczestnicy, którzy nie wiedzieli, na czym polegał eksperyment Milgrama. Okazało się, że ludzie ulegają też autorytetowi robota i na jego polecenie są skłonni krzywdzić innych ludzi. Co więcej, zarejestrowano bardzo wysoki poziom posłuszeństwa. Aż 90% uczestników w obu grupach – badanej i kontrolnej – nacisnęło wszystkie przyciski na generatorze, dochodząc do wartości 150 V. Od kilku dekad z powodów etycznych te 150 V przyjmuje się za górną wartość przy eksperymencie Milgrama. O ile nam wiadomo, to pierwsze badanie, które pokazuje, że ludzie są skłonni szkodzić innemu człowiekowi, gdy robot nakazuje im to zrobić. Co więcej, nasz eksperyment pokazał również, że jeśli robot eskaluje żądania, instruując człowieka, aby zadawał coraz większy ból innemu człowiekowi, ludzie też są skłonni to zrobić, dodaje doktor Maj. Już wcześniejsze badania wykazały, że ludzie tak mocno uznają autorytet robota, że podążają za jego poleceniami, nawet gdy nie mają one sensu. Tak było np. podczas eksperymentu, w czasie którego osoby ewakuowane z – symulowanego – pożaru, podążały za poleceniami robota, mimo że wskazał im on drogę ewakuacji przez ciemne pomieszczenie bez widocznego wyjścia. « powrót do artykułu
- 3 odpowiedzi
-
- eksperyment Milgrama
- robot
-
(i 1 więcej)
Oznaczone tagami:
-
ChatGPT zaprojektował robota do zbierania pomidorów
KopalniaWiedzy.pl dodał temat w dziale Technologia
Inżynierowie z Politechniki Federalnej w Lozannie (EPFL) wykorzystali ChatGPT-3 do zaprojektowania robotycznego ramienia do zbierania pomidorów. To pierwszy przykład użycia sztucznej inteligencji do pomocy w projektowaniu robotów. Eksperyment przeprowadzony przez Josie Hughes, dyrektor Laboratorium Obliczeniowego Projektowania i Wytwarzania Robotów na Wydziale Inżynierii EPFL, doktoranta Francesco Stellę i Cosimo Della Santinę z Uniwersytetu Technicznego w Delfcie, został opisany na łamach Nature Machine Intelligence. Naukowcy opisali korzyści i ryzyka związane z wykorzystaniem systemów sztucznej inteligencji (SI) do projektowania robotów. Mimo tego, że ChatGPT to model językowy i generuje tekst, to dostarczył nam on istotnych wskazówek odnośnie fizycznego projektu i wykazał się wielkim potencjałem pobudzania ludzkiej kreatywności, mówi Hughes. Naukowcy najpierw „przedyskutowali” z ChatGPT samą ideę robota, określili, czemu ma on służyć, opisali jego parametry i specyfikację. Na tym etapie rozmawiali z SI na temat przyszłych wyzwań stojących przed ludzkością oraz robotów-ogrodników, które mogą rozwiązać problem niedoborów siły roboczej przy uprawie roślin. Następnie, korzystając z faktu, że ChatGPT ma dostęp do danych naukowych, podręczników i innych źródeł, zadawali mu pytania o to na przykład, jakimi cechami powinien charakteryzować się przyszły robot-ogrodnik. Gdy już cechy te zostały opisane i zdecydowano, że chodzi o robotyczne ramię zbierające pomidory, przyszedł czas na zapytanie się sztucznej inteligencji o takie szczegóły jak np. kształt chwytaka oraz poproszenie jej o dane techniczne ramienia oraz kod, za pomocą którego byłoby ono kontrolowane. Przeprowadzone przez SI obliczenia posłużyły nam głównie do pomocy inżynierom w implementacji rozwiązań technicznych. Jednak po raz pierwszy sztuczna inteligencja sformułowała tutaj nowe pomysły, mamy tutaj zatem do czynienia ze zautomatyzowaniem procesów wyższych poziomów poznawczych. Rola człowieka w całym procesie przesunęła się bardziej w stronę techniczną, mówi Stella. Naukowcy zwracają też uwagę na problemy związane z wykorzystaniem podobnych systemów. Są to zarówno podnoszone już wątpliwości dotyczące plagiatów czy praw autorskich, jak i np. pytanie o to, na ile innowacyjna jest sztuczna inteligencja i na ile ulega schematom. ChatGPT zaproponował ramię do zbierania pomidorów, gdyż uznał pomidory za najbardziej wartościową uprawę, dla której warto zaprojektować robota. To zaś może po prostu oznaczać, że wybrał tą roślinę, która jest najczęściej opisywana, a nie tę, która jest najbardziej potrzebna. Pomimo różnych zastrzeżeń uczeni uważają, że podobne do ChatGPT modele językowe mogą spełniać niezwykle użyteczną rolę. Specjaliści od robotyki muszą się zastanowić, jak wykorzystać te narzędzia w sposób etyczny i przynoszący korzyść społeczeństwu, mówi Hughes. « powrót do artykułu-
- ChatGPT
- sztuczna inteligencja
-
(i 1 więcej)
Oznaczone tagami:
-
W Irinjadappilly Sree Krishna Temple w Kerali żywego słonia zastąpił rzeczywistych rozmiarów mechaniczny model. Będzie on wykorzystywany w różnych rytuałach, np. do przewożenia posągów bóstw podczas procesji. Robot został przekazany przez PETA India oraz aktorkę Parvathy Thiruvothu. Irinjadappilly Raman, bo takie imię nadano mechanicznemu słoniowi, potrafi poruszać głową, oczami, uszami i trąbą. Waży 800 kg i ma 3,3 m wysokości. Stworzyła go grupa artystów z dystryktu Thrissur (wcześniej dostarczała ona figury słoni na Dubai Shopping Festival). Umożliwienie słoniom życia na wolności powinno być właściwą formą oddawania czci Ganeśi [bogowi mądrości i pomyślności; jest on przedstawiany jako tęgi mężczyzna z głową słonia] - powiedział Rajkumar Namboothiri. Wyraził też nadzieję, że inne świątynie pójdą za przykładem Irinjadappilly Sree Krishna Temple i również zastąpią żywe słonie mechanicznymi. Wcześniej świątynia wypożyczała słonie na czas festiwali, ale w ostatnich latach przestała to robić ze względu na wysokie koszty i reakcje zwierząt. Gdy usłyszeliśmy o grupie konstruującej figury do Dubaju, zorganizowaliśmy spotkanie i poprosiliśmy o dostosowanego do naszych sugestii zmodyfikowanego mechanicznego słonia. Później pojawiła się oferta finansowania przez PETA India - opowiada Namboothiri. Mechaniczny słoń może przewieźć na swoim grzbiecie do 5 osób. Kornak steruje jego trąbą za pomocą specjalnego przełącznika. W maszynie znajduje się 5 silników. Ramę z metalu pokrywa „skóra” z gumy. « powrót do artykułu
-
- Irinjadappilly Sree Krishna Temple
- PETA India
-
(i 2 więcej)
Oznaczone tagami:
-
W Parku Archeologicznym Pompejów pracę rozpoczął Spot, czworonożny robot, który pomaga w monitorowaniu zabytkowego miejsca i dba o bezpieczeństwo jego pracowników. Spot przeprowadza inspekcję ruin, dostarczając nagrań, które następnie są wykorzystywane podczas badań archeologicznych i podejmowania decyzji dotyczących m.in. konieczności przeprowadzenia prac zabezpieczających. Spot pracuje w ramach szerszego projektu o nazwie Smart @ POMPEI. W jego ramach tworzony jest inteligentny samowystarczalny system zarządzania Parkiem. Obecnie w ramach projektu pracują Leica BLK2FLY, czyli pierwszy latający skaner laserowy zdolny do autonomicznego wykonywania skanów 3D oraz wspomniany już Spot firmy Boston Dynamics. Analizą danych dostarczonych przez urządzenia zajmują się specjalne stworzone na potrzeby Pompejów inteligentne platformy. Postęp technologiczny w dziedzinie robotyki, sztucznej inteligencji i systemów autonomicznych doprowadził do pojawienia się rozwiązań, które łatwo znalazły zastosowanie w przemyśle i produkcji. Dotychczas nie stosowano takich rozwiązań w archeologii, gdyż to rozległe heterogeniczne środowisko. Dzisiaj, dzięki współpracy z przemysłem wysokich technologii chcemy przetestować roboty w podziemnych tunelach wykopanych przez złodziei rabujących Pompeje. Tunele takie to często bardzo niebezpieczne miejsca. Dzięki robotom będziemy w stanie szybko i bezpiecznie je eksplorować, mówi dyrektor Parku Gabriel Zuchtriegel. Od 2012 roku aktywność złodziei rabujących Pompeje wyraźnie się zmniejszyła, gdyż włoska policja zintensyfikowała wysiłki na rzecz walki z nimi. Jednak na terenie otaczającym Pompeje wciąż znajdowane są nowe tunele wykopane przez rabusiów. « powrót do artykułu
-
Dwunożny robot Cassie samodzielnie przebiegł 5 kilometrów
KopalniaWiedzy.pl dodał temat w dziale Technologia
Cassie, pierwszy dwunożny robot używający maszynowego uczenia się do kontroli otoczenia w czasie poruszania się na zewnątrz, przeszedł do historii, przebywając samodzielnie 5 kilometrów w czasie około 53 minut. Robot powstał pod kierunkiem profesora Jonathana Hursta, a na jego powstanie grant w wysokości 1 miliona dolarów przyznała DARPA (Agencja Badawcza Zaawansowanych Projektów Obronnych). Robot powstał w 2017 roku i od tego czasu Narodowa Fundacja Nauki finansowała dalsze badania nad nim. Pracujący przy Cassie naukowcy i studenci skupili się na opracowaniu mechanizmów maszynowego uczenia się. Cassie nauszył się biegać korzystając z algorytmu deep reinforcement learning. Dzięki niemu robot nauczył się nieprzerwanego dokonywania drobnych korekt pozycji, balansowania, by utrzymać się w pionie podczas biegu. "Cassie jest bardzo wydajny, gdyż z takim zamysłem był projektowany i budowany. Chcemy dotrzeć do granic możliwości tego sprzętu i pokazać, na co go stać", mówi doktorant Jeremy Dao z Dynamic Robotics Laboratory. Deep reinforcement learning to potężny algorytm, który daje możliwość nauczenia robota takich czynności jak bieganie, skakanie czy wchodzenie i schodzenie po schodach, dodaje Yesh Godse. Naukowcy twierdzą, że pewnego dnia widok robota na ulicy będzie równie powszechny jak widok samochodu. I roboty, podobnie jak samochody, znacząco zmienią nasze życie. Obecnie poważnym ograniczeniem w rozpowszechnieniu się robotów jest zrozumienie przemieszczania się z użyciem kończyn. Jednak na tym polu dokonuje się duży postęp. Wspomniana na wstępie 5-kilometrowa przebieżka zajęła Cassie 53 minuty i 3 sekundy. Wliczono w to około 6,5 minuty, jakich było potrzeba, by robot zresetował się po dwóch upadkach. Przyczyną pierwszego było przegrzanie komputera, przyczyną drugiego, zbyt duża prędkość podczas zakręcania. Cassie już wcześniej nauczył się chodzić po schodach, a proces uczenia możemy oglądać na poniższym filmie. « powrót do artykułu -
Ludzkość może nie być w stanie kontrolować superinteligentnej sztucznej inteligencji (SI), sądzą autorzy najnowszych teoretycznych badań. Co więcej, możemy nawet nie wiedzieć, że stworzyliśmy tego typu AI (artificial intelligence). Na naszych oczach dokonuje się szybki postęp algorytmów sztucznej inteligencji. Maszyny wygrywają z ludźmi w go i pokera, pokonują doświadczonych pilotów myśliwców podczas walki powietrznej, uczą się od podstaw metodą prób i błędów, zapowiadają wielką rewolucję w medycynie i naukach biologicznych, stawiają diagnozy równie dobrze co lekarze i potrafią lepiej od ludzi odróżniać indywidualne ptaki. To pokazuje, na jak wielu polach dokonuje się szybki postęp. Wraz z tym postępem rodzą się obawy o to, czy będziemy w stanie kontrolować sztuczną inteligencję. Obawy, które są wyrażane od co najmniej kilkudziesięciu lat. Od 1942 roku znamy słynne trzy prawa robotów, które pisarz Isaac Asimov przedstawił w opowiadaniu „Zabawa w berka”: 1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy, 2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem, 3. Robot musi chronić samego siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem. Później Asimov dodał nadrzędne prawo 0: Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości. W 2014 roku filozof Nick Bostrom, dyrektor Instytutu Przyszłości Ludzkości na Uniwersytecie Oksfordzkim badał, w jaki sposób superinteligentna SI może nas zniszczyć, w jaki sposób możemy ją kontrolować i dlaczego różne metody kontroli mogą nie działać. Bostrom zauważył dwa problemy związane z kontrolą AI. Pierwszy to kontrolowanie tego, co SI może zrobić. Na przykład możemy kontrolować, czy podłączy się do internetu. Drugi to kontrolowanie tego, co będzie chciała zrobić. Aby to kontrolować, będziemy np. musieli nauczyć ją zasad pokojowego współistnienia z ludźmi. Jak stwierdził Bostrom, superinteligentna SI będzie prawdopodobnie w stanie pokonać wszelkie ograniczenia, jakie będziemy chcieli nałożyć na to, co może zrobić. Jeśli zaś chodzi o drugi problem, to Bostrom wątpił, czy będziemy w stanie czegokolwiek nauczyć superinteligentną sztuczną inteligencję. Teraz z problemem kontrolowania sztucznej inteligencji postanowił zmierzyć się Manuel Alfonseca i jego zespół z Universidad Autonoma de Madrid. Wyniki swojej pracy opisał na łamach Journal of Artificial Intelligence Research. Hiszpanie zauważają, że jakikolwiek algorytm, którego celem będzie zapewnienie, że AI nie zrobi ludziom krzywdy, musi najpierw symulować zachowanie mogące zakończyć się krzywdą człowieka po to, by maszyna potrafiła je rozpoznać i zatrzymać. Jednak zdaniem naukowców, żaden algorytm nie będzie w stanie symulować zachowania sztucznej inteligencji i z całkowitą pewnością stwierdzić, czy konkretne działanie może zakończyć się krzywdą dla człowieka. Już wcześniej udowodniono, że pierwsze prawo Asimova jest problemem, którego nie da się wyliczyć. Jego przestrzeganie jest więc nierealne. Co więcej, możemy nawet nie wiedzieć, że stworzyliśmy superinteligentną maszynę, stwierdzają badacze. Wynika to z twierdzenia Rice'a, zgodnie z którym nie można odgadnąć, jaki będzie wynik działania programu komputerowego patrząc wyłącznie na jego kod. Alfonseca i jego koledzy mają jednak też i dobre wiadomości. Otóż nie musimy się już teraz martwić tym, co zrobi superinteligentna SI. Istnieją bowiem trzy poważne ograniczenia dla badań takich, jakie prowadzą Hiszpanie. Po pierwsze, taka niezwykle inteligentna AI powstanie nie wcześniej niż za 200 lat. Po drugie nie wiadomo, czy w ogóle możliwe jest stworzenie takiego rodzaju sztucznej inteligencji, czyli maszyny inteligentnej na tylu polach co ludzie. Po trzecie zaś, o ile możemy nie być w stanie kontrolować superinteligentnej SI, to powinno być możliwe kontrolowanie sztucznej inteligencji, która jest superinteligentna w wąskim zakresie. Już mamy superinteligencję takiego typu. Na przykład mamy maszyny, które liczą znacznie szybciej niż ludzie. To superinteligencja wąskiego typu, prawda?, stwierdza Alfonseca. « powrót do artykułu
-
W latach 30. w siłach zbrojnych Wielkiej Brytanii może służyć około 30 000 robotów, które będą wypełniały różne zadania zarówno na linii frontu jak i w jej pobliżu, stwierdził szef sztabu brytyjskiej armii generał Nick Carter. Myślę, że możemy mieć 120-tysięczną armię, z czego 30 000 to będą roboty, kto wie, powiedział. Obecnie Wielka Brytania ma 73 870 żołnierzy gotowych do prowadzenia działań bojowych. To sporo mniej niż zakładane 82 050. W przyszłości zakładana liczba może zostać obniżona do 75 000 przy założeniu, że część luk wypełni technologia. Wszystkie rodzaje brytyjskich sił zbrojnych są obecnie zaangażowane w prace badawczo-rozwojowe, w ramach których powstają zarówno niewielkie drony, jak i zdalnie sterowany pojazdy lądowe i podwodne. Niektóre z nich mają być uzbrojone, inne będą służyły wyłącznie działaniom rozpoznawczym. Wśród rozwijanych systemów jest np. dron i9, który jest uzbrojony w dwie strzelby. Maszyna ma być używana podczas walk w mieście, przede wszystkim do szturmowania budynków, kiedy to dochodzi do największej liczby strat własnych. Zgodnie z obecnie obowiązującymi zasadami brytyjskiego Ministerstwa Obrony jedynie ludzie mogą decydować o otwarciu ognia. Jednak pojawia się coraz więcej obaw o wybuch wojny, w której będą brały udział autonomiczne roboty samodzielnie podejmujące decyzje o działaniach bojowych. « powrót do artykułu
-
- robot bojowy
- robot
-
(i 3 więcej)
Oznaczone tagami:
-
Robot Facebooka układa światłowód wzdłuż linii energetycznych
KopalniaWiedzy.pl dodał temat w dziale Technologia
Facebook zbudował prototypowego robota, który porusza się po... liniach energetycznych. Bombyx – Jedwabnik – rozwija za sobą światłowód. Gdy dociera do słupa, przechodzi nad nim i kontynuuje swoją podróż. Robot służy do układania światłowodów wzdłuż istniejących napowietrznych linii średniego napięcia, a jego celem jest obniżenie kosztów budowy infrastruktury komunikacyjnej na całym świecie. Obecnie koszty budowy takiej infrastruktury są bardzo wysokie. Szczególnie, gdy pojawia się konieczność wykonania prac ziemnych. Stąd też pomysł, by wykorzystać istniejące linie energetyczne. Te bowiem dotarły już do wielu miejsc na świecie, więc dostawcy internetu mogliby z nich skorzystać i znacząco obniżyć koszty budowy infrastruktury. To zaś oznaczałoby obniżenie kosztów dla ich klientów. Facebook od dawna chce zwiększyć dostępność do internetu na całym świecie. Dlatego właśnie serwis społecznościowy zabrał się za opracowanie Bombyksa. Firma nie ma jednak zamiaru samodzielnie budować i sprzedawać takich robotów. Od przyszłego roku będzie udzielała licencji wszystkim chętnym przedsiębiorstwom, które będą chciały produkować takie urządzenia. Połowa ludzkości nie ma dostępu do internetu, mówi inżynier Karthik Yogeeswaran z Facebooka, członek grupy, która opracowała robota. Z tych 50% ludzi, którzy nie korzystają z internetu aż 80% mieszka na terenach, gdzie jest dostęp do telefonii komórkowej, jednak nie stać ich na smartfon i opłacenie abonamentu. Światłowód ma o wiele rzędów wielkości wyższą przepustowość niż jakakolwiek ina technologia. Pozwala na przesłanie większej ilości danych do większej liczby ludzi, dodaje Yogeeswaran. Brak dostępu do szybkich łączy internetowych nie jest wyłącznie problemem krajów ubogich. W USA agendy federalne i stanowe wydają miliardy dolarów na zwiększenie zasięgu i przepustowości sieci, a mimo to ciągle jest z tym kłopot. Budowa infrastruktury idzie powoli i jest bardzo kosztowna. Koszty wykonania prac ziemnych i ułożenia kabli mogą sięgnąć dziesiątków tysięcy dolarów za każdy kilometr. A jeśli nawet na jakimś odległym terenie już sieć powstanie, to koszty jej budowy, które trzeba uwzględnić w cenie oferowanych usług, mogą być tak duże, że wielu osób nie stać na korzystanie z nowo wybudowanej infrastruktury. Z oficjalnych danych wynika, że 18 milionów Amerykanów (5,6%) nie ma obecnie dostępu do szerokopasmowego internetu definiowanego jako łącze o przepustowości co najmniej 25/3 Mbit. Największy problem jest na wsiach, gdzie dostępu do takich łączy nie ma około 30% obywateli oraz 40% szkół i 60% instytucji opieki zdrowotnej znajdujących się poza dużymi miastami. Przed trzema laty specjaliści z Facebooka zaczęli zastanawiać się nad obniżeniem kosztów budowy infrastruktury światłowodowej. Yogeeswaran mówi, że pomysł wykorzystania linii średniego napięcia wpadł mu do głowy, gdy podróżował po afrykańskiej prowincji. Zauważył, że wiejskie tereny Ugandy są usiane liniami średniego napęcia. Inżynier wpadł więc na pomysł, by układać światłowody wzdłuż istniejących linii. Poszukując sposobów na zrealizowanie swojego pomysłu Yogeeswaran dowiedział się, że już w latach 80. ubiegłego wieku pojawiła się maszyna, która miała pomagać w układać światłowodów na liniach energetycznych. Nigdy nie odniosła komercyjnego sukcesu. Częściowo dlatego, że była wybudowana za pomocą ówczesnej technologii. Korzystała z silników spalinowych i nie potrafiła omijać słupów. Musieli jej w tym pomagać ludzie. A to oznaczało konieczność wyłączenia prądu w całych liniach, mówi inżynier. Pomysł Facebooka polega na umieszczeniu na linii średniego napięcia lekkiego robota który owija światłowód wokół istniejącego kabla, samodzielnie się porusza i samodzielnie omija słupy. Zwykle przeciąganie kabli pomiędzy słupami wymaga pracy ciężkiego sprzętu i wielu osób. Dzięki Bombyxowi wystarczy 2-3 techników, pickup, kilka kilometrów światłowodu na szpuli i nieco innych narzędzi. Jako, że kable w liniach średniego napięcia są lżejsze i słabsze niż te w liniach wysokiego napięcia, robot musi być odpowiednio lekki, a w jego wnętrzu musi zmieścić się kabel, który jest cienki, ale na tyle wytrzymały, by przetrwał wiatry i duże wahania temperatur. Obecnie do napowietrznego układania stosuje się światłowody o średnicy 10–13 milimetrów, a te używane do owijania wokół istniejących kabli mają około 7 milimetrów średnicy. Tymczasem Facebook i jego partnerzy stworzyli napowietrzny światłowód o średnicy 4 milimetrów. Gdy już kabel powstał Facebook rozpoczął współpracę z firmą ULC Robotics. Jej wynikiem jest robot, który porusza się po liniach średniego napięcia i potrafi omijać izolatory oraz inne przeszkody na słupach bez pomocy człowieka. Bombyx pracuje na działającej linii, nie ma więc potrzeby wyłączania prądu. Jest również bardzo szybki. Ułożenie kilometra światłowodu zajmuje mu około 1,5 godziny. Zanim Facebook i jego partnerzy rozpoczną program pilotażowy, chcą jeszcze udoskonalić swojego robota. Chcą, by operowanie Bombyxem było na tyle łatwe, by robota nie musiał doglądać inżynier. Mają też zamiar opracować bezpieczne procedury korzystania z robota. « powrót do artykułu -
Przez kilka najbliższych miesięcy zwiedzający Ogród Botaniczny w Atlancie będą mogli obserwować testy SlothBota. Powolny, wydajny energetycznie robot może się ukrywać pośród drzew, by monitorować zwierzęta, rośliny i środowisko poniżej. SlothBot powstał w Georgia Institute of Technology (Georgia Tech). Inżynierowie wzorowali go na niskoenergetycznym trybie życia leniwców. SlothBot pokazuje, że bycie wolnym może się idealnie nadawać do pewnych zastosowań. Zasilany panelami słonecznymi SlothBot, który wykorzystuje innowacyjną technologię zarządzania poborem mocy, porusza się po kablu rozpiętym między drzewami. Monitoruje temperaturę, pogodę, poziom dwutlenku węgla itp. Powolność to podstawa projektu SlothBota. Nie jest to bynajmniej normą we współczesnej robotyce, ale bycie wolnym i superwydajnym energetycznie pozwala SlothBotowi utrzymywać się w środowisku i obserwować rzeczy, których świadkami moglibyśmy być wyłącznie w wyniku stałej wielomiesięcznej czy nawet wieloletniej obecności - wyjaśnia prof. Magnus Egerstedt. Robot jest zaprogramowany, by poruszać się tylko wtedy, gdy jest to konieczne. Lokalizuje światło słoneczne, kiedy akumulatory potrzebują doładowania. W Ogrodzie Botanicznym w Atlancie SlothBot porusza się po jednym kablu, ale w realnych zastosowaniach środowiskowych będzie docelowo w stanie przemieszczać się z kabla na kabel, by objąć monitoringiem większy obszar. Wspierany przez Narodową Fundację Nauki (National Science Foundation) i Office of Naval Research SlothBot może pomóc naukowcom w lepszym zrozumieniu abiotycznych czynników wpływających na krytyczne ekosystemy. SlothBot może zdalnie wykonywać część naszej pracy i pomagać nam ustalić, co się z dzieje z zapylaczami lub jak wyglądają interakcje między roślinami i zwierzętami. Przyda się także do badania zjawisk, które inaczej trudno zaobserwować. Egerstedt wpadł na pomysł SlothBota po wizycie w kostarykańskiej winnicy. Zobaczył tam leniwca dwupalczastego, który przemieszczał się po kablach. Amerykanie podkreślają, że wartość powolności zademonstrowało parę innych systemów robotycznych. Prędkość nie była [na przykład] kluczowa dla łazików marsjańskich, ale podczas leniwej eksploracji tej planety zdobyły one sporo informacji. Naukowcy z Georgia Tech dodają, że SlothBot może także znaleźć zastosowanie w rolnictwie precyzyjnym. Kamera i czujniki robota zawieszonego na kablu nad uprawą pozwolą bowiem np. na wczesne wykrycie chorób. Po zakończeniu testów w Ogrodzie Botanicznym w Atlancie specjaliści planują przenieść się do Ameryki Południowej. Wspominają o monitoringu zapylania storczyków czy obserwacji życia zagrożonych płazów. Fascynująco jest myśleć o robotach stających się częścią ekosystemu. Choć nie budujemy żywej repliki leniwca, wierzymy, że nasz robot może się zintegrować ze środowiskiem [...]. Robot z Ogrodu Botanicznego w Atlancie to druga wersja systemu zaprezentowanego w maju zeszłego roku na Międzynarodowej Konferencji Robotyki i Automatyki. Jak wyjaśniają Amerykanie, tamten robot był o wiele mniejszym prototypem laboratoryjnym. « powrót do artykułu
-
Od piątku (8 maja) w Singapurze trwają 2-tygodniowe testy robota-psa firmy Boston Dynamics. Poza godzinami szczytu Spot patroluje część Bishan-Ang Mo Kio Park, przypominając ludziom o społecznym dystansowaniu. Jeśli robot się sprawdzi, będzie patrolować także inne parki. Jak napisano w relacji prasowej National Parks Board, kontrolowany zdalnie Spot ma zmniejszyć siłę roboczą potrzebną do patrolowania parków i zminimalizować fizyczny kontakt między załogą, wolontariuszami [...] i odwiedzającymi. Spot jest wyposażony w kamery z funkcją analizy wideo, dzięki czemu możliwe jest oszacowanie liczby ludzi w parku. Czworonożny robot, któremu w okresie testowym towarzyszy oficer, będzie odtwarzać komunikat przypominający o zachowaniu bezpiecznych odległości. NParks podkreślają, że kamery robota nie pozwalają na śledzenie i/lub rozpoznawanie konkretnych osób. Nie będą też zbierane żadne dane osobowe. Spot dobrze sobie radzi w różnych rodzajach terenu. Potrafi omijać przeszkody, dlatego świetnie się nadaje do działania w publicznych parkach i ogrodach. Wyposażono go w algorytmy i czujniki bezpieczeństwa, dzięki którym wykrywa obiekty i ludzi na swojej trasie. Jeśli 2-tygodniowe testy zakończą się sukcesem, NParks wykorzystają Spoty także podczas porannego i wieczornego szczytu oraz w innych parkach, np. w Jurong Lake Gardens. W Singapurze Spoty są już wykorzystywane w izolatorium na terenie Changi Exhibition Centre, gdzie dostarczają pacjentom posiłki czy leki. « powrót do artykułu
-
Jeden z zespołów NASA rozwija koncepcję zbudowania na niewidocznej stronie Księżyca największego radioteleskopu w Układzie Słonecznym. Na razie pomysł znajduje się na bardzo wczesnym etapie rozwoju, ale jeśli radioteleskop powstanie, pozwoli on na badanie przestrzeni kosmicznej w nieosiągalny dotychczas sposób i może zarejestrować sygnały pochodzące z wieków ciemnych, czyli epoki, która rozpoczęła się około 400 000 lat po Wielkim Wybuchu. Niewidoczna strona Księżyca ma olbrzymie zalety z punktu widzenia radioastronomii. Srebrny Glob stanowi świetną osłonę przed zakłóceniami z Ziemi. Izolowałby teleskop nie tylko od zakłóceń generowanych przez człowieka, ale też od zakłóceń jonosfery, satelitów krążących wokół naszej planety, a w czasie księżycowej nocy, również od zakłóceń ze strony Słońca. Wielki radioteleskop mógłby prowadzić obserwacje sygnałów o częstotliwości poniżej 30MHz (długość fali większa niż 10 metrów). Takich obserwacji praktycznie nie można prowadzić z powierzchni Ziemi, gdyż fale o tej długości są zakłócane przez atmosferę. Nawet teleskopy kosmiczne mają problem z poradzeniem sobie z zakłóceniami z naszej planety. Nie mówiąc już o tym, że nie jesteśmy w stanie zbudować i wysłać w przestrzeń kosmiczną zbyt dużego radioteleskopu. Dlatego też inżynier Saptarshi Bandyopadhyay z Jet Propulsion Laboratory proponuje wybudowanie za pomocą robotów DuAxel w 3,5-kilometrowym kraterze radioteleskopu o średnicy 1-kilometra. Jak czytamy w złożonej propozycji Lunar Crater Radio Telescope (LCRT) byłby największym radioteleskopem w Układzie Słonecznym! LCRT umożliwiłby dokonanie niezwykłych odkryć w dziedzinie kosmologii obserwując sygnały z wczesnego wszechświata w paśmie 10–50 metrów (6–30Hz), które dotychczas nie było badane przez człowieka. Bandyopadhyay przedstawił swój projekt w ramach rozpisanego przez NASA Innovative Advanced Concepts Program. Uznano go za na tyle interesujący, że przeszedł przez 1. z trzech faz programu. Inżynier i jego zespół otrzymali dofinansowanie w wysokości 125 000 USD. To pieniądze przeznaczone na obmyślenie projektu mechanicznego LCRT, wyszukanie odpowiednich kraterów na Księżycu oraz porównanie spodziewanych korzyści i wydajności LCRT z innymi pomysłami zaproponowanymi w literaturze fachowej. Jak mówi sam Bandyopadhyay, wszystko to oznacza, że jego pomysł znajduje się na bardzo wczesnym etapie rozwoju. Jeśli jednak doszłoby do realizacji projektu, LCRT miałby być budowany przez grupę robotów zdolnych do wspinania się po ścianach krateru. W propozycji pada nazwa DuAxel. Bandyopadhyay posługuje się tutaj terminologią zaproponowaną przed 8 laty przez innych ekspertów z Jet Propulsion Laboratory. Jak czytamy w pracy Axel and DuAxel rovers for the sustainable exploration of extreme terrains łazik Axel to sterowany za pomocą kabla dwukołowy robot zdolny do przemierzania w dół stromych zboczy i jazdę po trudnym terenie. Łazik DuAxel to czterokołowy robot zbudowany z dwóch łazików Axel, który swobodnie – bez kabla – porusza się po ekstremalnie trudnym terenie. Nie ma żadnej gwarancji, że pomysł Bandyopadhyaya będzie realizowany. Ma on bowiem silną konkurencję. O fundusze stara się wiele zespołów naukowych, które proponują m.in. nowatorskie materiały do budowy żagla słonecznego, skaczące próbniki eksplorujące ciała niebieskie, metody pozyskiwania wody na Księżycu czy systemy napędowe do eksploracji głębokiego kosmosu. Obecnie największym radioteleskopem jest chiński FAST o średnicy 500 metrów, który pracuje w zakresie od 70MHz do 3GHz « powrót do artykułu
- 9 odpowiedzi
-
W szpitalu polowym w Wuhan roboty zajmują się osobami zarażonymi koronawirusem SARS-CoV-2. Szpital Wuchang stał się polem testowym dla nowych technologii. Sześć różnych typów robotów dba tam o 200 pacjentów cierpiących na COVID-19. Maszyny zajmują się pomiarami temperatury, dostarczaniem pożywienia, patrolują i odkażają pomieszczenia. W ten sposób z jednej strony odciążają pracowników służby zdrowia, z drugiej zaś chronią ich przed infekcjami. W szpitalu znajduje się 200 pacjentów w średnio poważnym stanie. Roboty wykorzystują sieci 5G, dzięki czemu lekarze mogą na bieżąco zbierać dane i monitorować pacjentów. W prowincji Hubei, centrum epidemii, koronawirusem SARS-CoV-2 zaraziło się ponad 3000 pracowników służby zdrowia. Brakuje personelu, więc roboty to nieoceniona pomoc. Tym bardziej, że mogą zapobiegać kolejnym infekcjom. Urządzenia są zdolne do samodzielnego poruszania się i samodzielnego ładowania akumulatorów, nie wymagają więc bieżącej obsługi. Prace nad projektem wykorzystania robotów rozpoczęły się 28 lutego, gdy urzędnicy z Hubei nawiązali kontakt z Chińską Akademią Nauk. Technologiczny startup CloudMinds dostarczył 12 robotów i wraz z państwową firmą China Mobile w ciągu tygodnia zbudował w szpitalu odpowiednią infrastrukturę. Szpital Wuchang jest jedynym w tak dużej mierze obsługiwanym przez roboty, ale nie jedynym, w którym urządzenia takie pracują. W jednym ze szpitali w prowincji Guangdong pracują dwa roboty, które dostarczają leki i pożywienia, zbierają śmieci i zmieniają pościel. Urządzenia potrafią też same się odkażać. « powrót do artykułu
-
- koronawirus
- SARS-CoV-2
-
(i 5 więcej)
Oznaczone tagami:
-
Wyobraźmy sobie całkowicie elastycznego robota, który nie zawiera żadnych obwodów i jest napędzany światłem słonecznym, mówi Amos Meeks z Uniwersytetu Harvarda (SEAS) i główny autor najnowszych badań. Badań, których autorzy opracowali nowatorską całkowicie optyczną platformę obliczeniową. Taką, w której do obliczeń wykorzystuje się tylko i wyłącznie światło. W większości współczesnych systemów obliczeniowych wykorzystuje się twarde materiały, takie jak metalowe kable, półprzewodniki i fotodiody łączące elektronikę i światło, stwierdza Meeks. U podstaw wyłącznie optycznej platformy obliczeniowej leży chęć pozbycia się tych elementów i kontrolowanie światła za pomocą światła, dodaje. Tego typu platformy wykorzystują materiały nieliniowe, które zmieniają indeks refrakcyjny w reakcji na intensywność światła. Gdy światło przechodzi przez taki materiał, zwiększa się jego indeks refrakcyjny i w materiale pojawia się, generowany światłem, światłowód. Problem jednak w tym, że obecnie większość materiałów nieliniowych wymaga albo użycia potężnych laserów, albo też w wyniku oddziaływania światła na stałe zmieniają się ich właściwości. Naukowcy z Harvard John A. Paulson School of Engineering and Applied Sciences (SEAS) we współpracy z uczonymi z McMaster University oraz University of Pittsburgh opracowali nowatorski materiał, który w reakcji na światło lasera o niskiej mocy zmiania swój indeks refrakcyjny zmniejszając i zwiększając swoje rozmiary, a zmiany te są odwracalne. Nowy materiał to hydrożel zbudowany z sieci polimerowej nasączonej wodą oraz z niewielkiej liczby spiropyranów, molekuł reagujących na światło. Gdy hydrożel zostaje oświetlony, nieco się kurczy i zmienia się jego indeks refrakcyjny. Po wyłączeniu światła żel powraca do oryginalnego kształtu. Gdy zaś hydrożel zostanie oświetlony przez wiele źródeł światła, wchodzą one w interakcje i wpływają na siebie. Na przykład promień A może blokować promień B, promień B może blokować promień A, oba mogą blokować się nawzajem lub oba mogą przez siebie przechodzić. Powstaje w ten sposób bramka logiczna. Mimo, że to oddzielne promienie, mogą na siebie wpływać. Możemy wyobrazić sobie, że w przyszłości taki sposób reakcji na światło może zostać wykorzystany do wykonywania obliczeń, mówi Kalaichelvi Saravanamuttu z McMaster University. Nauki materiałowe się zmieniają. Samoregulujące, adaptacyjne materiały zdolne do optymalizowania swoich właściwości w reakcji na otoczenie zastępują statyczne, nieefektywne energetycznie i zewnętrznie regulowane materiały. Zaprezentowany przez nas materiał, który kontroluje światło o niezwykle niskiej intensywności to kolejny pokaz nadchodzącej rewolucji technologicznej, dodaje profesor Joanna Aizenberg z SEAS. « powrót do artykułu
-
- światło
- obliczenia
-
(i 2 więcej)
Oznaczone tagami:
-
W Japonii powstaje gigantyczny robot humanoidalny
KopalniaWiedzy.pl dodał temat w dziale Technologia
W Japonii powstaje największy robot humanoidalny w historii. Gigant budowany w Gundam Factory Yokohama będzie miał 18 metrów wysokości, a jego waga sięgnie 25 ton. Urządzenie będzie poruszane za pomocą elektrycznych i hydraulicznych siłowników o 24 stopniach swobody. Uwagę zwraca już sama nazwa fabryki. Gundam to anime, w którym bohaterami są ogromne roboty. Roboty te to rodzaj kombinezonu poruszanego przez człowieka siedzącego w torsie. Gundamy mają humanoidalny kształt, charakterystyczny hełm i są białe, z niebieskimi, złotymi i czerwonymi wstawkami. Gundam są tak zakorzenione w japońskiej kulturze, że w Tokio powstały nawet ich 20-metrowe pomniki. Teraz powstanie gigantyczny rzeczywiście poruszający się gundam. Na razie niewiele o nim wiadomo. Udostępniono symulację robota wykonaną przez JSK Lab z Uniwersytetu Tokijskiego. Fabryka z Jokohamy zaprezentowała też pomniejszony model robota i rusztowania, które posłużą do jego budowy i przy których będzie stał. Wiadomo, że robot będzie chodzł, nie wiemy jednak, na ile długi będzie to spacer. Najprawdopodobniej będzie w stanie przejść kilka kroków do przodu i do tyłu, pozostając przy rusztowaniu. Prawdopodobnie robot będzie zdalnie sterowany, a publiczność będzie mogła go oglądać z pewnej odległości. Pierwszy publiczny pokaz olbrzyma zapowiadany jest na październik bieżącego roku. « powrót do artykułu -
Amerykańscy naukowcy stworzyli pierwsze żywe maszyny. Zbudowali je z komórek żaby szponiastej (Xenopus laevis), bezogonowego płaza zamieszkującego Afrykę. Roboty poruszają się i można je dostosowywać do swoich potrzeb. Jednym z najbardziej udanych jest miniaturowa maszyna wyposażona w dwie nogi. Z kolei inny projekt zawiera wewnątrz otwór, w którym może transportować niewielkie ładunki. Jak zapewnia Michael Levin, dyrektor Allen Discovery Center na Tufts University, to całkowicie nowe formy życia. Nigdy wcześniej nie istniały one na Ziemi. To żywe, programowalne organizmy. Tego typu rozwiązanie ma olbrzymie zalety w porównaniu z tradycyjnymi robotami. Po pierwsze, żywe roboty potrafią samodzielnie się naprawić. Po drugie zaś, można je zaprogramować tak, by po wykonaniu zadania ginęły, ulegając naturalnemu rozkładowi, jak inne organizmy żywe. Ich twórcy uważają, że w przyszłości tego typu roboty mogą np. oczyszczać oceany z mikroplastiku, samodzielnie lokalizować i przetwarzać toksyczne substancje, dostarczać leki do wyznaczonego miejsca w organizmie czy w końcu oczyszczać ze złogów ściany naczyń krwionośnych. Projektowaniem robotów zajmuje się specjalny „algorytm ewolucyjny” działający na superkomputerze. Projektowanie zaczyna się od symulacji przypadkowego połączenia 500 do 1000 komórek skóry i serca. Następnie każdy z takich robotów jest wirtualnie testowany. Te projekty, które najlepiej odpowiadają oczekiwaniu naukowców, mają największą szansę wykonać założone zadania, są dalej rozwijane i na ich podstawie tworzy się nowe roboty. Urządzenia są napędzane przez komórki serca, które spontanicznie kurczą się i rozszerzają, działając jak niewielkie silniki. Robotów nie trzeba niczym zasilać. Komórki mają na tyle dużo energii, że żyją przez 7-10 dni. Grupa Levina poczekała na 100. generację robotów stworzonych przez algorytm i z niej wybrała niektóre projekty do zbudowania ich w laboratorium. Jako, że do stworzenia maszyn użyto komórek Xenopus, urządzenia zyskały miano „xenobotów”. Architektura xenobotów jest, jak zapewniają twórcy, skalowalna. Podczas eksperymentów z prawdziwymi robotami powstały takie, które poruszały się w wodzie po linii prostej, inne krążyły w kółko, jeszcze inne tworzyły grupy. Można je wyposażyć w naczynia krwionośne, układ nerwowy czy komórki odbierające np. bodźce świetlne i stworzyć w ten sposób proste oczy. Jeśli do zbudowania robotów użyjemy komórek ssaków, urządzenia będą mogły pracować na suchym lądzie. Głównym celem prac zespołu Levina jest zrozumienie życia i tego, jak ono powstaje i funkcjonuje. Oczywiście rodzi to wiele pytań etycznych, chociażby o status xenobotów. Czy należy uznawać je za roboty, czy za organizmy żywe. I do jakiego stopnia złożony powinien być ich układ nerwowy. Xenoboty zostały szczegółowo opisane na łamach PNAS, w artykule A scalable pipeline for designing reconfigurable organisms. « powrót do artykułu
- 88 odpowiedzi
-
- żaba szponiasta
- komórka
-
(i 5 więcej)
Oznaczone tagami:
-
W 2019 r. w polskich szpitalach przeprowadzono rekordową liczbę niemal 900 zabiegów przy użyciu robotów da Vinci – wynika z danych udostępnionych PAP przez firmę Synektik, dystrybutora tego systemu w naszym kraju. Polska chirurgia robotyczna wciąż jest jednak w powijakach. Pierwszy robot chirurgiczny da Vinci trafił do Polski już w 2010 r., ale robotyka chirurgiczna wciąż się w Polsce rozwija. Przełomowy był 2018 r., kiedy w polskich szpitalach uruchomiono pięć robotów operacyjnych da Vinci i przeprowadzono przy ich użyciu 60 zabiegów. Aż cztery aparaty zaczęto używać dopiero w czwartym kwartale tego roku, stąd tak duży wzrost zrobotyzowanych operacji w 2019 r. Rok 2019 zamykamy już z ośmioma systemami i niemal 900 przeprowadzonymi operacjami. Liczymy, że dynamika wzrostu zostanie utrzymana przez polski rynek chirurgii robotycznej także w 2020 roku – podkreśla Artur Ostrowski z firmy Synektik, która podsumowała skalę wykorzystania robotów. Zabiegi z udziałem systemu da Vinci przeprowadza się w Polsce zarówno w szpitalach prywatnych, jak i publicznych: we Wrocławiu, Warszawie, Poznaniu, Białymstoku, Krakowie, Wieliszewie i Siedlcach. Według eksperta zalety operacji z użyciem robota to niska utrata krwi, minimalizacja powikłań, mniejsze blizny pooperacyjne, co skraca rekonwalescencję i pobyt pacjentów w szpitalu. Wszystko to sprawia, że choć samo użycie robota pozostaje droższe niż klasyczna operacja, rozwój chirurgii robotycznej wiąże się dla całego polskiego systemu ochrony zdrowia z wymiernymi oszczędnościami – podkreślił Ostrowski. Na stosunkowo niedużą skalę wykorzystania robotów chirurgicznych w Polsce wskazuje raport „Rynek robotyki chirurgicznej w Polsce 2019. Prognozy na lata 2020-2023”, opracowany przez Upper Finance i PMR i opublikowany pod koniec 2019 r. Wynika z niego, że w USA przypada jeden robot chirurgiczny da Vinci na 100 tys. mieszkańców, w Europie jeden na 800 tys. mieszkańców, zaś w Polsce – jeden na aż 6,5 mln mieszkańców. Zdaniem Joanny Szyman z Upper Finance w kraju wielkości Polski powinno być około 40–50 robotów da Vinci. Biorąc pod uwagę stopień rozwoju rynku, sposób finansowania opieki zdrowotnej oraz warunki makroekonomiczne, do końca 2023 r. możemy się spodziewać w sumie około 30 instalacji - dodaje. W 2019 r. na świecie przeprowadzono około 1,25 mln operacji z wykorzystaniem niemal 5,5 tys. tego typu robotów. Najczęściej są one wykorzystywane w urologii, ginekologii, onkologii, bariatrii i chirurgii ogólnej, a ostatnio także w chirurgii klatki piersiowej oraz chirurgii głowy i szyi. Europejskim liderem w dostępie do robotyki medycznej są Niemcy, gdzie pracuje ponad 130 systemów da Vinci, oraz Włochy, gdzie jest ich ponad 120. Zdaniem analityków Upper Finance wykorzystanie robotów chirurgicznych w naszym kraju mogłoby wzrosnąć dzięki wprowadzeniu osobnego programu finansowania procedur z udziałem tych aparatów. Na razie nie ma takich możliwości, choć w 2017 r. Agencja Oceny Technologii Medycznych i Taryfikacji pozytywnie zaopiniowała refundację operacji robotycznych dla trzech wskazań: raka jelita grubego, raka gruczołu krokowego oraz raka błony śluzowej macicy. Zrobotyzowane operacje w naszym kraju są wykonywane prywatnie, w ramach grantów naukowych oraz usług finansowanych przez NFZ (jednak bez uwzględnienia dodatkowych kosztów związanych z eksploatacją robota). Najwięcej takich zabiegów dotyczy urologii, np. w usuwania guzów prostaty u mężczyzn. Zdaniem Artura Ostrowskiego poza finansowaniem kluczowy dla skutecznej i bezpiecznej implementacji tej technologii jest proces szkolenia operatorów. Systemy robotyczne pozostają przede wszystkim narzędziami w rękach wysoko wykwalifikowanych chirurgów. Potwierdza to Monika Stefańczyk z Pharma and Healthcare Business Unit Director w PMR. Twierdzi, że silnym hamulcem w całej opiece zdrowotnej zarówno prywatnej jak i publicznej są problemy z niewystarczającą liczbą wykwalifikowanej kadry medycznej. W przypadku zakupu robota świadczeniodawca nie może zapomnieć również o środkach związanych ze szkoleniem lekarzy i przygotowaniem kadry do obsługi tak skomplikowanego sprzętu. Warto zaznaczyć, że jest to również długotrwały proces – dodaje. Prezydent Międzynarodowego Stowarzyszenia na Rzecz Robotyki Medycznej prof. Zbigniew Nawrat, główny konstruktor robota Robin Heart, który ma być wykorzystywany w operacjach serca, uważa, że roboty dają siłę słabszym, sprawność tam, gdzie brakuje jej ludziom. Robot da Vinci optymalizuje ruchy operatora poprzez eliminację naturalnego drżenia mięśni i poprawienie pola widzenia. To z kolei pozwala zawęzić obszar interwencji chirurgicznej, a precyzja nacięć sprawia, że sam zabieg jest mniejszym obciążeniem dla pacjentów. « powrót do artykułu
-
We wrześniu firma Boston Dynamics ujawniła, że produkowany przez nią robot-pies Spot jest testowany podczas wykonywania takich zadań jak monitorowanie budów, sprawdzanie infrastruktury gazowej, energetycznej i paliwowej oraz w zadaniach związanych z bezpieczeństwem publicznym. Teraz dowiadujemy się, że Spot był przez 90 dni testowany przez jednostkę saperską Massachusetts State Police (MSP). American Civil Liberties Union (ACLU) zwrócila się o szczegółowe informacje na temat reklamowanego przez MSP na Facebooku wydarzenia pod tytułem „Robotyka w organach ścigania”. Dzięki temu dowiedzieliśmy się, że stanowa policja wypożyczyła Spota na 3 miesiące. Jak wyjaśnia rzecznik prasowy MSP, Spot był używany w roli zdalnego mobilnego urządzenia obserwacyjnego, które dostarczało policji obraz miejsc niebezpiecznych, gdzie mogły znajdować się np. materiały wybuchowe czy uzbrojeni przestępcy. Roboty to wartościowe narzędzia, gdyż mogą dostarczyć informacji o potencjalnie niebezpiecznych miejscach, stwierdził David Procopio. Spot wyposażony jest w kamerę rejestrującą obraz w promieniu 360 stopni i radzi sobie w nieprzyjaznym terenie. Może też przenosić ładunki o wadze do 14 kilogramów. We wrześniu Boston Dynamics rozpoczęła sprzedaż Spota wraz z SDK, dzięki czemu klienci mogą rozwijać własne aplikacje oraz lepiej kontrolować robota. « powrót do artykułu
-
- Spot
- Boston Dynamics
-
(i 3 więcej)
Oznaczone tagami:
-
Polski robot wyróżnił się na międzynarodowych zawodach
KopalniaWiedzy.pl dodał temat w dziale Technologia
Melson – konstrukcja Koła Naukowego Robotyków KNR działającego przy Wydziale Mechanicznym Energetyki i Lotnictwa Politechniki Warszawskiej z sukcesami zakończył swój udział w zawodach International Robotic Competition RoboChallenge 2019 w Rumunii (1-3 listopada 2019). Robot zajął pierwsze miejsce w kategorii Humanoid Robot, drugie miejsce w kategorii Humanoid Sumo oraz został wyróżniony w kategorii Freestyle Showcase. Konkurencja Humanoid Robot składała się z dwóch części. Roboty musiały wejść na schody składające się z trzech stopni oraz przejść tor z postawionymi na nim przeszkodami. Melson bez problemu wykonał pierwszą część zadania. W drugiej także poradził sobie świetnie – bezbłędnie omijał przeszkody na swoim torze, utrzymując przy tym poprawny toru ruchu. Zwycięstwo w tej kategorii smakuje wyjątkowo, bo robot naszych studentów jako jedyny był skonstruowany i oprogramowany przez samych zawodników – uczestników zawodów. W konkurencji Humanoid Sumo dwa roboty umieszczane są na dużym ringu (dohyo). Ich zadaniem jest przewrócenie przeciwnika. Roboty są w pełni autonomiczne i lokalizują przeciwnika na podstawie odczytów z czujników. Za przewrócenie rywala robot otrzymuje punkt, a w gdy ten nie wstanie przez 10 sekund, następuje knock-out. Roboty głównie wyprowadzały ciosy, padając do przodu swoim „ciałem”, licząc, że to wywróci przeciwnika – opowiada Kornelia Łukojć. Jedynie Melson walczył, stosując typowe ruchy bokserskie, które przewracały rywali. Ostatecznie nasz robot zajął drugie miejsce, ale finał był najbardziej emocjonującą walką w tej konkurencji. Kategoria Freestyle Showcase to rywalizacja, w której liczy się pomysłowość i innowacyjność. Ocenie podlegają prezentacja i dokumentacja projektu. Wyróżnienie dla Melsona w tej konkurencji to kolejne potwierdzenie inżynierskich umiejętności jego twórców. Zawody RoboChallenge to największe zawody robotów organizowane w Europie i jedne z największych na świecie. W tegorocznej edycji wzięły udział 158 zespoły z 17 krajów, w tym 615 uczestników i 533 roboty startujące w 14 konkurencjach. Zespół Melsona: Maksymilian Szumowski (twórca), Kacper Mikołajczyk (koordynator), Bartosz Bok, Dominik Górczynski, Kornelia Łukojć, Jerzy Piwkowski, Przemysław Płoński, Patryk Saffer, Jakub Soboń, Larysa Zaremba, Paweł Żakieta, Karol Niemczycki « powrót do artykułu- 1 odpowiedź
-
ROBOpilot uzyskał licencję i samodzielnie steruje samolotem
KopalniaWiedzy.pl dodał temat w dziale Technologia
ROBOpilot Unmanned Aircraft Conversion System pomyślnie zdał egzamin przed Federalną Administracją Lotniczą (FAA), otrzymał zgodę na pilotowanie lekkich samolotów i zaczął samodzielnie latać. Wbrew temu, co mogłoby się wydawać, ROBOpilot nie jest tradycyjnym autopilotem. To urządzenie, które steruje samolotem tak, jak człowiek. Robot za pomocą ramienia manipuluje wolantem, naciska pedały i korzystając z systemu wizyjnego odczytuje dane ze wskaźników. System autorstwa firmy DZYNE Technologies ma z zadanie pomóc w rozwoju autonomicznych samolotów. Ma być znacznie tańszą alternatywą dla obecnie stosowanych metod. Zamiana myśliwca F-16 w samolot autonomiczny kosztowała około 1 miliona dolarów. Tymczasem technologia opracowywana przez DZYNE ma pozwolić na zainstalowaniu ROBOpilota w dowolnym samolocie, a gdy nie będzie on potrzebny, można go usunąć i samolot nadaje się do pilotowania przez człowieka. Wcześniejsze rozwiązania podobne do ROBOpilota to południowokoreański Pibot oraz ALIAS opracowany przez Pentagon. Jednak żaden z nich nie był w stanie samodzielnie prowadzić pełnowymiarowego samolotu. ROBOpilot potrafi wystartować, prowadzić samolot w czasie lotu i wylądować. To imponujące osiągnięcie w dziedzinie robotyki, mówi Louise Dennis z University of Liverpool. W przeciwieństwie do autopilota, który ma bezpośredni dostęp do czujników i systemu sterowania, ten robot jest umieszczany na miejscu pilota i musi prowadzić fizyczną interakcję z urządzeniami sterującymi oraz odczytywać wskaźniki. Twórcy ROBOpilota mówią, że może się on przydać do sterowania samolotami transportowymi, maszynami mającymi wlatywać w niebezpieczne środowisko oraz samolotami wykonującymi misje zwiadowcze i szpiegowskie. « powrót do artykułu -
Badacze z Wydziału Fizyki Uniwersytetu Warszawskiego, przy użyciu technologii światłoczułych elastomerów, zademonstrowali mikrorobota naśladującego ruch ślimaka. 10-milimetrowej długości robot, napędzany i sterowany przy pomocy modulowanej wiązki lasera, potrafi poruszać się po płaskim podłożu, wspinać po pionowej ścianie i pełzać po szklanym suficie. W przyrodzie organizmy różnej wielkości – od mikroskopijnych nicieni, przez dżdżownice, po mięczaki – poruszają się w rozmaitych środowiskach dzięki przemieszczającym się deformacjom miękkiego ciała. W szczególności ślimaki używają śluzu – śliskiej, wodnistej wydzieliny – by poprawić kontakt między miękką nogą a podłożem. Taki sposób poruszania się ma kilka unikalnych cech: działa na różnych podłożach: drewnie, szkle, teflonie czy piasku i w różnych konfiguracjach, włączając w to pełzanie po suficie. W robotyce, prosty mechanizm pojedynczej nogi mógłby zapewnić odporność na warunki zewnętrzne i zużycie elementów oraz duży margines bezpieczeństwa dzięki ciągłemu kontaktowi z podłożem. Do tej pory zademonstrowano jedynie nieliczne roboty naśladujące pełzanie ślimaków w skali centymetrów, z napędem elektro-mechanicznym. Ciekłokrystaliczne elastomery (LCE) to inteligentne materiały, które mogą szybko, w odwracalny sposób zmieniać kształt, na przykład po oświetleniu. Dzięki odpowiedniemu uporządkowaniu (orientacji) cząsteczek elastomeru można programować deformację takiego elementu. Umożliwia to zdalne zasilanie i sterowanie mechanizmów wykonawczych i robotów przy pomocy światła. Wykorzystując technologię światłoczułych elastomerów badacze z Wydziału Fizyki Uniwersytetu Warszawskiego we współpracy z Wydziałem Matematyki Uniwersytetu w Suzhou w Chinach zbudowali pierwszego na świecie robota, który porusza się naśladując pełzanie ślimaka w naturalnej skali. Ruch robota generowany jest przez poruszające się deformacje miękkiego ciała, wywołane wiązką lasera i ich oddziaływanie z podłożem przez warstwę sztucznego śluzu. Oświetlany wiązką lasera 10-milimetrowy robot może wspinać się na pionową ścianę i pełzać po szklanym suficie z prędkością kilku milimetrów na minutę, wciąż około 50 razy wolniej niż ślimaki porównywalnej wielkości. Mimo niewielkiej prędkości, konieczności ciągłego uzupełniania warstwy śluzu i niskiej sprawności energetycznej, nasz robot umożliwia nowe spojrzenie na mikro-mechanikę inteligentnych materiałów oraz badania nad poruszaniem się ślimaków i podobnych zwierząt – mówi Piotr Wasylczyk z Pracowni Nanostruktur Fotonicznych, który kierował projektem. W naszych badaniach biorą udział studenci już od pierwszych lat studiów na Wydziale Fizyki. Pierwszym autorem publikacji o robocie-ślimaku w Macromolecular Rapid Communications jest Mikołaj Rogóż, laureat Diamentowego Grantu, który właśnie kończy pracę magisterską na temat ciekłokrystalicznych elastomerów i zaczyna doktorat w naszej grupie. Badacze, którzy wcześniej zademonstrowali napędzanego światłem robota-gąsienicę naturalnej wielkości, wierzą, że nowe inteligentne materiały w połączeniu z nowatorskimi metodami wytwarzania miniaturowych elementów, pozwolą im konstruować kolejne mikro-roboty i napędy – obecnie pracują nad miniaturowym silnikiem i mikro-pęsetą sterowaną światłem. Badania nad miękkimi mikro-robotami i polimerowymi mechanizmami wykonawczymi finansowane są przez Narodowe Centrum Nauki w ramach projektu „Mechanizmy wykonawcze w mikro-skali na bazie foto-responsywnych polimerów” oraz przez Ministerstwo Nauki i Szkolnictwa Wyższego w ramach "Diamentowego Grantu" przyznanego M. Rogóżowi. Fizyka i astronomia na Uniwersytecie Warszawskim pojawiły się w 1816 roku w ramach ówczesnego Wydziału Filozofii. W roku 1825 powstało Obserwatorium Astronomiczne. Obecnie w skład Wydziału Fizyki UW wchodzą Instytuty: Fizyki Doświadczalnej, Fizyki Teoretycznej, Geofizyki, Katedra Metod Matematycznych oraz Obserwatorium Astronomiczne. Badania pokrywają niemal wszystkie dziedziny współczesnej fizyki, w skalach od kwantowej do kosmologicznej. Kadra naukowo-dydaktyczna Wydziału składa się z ponad 200 nauczycieli akademickich, wśród których jest 77 pracowników z tytułem profesora. Na Wydziale Fizyki UW studiuje ok. 1000 studentów i ponad 170 doktorantów. « powrót do artykułu
- 1 odpowiedź
-
Już wkrótce roboty i protezy mogą zyskać zmysł dotyku podobny do ludzkiego lub nawet od niego doskonalszy. Asynchronous Coded Electronic Skin (ACES) to sztuczny system nerwowy opracowany na National University of Singapore. Nowa elektroniczna skóra charakteryzuje się wysoką czułością,szybkością reakcji i odpornością na uszkodzenia, może być łączona z dowolnymi czujnikami. Jej twórcy to profesor Benjamin Tee i jego zespół z Wydziału Inżynierii i Nauk Materiałowych. Ludzie wykorzystują zmysł dotyku do zrealizowania niemal każdej czynności, od podniesienia filiżanki kawy po wymianę uścisków dłoni. Bez niego tracimy równowagę podczas chodzenia. Podobnie jest z robotami, które potrzebują zmysłu dotyku, by lepiej wchodzić z interakcje z ludźmi. Jednak współczesne roboty wciąż nie czują zbyt dobrze obiektów, mówi profesor Tee, który od opnad dekaty pracuje nad elektroniczną skórą. System ACES wykrywa sygnały podobnie, jak ludzki układ nerwowy, jednak – w przeciwieństwie do niego – są one przesyłane za pomocą pojedynczego przewodu. To zupełnie inne podejście niż w istniejących elektronicznych skórach, która korzystają ze złożonego systemu przewodów, co powoduje, że całość jest podatna na uszkodzenia i trudna w skalowaniu. ACES wykrywa dotknięcie nawet 1000-krotnie szybciej niż ludzki układ nerwowy. Jest w stanie odróżnić fizyczny kontakt z poszczególnymi czujnikami w czasie krótszym niż 60 nanosekund. Nawet gdy impuls został odebrany jednocześnie przez wiele czujników. To szybciej, niż jakikolwiek wcześniej stworzony system. W ciągu zaledwie 10 milisekund – a więc 10-krotnie szybciej niż mrugnięcie okiem – ACES jest w stanie określić kształt, teksturę i twardość dotykanego obiektu. Platforma ACES pozwala też na stworzenie wytrzymałej elektronicznej skóry. To niezwykle ważna cecha dla urządzenia, które ma często wchodzić w kontakt fizyczny z otoczeniem. Olbrzymimi zaletami ACES są prostota okablowania całego systemu oraz szybka reakcja na impuls, nawet w przypadku wykorzystywania wielu czujników. To znakomicie ułatwia skalowanie ACES i wykorzystanie jej w wielu różnych zastosowaniach. Skalowalność to podstawowa cecha, gdyż potrzebujemy dużych wydajnych połaci elektronicznej skóry, którą możemy pokryć robota czy protezę, wyjaśnia profesor Tee. ACES można łatwo łączyć z dowolnymi czujnikami, np. rejestrującymi temperaturę, dotyk czy wilgotność, dodaje uczony. « powrót do artykułu
-
- Asynchronous Coded Electronic Skin
- Benjamin Tee
-
(i 4 więcej)
Oznaczone tagami:
-
Paryska straż pożarna ujawniła, że w walce o ocalenie katedry Notre Dame ważną rolę odegrał robot Colossus. To ważący pół tony zdalnie sterowany pojazd gąsienicowy zbudowany przez firmę Shark Robotics, który jest wyposażony w działko wodne o wydajności ponad 2500 litrów na minutę. Czas działał przeciwko nam, wiatr działał przeciwko nam, potrzebowaliśmy pomocy. Priorytetem było ocalenie dwóch dzwonnic. Wyobraźcie sobie, że drewniane struktury podtrzymujące dzwony zostałyby osłabione i dzwony by spadły. Tego się właśnie baliśmy. Na początku nietrudno było sobie wyobrazić, że cała katedra się zawali, powiedział Gabriel Plus, rzecznik prasowy paryskiej straży pożarnej. Upadek wielotonowych dzwonów spowodowałby zawalenie się wież i katedry. Gdy zawaliła się iglica i część dachu, ze środka Notre Dame wycofano strażaków. Dowodzący akcją obawiali się zawalenia reszty dachu, który mógł zabić pracujących wewnątrz ludzi. Wtedy to do środka wysłano Colossusa. Robot jest zdalnie sterowany, a operator ma nad nim kontrolę na odległość ponad 400 metrów. Urządzenie jest wodoodporne i może pracować w wysokich temperaturach, a jego akumulatory pozwalają na ośmiogodzinną pracę. Można go wyposażyć w kamery, czujniki oraz wentylator rozpraszający dym. To właśnie Colossus powstrzymał dalsze rozprzestrzenianie się płomieni we wnętrzu katedry. Na załączonym filmie możemy zobaczyć robota podczas walki z pożarem Notre Dame. « powrót do artykułu
- 4 odpowiedzi
-
- Notre Dame
- katedra
- (i 4 więcej)
-
Robot zajmie się samochodem, pasażer zdąży na samolot
KopalniaWiedzy.pl dodał temat w dziale Technologia
Znalezienie miejsca na parkingu przy lotnisku może być poważnym wyzwaniem. Może wiązać się też z dużym stresem, gdy musimy o wyznaczonej godzinie stawić się na odprawę, a nie możemy znaleźć miejsca, by pozostawić samochód. Na francuskim lotnisku Lyon-Saint Exupery prowadzony jest test interesujących robotów parkujących. Mowa tutaj o robotach Stan firmy Stanley Robotics. To maszyna, która samodzielnie wykrywa samochód, delikatnie go podnosi i przenosi na miejsce parkowania, mówi menedżer firmy Stephane Evanno. Aby Stan zajął się naszym samochodem musimy wjechać do specjalnego hangaru. Zostawiamy tam pojazd i udajemy się na lotnisko. W tym czasie samochód jest skanowany, dzięki czemu automatycznie rozpoznawana jest marka i model. Gdy zjawia się Stan drzwi hangaru zostają otwarte, robot podjeżdża, podnosi samochód i samodzielnie wiezie go na miejsce parkowania. Gdy wracamy, na krótko przed lądowaniem Stan dostarczy nasz samochód w odpowiednie miejsce. Wykorzystanie robotów Stan to same korzyści. Urządzenia są napędzane elektrycznie, więc mniej zanieczyszczają środowisko niż samochody krążące w poszukiwaniu miejsca parkingowego. Są bardzo precyzyjne. Ustawiają samochody w odległości zaledwie kilku centymetrów od siebie, co pozwala zaoszczędzić nawet 50% miejsca na parkingu. Dla lotnisk, to znakomita wiadomość, gdyż zawsze brakuje na nich miejsca na parkingi. Ponadto hangary, w których kierowcy zostawiają samochody dla Stana znajdują się blisko wejścia na lotnisko, co oszczędza podróżującym czasu i stresów. Automatyczny parking jest niedostępny dla ludzi. Nie można tam samodzielnie wjechać. Samochód musimy pozostawić w hangarze. Ruchem robotów dość łatwo jest zarządzać, gdyż pasażerowie, którzy chcą skorzystać z automatycznego parkingu, muszą zawczasu zarezerwować sobie miejsce. Ponadto w odwodzie zawsze trzymanych jest kilka robotów, na wypadek, gdyby jednocześnie lądowało więcej samolotów, niż przewidziano. Stanley Robotics ma nadzieję, że władze innych lotnisk szybko przekonają się co do korzyści ze współpracy i roboty Stan wkrótce zagoszczą w innych miastach. « powrót do artykułu -
Na targach Consumer Electronics Show (CES) w Las Vegas zaprezentowano BreadBota - robota do pieczenia chleba. Dziennie może on przygotować i upiec do 235 bochenków. Randall Wilkinson, dyrektor wykonawczy firmy Wilkinson Baking Company, podkreśla, że maszyna może znacznie obniżyć koszty i zapewnić świeższe pieczywo niż to dostępne w większości amerykańskich supermarketów. Konsumentom zależy na jak najświeższym pieczywie, ale kiedy idą oni do sklepu, nie wiedzą, kiedy chleb był upieczony. Wilkinson dodaje, że BreadBot ma wielkość średniego samochodu i jest całkowicie zautomatyzowany. Mając go na wyposażeniu sklepu, można wyeliminować transport ciężarówkami, który stanowi nawet 45% kosztu większości chlebów. To z kolei oznacza wzrost zysków. Wilkinson Baking Company prowadzi już rozmowy z największymi sieciami supermarketów i myśli o dostarczaniu BreadBotów amerykańskiej armii (na lotniskowce). Na razie BreadBot piecze standardowe bochenki, ale wg Wilkinsona, roboty można przystosować do innych rodzajów pieczywa i uzyskać nawet francuskie bagietki. Pewnego dnia będzie można złożyć zamówienie telefoniczne - np. z dodatkiem słonecznika i mniejszą ilością soli - i odebrać je w ciągu godziny. « powrót do artykułu
-
Obecność nieprzyjaznego robota pozwala nam skupić uwagę
KopalniaWiedzy.pl dodał temat w dziale Psychologia
Humanoidalne roboty będą powoli wkraczały do naszej codzienności. Dlatego też psychologów interesuje kwestia interakcji człowieka z takimi maszynami i chcą znać odpowiedź na pytanie, jak reagujemy na obecność humanoida. Okazuje się, że obecność takiej maszyny zmienia np. naszą zdolność koncentracji. Grupa francuskich naukowców przeprowadziła eksperyment, w którym wzięło udział 58 osób. Badani mieli do rozwiązania standardowy test skupienia uwagi. Na ekranie pokazywano im różne wyrazy, a ich zadaniem było odpowiedzenie, jakiego koloru są litery. Trzeba było zatem skupić się na kolorze, a ignorować znaczenie słowa. Szybkość odpowiedzi świadczyła o stopniu skupienia uwagi. Respondenci byli poddawani testom dwukrotnie. Raz gdy byli sami, a drugi raz gdy w odległości 1,5 metra od nich stał humanoidalny robot i obserwował ich przez 60% czasu testu. Zanim jednak przystąpili do testu ludzie zapoznawali się z robotem. Zadawali mu serię zdefiniowanych wcześniej pytań. Robot odpowiadał albo przyjaźnie, przekazując pozytywne odpowiedzi, albo był niegrzeczny, a treść odpowiedzi miała negatywny wydźwięk. Okazało się, że osoby, które były obserwowane przez „niegrzecznego” robota kończyły test wcześniej niż wówczas, gdy wykonywały go same. W przypadku, gdy mieli do czynienia z „dobrym” robotem nie zauważono żadnej zmiany tempa odpowiedzi. Naukowcy spekulują, że w obecności nieprzyjaźnie nastawionego robota ludzie są bardziej czujni, co pozwala na lepsze skupienie uwagi. Wcześniej podobne zjawisko zaobserwowano u osób, które były obserwowane przez krytycznie nastawionych do nich ludzi. Tutaj opisano pierwsze badania, w których ludzi zastąpiono robotem. « powrót do artykułu- 4 odpowiedzi
-
- skupienie uwagi
- robot
-
(i 2 więcej)
Oznaczone tagami: