Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Estońska firma Fits.me opracowała zrobotyzowanego manekina, który przymierza ubrania za człowieka. Wystarczy wprowadzić dane ze swoimi wymiarami, by sprawdzić, jak będzie na nas leżeć sprzedawana w Internecie garderoba.

W Sieci kupuje się coraz więcej produktów, ale widać zróżnicowanie ze względu na kategorię produktu. O ile bowiem w Internecie sprzedaje się ponoć ok. 2/3 książek, o tyle w przypadku ubrań odsetek spada już do zaledwie 8%. Powód? Klienci nie są pewni, czy będą dobrze wyglądać w nowej koszulce czy spodniach, bo nie mogą ich zmierzyć. Producenci muszą się więc liczyć z wysokimi kosztami zwrotów. Gdy jednak po czerwcowej premierze rozwiązanie Estończyków przetestowano w Niemczech, okazało się, że wyposażona w robota wirtualna przymierzalnia zwiększyła sprzedaż aż o 300%, a liczba zwrotów spadła o 28%.

Robot potrafi odtworzyć 2000 kształtów ciała. Kiedy jakiś sprzedawca decyduje się na współpracę z Fits.me, najpierw przesyła do siedziby firmy swoje ubrania. Każdy rozmiar umieszcza się na robocie, który następnie przybiera wszystkie zaprogramowane kształty. W tym czasie aparat fotografuje poszczególne kombinacje. Następnie trafiają one do online'owej bazy danych. Gdy klient ustawi w formularzu na witrynie swoje wymiary, system wyciąga z niej odpowiedni kształt i rozmiar ubrania. [Manekin] będzie miał piwny brzuszek lub wyrzeźbione na siłowni ciało, zupełnie jak ty – przekonuje dyrektor wykonawczy Fits.me Heikki Haldre.

Co ciekawe, na estońskiej stronie można wyliczyć, jak zmienią się koszty i przychody z prowadzonego w Sieci sklepu, jeśli zakres świadczonych usług rozszerzy się o roboty.

 

http://www.youtube.com/watch?v=tgDh3djntSY

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Szerokie rozpowszechnienie się internetu i technologii komunikacyjnych przyciąga ludzi do centrów miast. Zachodzi więc zjawisko odwrotne, niż przewidywano u zarania internetu i ery informacyjnej, informują naukowcy z Uniwersytetu w Bristolu.
      Pomimo tego, że internet pozwala nam na niezwykle łatwy dostęp do wszelkich informacji i umożliwia łatwe i szybkie nawiązanie kontaktu z osobami z drugiego końca świata, jego rozwój nie doprowadził do odpływu ludności z miast. Wręcz przeciwnie, specjaliści zauważyli odwrotne zjawisko. Coraz większe rozpowszechnienie się technologii informacyjnych prowadzi zwiększenia koncentracji ludzi w miastach.
      Nie od dzisiaj wiemy, że np. przedsiębiorstwa działające na uzupełniających się polach, mają tendencje do grupowania się na tym samym obszarze, gdyż zmniejsza to koszty działalności. Technologie informacyjne miały to zmienić.
      Doktor Emmanouil Tranos z Univeristy of Bristol i Yannis M. Ioannides z Tufts Univeristy przeanalizowali skutki zachodzących w czasie zmian dostępności i prędkości łączy internetowych oraz użytkowania internetu na obszary miejskie w USA i Wielkiej Brytanii. Geografowie, planiści i ekonomiści miejscy, którzy na początku epoki internetu rozważali jego wpływ na miasta, dochodzili czasem do dziwacznych wniosków. Niektórzy wróżyli rozwój „tele-wiosek”, krajów bez granic, a nawet mówiono o końcu miasta.
      Dzisiaj, 25 lat po komercjalizacji internetu, wiemy, że przewidywania te wyolbrzymiały wpływ internetu i technologii informacyjnych w zakresie kontaktów i zmniejszenia kosztów związanych z odległością. Wciąż rosnąca urbanizacja pokazuje coś wręcz przeciwnego. Widzimy, że istnieje komplementarność pomiędzy internetem a aglomeracjami. Nowoczesne technologie informacyjne nie wypchnęły ludzi z miast, a ich do nich przyciągają.
      Artykuł Ubiquitous digital technologies and spatial structure; an update został opublikowany na łamach PLOS One.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Naturalne jaskinie to ważne cele przyszłych misji NASA. Będą one miejscem poszukiwań dawnego oraz obecnego życia w kosmosie, a także staną się schronieniem dla ludzi, mówi Ali Agha z Team CoSTAR, który rozwija roboty wyspecjalizowane w eksploracji jaskiń. Jak wcześniej informowaliśmy, na Księżycu istnieją gigantyczne jaskinie, w których mogą powstać bazy.
      Team CoSTAR, w skład którego wchodzą specjaliści z Jet Propulsion Laboratory i California Instute of Technology to jednym z zespołów, który przygotowuje się do wzięcia udziału w tegorocznych zawodach SubT Challenge organizowanych przez DARPA (Agencja Badawcza Zaawansowanych Projektów Obronnych).
      CoSTAR wygrał ubiegłoroczną edycję SubT Urban Circuit, w ramach której roboty eksplorowały tunele stworzone przez człowieka. Teraz coś na coś trudniejszego i mniej przewidywalnego. Czas na naturalne jaskinie i tunele.
      Specjaliści z CoSTAR i ich roboty pracują w jaskiniach w Lava Beds National Monument w północnej Kalifornii. Jaskiniowa edycja Subterranean Challenge jest dla nas szczególnie interesująca, gdyż lokalizacja taka bardzo dobrze pasuje do długoterminowych planów NASA. Chce ona eksplorować jaskinie na Księżycu i Marsie, w szczególności jaskinie lawowe, które powstały w wyniku przepływu lawy. Wiemy, że takie jaskinie istnieją na innych ciałach niebieskich. Kierowany przez Jen Blank zespół z NASA prowadził już testy w jaskiniach lawowych i wybrał Lava Beds National Monument jako świetny przykład jaskiń podobnych do tych z Marsa. Miejsce to stawia przed nami bardzo zróżnicowane wyzwania. Jest tam ponad 800 jaskiń, mówi Ben Morrell z CoSTAR.
      Eksperci zwracają uwagę, że istnieje bardzo duża różnica w dostępności pomiędzy tunelami stworzonymi przez człowieka, a naturalnymi jaskiniami. Z jednej strony struktury zbudowane ludzką ręką są bardziej rozwinięte w linii pionowej, są wielopiętrowe, z wieloma poziomami, schodami, przypominają labirynt. Jaskinie natomiast charakteryzuje bardzo trudny teren, który stanowi poważne wyzwanie nawet dla ludzi. Są one trudniej dostępne, z ich eksploracją wiąże się większe ryzyko, są znacznie bardziej wymagające dla systemów unikania kolizji stosowanych w robotach.
      Agha i Morrell mówią, że jaskinie lawowe ich zaskoczyły. Okazały się znacznie trudniejsze niż sądzili. Stromizny stanowią duże wyzwanie dla robotów. Powierzchnie tych jaskiń są niezwykle przyczepne. To akurat korzystne dla robotów wyposażonych w nogi, jednak roboty na kołach miały tam poważne problemy. Przed urządzeniami stoją tam zupełnie inne wyzwania. Zamiast rozpoznawania schodów i urządzeń, co było im potrzebne w tunelach budowanych przez człowieka, muszą radzić sobie np. z nagłymi spadkami czy obniżającym się terenem.
      Miejskie tunele są dobrze rozplanowane, nachylone pod wygodnymi kątami, z odpowiednimi zakrętami, prostymi korytarzami i przejściami. Można się tam spodziewać równego podłoża, wiele rzeczy można z góry zaplanować. W przypadku jaskiń wielu rzeczy nie można przewidzieć.
      Celem SubT Challenge oraz zespołu CoSTAR jest stworzenie w pełni autonomicznych robotów do eksploracji jaskiń. I cel ten jest coraz bliżej.
      Byliśmy bardzo szczęśliwi, gdy podczas jednego z naszych testów robot Spot [Boston Dynamics – red.] w pełni autonomicznie przebył całą jaskinię. Pełna autonomia to cel, nad którym pracujemy zarówno na potrzeby NASA jak i zawodów, więc pokazanie, że to możliwe jest wielkim sukcesem, mówi Morrell. Innym wielkim sukcesem było bardzo łatwe przełożenie wirtualnego środowiska, takiego jak systemy planowania, systemy operacyjne i autonomiczne na rzeczywiste zachowanie się robota, dodaje. Jak jednak przyznaje, zanotowano również porażki. Roboty wyposażone w koła miały problemy w jaskiniach lawowych. Dochodziło do zużycia podzespołów oraz poważnych awarii sprzętu. Ze względu na epidemię trudno było sobie z nimi poradzić w miejscu testów, stwierdza ekspert.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Badacze z Rutgers University stworzyli kierowanego USG robota do pobierania krwi, który radził sobie z tym zadaniem tak samo dobrze, a nawet lepiej niż ludzie. Odsetek skutecznych procedur wyliczony dla 31 pacjentów wynosił 87%. Dla 25 osób z łatwo dostępnymi żyłami współczynnik powodzenia sięgał zaś aż 97%.
      W urządzeniu znajduje się analizator hematologiczny z wbudowaną wirówką. Może ono być wykorzystywane przy łóżkach pacjentów, a także w karetkach czy gabinetach lekarskich.
      Wenopunkcja, czyli nakłuwanie żyły, by wprowadzić igłę bądź cewnik, to częsta procedura medyczna. W samych Stanach rocznie przeprowadza się ją ponad 1,4 mld razy. Wcześniejsze badania wykazały, że nie udaje się to u 27% pacjentów z niewidocznymi żyłami, 40% osób bez żył wyczuwalnych palpacyjnie i u 60% wyniszczonych chorych.
      Powtarzające się niepowodzenia związane z wkłuciem pod kroplówkę zwiększają ryzyko zakażeń czy zakrzepicy. Czas poświęcany na przeprowadzenie procedury się wydłuża, rosną koszty i liczba zaangażowanych w to osób.
      Takie urządzenie jak nasze może pomóc pracownikom służby zdrowia szybko, skutecznie i bezpiecznie pozyskać próbki, zapobiegając w ten sposób niepotrzebnym komplikacjom i bólowi towarzyszącemu kolejnym próbom wprowadzenia igły - podkreśla doktorant Josh Leipheimer.
      W przyszłości urządzenie może być wykorzystywane w takich procedurach, jak cewnikowanie dożylne, dializowanie czy wprowadzanie kaniuli tętniczej.
      Kolejnym etapem prac ma być udoskonalenie urządzenia, tak by zwiększyć odsetek udanych procedur u pacjentów z trudno dostępnymi żyłami. Jak podkreślają Amerykanie, dane uzyskane w czasie tego studium zostaną wykorzystane do usprawnienia sztucznej inteligencji w robocie.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Robot z piórami gołębia to najnowsze dzieło naukowców z Uniwersytetu Stanforda. Korzysta ono z dodatkowego elementu, ułatwiającego ptakom latanie – możliwości manipulowania rozstawem piór i kształtem skrzydeł.
      David Lentink ze Stanforda przyglądał się sposobowi pracy skrzydeł, poruszając skrzydłami martwego gołębia. Zauważył, że najważniejszy dla zmiany kształtu skrzydeł są kąty poruszania się dwóch stawów: palca i nadgarstka. To dzięki ich zmianie sztywne pióra zmieniają kształt tak, że zmienia się cały układ skrzydeł, co znakomicie pomaga w kontroli lotu.
      Korzystając z tych doświadczeń Lentink wraz z zespołem zbudowali robota, którego wyposażyli w prawdziwe pióra gołębia.
      Robot to urządzenie badawcze. Dzięki niemu naukowcy z USA mogą prowadzić eksperymenty bez udziału zwierząt. Zresztą wielu testów i tak nie udało by się przeprowadzić wykorzystując zwierzęta. Na przykład uczeni zastanawiali się, czy gołąb może skręcać poruszając palcem tylko przy jednym skrzydle.
      Problem w tym, że nie wiem, jak wytresować ptaka, by poruszył tylko jednym palcem, a jestem bardzo dobry w tresurze ptaków, mówi Lentink, inżynier i biolog z Uniwersytetu Stanforda. Robotyczne skrzydła rozwiązują ten problem. Testy wykazały, że zgięcie tylko jednego z palców pozwala robotowi na wykonanie zakrętu, a to wskazuje, że ptaki również mogą tak robić.
      Uczeni przeprowadzili też próby chcąc się dowiedzieć, jak ptaki zapobiegają powstaniu zbyt dużych przerw pomiędzy rozłożonymi piórami. Pocierając jedno pióro o drugie zauważyli, że początkowo łatwo się one z siebie ześlizgują, by później się sczepić. Badania mikroskopowe wykazały, że na krawędziach piór znajdują się niewielkie haczyki zapobiegające ich zbytniemu rozłożeniu. Gdy pióra znowu się do siebie zbliżają, haczyki rozczepiają się. W tym tkwi ich tajemnica. Mają kierunkowe rzepy, które utrzymują pióra razem, mówi Lentink.
      Uczeni, aby potwierdzić swoje spostrzeżenia, odwrócili pióra i tak skonstruowane skrzydło umieścili w tunelu aerodynamicznym. Pęd powietrza utworzył takie przerwy między piórami, że wydajność skrzydła znacznie spadła.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Iskra
      Dokładnie 50 lat temu, późnym wieczorem 29 października 1969 roku na Uniwersytecie Kalifornijskim w Los Angeles (UCLA) dwóch naukowców prowadziło pozornie nieznaczący eksperyment. Jego konsekwencje ujawniły się dopiero wiele lat później, a skutki pracy profesora Leonarda Kleinrocka i jego studenta Charleya Kline'a odczuwamy do dzisiaj.
      Kleinrock i Kline mieli do rozwiązania poważny problem. Chcieli zmusić dwa oddalone od siebie komputery, by wymieniły informacje. To, co dzisiaj wydaje się oczywistością, przed 50 laty było praktycznie nierozwiązanym problemem technicznym. Nierozwiązanym aż do późnego wieczora 29 października 1969 roku.
      Jeden ze wspomnianych komputerów znajdował się w UCLA, a drugi w oddalonym o 600 kilometrów Stanford Research Institute (SRI) w Menlo Park. Próby nawiązania łączności trwały wiele godzin. Kline próbował zalogować się do komputera w SRI, zdążył w linii poleceń wpisać jedynie  „lo”, gdy jego maszyna uległa awarii. Wymagała ponownego zrestartowania i ustanowienia połączenia. W końcu około godziny 22:30 po wielu nieudanych próbach udało się nawiązać łączność i oba komputery mogły ze sobą „porozmawiać”. Wydaje się jednak, że pierwszą wiadomością wysłaną za pomocą sieci ARPANETu było „lo”.
       

       
      Trudne początki
      Początków ARPANETU możemy szukać w... Związku Radzieckim, a konkretnie w wielkim osiągnięciu, jakim było wystrzelenie Sputnika, pierwszego sztucznego satelity Ziemi. To był dla Amerykanów policzek. Rosjanie pokazali, że pod względem technologicznym nie odstają od Amerykanów. Cztery lata zajęło im nadgonienie nas w technologii bomby atomowej, dziewięć miesięcy gonili nas w dziedzinie bomby wodorowej. Teraz my próbujemy dogonić ich w technice satelitarnej, stwierdził w 1957 roku George Reedy, współpracownik senatora, późniejszego prezydenta, Lyndona Johnsona.
      Po wystrzeleniu Sputnika prezydent Eisenhower powołał do życia Advanced Research Project Agency (ARPA), której zadaniem była koordynacja wojskowych projektów badawczo-rozwojowych. ARPA zajmowała się m.in. badaniami związanymi z przestrzenią kosmiczną. Jednak niedługo później powstała NASA, która miała skupiać się na cywilnych badaniach kosmosu, a programy wojskowe rozdysponowano pomiędzy różne wydziały Pentagonu. ARPA zaś, ku zadowoleniu środowisk naukowych, została przekształcona w agencję zajmującą się wysoce ryzykownymi, bardzo przyszłościowymi badaniami o dużym teoretycznym potencjale. Jednym z takich pól badawczych był czysto teoretyczny sektor nauk komputerowych.
      Kilka lat później, w 1962 roku, dyrektorem Biura Technik Przetwarzania Informacji (IPTO) w ARPA został błyskotliwy naukowiec Joseph Licklider. Już w 1960 roku w artykule „Man-Computer Symbiosis” uczony stwierdzał, że w przyszłości ludzkie mózgi i maszyny obliczeniowe będą bardzo ściśle ze sobą powiązane. Już wtedy zdawał on sobie sprawę, że komputery staną się ważną częścią ludzkiego życia.
      W tych czasach komputery były olbrzymimi, niezwykle drogimi urządzeniami, na które mogły pozwolić sobie jedynie najbogatsze instytucje. Gdy Licklider zaczął pracować dla ARPA szybko zauważył, że aby poradzić sobie z olbrzymimi kosztami związanymi z działaniem centrów zajmujących się badaniami nad komputerami, ARPA musi kupić wyspecjalizowane systemy do podziału czasu. Tego typu systemy pozwalały mniejszym komputerom na jednoczesne łączenie się z wielkim mainframe'em i lepsze wykorzystanie czasu jego procesora. Dzięki nim wielki komputer wykonywać różne zadania zlecane przez wielu operatorów. Zanim takie systemy powstały komputery były siłą rzeczy przypisane do jednego operatora i w czasie, gdy np. wpisywał on ciąg poleceń, moc obliczeniowa maszyny nie była wykorzystywana, co było oczywistym marnowaniem jej zasobów i pieniędzy wydanych na zbudowanie i utrzymanie mainframe’a.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...