Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Dzięki AI i technologii rozpoznawania twarzy psy mogą robić zakupy on-line

Recommended Posts

Pet-Commerce to internetowy sklep brazylijskiej sieci Petz, w którym dzięki połączeniu technologii rozpoznawania twarzy oraz sztucznej inteligencji pies może kupić swoje ulubione produkty. Wystarczy ustawić kamerę internetową na pysk zwierzęcia. Gdy tylko AI wykryje produkt, który podczas przewijania strony wywołał u psa duże zainteresowanie, zostaje on automatycznie dodany do koszyka.

By Pet-Commerce powstał, agencja reklamowa Ogilvy Brazil nawiązała współpracę z trenerem psów Leonardem Ogatą. To on "oświecił" wszystkich w kwestii wyrazów pyska różnych ras i ich znaczenia. Sztucznej inteligencji zaprezentowano tysiące zdjęć psów, tak by mogła się nauczyć lepiej wykrywać szczególiki związane z wyrażaniem zainteresowania przez psy.

Stroną produkcyjno-techniczną przedsięwzięcia zajęły się firmy D2G Tecnologia i Hogarth.

Produkty z witryny pogrupowano w 3 kategorie: kości, zabawki, piłki. Gdy człowiek klika na dany obiekt, wyświetlają się filmy. Tło jest żółte bądź niebieskie, bo wg Ogaty, to kolory, które psy najlepiej widzą. Poziom zainteresowania psa jest prezentowany za pomocą ikonek w kształcie kości.

Witryna przekazuje też ludziom zalecenia, co zrobić, by czworonogowi jak najłatwiej było robić zakupy. Po pierwsze, należy włączyć dźwięk, bo to ważny dla psów zmysł. [Poza tym] pies musi być zrelaksowany, w zabawowym nastroju. Nie należy go podnosić bądź podtrzymywać głowy, bo to może drażnić. Wystarczy nakierować kamerę internetową na jego pysk [...].

Zakup jest dokonywany po potwierdzeniu przez właściciela i wprowadzeniu niezbędnych danych. Na razie Pet-Commerce jest tylko dla psów, ale być może pewnego dnia projekt obejmie też np. koty.

 


« powrót do artykułu

Share this post


Link to post
Share on other sites

No dobra, tylko po co mi zapas 300 kości, 20 piłek i 4 gryzaków…

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Naukowcy i studenci z Politechniki Gdańskiej (PG) opracowali nowatorski system do rozpoznawania złośliwości guzów nerek. Dzięki niemu możliwa będzie dokładniejsza diagnoza, a także zmniejszenie liczby niepotrzebnych operacji narażających zdrowie i życie pacjentów.
      Większość pacjentów z guzami nerek to osoby starsze, dla których operacja usunięcia guza może okazać się wysoce ryzykowna. Zdaniem lekarzy, jeśli guz nie jest złośliwy, bezpieczniej jest nie wykonywać operacji i pozostawić guz jedynie do dalszej obserwacji.
      Określenie złośliwości guza nie jest jednak prostym zadaniem. Szacuje się, że obecnie w Polsce 15-20 proc. operacji usunięcia nerki po wykryciu w niej guza wykonuje się niepotrzebnie, bo guz, początkowo określony jako złośliwy, po operacji i zbadaniu histopatologicznym okazuje się łagodny.
      Rocznie w Polsce jest to około 900 operacji, które bez potrzeby narażają zdrowie pacjentów i znacząco pogarszają komfort ich życia, a problem ten będzie w przyszłości tylko narastać. Przyczynić do tego może się również pandemia wirusa SARS-CoV-2, który powoduje choroby nerek nawet u 15 proc. zarażonych nim pacjentów.
      System opracowany przez naukowców, lekarzy i studentów
      Z pomocą w rozwiązaniu tego problemu przyszli naukowcy i studenci PG. Opracowali oni system TITAN (Technology In Tumor ANalysis), który przy użyciu technologii uczenia maszynowego i algorytmów sztucznej inteligencji określa prawdopodobieństwo złośliwości guza nerki na podstawie zdjęcia tomografii komputerowej jamy brzusznej.
      W zespole Radiato.ai, który stoi za projektem TITAN, udało się połączyć kompetencje i możliwości pracowników badawczo-dydaktycznych Wydziału FTiMS PG - dr. inż. Patryka Jasika (Team Leader) oraz dr. inż. Pawła Sytego (Product Owner) - a także studentów Wydziałów FTiMS i ETI: Aleksandra Obuchowskiego (Head AI Architect), Romana Karskiego (Data Scientist), Barbary Klaudel (Medical Image Specialist), Bartosza Rydzińskiego (Backend Developer) i Mateusza Anikieja (Devops). W zespole pracował również lekarz Mateusz Glembin z Oddziału Urologii Szpitala św. Wojciecha w Gdańsku.
      Sztuczna inteligencja pomocna w ocenie złośliwości guzów
      System informatyczny TITAN wykorzystuje sztuczną inteligencję do oceny złośliwości guzów nerek na podstawie zdjęcia tomografii komputerowej (TK), osiągając skuteczność na poziomie 87 proc. Aby stworzyć bazujący na metodach uczenia maszynowego autorski model predykcyjny, zdobyto ponad 15 tys. zdjęć tomografii komputerowej z niemal 400 przypadków medycznych.
      Przy opracowywaniu naszego algorytmu przykładaliśmy szczególną uwagę do rozpoznawania guzów łagodnych, gdyż to właśnie poprawne ich wykrycie może potencjalnie uratować życie pacjenta – tłumaczy Aleksander Obuchowski. Nie było to łatwe zadanie, gdyż guzy łagodne stanowiły tylko 26 proc. naszej bazy danych. Po przeanalizowaniu dziesiątek architektur sieci neuronowych i metod przetwarzania obrazów udało się nam jednak osiągnąć wynik 10/10 poprawnie rozpoznanych guzów łagodnych.
      To pozwoliło z kolei na zbudowanie bazy wiedzy, na której wytrenowane zostały algorytmy wykorzystujące głębokie sieci neuronowe, osiągające tak wysoką skuteczność przy jednoczesnym wychwytywaniu 10 na 10 guzów łagodnych. W rezultacie może się to przełożyć na ocalenie nerek i ograniczenie liczby niepotrzebnych operacji.
      Dzięki wykorzystaniu systemu TITAN lekarz uzyskuje dodatkową opinię w postaci sugestii algorytmu w ciągu zaledwie kilkunastu sekund – wyjaśnia dr inż. Patryk Jasik. System nie zastępuje jednak diagnozy lekarskiej, a jedynie zwraca uwagę na to, które przypadki mogły zostać błędnie zaklasyfikowane. Dzięki systemowi lekarze są w stanie uważniej przyjrzeć się takim guzom, skonsultować diagnozę z innymi specjalistami bądź skierować pacjenta na dalsze badania. Taka selekcja w rezultacie może znacząco ograniczyć liczbę błędnie zdiagnozowanych guzów.
      Dodatkowo, jeżeli w badaniu histopatologicznym okaże się, że guz faktycznie był złośliwy, lekarz może dodać taki przypadek do bazy wiedzy, co usprawni działanie algorytmu w przyszłości.
      Pierwsze testy w gdańskim szpitalu
      System został stworzony w ramach programu e-Pionier (jest on prowadzony przez Excento, spółkę celową Politechniki Gdańskiej), który łączy zespoły młodych programistów z instytucjami publicznymi w przygotowywaniu innowacyjnych rozwiązań z branży ICT. Problem braku narzędzi diagnostycznych wykorzystujących technologie informatyczne został zgłoszony z ramienia spółki Copernicus Podmiot Leczniczy oraz Szpitala św. Wojciecha w Gdańsku przez dr. n. med. Wojciecha Narożańskiego.
      System będzie w najbliższym czasie testowo wdrożony w Szpitalu św. Wojciecha w Gdańsku, gdzie lekarze wykorzystywać go będą w diagnozie bieżących przypadków guzów nerek. Jest to pierwszy tego typu system w Polsce, który będzie wykorzystywany w praktyce.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Choroba zwyrodnieniowa stawów to najczęściej występujące schorzenie spośród wszystkich rodzajów zapaleń stawów. Obecnie diagnozuje się ją przede wszystkim na podstawie zdjęć rentgenowskich. Jednak naukowcy z Wydziału Medycyny University of Pittsburgh oraz Wydziału Inżynierii Carnegie Mellon University stworzyli algorytm sztucznej inteligencji, który diagnozuje to schorzenie wiele lat przed pojawieniem się objawów.
      Złotym standardem w diagnostyce choroby zwyrodnieniowej stawów jest zdjęcie rentgenowskie. Gdy stawy ulegają zniszczeniu, zmniejszają się odległości pomiędzy kośćmi. Problem w tym, że gdy możemy zauważ tę chorobę na zdjęciach, zniszczenia już się dokonały. Znacznie łatwiej jest zaś zapobiegać zniszczeniu tkanki chrzęstnej niż spowodować jej odrastanie, mówi jeden z autorów badań, profesor chirurgii ortopedycznej Kenneth Urish z Pittsburgha.
      Obecnie nie istnieje żadna metoda wykrywania choroby zwyrodnieniowej stawów na etapie, który pozwalałby na naprawienie powstałych szkód. W naszej pracy prezentujemy metodę, która pozwala na wykrycie choroby jeszcze zanim da ona objawy. Metoda ta łączy teorię optymalnego transportu masy ze statystycznym rozpoznawaniem wzorców, czytamy w pracy pod tytułem Enabling early detection of osteoarthritis from presymptomatic cartilage texture maps via transport-based learning.
      Gdy lekarze oglądają zdjęcia stawów, nie widać tam oczywistego wzorca, który od razu można zauważyć gołym okiem. Ale to nie znaczy, że taki wzorzec nie istnieje. To znaczy tylko, że nie można go dostrzec używając konwencjonalnych narzędzi, dodaje doktor Shinjini Kundu.
      To właśnie Kundu odpowiadał za trenowanie algorytmu na podstawie zdjęć kolan wykonanych za pomocą rezonansu magnetycznego, a następnie testował go na zdjęciach, pacjentów, z którymi model nie miał wcześniej do czynienia. Proces nauczania i testowania był powtarzany dziesiątki razy, za każdym razem na innej grupie osób.
      W końcu model poddano ostatecznemu testowi. Miał on do przeanalizowania zdjęcia stawów kolanowych 86 zdrowych osób, u których ani nie występowały objawy choroby zwyrodnieniowej stawów, ani nie było na zdjęciach widać zmian wskazujących na proces chorobowy. Okazało się, że algorytm z 78-procentową trafnością przewidział, u których pacjentów trzy lata później rozwinęła się choroba.
      Osiągnięcie to wskazuje, że wykrycie choroby zwyrodnieniowej stawów może być możliwe na etapie, gdzie można jej zapobiec. W przyszłości połączenie metody przedobjawowego wykrywania z nowymi terapiami pozwalającymi na jej zapobieganie może znacząco zmienić epidemiologię choroby, na walkę z którą którą amerykański system opieki zdrowotnej wydaje obecnie 16,5 miliarda dolarów rocznie. Co więcej, naszą technikę można zastosować do wcześniejszego wykrywania w badaniach obrazowych wielu innych chorób, które obecnie diagnozuje się w zaawansowanym stadium rozwoju.
      Przed tygodniem informowaliśmy o innym algorytmie, który równie dobrze jak radiolodzy potrafi diagnozować raka piersi.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Wykorzystując sztuczną inteligencję, po raz pierwszy udało się znaleźć zlewające się pary galaktyk przy użyciu identycznej metody zarówno w symulacjach, jak i obserwacjach prawdziwego wszechświata. Współautorem pionierskiej pracy jest dr William Pearson z Zakładu Astrofizyki Departamentu Badań Podstawowych NCBJ.
      Ostatnia Nagroda Nobla pokazała, jak ważną i fascynującą dziedziną jest astrofizyka. Wielu naukowców od lat próbuje odkryć tajemnice wszechświata, jego przeszłość i przyszłość. Teraz po raz pierwszy udało im się znaleźć zlewające się pary galaktyk przy użyciu identycznej metody zarówno w symulacjach, jak i obserwacjach prawdziwego wszechświata (wykorzystano do tego sztuczną inteligencję).
      W badaniach prowadzonych przez Lingyu Wang (Holenderski Instytut Badań Kosmicznych, SRON), Vicente Rodrigueza-Gomeza (Instytut Radioastronomii i Astrofizyki, IRyA) oraz Williama J. Pearsona (Narodowe Centrum Badań Jądrowych, NCBJ) zastosowano pionierską metodę identyfikacji zderzających się galaktyk zarówno w symulacjach, jak i w obserwacjach rzeczywistego wszechświata.
      Zderzenia galaktyk nie są niczym nowym, od początku powstania wszechświata galaktyki zderzają się ze sobą, często łącząc się w jedną większą galaktykę. Wiadomo, że większość znanych nam galaktyk uczestniczyła w co najmniej kilku takich zderzeniach w ciągu swojego życia. Proces zderzania się galaktyk trwa zwykle setki milionów lat. To ważny aspekt historii naszego wszechświata, który możemy zobaczyć też na własne oczy, np. dzięki zdjęciom z teleskopu Hubble'a.
      Identyfikacja zderzających się galaktyk nie jest jednak prosta. Proces ten możemy badać albo symulując całe wydarzenie i analizując jego przebieg, albo obserwując je w realnym świecie. W przypadku symulacji jest to proste: wystarczy śledzić losy konkretnej galaktyki i sprawdzać, czy i kiedy łączy się z inną galaktyką. W prawdziwym wszechświecie sprawa jest trudniejsza. Ponieważ zderzenia galaktyk są rzadkie i trwają miliardy lat, w praktyce widzimy tylko jeden "moment" z całego długiego procesu zderzenia. Astronomowie muszą dokładnie zbadać obrazy galaktyk, aby ocenić, czy znajdujące się na nich obiekty wyglądają tak, jakby się zderzały lub niedawno połączyły.
      Symulacje można porównać z prowadzeniem kontrolowanych eksperymentów laboratoryjnych. Dlatego są potężnym i użytecznym narzędziem do zrozumienia procesów zachodzących w galaktykach. Dużo więcej wiemy na temat zderzeń symulowanych niż zderzeń zachodzących w prawdziwym wszechświecie, ponieważ w przypadku symulacji możemy prześledzić cały długotrwały proces zlewania się konkretnej pary galaktyk. W prawdziwym świecie widzimy tylko jeden etap całego zderzenia.
      Wykorzystując obrazy z symulacji, jesteśmy w stanie wskazać przypadki zderzeń, a następnie wytrenować sztuczną inteligencję (AI), aby była w stanie zidentyfikować galaktyki w trakcie takich zderzeń – wyjaśnia dr William J. Pearson z Zakładu Astrofizyki NCBJ, współautor badań. Aby sztuczna inteligencja mogła spełnić swoje zadanie, obrazy symulowanych galaktyk przetworzyliśmy tak, żeby wyglądały, jakby były obserwowane przez teleskop. Naszą AI przetestowaliśmy na innych obrazach z symulacji, a potem zastosowaliśmy ją do analizy obrazów prawdziwego wszechświata w celu wyszukiwania przypadków łączenia się galaktyk.
      W badaniach sprawdzono, jak szanse na prawidłową identyfikację zderzającej się pary galaktyk zależą m.in. od masy galaktyk. Porównywano wyniki oparte na symulacjach i rzeczywistych danych. W przypadku mniejszych galaktyk AI poradziła sobie równie dobrze w przypadku obrazów symulowanych i rzeczywistych. W przypadku większych galaktyk pojawiły się rozbieżności, co pokazuje, że symulacje zderzeń masywnych galaktyk nie są wystarczająco realistyczne i wymagają dopracowania.
      Artykuł zatytułowany Towards a consistent framework of comparing galaxy mergers in observations and simulations został przyjęty do publikacji w czasopiśmie Astronomy & Astrophysics.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Porównanie trzech komercyjnych systemów sztucznej inteligencji wykorzystywanej w diagnostyce obrazowej raka piersi wykazało, że najlepszy z nich sprawuje się równie dobrze jak lekarz-radiolog. Algorytmy badano za pomocą niemal 9000 obrazów z aparatów mammograficznych, które zgromadzono w czasie rutynowych badań przesiewowych w Szwecji.
      Badania przesiewowe obejmujące dużą część populacji znacząco zmniejszają umieralność na nowotwory piersi, gdyż pozwalają na wyłapanie wielu przypadków na wczesnym etapie rozwoju choroby. W wielu takich przedsięwzięciach każde zdjęcie jest niezależnie oceniane przez dwóch radiologów, co zwiększa skuteczność całego programu. To jednak metoda kosztowna, długotrwała, wymagająca odpowiednich zasobów. Tutaj mogłyby pomóc systemy SI, o ile będą dobrze sobie radziły z tym zadaniem.
      Chcieliśmy sprawdzić, na ile dobre są algorytmy SI w rozpoznawaniu obrazów mammograficznych. Pracuję w wydziale radiologii piersi i słyszałem o wielu firmach oferujących takie algorytmy. Jednak trudno było orzec, jaka jest ich jakość, mówi Fridrik Strand z Karolinska Institutet.
      Każdy z badanych algorytmów to odmiana sieci neuronowej. Każdy miał do przeanalizowania zdjęcia piersi 739 kobiet, u których w czasie krótszym niż 12 miesięcy od pierwotnego badania wykryto raka piersi oraz zdjęcia 8066 kobiet, u których w czasie 24 miesięcy od pierwotnego badania nie wykryto raka piersi. Każdy z algorytmów miał ocenić zdjęcie w skali od 0 do 1, gdzie 1 oznaczało pewność, iż na zdjęciu widać nieprawidłową tkankę.
      Trzy systemy, oznaczone jako AI-1, AI-2 oraz AI-3 osiągnęły czułość rzędu 81,9%, 67,0% oraz 67,4%. Dla porównania, czułość w przypadku radiologów jako pierwszych interpretujących dany obraz wynosiła 77,4%, a w przypadku radiologów, którzy jako drudzy dokonywali opisu było to 80,1%. Najlepszy z algorytmów potrafił wykryć też przypadki, które radiolodzy przeoczyli przy badaniach przesiewowych, a kobiety zostały w czasie krótszym niż rok zdiagnozowane jako chore.
      Badania te dowodzą, że algorytmy sztucznej inteligencji pomagają skorygować fałszywe negatywne diagnozy postawione przez lekarzy-radiologów. Połączenie możliwości AI-1 z przeciętnym lekarzem-radiologiem zwiększało liczbę wykrytych nowotworów piersi o 8%.
      Zespół z Karolinska Institutet spodziewa się, że jakość algorytmów SI będzie rosła. Nie wiem, jak efektywne mogą się stać, ale wiem, że istnieje kilka sposobów, by je udoskonalić. Jednym z nich może być np. ocenianie wszystkich 4 zdjęć jako całości, by można było porównać obrazy z obu piersi. Inny sposób to porównanie nowych zdjęć z tymi, wykonanymi wcześniej, by wyłapać zmiany, mówi Strand.
      Pełny opis eksperymentu opublikowano na łamach JAMA Oncology.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Elon Musk ogłosił przełom w dziedzinie synchronizacji ludzkiego mózgu ze sztuczną inteligencją. Podczas pokazu na żywo Musk zaprezentował układ scalony zbudowany przez jego firmę Neuralink. To w pełni samodzielny implant mózgowy, który bezprzewodowo przesyła informacje o aktywności mózgu, nie wymagając przy tym żadnego zewnętrznego sprzętu. Działanie chipa zaprezentowano na przykładzie żywej świni.
      Uczestnicy pokazu mogli zobaczyć grupę świń, z których jedna miała wszczepiony implant. Ekran nad nią na bieżąco pokazywał i rejestrował aktywność jej mózgu. Dotychczas by zarejestrować działanie mózgu konieczne było podłączenie badanej osoby lub zwierzęcia do zewnętrznego urządzenia, np. elektroencefalografu (EEG).
      Celem Muska jest stworzenie implantu mózgowego, który bezprzewodowo połączy ludzki mózg ze sztuczną inteligencją i pozwoli na kontrolowanie komputerów, protez i innych maszyn jedynie za pomocą myśli. Implant może służyć też rozrywce. Za jego pomocą będzie bowiem można kontrolować gry.
      Musk chce stworzyć implant, który będzie rejestrował i zapisywał aktywność milionów neuronów, przekładając ludzkie myśli na polecenia dla komputera i odwrotnie. Wszystko to miało by się odbywać za pomocą niewielkiego wszczepialnego implantu.
      Prace nad implantem pozwalającym na stworzenie interfejsu mózg-komputer trwają od ponad 15 lat. Ich celem jest umożliwienie normalnego funkcjonowania ludziom z chorobami neurologicznymi czy paraliżem. Badania bardzo powoli posuwają się naprzód. Od 2003 w USA implanty mózgowe wszczepiono mniej niż 20 osobom. Wszystkie dla celów badawczych. Większość z takich systemów posiada jednak części, które wystają poza organizm, umożliwiając w ten sposób zasilanie i transmisję danych. Takie zewnętrzne części to ryzyko infekcji. Są ponadto niepraktyczne.
      Neuralink twierdzi, że jej układ jest najbardziej zaawansowany z dotychczasowych. Zawiera procesor, nadajnik bluetooth, akumulator oraz tysiące elektrod. Każda z tych elektrod rejestruje aktywność do 4 neuronów.
      Bolu Ajiboye, profesor inżynierii biomedycznej z Case Western Reserve Univeristy, który jest głównym naukowcem konsorcjum BrainGate pracującym nad implantami dla pacjentów neurologicznych, mówi, że jeśli chip Muska będzie przez dłuższy czas umożliwiał bezprzewodową transmisję danych, to mamy do czynienia dużym postępem na tym polu. W Neuralinku pracują mądrzy ludzie prezentujący innowacyjne podejście. Wiem, co oni tam robią i z niecierpliwością czekam na wyniki, stwierdza uczony.
      Na razie jednak osiągnięcia Neuralink znamy z prezentacji, a nie z recenzowanych artykułów. Nie wiemy na przykład, a jaki sposób urządzenie transmituje tak dużą ilość danych bez generowania uszkadzającego mózg ciepła. Ponadto, jak zauważa Ajiboye, urządzenie jest dość duże jak na implant mózgowy. Jest to bowiem cylinder o średnicy 23 i długości 8 mm. Tymczasem urządzenie, które obecnie testuje BrainGate ma wymiary 4x4 mm. Zawiera też element wystający przez czaszkę oraz 100 elektrod. Tymczasem urządzenie Neuralinka korzysta z 1000 elektrod.
      Podczas pokazu z udziałem Muska wykorzystano trzy świnie, z których jedna – imieniem Gertruda – miała wszczepiony implant. Widać było, że za każdym razem gdy Gertruda węszy, zwiększała się aktywność elektryczna jej mózgu.
      Jednak rejestracja danych to nie wszystko. Najważniejsze jest ich dekodowanie. Wiele laboratoriów na całym świecie poświęciło wiele czasu na opracowywanie algorytmów mających na celu interpretację sygnałów z mózgu. Neuralink nam tego nie zaprezentował, mówi Ajiboye.
      Pierwsze implanty Neuralinka mają mieć zastosowanie medyczne. Mogą np. trafić do ludzi z uszkodzonym rdzeniem kręgowym. Jednak Elon Musk stwierdził, że w przyszłości chce wyjść poza zastosowania medyczne. Słowa te wywołały duże poruszenie w mediach. Jako naukowcy specjalizujący się w dość szczególnej dziedzinie musimy być odpowiedzialni za słowa, ważyć obietnice jakie składamy i uważać na to, co opowiadamy o naszej technologii. Gdy pojawił się Elon Musk nasze prace przyciągnęły uwagę mediów. To dobrze, jednak rodzi to też wyzwania. A jednym z takich wyzwań jest odróżnienie propagandy od rzeczywistości.
       


      « powrót do artykułu
×
×
  • Create New...