Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Microsoft kupił firmę Semantic Machines z Berkeley, która pracuje nad sztuczną inteligencją zdolną do nawiązania dialogu z człowiekiem.

Obecnie SI dopiero uczy się rozmawiać. Zdecydowana większość botów i inteligentnych asystenów potrafi jedynie reagować na proste komendy lub słowa. Maszyny nie są w stanie zrozumieć języka naturalnego.

Semantic Machines wykorzystuje metody nauczania komputerowego, dzięki czemu SI ma łatwiej i szybciej przyswajać umiejętności potrzebne do prowadzenia naturalnego dialogu z człowiekiem. Główną siłą Semantic Machines jest jej kadra. Firma została założona przez przedsiębiorcę Dana Rotha oraz czołowych światowych ekspertów od naturalnego języka i sztucznej inteligencji profesora Dana Kleina z Uniwersytetu Klifornijskiego w Berkeley oraz Larry'ego Gillick, który w był zatrudniony w Apple'u jako główny naukowiec odpowiedzialny za rozwój Siri. W zespole znajdziemy też profesora Percy'ego Lianga z Uniwersytetu Stanforda, który w przeszłości pracował dla Google'a nad technologiami SI dla Google Assistanta.

Sam Microsoft od ponad 2 dekad prowadzi własne badania nad rozpoznawaniem mowy i rozumieniem języków naturalnych przez maszyny. Koncern stworzył framework do budowy botów i rozwija cyfrową asystentkę Cortanę. Pracuje też nad społecznościowymi czatbotami, takimi jak np. XieoIce, w którego bazie danych znajduje się ponad 30 miliardów rozmów z 200 milionami użytkowników z Chin, Japonii, USA, Indii i Indonezji. Średnia długość takiej rozmowy to 30 minut.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Henrique Andrade, student z brazylijskiego Escola Politécnica da Universidade de Pernambuco od wielu lat interesuje się starymi mapami swojego rodzinnego miasta Recife. Zgromadziłem wiele cyfrowych kopii takich map i odkryłem o swoim mieście rzeczy, które nie są powszechnie znane. Ludziom z Recife odebrano dostęp do przeszłości, przez co mają problem ze zrozumieniem, kim są i co mogą zrobić dla swojej przyszłości, mówi Andrade. Student wpadł jednak na bardzo interesujący pomysł.
      Młody człowiek namówił profesora Bruno Fernandesa do stworzenia algorytmu maszynowego uczenia się, który przetwarzałby stare mapy na obrazy satelitarne takie, jaki widzimy w serwisie Google Maps. Zdaniem Andrade pomoże to zrozumieć ludziom, jak ich otoczenie zmieniało się z czasem, w tym jaki wpływ społeczny i ekonomiczny miała urbanizacja.
      Obaj uczeni wykorzystali istniejące narzędzie do sztucznej inteligencji zwane Pix2pix, które opiera się na dwóch sieciach neuronowych. Pierwsza z nich tworzy obrazy na podstawie danych, które otrzymuje, a druga decyduje, czy obraz jest prawdziwy czy nie. Obie sieci zostały tak wytrenowane, by próbowały nawzajem się oszukać. Ostatecznyme efektem ich pracy są realistycznie wyglądające obrazy.
      Andrade i Fernandes opublikowali szczegóły w piśmie IEEE Geoscience and Remote Sensing Letters. Na potrzeby swojej pracy stworzyli „satelitarny” obraz Recife na podstawie mapy z 1808 roku i zestawili go z obecnym obrazem satelitarnym tego samego obszaru. Gdy patrzysz na te obrazy, lepiej pojmujesz, jak zmieniło się miasto w ciągu ostatnich 200 lat. Widać dramatyczne zmiany jego geografii. Zbiorniki wody zostały zasypane odpadami, ludzie usunęli też tereny zielone, mówi Andrade.
      Młody uczony dodaje, że dużą zaletą zastosowanej techniki jest fakt, że SI potrzebuje stosunkowo niewiele danych. Jednak muszą być one umieszczone w kontekście historycznym, a rozdzielczość wygenerowanych obrazów jest mniejsza, niż życzyliby sobie naukowcy. Pracujemy nad poprawieniem rozdzielczości i eksperymentujemy z różnymi danymi, zapewnia Andrade.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Naukowcy i studenci z Politechniki Gdańskiej (PG) opracowali nowatorski system do rozpoznawania złośliwości guzów nerek. Dzięki niemu możliwa będzie dokładniejsza diagnoza, a także zmniejszenie liczby niepotrzebnych operacji narażających zdrowie i życie pacjentów.
      Większość pacjentów z guzami nerek to osoby starsze, dla których operacja usunięcia guza może okazać się wysoce ryzykowna. Zdaniem lekarzy, jeśli guz nie jest złośliwy, bezpieczniej jest nie wykonywać operacji i pozostawić guz jedynie do dalszej obserwacji.
      Określenie złośliwości guza nie jest jednak prostym zadaniem. Szacuje się, że obecnie w Polsce 15-20 proc. operacji usunięcia nerki po wykryciu w niej guza wykonuje się niepotrzebnie, bo guz, początkowo określony jako złośliwy, po operacji i zbadaniu histopatologicznym okazuje się łagodny.
      Rocznie w Polsce jest to około 900 operacji, które bez potrzeby narażają zdrowie pacjentów i znacząco pogarszają komfort ich życia, a problem ten będzie w przyszłości tylko narastać. Przyczynić do tego może się również pandemia wirusa SARS-CoV-2, który powoduje choroby nerek nawet u 15 proc. zarażonych nim pacjentów.
      System opracowany przez naukowców, lekarzy i studentów
      Z pomocą w rozwiązaniu tego problemu przyszli naukowcy i studenci PG. Opracowali oni system TITAN (Technology In Tumor ANalysis), który przy użyciu technologii uczenia maszynowego i algorytmów sztucznej inteligencji określa prawdopodobieństwo złośliwości guza nerki na podstawie zdjęcia tomografii komputerowej jamy brzusznej.
      W zespole Radiato.ai, który stoi za projektem TITAN, udało się połączyć kompetencje i możliwości pracowników badawczo-dydaktycznych Wydziału FTiMS PG - dr. inż. Patryka Jasika (Team Leader) oraz dr. inż. Pawła Sytego (Product Owner) - a także studentów Wydziałów FTiMS i ETI: Aleksandra Obuchowskiego (Head AI Architect), Romana Karskiego (Data Scientist), Barbary Klaudel (Medical Image Specialist), Bartosza Rydzińskiego (Backend Developer) i Mateusza Anikieja (Devops). W zespole pracował również lekarz Mateusz Glembin z Oddziału Urologii Szpitala św. Wojciecha w Gdańsku.
      Sztuczna inteligencja pomocna w ocenie złośliwości guzów
      System informatyczny TITAN wykorzystuje sztuczną inteligencję do oceny złośliwości guzów nerek na podstawie zdjęcia tomografii komputerowej (TK), osiągając skuteczność na poziomie 87 proc. Aby stworzyć bazujący na metodach uczenia maszynowego autorski model predykcyjny, zdobyto ponad 15 tys. zdjęć tomografii komputerowej z niemal 400 przypadków medycznych.
      Przy opracowywaniu naszego algorytmu przykładaliśmy szczególną uwagę do rozpoznawania guzów łagodnych, gdyż to właśnie poprawne ich wykrycie może potencjalnie uratować życie pacjenta – tłumaczy Aleksander Obuchowski. Nie było to łatwe zadanie, gdyż guzy łagodne stanowiły tylko 26 proc. naszej bazy danych. Po przeanalizowaniu dziesiątek architektur sieci neuronowych i metod przetwarzania obrazów udało się nam jednak osiągnąć wynik 10/10 poprawnie rozpoznanych guzów łagodnych.
      To pozwoliło z kolei na zbudowanie bazy wiedzy, na której wytrenowane zostały algorytmy wykorzystujące głębokie sieci neuronowe, osiągające tak wysoką skuteczność przy jednoczesnym wychwytywaniu 10 na 10 guzów łagodnych. W rezultacie może się to przełożyć na ocalenie nerek i ograniczenie liczby niepotrzebnych operacji.
      Dzięki wykorzystaniu systemu TITAN lekarz uzyskuje dodatkową opinię w postaci sugestii algorytmu w ciągu zaledwie kilkunastu sekund – wyjaśnia dr inż. Patryk Jasik. System nie zastępuje jednak diagnozy lekarskiej, a jedynie zwraca uwagę na to, które przypadki mogły zostać błędnie zaklasyfikowane. Dzięki systemowi lekarze są w stanie uważniej przyjrzeć się takim guzom, skonsultować diagnozę z innymi specjalistami bądź skierować pacjenta na dalsze badania. Taka selekcja w rezultacie może znacząco ograniczyć liczbę błędnie zdiagnozowanych guzów.
      Dodatkowo, jeżeli w badaniu histopatologicznym okaże się, że guz faktycznie był złośliwy, lekarz może dodać taki przypadek do bazy wiedzy, co usprawni działanie algorytmu w przyszłości.
      Pierwsze testy w gdańskim szpitalu
      System został stworzony w ramach programu e-Pionier (jest on prowadzony przez Excento, spółkę celową Politechniki Gdańskiej), który łączy zespoły młodych programistów z instytucjami publicznymi w przygotowywaniu innowacyjnych rozwiązań z branży ICT. Problem braku narzędzi diagnostycznych wykorzystujących technologie informatyczne został zgłoszony z ramienia spółki Copernicus Podmiot Leczniczy oraz Szpitala św. Wojciecha w Gdańsku przez dr. n. med. Wojciecha Narożańskiego.
      System będzie w najbliższym czasie testowo wdrożony w Szpitalu św. Wojciecha w Gdańsku, gdzie lekarze wykorzystywać go będą w diagnozie bieżących przypadków guzów nerek. Jest to pierwszy tego typu system w Polsce, który będzie wykorzystywany w praktyce.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Podczas niedawnej konferencji Ignite 2020 Microsoft ogłosił rozpoczęciu Project HSD (Holographic Storage Device). Biorą nim udział specjaliści z laboratorium sztucznej inteligencji w Cambridge oraz inżynierowie z chmury Azure. Celem projektu jest stworzenie holograficznego systemu przechowywania informacji na potrzeby chmur.
      Zapotrzebowanie na długoterminowe przechowywanie danych w chmurach sięgnęło niespotykanego poziomu i rośnie w zetabajtach. Istniejące obecnie technologie nie pozwalają na ekonomiczne długotrwałe przechowywanie danych. Operowanie danymi w skali chmur obliczeniowych wymaga przemyślenia samych podstaw budowy wielkoskalowych systemów przechowywania informacji oraz technologii, z których są one tworzone, stwierdzili przedstawiciele Microsoftu.
      Firmowi eksperci zauważają, że obecnie używane technologie nie rozwijają się w dostatecznie szybkim tempie, by zaspokoić zapotrzebowanie. Ponadto mają problemy z wiarygodnością i stabilnością spowodowane albo obecnością mechanicznych podzespołów albo degradującymi się z czasem komórkami pamięci.
      Dlatego też w 2017 roku Microsoft rozpoczął Project Silica, w ramach którego pracuje nad holograficznym zapisem danych w szkle. Holograficzny zapis danych nie jest ograniczony do dwuwymiarowej powierzchni, pozwala wykorzystać całość nośnika.
      Hologram zajmuje niewielką część kryształu. W jednym krysztale można zaś zapisać wiele hologramów, wyjaśniają przedstawiciele koncernu z Redmond. Najnowsze osiągnięcia z dziedziny sztucznej inteligencji czy optyki pozwalają na znaczne udoskonalenie tego, co robiono dotychczas w ramach Project Silica, na którym bazuje Project HDS. Na razie, jak informuje dział Microsoft Research, udało się niemal dwukrotnie zwiększyć gęstość zapisu w hologramach. W najbliższych miesiącach powinniśmy zaś zobaczyć poprawioną kompresję i szybsze czasy dostępu.
      Przed niemal rokiem informowaliśmy, że w ramach Project Silica Microsoft stworzył prototypowy system do przechowywania informacji w szkle. We współpracy z firmą Warner Bros. koncern zapisał oryginalny firm Superman z 1978 roku na kawałku szkła o wymiarach 75x75x2 milimetry. Pisaliśmy wówczas, że firma wykorzystuje femtosekundowe lasery pracujące w podczerwieni do zapisu danych na „wokselach”, trójwymiarowych pikselach. Każdy z wokseli ma kształt odwróconej kropli, a zapis dokonywany jest poprzez nadawanie mi różnych wielkości i różnej orientacji. Na szkle o grubości 2 milimetrów można zapisać ponad 100 warstw wokseli. Odczyt odbywa się za pomocą kontrolowanego przez komputer mikroskopu, który wykorzystuje różne długości światła laserowego. Światło zostaje odbite od wokseli i jest przechwytywane przez kamerę. W zależności od orientacji wokseli, ich wielkości oraz warstwy do której należą, odczytywane są dane.
      Przy Project HSD pracują fizycy, optycy, specjaliści od maszynowego uczenia się i systemów przechowywania danych. Jest on prowadzony przez grupę Optics for the Cloud w Microsoft Resarch Cambridge.
       


      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Choroba zwyrodnieniowa stawów to najczęściej występujące schorzenie spośród wszystkich rodzajów zapaleń stawów. Obecnie diagnozuje się ją przede wszystkim na podstawie zdjęć rentgenowskich. Jednak naukowcy z Wydziału Medycyny University of Pittsburgh oraz Wydziału Inżynierii Carnegie Mellon University stworzyli algorytm sztucznej inteligencji, który diagnozuje to schorzenie wiele lat przed pojawieniem się objawów.
      Złotym standardem w diagnostyce choroby zwyrodnieniowej stawów jest zdjęcie rentgenowskie. Gdy stawy ulegają zniszczeniu, zmniejszają się odległości pomiędzy kośćmi. Problem w tym, że gdy możemy zauważ tę chorobę na zdjęciach, zniszczenia już się dokonały. Znacznie łatwiej jest zaś zapobiegać zniszczeniu tkanki chrzęstnej niż spowodować jej odrastanie, mówi jeden z autorów badań, profesor chirurgii ortopedycznej Kenneth Urish z Pittsburgha.
      Obecnie nie istnieje żadna metoda wykrywania choroby zwyrodnieniowej stawów na etapie, który pozwalałby na naprawienie powstałych szkód. W naszej pracy prezentujemy metodę, która pozwala na wykrycie choroby jeszcze zanim da ona objawy. Metoda ta łączy teorię optymalnego transportu masy ze statystycznym rozpoznawaniem wzorców, czytamy w pracy pod tytułem Enabling early detection of osteoarthritis from presymptomatic cartilage texture maps via transport-based learning.
      Gdy lekarze oglądają zdjęcia stawów, nie widać tam oczywistego wzorca, który od razu można zauważyć gołym okiem. Ale to nie znaczy, że taki wzorzec nie istnieje. To znaczy tylko, że nie można go dostrzec używając konwencjonalnych narzędzi, dodaje doktor Shinjini Kundu.
      To właśnie Kundu odpowiadał za trenowanie algorytmu na podstawie zdjęć kolan wykonanych za pomocą rezonansu magnetycznego, a następnie testował go na zdjęciach, pacjentów, z którymi model nie miał wcześniej do czynienia. Proces nauczania i testowania był powtarzany dziesiątki razy, za każdym razem na innej grupie osób.
      W końcu model poddano ostatecznemu testowi. Miał on do przeanalizowania zdjęcia stawów kolanowych 86 zdrowych osób, u których ani nie występowały objawy choroby zwyrodnieniowej stawów, ani nie było na zdjęciach widać zmian wskazujących na proces chorobowy. Okazało się, że algorytm z 78-procentową trafnością przewidział, u których pacjentów trzy lata później rozwinęła się choroba.
      Osiągnięcie to wskazuje, że wykrycie choroby zwyrodnieniowej stawów może być możliwe na etapie, gdzie można jej zapobiec. W przyszłości połączenie metody przedobjawowego wykrywania z nowymi terapiami pozwalającymi na jej zapobieganie może znacząco zmienić epidemiologię choroby, na walkę z którą którą amerykański system opieki zdrowotnej wydaje obecnie 16,5 miliarda dolarów rocznie. Co więcej, naszą technikę można zastosować do wcześniejszego wykrywania w badaniach obrazowych wielu innych chorób, które obecnie diagnozuje się w zaawansowanym stadium rozwoju.
      Przed tygodniem informowaliśmy o innym algorytmie, który równie dobrze jak radiolodzy potrafi diagnozować raka piersi.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Wykorzystując sztuczną inteligencję, po raz pierwszy udało się znaleźć zlewające się pary galaktyk przy użyciu identycznej metody zarówno w symulacjach, jak i obserwacjach prawdziwego wszechświata. Współautorem pionierskiej pracy jest dr William Pearson z Zakładu Astrofizyki Departamentu Badań Podstawowych NCBJ.
      Ostatnia Nagroda Nobla pokazała, jak ważną i fascynującą dziedziną jest astrofizyka. Wielu naukowców od lat próbuje odkryć tajemnice wszechświata, jego przeszłość i przyszłość. Teraz po raz pierwszy udało im się znaleźć zlewające się pary galaktyk przy użyciu identycznej metody zarówno w symulacjach, jak i obserwacjach prawdziwego wszechświata (wykorzystano do tego sztuczną inteligencję).
      W badaniach prowadzonych przez Lingyu Wang (Holenderski Instytut Badań Kosmicznych, SRON), Vicente Rodrigueza-Gomeza (Instytut Radioastronomii i Astrofizyki, IRyA) oraz Williama J. Pearsona (Narodowe Centrum Badań Jądrowych, NCBJ) zastosowano pionierską metodę identyfikacji zderzających się galaktyk zarówno w symulacjach, jak i w obserwacjach rzeczywistego wszechświata.
      Zderzenia galaktyk nie są niczym nowym, od początku powstania wszechświata galaktyki zderzają się ze sobą, często łącząc się w jedną większą galaktykę. Wiadomo, że większość znanych nam galaktyk uczestniczyła w co najmniej kilku takich zderzeniach w ciągu swojego życia. Proces zderzania się galaktyk trwa zwykle setki milionów lat. To ważny aspekt historii naszego wszechświata, który możemy zobaczyć też na własne oczy, np. dzięki zdjęciom z teleskopu Hubble'a.
      Identyfikacja zderzających się galaktyk nie jest jednak prosta. Proces ten możemy badać albo symulując całe wydarzenie i analizując jego przebieg, albo obserwując je w realnym świecie. W przypadku symulacji jest to proste: wystarczy śledzić losy konkretnej galaktyki i sprawdzać, czy i kiedy łączy się z inną galaktyką. W prawdziwym wszechświecie sprawa jest trudniejsza. Ponieważ zderzenia galaktyk są rzadkie i trwają miliardy lat, w praktyce widzimy tylko jeden "moment" z całego długiego procesu zderzenia. Astronomowie muszą dokładnie zbadać obrazy galaktyk, aby ocenić, czy znajdujące się na nich obiekty wyglądają tak, jakby się zderzały lub niedawno połączyły.
      Symulacje można porównać z prowadzeniem kontrolowanych eksperymentów laboratoryjnych. Dlatego są potężnym i użytecznym narzędziem do zrozumienia procesów zachodzących w galaktykach. Dużo więcej wiemy na temat zderzeń symulowanych niż zderzeń zachodzących w prawdziwym wszechświecie, ponieważ w przypadku symulacji możemy prześledzić cały długotrwały proces zlewania się konkretnej pary galaktyk. W prawdziwym świecie widzimy tylko jeden etap całego zderzenia.
      Wykorzystując obrazy z symulacji, jesteśmy w stanie wskazać przypadki zderzeń, a następnie wytrenować sztuczną inteligencję (AI), aby była w stanie zidentyfikować galaktyki w trakcie takich zderzeń – wyjaśnia dr William J. Pearson z Zakładu Astrofizyki NCBJ, współautor badań. Aby sztuczna inteligencja mogła spełnić swoje zadanie, obrazy symulowanych galaktyk przetworzyliśmy tak, żeby wyglądały, jakby były obserwowane przez teleskop. Naszą AI przetestowaliśmy na innych obrazach z symulacji, a potem zastosowaliśmy ją do analizy obrazów prawdziwego wszechświata w celu wyszukiwania przypadków łączenia się galaktyk.
      W badaniach sprawdzono, jak szanse na prawidłową identyfikację zderzającej się pary galaktyk zależą m.in. od masy galaktyk. Porównywano wyniki oparte na symulacjach i rzeczywistych danych. W przypadku mniejszych galaktyk AI poradziła sobie równie dobrze w przypadku obrazów symulowanych i rzeczywistych. W przypadku większych galaktyk pojawiły się rozbieżności, co pokazuje, że symulacje zderzeń masywnych galaktyk nie są wystarczająco realistyczne i wymagają dopracowania.
      Artykuł zatytułowany Towards a consistent framework of comparing galaxy mergers in observations and simulations został przyjęty do publikacji w czasopiśmie Astronomy & Astrophysics.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...