Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów ' Sztuczna inteligencja' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 57 wyników

  1. Henrique Andrade, student z brazylijskiego Escola Politécnica da Universidade de Pernambuco od wielu lat interesuje się starymi mapami swojego rodzinnego miasta Recife. Zgromadziłem wiele cyfrowych kopii takich map i odkryłem o swoim mieście rzeczy, które nie są powszechnie znane. Ludziom z Recife odebrano dostęp do przeszłości, przez co mają problem ze zrozumieniem, kim są i co mogą zrobić dla swojej przyszłości, mówi Andrade. Student wpadł jednak na bardzo interesujący pomysł. Młody człowiek namówił profesora Bruno Fernandesa do stworzenia algorytmu maszynowego uczenia się, który przetwarzałby stare mapy na obrazy satelitarne takie, jaki widzimy w serwisie Google Maps. Zdaniem Andrade pomoże to zrozumieć ludziom, jak ich otoczenie zmieniało się z czasem, w tym jaki wpływ społeczny i ekonomiczny miała urbanizacja. Obaj uczeni wykorzystali istniejące narzędzie do sztucznej inteligencji zwane Pix2pix, które opiera się na dwóch sieciach neuronowych. Pierwsza z nich tworzy obrazy na podstawie danych, które otrzymuje, a druga decyduje, czy obraz jest prawdziwy czy nie. Obie sieci zostały tak wytrenowane, by próbowały nawzajem się oszukać. Ostatecznyme efektem ich pracy są realistycznie wyglądające obrazy. Andrade i Fernandes opublikowali szczegóły w piśmie IEEE Geoscience and Remote Sensing Letters. Na potrzeby swojej pracy stworzyli „satelitarny” obraz Recife na podstawie mapy z 1808 roku i zestawili go z obecnym obrazem satelitarnym tego samego obszaru. Gdy patrzysz na te obrazy, lepiej pojmujesz, jak zmieniło się miasto w ciągu ostatnich 200 lat. Widać dramatyczne zmiany jego geografii. Zbiorniki wody zostały zasypane odpadami, ludzie usunęli też tereny zielone, mówi Andrade. Młody uczony dodaje, że dużą zaletą zastosowanej techniki jest fakt, że SI potrzebuje stosunkowo niewiele danych. Jednak muszą być one umieszczone w kontekście historycznym, a rozdzielczość wygenerowanych obrazów jest mniejsza, niż życzyliby sobie naukowcy. Pracujemy nad poprawieniem rozdzielczości i eksperymentujemy z różnymi danymi, zapewnia Andrade. « powrót do artykułu
  2. Naukowcy i studenci z Politechniki Gdańskiej (PG) opracowali nowatorski system do rozpoznawania złośliwości guzów nerek. Dzięki niemu możliwa będzie dokładniejsza diagnoza, a także zmniejszenie liczby niepotrzebnych operacji narażających zdrowie i życie pacjentów. Większość pacjentów z guzami nerek to osoby starsze, dla których operacja usunięcia guza może okazać się wysoce ryzykowna. Zdaniem lekarzy, jeśli guz nie jest złośliwy, bezpieczniej jest nie wykonywać operacji i pozostawić guz jedynie do dalszej obserwacji. Określenie złośliwości guza nie jest jednak prostym zadaniem. Szacuje się, że obecnie w Polsce 15-20 proc. operacji usunięcia nerki po wykryciu w niej guza wykonuje się niepotrzebnie, bo guz, początkowo określony jako złośliwy, po operacji i zbadaniu histopatologicznym okazuje się łagodny. Rocznie w Polsce jest to około 900 operacji, które bez potrzeby narażają zdrowie pacjentów i znacząco pogarszają komfort ich życia, a problem ten będzie w przyszłości tylko narastać. Przyczynić do tego może się również pandemia wirusa SARS-CoV-2, który powoduje choroby nerek nawet u 15 proc. zarażonych nim pacjentów. System opracowany przez naukowców, lekarzy i studentów Z pomocą w rozwiązaniu tego problemu przyszli naukowcy i studenci PG. Opracowali oni system TITAN (Technology In Tumor ANalysis), który przy użyciu technologii uczenia maszynowego i algorytmów sztucznej inteligencji określa prawdopodobieństwo złośliwości guza nerki na podstawie zdjęcia tomografii komputerowej jamy brzusznej. W zespole Radiato.ai, który stoi za projektem TITAN, udało się połączyć kompetencje i możliwości pracowników badawczo-dydaktycznych Wydziału FTiMS PG - dr. inż. Patryka Jasika (Team Leader) oraz dr. inż. Pawła Sytego (Product Owner) - a także studentów Wydziałów FTiMS i ETI: Aleksandra Obuchowskiego (Head AI Architect), Romana Karskiego (Data Scientist), Barbary Klaudel (Medical Image Specialist), Bartosza Rydzińskiego (Backend Developer) i Mateusza Anikieja (Devops). W zespole pracował również lekarz Mateusz Glembin z Oddziału Urologii Szpitala św. Wojciecha w Gdańsku. Sztuczna inteligencja pomocna w ocenie złośliwości guzów System informatyczny TITAN wykorzystuje sztuczną inteligencję do oceny złośliwości guzów nerek na podstawie zdjęcia tomografii komputerowej (TK), osiągając skuteczność na poziomie 87 proc. Aby stworzyć bazujący na metodach uczenia maszynowego autorski model predykcyjny, zdobyto ponad 15 tys. zdjęć tomografii komputerowej z niemal 400 przypadków medycznych. Przy opracowywaniu naszego algorytmu przykładaliśmy szczególną uwagę do rozpoznawania guzów łagodnych, gdyż to właśnie poprawne ich wykrycie może potencjalnie uratować życie pacjenta – tłumaczy Aleksander Obuchowski. Nie było to łatwe zadanie, gdyż guzy łagodne stanowiły tylko 26 proc. naszej bazy danych. Po przeanalizowaniu dziesiątek architektur sieci neuronowych i metod przetwarzania obrazów udało się nam jednak osiągnąć wynik 10/10 poprawnie rozpoznanych guzów łagodnych. To pozwoliło z kolei na zbudowanie bazy wiedzy, na której wytrenowane zostały algorytmy wykorzystujące głębokie sieci neuronowe, osiągające tak wysoką skuteczność przy jednoczesnym wychwytywaniu 10 na 10 guzów łagodnych. W rezultacie może się to przełożyć na ocalenie nerek i ograniczenie liczby niepotrzebnych operacji. Dzięki wykorzystaniu systemu TITAN lekarz uzyskuje dodatkową opinię w postaci sugestii algorytmu w ciągu zaledwie kilkunastu sekund – wyjaśnia dr inż. Patryk Jasik. System nie zastępuje jednak diagnozy lekarskiej, a jedynie zwraca uwagę na to, które przypadki mogły zostać błędnie zaklasyfikowane. Dzięki systemowi lekarze są w stanie uważniej przyjrzeć się takim guzom, skonsultować diagnozę z innymi specjalistami bądź skierować pacjenta na dalsze badania. Taka selekcja w rezultacie może znacząco ograniczyć liczbę błędnie zdiagnozowanych guzów. Dodatkowo, jeżeli w badaniu histopatologicznym okaże się, że guz faktycznie był złośliwy, lekarz może dodać taki przypadek do bazy wiedzy, co usprawni działanie algorytmu w przyszłości. Pierwsze testy w gdańskim szpitalu System został stworzony w ramach programu e-Pionier (jest on prowadzony przez Excento, spółkę celową Politechniki Gdańskiej), który łączy zespoły młodych programistów z instytucjami publicznymi w przygotowywaniu innowacyjnych rozwiązań z branży ICT. Problem braku narzędzi diagnostycznych wykorzystujących technologie informatyczne został zgłoszony z ramienia spółki Copernicus Podmiot Leczniczy oraz Szpitala św. Wojciecha w Gdańsku przez dr. n. med. Wojciecha Narożańskiego. System będzie w najbliższym czasie testowo wdrożony w Szpitalu św. Wojciecha w Gdańsku, gdzie lekarze wykorzystywać go będą w diagnozie bieżących przypadków guzów nerek. Jest to pierwszy tego typu system w Polsce, który będzie wykorzystywany w praktyce. « powrót do artykułu
  3. Choroba zwyrodnieniowa stawów to najczęściej występujące schorzenie spośród wszystkich rodzajów zapaleń stawów. Obecnie diagnozuje się ją przede wszystkim na podstawie zdjęć rentgenowskich. Jednak naukowcy z Wydziału Medycyny University of Pittsburgh oraz Wydziału Inżynierii Carnegie Mellon University stworzyli algorytm sztucznej inteligencji, który diagnozuje to schorzenie wiele lat przed pojawieniem się objawów. Złotym standardem w diagnostyce choroby zwyrodnieniowej stawów jest zdjęcie rentgenowskie. Gdy stawy ulegają zniszczeniu, zmniejszają się odległości pomiędzy kośćmi. Problem w tym, że gdy możemy zauważ tę chorobę na zdjęciach, zniszczenia już się dokonały. Znacznie łatwiej jest zaś zapobiegać zniszczeniu tkanki chrzęstnej niż spowodować jej odrastanie, mówi jeden z autorów badań, profesor chirurgii ortopedycznej Kenneth Urish z Pittsburgha. Obecnie nie istnieje żadna metoda wykrywania choroby zwyrodnieniowej stawów na etapie, który pozwalałby na naprawienie powstałych szkód. W naszej pracy prezentujemy metodę, która pozwala na wykrycie choroby jeszcze zanim da ona objawy. Metoda ta łączy teorię optymalnego transportu masy ze statystycznym rozpoznawaniem wzorców, czytamy w pracy pod tytułem Enabling early detection of osteoarthritis from presymptomatic cartilage texture maps via transport-based learning. Gdy lekarze oglądają zdjęcia stawów, nie widać tam oczywistego wzorca, który od razu można zauważyć gołym okiem. Ale to nie znaczy, że taki wzorzec nie istnieje. To znaczy tylko, że nie można go dostrzec używając konwencjonalnych narzędzi, dodaje doktor Shinjini Kundu. To właśnie Kundu odpowiadał za trenowanie algorytmu na podstawie zdjęć kolan wykonanych za pomocą rezonansu magnetycznego, a następnie testował go na zdjęciach, pacjentów, z którymi model nie miał wcześniej do czynienia. Proces nauczania i testowania był powtarzany dziesiątki razy, za każdym razem na innej grupie osób. W końcu model poddano ostatecznemu testowi. Miał on do przeanalizowania zdjęcia stawów kolanowych 86 zdrowych osób, u których ani nie występowały objawy choroby zwyrodnieniowej stawów, ani nie było na zdjęciach widać zmian wskazujących na proces chorobowy. Okazało się, że algorytm z 78-procentową trafnością przewidział, u których pacjentów trzy lata później rozwinęła się choroba. Osiągnięcie to wskazuje, że wykrycie choroby zwyrodnieniowej stawów może być możliwe na etapie, gdzie można jej zapobiec. W przyszłości połączenie metody przedobjawowego wykrywania z nowymi terapiami pozwalającymi na jej zapobieganie może znacząco zmienić epidemiologię choroby, na walkę z którą którą amerykański system opieki zdrowotnej wydaje obecnie 16,5 miliarda dolarów rocznie. Co więcej, naszą technikę można zastosować do wcześniejszego wykrywania w badaniach obrazowych wielu innych chorób, które obecnie diagnozuje się w zaawansowanym stadium rozwoju. Przed tygodniem informowaliśmy o innym algorytmie, który równie dobrze jak radiolodzy potrafi diagnozować raka piersi. « powrót do artykułu
  4. Wykorzystując sztuczną inteligencję, po raz pierwszy udało się znaleźć zlewające się pary galaktyk przy użyciu identycznej metody zarówno w symulacjach, jak i obserwacjach prawdziwego wszechświata. Współautorem pionierskiej pracy jest dr William Pearson z Zakładu Astrofizyki Departamentu Badań Podstawowych NCBJ. Ostatnia Nagroda Nobla pokazała, jak ważną i fascynującą dziedziną jest astrofizyka. Wielu naukowców od lat próbuje odkryć tajemnice wszechświata, jego przeszłość i przyszłość. Teraz po raz pierwszy udało im się znaleźć zlewające się pary galaktyk przy użyciu identycznej metody zarówno w symulacjach, jak i obserwacjach prawdziwego wszechświata (wykorzystano do tego sztuczną inteligencję). W badaniach prowadzonych przez Lingyu Wang (Holenderski Instytut Badań Kosmicznych, SRON), Vicente Rodrigueza-Gomeza (Instytut Radioastronomii i Astrofizyki, IRyA) oraz Williama J. Pearsona (Narodowe Centrum Badań Jądrowych, NCBJ) zastosowano pionierską metodę identyfikacji zderzających się galaktyk zarówno w symulacjach, jak i w obserwacjach rzeczywistego wszechświata. Zderzenia galaktyk nie są niczym nowym, od początku powstania wszechświata galaktyki zderzają się ze sobą, często łącząc się w jedną większą galaktykę. Wiadomo, że większość znanych nam galaktyk uczestniczyła w co najmniej kilku takich zderzeniach w ciągu swojego życia. Proces zderzania się galaktyk trwa zwykle setki milionów lat. To ważny aspekt historii naszego wszechświata, który możemy zobaczyć też na własne oczy, np. dzięki zdjęciom z teleskopu Hubble'a. Identyfikacja zderzających się galaktyk nie jest jednak prosta. Proces ten możemy badać albo symulując całe wydarzenie i analizując jego przebieg, albo obserwując je w realnym świecie. W przypadku symulacji jest to proste: wystarczy śledzić losy konkretnej galaktyki i sprawdzać, czy i kiedy łączy się z inną galaktyką. W prawdziwym wszechświecie sprawa jest trudniejsza. Ponieważ zderzenia galaktyk są rzadkie i trwają miliardy lat, w praktyce widzimy tylko jeden "moment" z całego długiego procesu zderzenia. Astronomowie muszą dokładnie zbadać obrazy galaktyk, aby ocenić, czy znajdujące się na nich obiekty wyglądają tak, jakby się zderzały lub niedawno połączyły. Symulacje można porównać z prowadzeniem kontrolowanych eksperymentów laboratoryjnych. Dlatego są potężnym i użytecznym narzędziem do zrozumienia procesów zachodzących w galaktykach. Dużo więcej wiemy na temat zderzeń symulowanych niż zderzeń zachodzących w prawdziwym wszechświecie, ponieważ w przypadku symulacji możemy prześledzić cały długotrwały proces zlewania się konkretnej pary galaktyk. W prawdziwym świecie widzimy tylko jeden etap całego zderzenia. Wykorzystując obrazy z symulacji, jesteśmy w stanie wskazać przypadki zderzeń, a następnie wytrenować sztuczną inteligencję (AI), aby była w stanie zidentyfikować galaktyki w trakcie takich zderzeń – wyjaśnia dr William J. Pearson z Zakładu Astrofizyki NCBJ, współautor badań. Aby sztuczna inteligencja mogła spełnić swoje zadanie, obrazy symulowanych galaktyk przetworzyliśmy tak, żeby wyglądały, jakby były obserwowane przez teleskop. Naszą AI przetestowaliśmy na innych obrazach z symulacji, a potem zastosowaliśmy ją do analizy obrazów prawdziwego wszechświata w celu wyszukiwania przypadków łączenia się galaktyk. W badaniach sprawdzono, jak szanse na prawidłową identyfikację zderzającej się pary galaktyk zależą m.in. od masy galaktyk. Porównywano wyniki oparte na symulacjach i rzeczywistych danych. W przypadku mniejszych galaktyk AI poradziła sobie równie dobrze w przypadku obrazów symulowanych i rzeczywistych. W przypadku większych galaktyk pojawiły się rozbieżności, co pokazuje, że symulacje zderzeń masywnych galaktyk nie są wystarczająco realistyczne i wymagają dopracowania. Artykuł zatytułowany Towards a consistent framework of comparing galaxy mergers in observations and simulations został przyjęty do publikacji w czasopiśmie Astronomy & Astrophysics. « powrót do artykułu
  5. Porównanie trzech komercyjnych systemów sztucznej inteligencji wykorzystywanej w diagnostyce obrazowej raka piersi wykazało, że najlepszy z nich sprawuje się równie dobrze jak lekarz-radiolog. Algorytmy badano za pomocą niemal 9000 obrazów z aparatów mammograficznych, które zgromadzono w czasie rutynowych badań przesiewowych w Szwecji. Badania przesiewowe obejmujące dużą część populacji znacząco zmniejszają umieralność na nowotwory piersi, gdyż pozwalają na wyłapanie wielu przypadków na wczesnym etapie rozwoju choroby. W wielu takich przedsięwzięciach każde zdjęcie jest niezależnie oceniane przez dwóch radiologów, co zwiększa skuteczność całego programu. To jednak metoda kosztowna, długotrwała, wymagająca odpowiednich zasobów. Tutaj mogłyby pomóc systemy SI, o ile będą dobrze sobie radziły z tym zadaniem. Chcieliśmy sprawdzić, na ile dobre są algorytmy SI w rozpoznawaniu obrazów mammograficznych. Pracuję w wydziale radiologii piersi i słyszałem o wielu firmach oferujących takie algorytmy. Jednak trudno było orzec, jaka jest ich jakość, mówi Fridrik Strand z Karolinska Institutet. Każdy z badanych algorytmów to odmiana sieci neuronowej. Każdy miał do przeanalizowania zdjęcia piersi 739 kobiet, u których w czasie krótszym niż 12 miesięcy od pierwotnego badania wykryto raka piersi oraz zdjęcia 8066 kobiet, u których w czasie 24 miesięcy od pierwotnego badania nie wykryto raka piersi. Każdy z algorytmów miał ocenić zdjęcie w skali od 0 do 1, gdzie 1 oznaczało pewność, iż na zdjęciu widać nieprawidłową tkankę. Trzy systemy, oznaczone jako AI-1, AI-2 oraz AI-3 osiągnęły czułość rzędu 81,9%, 67,0% oraz 67,4%. Dla porównania, czułość w przypadku radiologów jako pierwszych interpretujących dany obraz wynosiła 77,4%, a w przypadku radiologów, którzy jako drudzy dokonywali opisu było to 80,1%. Najlepszy z algorytmów potrafił wykryć też przypadki, które radiolodzy przeoczyli przy badaniach przesiewowych, a kobiety zostały w czasie krótszym niż rok zdiagnozowane jako chore. Badania te dowodzą, że algorytmy sztucznej inteligencji pomagają skorygować fałszywe negatywne diagnozy postawione przez lekarzy-radiologów. Połączenie możliwości AI-1 z przeciętnym lekarzem-radiologiem zwiększało liczbę wykrytych nowotworów piersi o 8%. Zespół z Karolinska Institutet spodziewa się, że jakość algorytmów SI będzie rosła. Nie wiem, jak efektywne mogą się stać, ale wiem, że istnieje kilka sposobów, by je udoskonalić. Jednym z nich może być np. ocenianie wszystkich 4 zdjęć jako całości, by można było porównać obrazy z obu piersi. Inny sposób to porównanie nowych zdjęć z tymi, wykonanymi wcześniej, by wyłapać zmiany, mówi Strand. Pełny opis eksperymentu opublikowano na łamach JAMA Oncology. « powrót do artykułu
  6. Elon Musk ogłosił przełom w dziedzinie synchronizacji ludzkiego mózgu ze sztuczną inteligencją. Podczas pokazu na żywo Musk zaprezentował układ scalony zbudowany przez jego firmę Neuralink. To w pełni samodzielny implant mózgowy, który bezprzewodowo przesyła informacje o aktywności mózgu, nie wymagając przy tym żadnego zewnętrznego sprzętu. Działanie chipa zaprezentowano na przykładzie żywej świni. Uczestnicy pokazu mogli zobaczyć grupę świń, z których jedna miała wszczepiony implant. Ekran nad nią na bieżąco pokazywał i rejestrował aktywność jej mózgu. Dotychczas by zarejestrować działanie mózgu konieczne było podłączenie badanej osoby lub zwierzęcia do zewnętrznego urządzenia, np. elektroencefalografu (EEG). Celem Muska jest stworzenie implantu mózgowego, który bezprzewodowo połączy ludzki mózg ze sztuczną inteligencją i pozwoli na kontrolowanie komputerów, protez i innych maszyn jedynie za pomocą myśli. Implant może służyć też rozrywce. Za jego pomocą będzie bowiem można kontrolować gry. Musk chce stworzyć implant, który będzie rejestrował i zapisywał aktywność milionów neuronów, przekładając ludzkie myśli na polecenia dla komputera i odwrotnie. Wszystko to miało by się odbywać za pomocą niewielkiego wszczepialnego implantu. Prace nad implantem pozwalającym na stworzenie interfejsu mózg-komputer trwają od ponad 15 lat. Ich celem jest umożliwienie normalnego funkcjonowania ludziom z chorobami neurologicznymi czy paraliżem. Badania bardzo powoli posuwają się naprzód. Od 2003 w USA implanty mózgowe wszczepiono mniej niż 20 osobom. Wszystkie dla celów badawczych. Większość z takich systemów posiada jednak części, które wystają poza organizm, umożliwiając w ten sposób zasilanie i transmisję danych. Takie zewnętrzne części to ryzyko infekcji. Są ponadto niepraktyczne. Neuralink twierdzi, że jej układ jest najbardziej zaawansowany z dotychczasowych. Zawiera procesor, nadajnik bluetooth, akumulator oraz tysiące elektrod. Każda z tych elektrod rejestruje aktywność do 4 neuronów. Bolu Ajiboye, profesor inżynierii biomedycznej z Case Western Reserve Univeristy, który jest głównym naukowcem konsorcjum BrainGate pracującym nad implantami dla pacjentów neurologicznych, mówi, że jeśli chip Muska będzie przez dłuższy czas umożliwiał bezprzewodową transmisję danych, to mamy do czynienia dużym postępem na tym polu. W Neuralinku pracują mądrzy ludzie prezentujący innowacyjne podejście. Wiem, co oni tam robią i z niecierpliwością czekam na wyniki, stwierdza uczony. Na razie jednak osiągnięcia Neuralink znamy z prezentacji, a nie z recenzowanych artykułów. Nie wiemy na przykład, a jaki sposób urządzenie transmituje tak dużą ilość danych bez generowania uszkadzającego mózg ciepła. Ponadto, jak zauważa Ajiboye, urządzenie jest dość duże jak na implant mózgowy. Jest to bowiem cylinder o średnicy 23 i długości 8 mm. Tymczasem urządzenie, które obecnie testuje BrainGate ma wymiary 4x4 mm. Zawiera też element wystający przez czaszkę oraz 100 elektrod. Tymczasem urządzenie Neuralinka korzysta z 1000 elektrod. Podczas pokazu z udziałem Muska wykorzystano trzy świnie, z których jedna – imieniem Gertruda – miała wszczepiony implant. Widać było, że za każdym razem gdy Gertruda węszy, zwiększała się aktywność elektryczna jej mózgu. Jednak rejestracja danych to nie wszystko. Najważniejsze jest ich dekodowanie. Wiele laboratoriów na całym świecie poświęciło wiele czasu na opracowywanie algorytmów mających na celu interpretację sygnałów z mózgu. Neuralink nam tego nie zaprezentował, mówi Ajiboye. Pierwsze implanty Neuralinka mają mieć zastosowanie medyczne. Mogą np. trafić do ludzi z uszkodzonym rdzeniem kręgowym. Jednak Elon Musk stwierdził, że w przyszłości chce wyjść poza zastosowania medyczne. Słowa te wywołały duże poruszenie w mediach. Jako naukowcy specjalizujący się w dość szczególnej dziedzinie musimy być odpowiedzialni za słowa, ważyć obietnice jakie składamy i uważać na to, co opowiadamy o naszej technologii. Gdy pojawił się Elon Musk nasze prace przyciągnęły uwagę mediów. To dobrze, jednak rodzi to też wyzwania. A jednym z takich wyzwań jest odróżnienie propagandy od rzeczywistości.   « powrót do artykułu
  7. Biały Dom ogłosił, że budżet federalny wraz z prywatnymi partnerami przeznaczy w ciągu najbliższych 5 lat ponad miliard dolarów na stworzenie i sfinansowanie 12 centrów badawczych zajmujących się sztuczną inteligencją i naukami informatycznymi. Celem inicjatywy jest utrzymanie pozycji USA jako światowego lidera w dziedzinie SI i technologii kwantowych. W najbliższym czasie powstanie siedem Artificial Intelligence Research Institutes oraz pięć Quantum Information Science Research Centers. W ogłoszonym przez Biały Dom programie udział wezmą zarówno giganci IT jak IBM czy Microsoft, czołowe uczelnie jak University of California czy Massachusetts Institute of Technology, jak i laboratoria narodowe, w tym Fermilab, Argonne oraz Lawrence Berkeley. Jednym z zadań nowo utworzonych jednostek badawczo-rozwojowych będzie inwestowanie we wczesne badania, w które prywatny biznes niechętnie inwestuje, a które są istotne z punktu widzenia utrzymania przez USA pozycji lidera na tym polu. Na przykład jeden z instytutów będzie pracował na narzędziami SI, które mogą przyspieszyć odkrywanie i produkcję nowych związków bioaktywnych. Instytuty będą służyły też do szkoleń przyszłych pokoleń ekspertów ds. SI. Ogłoszona przez Biały Dom inicjatywa zbiegła się z nową propozycją budżetową administracji prezydenckiej, która chce, by o 30% zwiększyć wydatki na niezwiązany z obronnością sektor badań nad SI oraz informatyką kwantową. Zgodnie z planem budżet federalny na sztuczną inteligencję ma do roku 2022 wzrosnąć do 2 miliardów USD, a na informatykę kwantową do 860 milionów dolarów. Tymczasem wpływowy waszyngtoński think-tank Center for a New American Security uważa, że z budżetu federalnego USA powinny do roku 2025 wydawać na badania nad SI – w tym na SI związane z obronnością – 25 miliardów USD rocznie. Warto przypomnieć, że obecnie amerykański sektor prywatny przeznacza na badania nad sztuczną inteligencją około 40 miliardów USD na rok. « powrót do artykułu
  8. Stworzony przez NVIDIĘ algorytm sztucznej inteligencji GameGAN był w stanie samodzielnie stworzyć grę PAC-MAN. System nie miał dostępu do kodu gry. Zaprezentowano mu jedynie 50 000 fragmentów wideo. Na tej podstawie sztuczna inteligencja samodzielnie stworzyła w pełni funkcjonalną warstwę graficzną PAC-MANa. PAC-MAN to jedna z najpopularniejszych gier komputerowych. Ta klasyka wirtualnej rozrywki powstała przed 40 laty w Japonii. Podbiła świat w czasach salonów gier i automatów. Osiągnięcie inżynierów NVIDII oznacza, że nawet bez znajomości podstawowych zasad rozgrywki ich algorytm jest w stanie samodzielnie je zrekonstruować oraz stworzyć własną grę. GameGAN to pierwsza sieć neuronowa, która wykorzystuje technologię GAN (generatywne sieci współzawodniczące) do stworzenia gry. GAN korzysta z dwóch niezależnych sieci neuronowych. Jedna to dyskryminator, druga zwana jest generatorem. Obie współzawodniczą ze sobą. Zwykle sieci neuronowe uczą się np. rozpoznawać koty na zdjęciach dzięki przeanalizowaniu olbrzymiej liczby zdjęć kotów. Metoda ta jest po pierwsze czasochłonna, po drugie zaś wymaga, by wszystkie użyte do treningu zdjęcia zostały ręcznie prawidłowo oznaczone przez człowieka. Dopiero po analizie olbrzymiej bazy danych sieć jest w stanie rozpoznać kota na zdjęciu, z którym wcześniej nie miała do czynienia. GAN wymaga znacznie mniej czasu i pracy. w tej koncepcji generator stara się stworzyć zdjęcie kota jak najbardziej przypominającego kota, a dyskryminator przegląda zdjęcia kotów i decyduje, które jest prawdziwe, a które fałszywe. W wyniku tego współzawodnictwa generator tworzy coraz doskonalsze zdjęcia, a dyskryminator coraz lepiej rozpoznaje koty. Teraz po raz pierwszy technika taka została użyta do stworzenia nadającego się do użycia funkcjonalnego layoutu gry. Chcieliśmy sprawdzić, czy sztuczna inteligencja jest w stanie nauczyć się reguł obowiązujących w środowisku jedynie patrząc na przebieg gry. I to jej się udało, mówi główny autor projektu Seung-Wook Kim. Osiągnięcie inżynierów NVIDII oznacza, że autorzy gier będą mogli wykorzystać sztuczną inteligencję do szybszego i łatwiejszego tworzenie kolejnych jej etapów, a badacze sztucznej inteligencji będą łatwiej mogli stworzyć symulatory do treningu autonomicznych systemów. W przyszłości w ten sposób mogą powstać systemy sztucznej inteligencji, które samodzielnie – tylko na podstawie nagrań wideo – nauczą się przepisów ruchu drogowego czy zasad fizyki. GameGAN to pierwszy krok w tym kierunku, dodaje Sanja Fidler, dyrektor laboratorium NVIDII w Toronto. « powrót do artykułu
  9. Dr inż. Marcin Sieniek jest absolwentem Akademii Górniczo-Hutniczej w Krakowie i tamtejszego Uniwersytetu Ekonomicznego. Na AGH otrzymał również doktorat z informatyki za badania w dziedzinie nauk obliczeniowych. W Google Health zajmuje się pracą nad zastosowaniem sztucznej inteligencji w diagnozie raka piersi. Oprócz Google pracował w zespole Autopilota Tesli oraz prowadził w Polsce startup z dziedziny social learning. Prywatnie gra w zespole rockowym i prowadzi bloga expat-pozytywnie.pl. Jak trafia się do Google Health i dlaczego właśnie tam? To dość niszowa działka w działalności Google'a czy Alphabetu i wymagająca chyba szczególnych umiejętności? W Google Health pomocne są przede wszystkim różnorodne umiejętności i doświadczenia. W Google pracuję od ponad 5 lat, początkowo jako inżynier oprogramowania w polskim biurze firmy. Jednak już od samego początku pracowałem nad wykorzystywaniem sztucznej inteligencji, a konkretniej określonych technik - tzw. uczenia maszynowego. Później kontynuowałem pracę nad moimi projektami w amerykańskich biurach Google. Dopiero wtedy, szukając ciekawych wyzwań wewnątrz firmy, znalazłem możliwość dołączenia do Google Research - działu firmy skupiającego się na badaniach nad rozwojem sztucznej inteligencji i jej wykorzystaniem w różnych dziedzinach życia. Tam powstawał właśnie mały zespół badawczy zajmujący się zastosowaniem głębokiego uczenia maszynowego właśnie w radiologii. Proces selekcji do zespołu był wymagający - sprawdzano m.in. znajomość technik sztucznej inteligencji oraz udokumentowane doświadczenie w badaniach biotechnologicznych co akurat zupełnie przypadkiem było przedmiotem jednej z moich prac na studiach doktoranckich. Pod koniec 2018 roku mój zespół stał się częścią nowego działu Google Health - łączącego w sobie nie tylko inżynierów oprogramowania, ale także doświadczenie i wiedzę lekarzy, prawników, etyków i specjalistów od procedur medycznych. Jest Pan jednym ze współtwórców algorytmu, który lepiej diagnozuje raka piersi niż lekarze. Jak powstaje i działa taki algorytm? Algorytm taki powstaje podobnie jak np. technologia która pozwala rozpoznawać co znajduje się na zdjęciu. Algorytm sztucznej inteligencji jest „szkolony” na istniejącym zbiorze danych, gdzie obrazom (w tym wypadku medycznym, czyli zdjęciom z mammografii) towarzyszą oznaczenia (w tym wypadku: czy wykryto nowotwór złośliwy i ewentualna informacja o jego umiejscowieniu). Takie zbiory danych powstają w ramach normalnej praktyki w szpitalach i centrach programów przesiewowych, jednak często na tym ich zastosowanie się kończy. Takie algorytmy działają na bazie mechanizmu zwanego „sieciami neuronowymi”. Ich struktura inspirowana jest tym w jaki sposób informacje przetwarza ludzki mózg. Proces nauki przypomina w istocie proces w którym człowiek uczy się rozróżniać obrazy (np. dziecko rozpoznawać koty i psy, a radiolog rozpoznawać groźne guzy od nieszkodliwych zmian). W odróżnieniu jednak od radiologa, który w toku treningu może zobaczyć kilkadziesiąt-kilkaset nowotworów, komputer jest w stanie przetworzyć dziesiątki tysięcy przykładów w przeciągu jedynie kilku godzin. Taki „wytrenowany” algorytm stosuje się następnie do oceny osobnego, nowego zbioru danych. Następnie inżynierowie mogą wprowadzić poprawki w procesie uczenia się albo w budowie modelu i powtórzyć testy. Dopiero gdy wyniki działania modelu zadowalają jego twórców, sprawdza się go na kolejnym zbiorze danych, np. pochodzących z innej instytucji lub z innego źródła. Na tym właśnie etapie postanowiliśmy opublikować nasz artykuł w Nature. Na tym jednak nie kończymy pracy. Zanim taki model znajdzie praktyczne zastosowanie w szpitalach na całym świecie, muszą zostać przeprowadzone próby kliniczne i o na różnych populacjach pacjentów, musimy także ocenić skuteczność modelu na danych pochodzących z innych aparatów mammograficznych. Niejednokrotnie informowaliśmy o systemach SI radzących sobie w pewnych zadaniach lepiej od lekarzy. Skąd się bierze ta przewaga sztucznej inteligencji? Warto powiedzieć, że to „potencjalna” przewaga. Raczej patrzymy na to jako na wsparcie i usprawnienie procesów diagnostycznych lekarzy. To potencjalne usprawnienie bierze się kilku źródeł: po pierwsze, w procesie uczenia się algorytm może przeanalizować dużo więcej przypadków niż pojedynczy lekarz w procesie nauki (z drugiej strony ludzie wyciągają wnioski szybciej – maszyna potrzebuje więcej przykładów). Co więcej automat nie ma skłonności do zaspokojenia swoich poszukiwań jednym „znaleziskiem” i jest mniejsze ryzyko, że umknie mu inne, często ważniejsze. Wreszcie, system sztucznej inteligencji pozwala na „nastrojenie” go na pożądany przez daną placówkę medyczną poziom czułości i swoistości. « powrót do artykułu
  10. Algorytmy do maszynowego uczenia się pozwoliły specjalistom z MIT zidentyfikować nowe potężne antybiotyki. Podczas testów laboratoryjnych nowe związki zabiły jedne z najtrudniejszych w zwalczaniu bakterii chorobotwórczych, w tym szczepy oporne na działanie wszystkich znanych antybiotyków. Jakby tego było mało, umożliwiły one zwalczenie infekcji w dwóch różnych mysich modelach chorób. Naukowcy wykorzystali model komputerowy, który pozwala na przeanalizowanie w ciągu zaledwie kilku dni działania setek milionów związków chemicznych. Taka analiza pozwala na wybór do dalszych badań najbardziej obiecujących środków. Uczeni szukają związków, które zabijają bakterie w inny sposób, niż obecnie znane antybiotyki. Chcieliśmy stworzyć platformę, która pozwoliłaby nam na wykorzystanie sztucznej inteligencji do zapoczątkowania nowej epoki w odkrywaniu antybiotyków. Dzięki takiemu podejściu natrafiliśmy na zadziwiającą molekułę, która jest jednym z najpotężniejszych znanych antybiotyków, mówi profesor James Collins z MIT. Przy okazji zidentyfikowano wiele innych obiecujących kandydatów na antybiotyki. Substancje te dopiero będą testowane. Uczeni uważają, że ich model można wykorzystać również do projektowania nowych leków. Model maszynowego uczenia się pozwala nam masowo badać związki chemiczne. Przeprowadzenie takich badań w laboratorium byłoby niemożliwe ze względu na koszty, dodaje Regina Barzilay z Computer Science and Artificial Intelligencje Laboratory (CSAIL) na MIT. Przez ostatnich kilkadziesiąt lat wynaleziono niewiele nowych antybiotyków, a większość z tych nowych to lekko istniejące wersje wcześniej istniejących. Obecnie wykorzystywane metody badania związków chemicznych pod kątem ich przydatności do produkcji antybiotyków są niezwykle kosztowne, wymagają dużo czasu i zwykle pozwalają zbadać wąską grupę mało zróżnicowanych środków. Stoimy w obliczu rosnącej antybiotykooporności. Z jednej strony problem ten spowodowany jest coraz większą liczbą antybiotykoopornych patogenów, a z drugiej – powolnym postępem na tym polu, mówi Collins. Coraz częściej pojawiają się głosy, że ludzie mogą zacząć umierać na choroby zakaźne, na które nie umierali od dziesięcioleci. Dlatego też niezwykle pilnym zadaniem jest znalezienie nowych antybiotyków. Niedawno informowaliśmy o odkryciu antybiotyków, które zabijają bakterie w niespotykany dotąd sposób. Pomysł wykorzystania komputerów do identyfikowania potencjalnych antybiotyków nie jest nowy, dotychczas jednak obliczenia takie były albo niezwykle czasochłonne, albo niedokładne. Nowe sieci neuronowe znacznie skracają czas obliczeń. Naukowcy z MIT dostosowali swój model obliczeniowy tak, by poszukiwał związków chemicznych mogących być zabójczymi dla E. coli. Swój model trenowali na około 2500 molekuł, w tym na około 1700 lekach zatwierdzonych przez FDA i około 800 naturalnych produktach o zróżnicowanych strukturach i działaniu. Po zakończonym treningu sieć neuronowa została przetestowana na należącej do Broad Institute bazie Drug Repository Hub, która zawiera około 6000 związków. Algorytm znalazł tam molekułę, która miała strukturę inną od wszystkich istniejących antybiotyków i o której sądził, że będzie wykazywała silne działanie antybakteryjne. Naukowcy najpierw poddali tę molekułę badaniom za pomocą innego modelu maszynowego i stwierdzili, że prawdopodobnie jest ona mało toksyczna dla ludzi. Halicyna, bo tak nazwano tę molekułę, była w przeszłości badana pod kątem jej przydatności w leczeniu cukrzycy. Teraz naukowcy przetestowali ją na dziesiątkach szczepów bakterii pobranych od ludzi. Okazało się, że zabija ona wiele antybiotykoopornych patogenów, w tym Clostridium difficile, Acinetobacter bumannii czy Mycobacterium turebculosis. Jedynym patogenem, który oparł się jej działaniu była Pseudomonas aeruginosa, powodująca trudne w leczeniu choroby płuc. Po pomyślnych testach in vitro rozpoczęto badania na zwierzętach. Halicynę użyto do leczenia myszy zarażonej wcześniej opornym na działanie wszystkich znanych antybiotyków szczepem A. baumannii. Halicyna w ciągu 24 godzin zwalczyła infekcję u zwierząt. Wstępne badania sugerują, że nowy antybiotyk działa poprzez zaburzanie u bakterii możliwości utrzymania gradientu elektrochemicznego w błonie komórkowej. Gradient ten jest niezbędny m.in. do wytwarzania molekuły ATP, niezbędnego nośnika energii. Bakterie pozbawione ATP giną. Naukowcy uważają, że bakteriom będzie bardzo trudno nabyć oporność na taki sposób działania antybiotyku. Podczas obecnych badań uczeni stwierdzili, że w ciągu 30 dni leczenia u E. coli w ogóle nie rozwinęła się oporność na halicynę. Tymczasem np. oporność na cyprofloksacynę zaczyna się u E. coli rozwijać w ciągu 1-3 dni od podania, a po 30 dniach bakteria jest 200-krotnie bardziej oporn działanie tego środka. Po zidentyfikowaniu halicyny naukowcy wykorzystali swój model do przeanalizowania ponad 100 milionów molekuł wybranych z bazy ZINC15, w której znajduje się około 1,5 miliarda molekuł. Analiza trwała trzy doby, a sztuczna inteligencja znalazła 23 molekuły, które są niepodobne do żadnego istniejącego antybiotyku i nie powinny być toksyczne dla ludzi. Podczas testów in vitro stwierdzono, że 8 z tych molekuł wykazuje właściwości antybakteryjne, z czego 2 są szczególnie silne. Uczeni planują dalsze badania tych molekuł oraz analizę pozostałych związków z ZINC15. Naukowcy planują dalsze udoskonalanie swojego modelu. Chcą np. by poszukiwał on związków zdolnych do zabicia konkretnego gatunku bakterii, a oszczędzenia bakterii korzystnych dla ludzi. « powrót do artykułu
  11. W ostatni piątek w Instytucie Fizyki PAN zakończyła się konferencja „INNO THINKING, Nauka dla Społeczeństwa 2.0”. Zaprezentowane na niej trzy projekty badawcze mogą zrewolucjonizować medycynę i ochronę środowiska. Sztuczna inteligencja w diagnostyce ścięgna Achillesa Urazy ścięgna Achillesa należą do najczęstszych urazów ortopedycznych. Samych tylko zerwań ścięgna notuje się około 200 rocznie na 1 mln ludności w USA i Europie. Rosnąca podaż wykonywanych badań stanowi ogromne wyzwanie dla zmniejszających się zastępów lekarzy radiologów. Już dziś zdarza się, że dostępność zaawansowanych aparatów diagnostycznych jest dość powszechna, ale czas oczekiwania na opisy wykonanych badań znacznie się wydłuża. Diagnostyka oparta na obrazowaniu medycznym otwiera nowe możliwości w zakresie leczenia oraz doboru optymalnych metod rehabilitacji pourazowej lub pooperacyjnej – przekonuje Bartosz Borucki, Kierownik laboratorium R&D na Uniwersytecie Warszawskim. Już dziś stworzyliśmy rozwiązanie do oceny ścięgna Achillesa, które wprowadza automatyzację, umożliwiającą tworzenie obiektywnych ocen radiologicznych w oparciu o wykorzystanie sztucznej inteligencji. To pierwsze tego typu rozwiązanie na świecie. Jesteśmy przekonani, że nasz projekt wyznaczy nowe kierunki rozwoju diagnostyki obrazowej w ortopedii i medycynie sportowej, i usprawni czas oraz skuteczność stawianych diagnoz – dodaje. Projekt objęty jest obecnie pracami przedwdrożeniowymi, które uwzględniają m.in. usługi badawcze związane z poszerzoną walidacją i analizą dot. certyfikacji i legislacji. Status ten jest doskonałym przykładem komercjalizacji badań naukowych, realizowanych przez polskie instytucje badawczo-naukowe i ma szansę już w nieodległej przyszłości na dobre wpisać się w proces diagnostyki urazów ścięgna Achillesa, a także innych urazów – jak na przykład więzadeł w kolanie. Osteoporoza na trzecim miejscu śmiertelnych chorób cywilizacyjnych Szczególnym wyzwaniem, wobec którego stanie ludzkość w nadchodzących dekadach, będzie znalezienie skutecznego arsenału rozwiązań do walki z mutującymi wirusami i superbakteriami. Dane Światowej Organizacji Zdrowia (WHO) są zatrważające. Obecnie już 2 mln ludzi umiera rocznie w wyniku zakażeń lekoopornymi bakteriami. Według prognoz w 2050 roku, liczba ta zwiększy się dziesięciokrotnie. Naukowcy zgodni są wobec faktu, że możliwości znanych nam antybiotyków wyczerpują się. Powstawanie nowych bakterii, na które medycyna nie zna lekarstwa, wymusza poszukiwanie alternatywnych rozwiązań. W Instytucie Fizyki PAN od wielu lat prowadzone są badania związane z wykorzystaniem tlenków metali o właściwościach antybakteryjnych. Dotychczasowe kierunki badań zostały rozwinięte, obejmując swoim zastosowaniem sektor medycyny implantacyjnej. Udało się bowiem dowieźć, że technologia pokrywania implantów warstwami tlenków metali wpływa na przyspieszenie regeneracji kości i tkanek. Wyniki naszych badań to nadzieja dla wszystkich pacjentów, którzy zmagają się z problemami osteointegracji. Nasze badania dają nadzieję na wyeliminowanie  poimplantacyjnych stanów zapalnych, infekcji bakteryjnych, metalozy czy reakcji alergicznych – mówi Aleksandra Seweryn z IF PAN. Jesteśmy przekonani, że zastosowanie naszej technologii bezpośrednio przełoży się na minimalizację ryzyk wynikających z leczenia implantacyjnego, zarówno u pacjentów cierpiących na osteoporozę, jak również przy zabiegach dentystycznych. Potrzebujemy coraz więcej energii Model życia ludzkości i rozwój technologiczny wymusza coraz większe zapotrzebowanie na energię elektryczną. Szacuje się, że do 2050 roku podwoimy jej wykorzystanie – z 15 TW do ok. 30 TW. Wykorzystywane dziś źródła energii, wciąż w dużej mierze uzależnione od paliw kopalnych, z pewnością okażą się niewystarczające w dłuższej perspektywie czasowej. Zbyt niska produkcja prądu będzie hamowała rozwój ludzkości. Do tego czasu zmagać się będziemy ze zjawiskiem globalnego ocieplenia i jego, już dziś zauważalnymi, katastrofalnymi efektami. Utrzymanie obecnego stanu rzeczy skutkować będzie do 2050 roku podniesieniem poziomu mórz i oceanów o 4 m, przesunięciem stepów i pustyń o 600 km na północ, wielkimi ruchami migracyjnymi ludzkości, kataklizmami, które wpłyną również na wyginięcie milionów gatunków zwierząt i roślin. Instytut Fizyki PAN realizuje zaawansowane badania związane z fotowoltaiką. Wierzymy bowiem, że energia słoneczna jest naturalnym, bezpiecznym i w zasadzie nieograniczonym źródłem energii. W ciągu 40 lat koszt paneli słonecznych zmniejszył się stukrotnie, znacząco zwiększając dostępność tego typu rozwiązań dla przeciętnych gospodarstw domowych, twierdzi Monika Ożga, naukowiec IF PAN. Opracowane przez Instytut rozwiązania można z powodzeniem stosować w produkcji diod oświetleniowych i energooszczędnych okien, które redukują przyjmowanie i oddawanie ciepła, a co za tym idzie, zmniejszają ilość energii potrzebnej do ogrzania lub ochłodzenia pomieszczeń. Diody mogą się ponadto przyczynić nie tylko do ograniczenie popytu na energię, ale i znaleźć swoje zastosowanie w technologii budowania farm wertykalnych, które coraz częściej są wskazywane jako metoda walki z deficytem żywności na świecie. Według wstępnych szacunków, zastosowanie nowej kategorii diod może przynieść Polsce oszczędności rzędu 1-1,5 mld złotych, a poprzez redukcję wykorzystania prądu, przyczynić do zmniejszenia emisji CO2 i innych trujących gazów, powstałych wskutek spalania węgla. « powrót do artykułu
  12. Marcin Sieniek, Scott Mayer McKinney, Shravya Shetty i inni badacze z Google Health opublikowali na łamach Nature artykuł, w którym dowodzą, że opracowany przez nich algorytm sztucznej inteligencji lepiej wykrywa raka piersi niż lekarze. Nowotwory piersi, pomimo szeroko zakrojonych programów badań, wciąż pozostają drugą głównych przyczyn zgonów na nowotwory wśród kobiet. Każdego roku na całym świecie wykonuje się dziesiątki milionów badań obrazowych, ale problemem wciąż pozostaje zbyt wysoki odsetek diagnoz fałszywych pozytywnych i fałszywych negatywnych. To z jednej strony naraża zdrowe osoby na stres i szkodliwe leczenie, a z drugiej – w przypadku osób chorych – opóźnia podjęcie leczenia, co często niesie ze sobą tragiczne skutki. Umiejętności lekarzy w zakresie interpretacji badań obrazowych znacznie się od siebie różnią i nawet w wiodących ośrodkach medycznych istnieje spore pole do poprawy. Z problemem tym mogłyby poradzić sobie algorytmy sztucznej inteligencji, które już wcześniej wielokrotnie wykazywały swoją przewagę nad lekarzami. Wspomniany algorytm wykorzystuje techniki głębokiego uczenia się. Najpierw go trenowano, a następnie poddano testom na nowym zestawie danych, których nie wykorzystywano podczas treningu. W testach wykorzystano dane dotyczące dwóch grup pacjentek. Jedna z nich to mieszkanki Wielkiej Brytanii, które w latach 2012–2015 poddały się badaniom mammograficznym w jednym z dwóch centrów medycznych. Kobiety co trzy lata przechodziły badania mammograficzne. Do badań wylosowano 10% z nich. Naukowcy mieli więc tutaj do dyspozycji dane o 25 856 pacjentkach. Było wśród nich 785, które poddano biopsji i 414 u których zdiagnozowano nowotwór w ciągu 39 miesięcy od pierwszego badania. Drugą grupę stanowiło 3097 Amerykanek będących w latach 2001–2018 pacjentkami jednego z akademickich centrów medycznych. U 1511 z nich wykonano biopsje, a u 686 zdiagnozowano nowotwór w ciągu 27 miesięcy od badania. Losy wszystkich kobiet były śledzone przez wiele lat, zatem wiadomo było, które z pań ostatecznie zachorowały. Zadaniem sztucznej inteligencji było postawienie diagnoz na podstawie mammografii. Następnie wyniki uzyskane przez SI porównano z diagnozami lekarskimi. Okazało się, że sztuczna inteligencja radziła sobie znacznie lepiej. Liczba fałszywych pozytywnych diagnoz postawionych przez SI była o 5,7% niższa dla pacjentek z USA i o 1,2% niższa u pacjentek z Wielkiej Brytanii. SI postawiła też mniej fałszywych negatywnych diagnoz. Dla USA było to 9,4% mniej, a dla Wielkiej Brytanii – 2,7% mniej. Wyniki uzyskane przez sztuczną inteligencję były o tyle bardziej imponujące, że algorytm diagnozował wyłącznie na podstawie badań mammograficznych, podczas gdy lekarze mieli też do dyspozycji historię pacjenta. Teraz autorzy algorytmu będą próbowali wykorzystać go podczas badań klinicznych. Ich celem jest spowodowanie, by algorytm sztucznej inteligencji został dopuszczony do użycia w medycynie. « powrót do artykułu
  13. Nowy bot wyposażony w sztuczną inteligencję wygrywa z ludźmi w grze, w której role i motywacje poszczególnych graczy są trzymane w tajemnicy, należy więc się ich domyślić. Słyszeliśmy już o wielu systemach sztucznej inteligencji, które są w stanie pokonać ludzi. Komputery od dawna radzą sobie z nami w szachach, przed trzema laty program AlphaGo pokonał profesjonalnych graczy w go, a niedawno informowaliśmy o oprogramowaniu, które wygrywa z ludźmi w wieloosobowym pokerze. Są również algorytmy biorące udział w rozgrywkach zespół kontra zespół. Jednak we wszystkich wspomnianych rodzajach gier od początku wiadomo, kto jest przeciwnikiem, a kto sojusznikiem. W przyszłym miesiącu podczas Conference on Neutral Information Processing Systems naukowcy z MIT zaprezentują DeepRole, pierwszego wygrywającego wieloosobowe gry, w których początkowo nie wiadomo, kto jest przeciwnikiem, a kto sojusznikiem. System wyposażono w mechanizmy, które na podstawie częściowych danych obserwacyjnych pozwalają ocenić, jaką rolę odgrywają poszczególni gracze. Następnie program gra tak, by jego drużyna odniosła zwycięstwo. DeepRole zmierzył się z ludźmi w online'owej wersji gry „The Resistance: Avalon”. To rozgrywka pomiędzy dwoma grupami: członkami ruchu oporu i rządowymi szpiegami. Gracze muszą domyślić się, kto do jakiej drużyny należy, a jednocześnie starać się ukryć swoje rolę przed innymi. DeepRole rozegrał ponad 4000 rund i bezsprzecznie wykazał swoją wyższość nad ludzkimi graczami. Jeśli zastąpisz człowieka botem, to twój zespół będzie częściej wygrywał. Boty są lepszymi partnerami, mówi główny autor algorytmu, Jack Serrino. Prace nad DeepRole to część większego projektu, w ramach którego modelowany jest sposób podejmowania decyzji przez ludzi. Ma to pomóc w stworzeniu robotów, które lepiej będą rozumiały ludzi i z nimi współpracowały. Ludzie uczą się i współpracują z innymi. To pozwala nam osiągać cele, których nie możemy osiągnąć w pojedynkę. Gry takie jak „Avalon” dobrze oddają dynamikę codziennych ludzkich interakcji. Niezależnie od tego, czy jesteśmy pierwszy dzień w przedszkolu czy w nowej pracy, określamy, kto jest z nami i z kim będziemy współpracowali, mówi inny z autorów, Max Kleiman-Weiner. DeepRole wykorzystuje algorytm o nazwie „counterfactual regret minimization” (CFR), którego uczy się wielokrotnie grając przeciwko samemu sobie. W każdym momencie rozgrywki CFR tworzy drzewo decyzyjne, opisujące potencjalne ruchy każdego z graczy. Na jego podstawie algorytm uczy się, które działania zwiększają, a które zmniejszają szanse na wygraną. W końcu opracowuje optymalną strategię, która w najgorszym przypadku pozwala mu zremisować. CFR dobrze sprawdza się w takich grach jak poker, gdzie działania każdego z graczy są widoczne. Jednak w „The Resistance” nie zawsze wiemy, kto jaką rolę odgrywa i jaką decyzję podejmuje. Dlatego też bot musi brać pod uwagę większą liczbę możliwości podczas tworzenia drzewa decyzyjnego dla każdego graczy. Gdy w czasie rozgrywki gracz podejmie wystarczająco dużo działań niezgodnych z założonym przez DeepRole drzewem decyzyjnym, algorytm uznaje, że pomylił się co do przynależności gracza i uznaje, że ten odgrywa inną rolę. Po pewnym czasie potrafi z dużym prawdopodobieństwem określić rolę każdego z graczy i dostosować do tego swoje zachowanie, by zwiększyć szanse swojej drużyny. Na przykład jeśli misja dwuosobowa się nie uda, inni gracze wiedzą, że jeden z jej uczestników jest szpiegiem. Wówczas bot, gdy przyjdzie jego kolej na podjęcie decyzji, najprawdopodobniej nie zaproponuje tych osób do kolejnej misji, obawiając się, że jedna z nich będzie jej szkodziła, wyjaśniają twórcy programu. Co interesujące, bot jest w stanie pokonać ludzi nawet się z nimi nie komunikując. Komunikacja pomiędzy graczami to ważny element rozgrywki, a w online'owej wersji „Avalona” zaimplementowano czat umożliwiający taką komunikację. DeepRole radzi sobie i bez tego. Jednak w najbliższym czasie jego twórcy chcą go wyposażyć w bardzo proste możliwości komunikacyjne, jak określenie, który z graczy jest po dobrej, a który po złej stronie. Być może w przyszłości boty wykorzystujące sztuczną inteligencję będą radziły sobie w grach, wymagających zaawansowanych umiejętności komunikacyjnych, takich jak gra „Werewolf”. Język to kolejna granica. Jednak tutaj trzeba pokonać wiele barier, stwierdzają autorzy bota. « powrót do artykułu
  14. Południowokoreański mistrz Go Lee Sedol, który zdobył ogólnoświatowy rozgłos w 2016 roku po słynnym meczu ze sztuczną inteligencją, odszedł na emeryturę. Przypomnijmy, że w 2016 roku sztuczna inteligencja o nazwie AlphaGo pokonała Lee Sedola stosunkiem 4:1. Wcześniej program rozgromił innych graczy w Go, a Sedol był jedynym, któremu udało się z nim wygrać partię. Sedol, który wkrótce skończy 37 lat, oświadczył, że rezygnuje z profesjonalnej kariery w Go, gdyż w związku z olbrzymimi postępami sztucznej inteligencji, nie może być czołowym graczem, nawet gdyby był najlepszym z ludzi. "Nawet gdybył był numerem jeden, to będzie ktoś, kogoś nie będę w stanie pokonać", powiedział Sedol w wywiadzie dla agencji prasowej Yonhap. Lee Sedol pozostaje jedynym człowiekiem, któremu udało się pokonać AlphaGo. Mistrz uważa, że wygrał dzięki błędowi w oprogramowaniu AlphaGo. Podczas meczu, który odbył się 13 marca 2016 roku grający białymi Lee wykonał nietypowy 78. ruch. Wprawił on AlphaGo w zakłopotanie i system wykonał bardzo słaby ruch 79., który niespodziewanie dał Sedolowi przewagę. Ten jej nie zmarnował i po jakimś czasie AlphaGo poddał partię. Specjaliści uznają ruch 78. za „błyskotliwy, boski”, jednak sam Sedol twierdzi, że wygrał partię, gdyż AlphaGo nie potrafił prawidłowo zareagować na jego nietypowe zagrania. Mój ruch 78. nie był zagraniem, na który należało reagować bezpośrednio. Takie błędy zdarzają się w programie Fine Art (to chiński program komputerowy do gry w Go). Fine Art jest trudny do pokonania, nawet jeśli ma handicap 2 kamieni. Jeśli jednak przegrywa, to w bardzo dziwaczny sposób. To błąd w oprogramowaniu, wyjaśnia Sedol. Mistrz przyznaje, że był sfrustrowany po pierwszych trzech przegranych partiach. Rzadko czytam w internecie informacje na swój temat. Byłem jednak ciekaw, jak bardzo źle ludzie mówią o mnie po tym, jak przegrałem trzy pierwsze partie. Z zaskoczeniem zauważyłem, że niewiele osób mnie krytykowało. Szczerze mówiąc, już przed rozpoczęciem meczu czułem, że mogę przegrać. Ludzie z DeepMind Technologies byli od samego początku bardzo pewni swego, przyznaje. Co ciekawe, jeszcze w grudniu Lee planuje zmierzyć się z kolejnym systemem sztucznej inteligencji grającym w Go. Program HanDol, opracowany w 2018 roku przez firmę NHN Entertainment Corp. już wygrał z 5 czołowymi graczami z Korei Południowej. Nadchodzący mecz Lee Sedol rozpocznie z przewagą dwóch kamieni, które zostaną ustawione na planszy przed rozpoczęciem gry. Kolejne handikapy będą ustalane w zależności od wyniku pierwszej partii. Sądzę, że nawet z przewagą dwóch kamieni przegram z HanDolem. Ostatnio nie czytuję informacji ze świata Go. Chcę w spokoju przygotować się go rozgrywki i zrobię co w mojej mocy, stwierdza Sedol. « powrót do artykułu
  15. Na University of Maryland powstał Geneva (Genetic Evasion), system sztucznej inteligencji, który uczy się omijania cenzury w sieci. Podczas testów w Chinach, Indiach i Kazachstanie Geneva opracował dziesiątki sposobów na ominięci cenzury i dotarł do informacji, których samodzielne odnalezienie było niemożliwe. Geneva to pierwszy krok w kierunku rozpoczęcia nowego wyścigu zbrojeń, w którym konkurowały będą systemy sztucznej inteligencji opracowane przez cenzorów i ich przeciwników, mówi profesor Dave Levin, główny autor badań. Zwycięstwo w tym wyścigu będzie oznaczało wolność słowa i swobodną komunikację dla milionów ludzi na całym świecie, którzy obecnie nie mogą z niej korzystać. Działanie większości systemów internetowej cenzury opiera się na monitorowaniu pakietów wysyłanych przez wyszukiwarki. Blokowane są pakiety zawierające niewłaściwe słowa lub adresy. Geneva w inny sposób dzieli pakiety, przez co systemy cenzurujące nie są w stanie rozpoznać zakazanych treści. Program jest ewoluującym algorytmem, który w każdej swojej generacji identyfikuje te strategie antycenzorskie, które najlepiej działały, wykorzystuje je do dalszej pracy i przestaje używać tych źle działających. Testy Genevy przeprowadzono w Chinach, gdzie użytkownik komputera z zainstalowaną Genevą był w stanie wyszukiwać informacje zawierające zakazane słowa, w Indiach, gdzie władze blokują konkretne witryny i w Kazachstanie, gdzie w czasie testów władze blokowały niektóre serwisy społecznościowe. We wszystkich przypadkach Geneva wygrała z cenzurą. Naukowcy z Maryland chcą udostępnić swoje dane i kod źródłowy, by inni mogli z nich korzystać i rozwijać Genevę. Jeśli Genevę możnaby zainstalować po stronie serwera i po stronie klienta, to miliony ludzi zyskałyby dostęp do informacji. W tym właśnie kierunku zmierzamy, mówi Levin. « powrót do artykułu
  16. Ponad 2000 uczniów klas czwartych z 57 szkół podstawowych, ponad 370 000 rozwiązanych wygenerowanych zadań matematycznych – to efekt pierwszej edycji projektu "Matematyka – wstęp do kariery wynalazcy". Prowadzony w roku szkolnym 2018/2019 przez naukowców z Wydziału Matematyki i Nauk Informacyjnych Politechniki Warszawskiej projekt miał dwa podstawowe cele: podniesienie u uczniów kompetencji matematycznych oraz weryfikację działania nowej wersji systemu zeszyt.online. Zespół naukowców skupionych wokół Politechniki Warszawskiej przez ostatnie lata pracował nad opartym na sztucznej inteligencji systemem wspierającym naukę matematyki. System zeszyt.online, bo o nim mowa, to platforma, do której użytkowania wystarczy przeglądarka internetowa. Po zalogowaniu uczeń dostaje zadania, których zakres i poziom trudności na bieżąco dostosowują się do aktualnych umiejętności oraz skuteczności w rozwiązywaniu. Indywidualizacja nauki Indywidualizowanie nauczania to przyszłość, od której nie uciekniemy, jeżeli zależy nam na wysokich efektach dydaktycznych i przewadze naszej młodzieży na tle rówieśników z innych krajów. Nie ma sensu, aby bardzo dobry uczeń rozwiązywał wiele prostych, mechanicznych zadań – mówi Artur Jackowski, kierownik zespołu zeszyt.online. Od pewnego momentu niczego nowego się nie nauczy. Aby efektywniej wykorzystywać czas nauki, lepiej dać mu zadania, które wymagają od niego większego wysiłku intelektualnego. Z drugiej strony nie ma co dawać uczniom słabszym bardzo trudnych zadań. Zapewne na razie nie będą w stanie ich rozwiązać. Zmarnują tylko czas i nabiorą awersji do matematyki. System automatycznie indywidualizuje naukę, próbując odpowiednio dobierać zadania matematyczne. System od początku był projektowany z myślą o samodzielnej pracy. Dlatego uczeń od razu po rozwiązaniu zadania dostaje informację, czy zrobił je poprawnie. Jest to szczególnie przydatne, gdy uczeń jest w domu i nie może liczyć na pomoc rodzica czy też korepetytora. Badania pokazały, że dzięki takiej natychmiastowej automatycznej weryfikacji uczeń, będąc później w szkole, mniej stresuje się przy tablicy, częściej odpowiada na pytania nauczyciela i ogólnie, jest aktywniejszy na lekcji. Odejść od schematów, zrozumieć ucznia To, z czego jesteśmy najbardziej dumni, to uzyskany przez nas przełom w diagnozie przyczyn błędów i trudności z zadaniem, a następnie udzielaniem uczniowi indywidualnej pomocy – mówi o systemie kierownik zespołu. Jesteśmy tutaj pionierami na światową skalę. Znacząco zmieniamy podejście do nauczania matematyki. Klasycznie nauczyciel czy korepetytor tłumaczą uczniowi, jak powinien był rozwiązać zadanie. W konsekwencji uczy się w ten sposób schematów. Uczeń przyjmuje je do wiadomości, zapamiętuje, a później próbuje je odtworzyć. Jest to bierne podejście do nauki, które zabija kreatywność. System zeszyt.online, choć pomaga uczniowi dojść do prawidłowego wyniku, nigdy nie wyświetla mu gotowego rozwiązania. Zamiast tego zmusza go do samodzielnego myślenia i poszukiwań. System, gdy zdiagnozuje przyczynę problemu, tak dobiera następne zadania, aby uzupełnić braki w wiedzy i rozumieniu oraz ćwiczy kojarzenie faktów – wyjaśnia Artur Jackowski. Gdy uczeń jest gotowy, to wraca do oryginalnego zadania, które rozwiązuje bez pomocy człowieka. I to się sprawdza. W zeszłym roku szkolnym uczniowie biorący udział w badaniu zrobili błędnie 108 412 zadań. System poprawnie zdiagnozował i znalazł skuteczną pomoc już w co trzecim przypadku. A mówimy tu o danych statystycznych na całkiem dużej próbie badawczej. U uczniów pracujących systematycznie, uzyskujemy jeszcze lepsze wyniki. Im więcej zadań rozwiązuje dana osoba, tym mamy więcej informacji i możemy skuteczniej dopasowywać pomoc. Jak zostać generałem matematyki? Nauka wymaga od ucznia stałego wysiłku. Aby ją uatrakcyjnić i zmniejszyć odczucie wkładanej pracy, system połączony jest z mechanizmami motywującymi. Uczniowie rozwiązując zadania zbierają punkty, które przekładają się na osiągane stopnie. Każdy zaczyna od szeregowego matematyka i rozwija się w kierunku generała. Dodatkowo zdobywa specyficzne odznaczenia za szczególne osiągnięcia. Koniec z matematycznym koszmarem? Nad projektem pracują analitycy, programiści, metodycy, nauczyciele matematyki, psychologowie, osoby odpowiedzialne za wsparcie techniczne i utrzymanie infrastruktury. To silny i zgrany zespół, który umożliwia skuteczną realizację stawianych przed nim wyzwań. Chcielibyśmy, aby z efektów naszej pracy mogli skorzystać uczniowie z całej Polski – mówi Artur Jackowski. Marzy nam się, aby dzięki zeszyt.online matematyka przestała być postrachem wśród uczniów. Mamy rozwiązania, które umożliwiają wychodzenie ze spirali zaległości, indywidualizowanie i koordynowanie nauki, stawianie uczniom celów i dążenie do ich realizacji, przygotowywanie do sprawdzianów i odległych egzaminów połączone z zarządzaniem powtórkami. Wiele tych funkcjonalności jest ciągle testowana na wąskich grupach użytkowników i wymaga dodatkowych nakładów pracy, zanim zostanie szerzej udostępniona. Większe uruchomienie to także koszty związane z utrzymaniem infrastruktury i zapewnieniem wsparcia dla uczniów i nauczycieli. Zwracamy się do organów prowadzących szkoły – wyjaśnia Artur Jackowski. W ich placówkach już teraz możemy uruchomić nasze oprogramowanie, jeżeli będą pokrywały koszty serwerów, wdrożenia oraz współfinansowały dalszy rozwój. Poszukujemy również sponsorów – zarówno wśród firm prywatnych jak również instytucji publicznych, którym zależy na poprawie jakości edukacji i chciałyby mieć w tym swój wkład. System zeszyt.online zdobył wiele pozytywnych opinii od uczniów i nauczycieli, którzy korzystali z niego w pierwszej edycji projektu "Matematyka – wstęp do kariery wynalazcy". W tym roku szkolnym w ramach Programu Operacyjnego Wiedza Edukacja Rozwój 2014–2020 przygotowano bezpłatne miejsca dla 50 dodatkowych klas IV województwa mazowieckiego, żeby dać możliwość przetestowania tego nowatorskiego rozwiązania szerszym kręgom uczniów. Więcej informacji o systemie: zeszyt.online « powrót do artykułu
  17. Problem trzech ciał, czyli ruchu trzech ciał oddziałujących na siebie przez grawitację, stanowi poważne wyzwanie obliczeniowe od czasu sformułowania go przez Newtona. Obecnie, dzięki komputerom. możemy poznać dokładne rozwiązanie problemu, jednak nawet nowoczesnym maszynom obliczenia zajmują całe tygodnie, a nawet miesiące. Grupa naukowców z Uniwersytetów w Lejdzie, Aveiro, Edynburgu i Cambridge zaprzęgła do obliczeń sztuczną inteligencję. Okazało się, że sieci neuronowe radzą sobie z obliczeniami nawet 100 milionów razy szybciej niż najbardziej zaawansowany obecnie algorytm Brutus. Jak mówi Chris Foley z University of Cambridge, to pokazuje, że sieci neuronowe mogą zostać wykorzystane do badania zachowania gromad gwiazd i lepszego poznania wszechświata. Jak czytamy w opublikowanym w arXiv artykule pod tytułem „Newton vs the machine: solving the chaotic three-body problem using deep neural networks [PDF]”, równania takie odgrywają główną rolę w rozwiązaniu wielu klasycznych problemów fizyki. Na przykład wyjaśniają one dynamiczną ewolucję gromad kulistych i jąder galaktycznych, które są uważane za miejsca powstawania układów podwójnych czarnych dziur, które w końcu łączą się, wytwarzając fale grawitacyjne. Los tych systemów zależy od interakcji trzech ciał, układów podwójnych czarnych dziur i pojedynczej czarnej dziury. Interakcje pomiędzy nimi zachodzą zwykle w ściśle określonym przedziale czasu i, biorąc pod uwagę silne interakcje pomiędzy tymi trzema ciałami, można zignorować wpływ innych ciał, co oznacza, że interakcje pomiędzy trzema ciałami można obliczać w izolacji od innych interakcji. Foley zauważa, że jeśli potwierdzi się, że sieć neuronowa pozwala na dokonanie precyzyjnych obliczeń w bardo krótkim czasie, to będziemy mogli myśleć o odpowiedziach na znacznie głębsze pytania, jak np. te o powstawanie fal grawitacyjnych. Jako, że sieci neuronowe wymagają odpowiedniego treningu przed zaprzęgnięciem ich do pracy Foley i jego koledzy – Philip G. Breen, Tjarda Boekholt i Simon Portegies Zwart – przygotowali za pomocą Brutusa 9900 uproszczonych scenariuszy dotyczących problemu trzech ciał. One posłużyły do treningu. Następnie przetestowali swoją sieć neuronową dając jej do rozwiązania 5000 kolejnych problemów tego typu, z którymi wcześniej się nie zetknęła. Okazało się, że wykonane przez nią obliczenia dały bardzo podobne wyniki, jak te, które uzyskano z Brutusa. O ile jednak Brutus potrzebował na rozwiązanie każdego z tych 5000 problemów około 2 minut, sieć neuronowa radziła sobie z nimi w ułamku sekundy. Christopher Foley wyjaśnia, że Brutus i podobne mu algorytmy są znacznie wolniejsze od SI, gdyż prowadzą obliczenia dla każdego niewielkiego przesunięcia się każdego z ciał w układzie. Tymczasem sztuczna inteligencja przygląda się ruchowi i poszukuje wzorców, które pozwolą na przewidzenie przyszłego zachowania ciał. Uczony zauważa, że problemem może być skalowanie możliwości sieci neuronowej. Musi ona bowiem się uczyć na istniejącym zestawie danych. Teraz była trenowana na uproszczonych scenariuszach. Jeśli jednak będzie potrzeba nauczenia jej radzenia sobie z bardziej złożonymi scenariuszami, czy z układami czterech lub nawet pięciu ciał, konieczne będzie wcześniejsze przygotowanie scenariuszy treningowych. A te trzeba będzie wykonać za pomocą powolnego Brutusa. Tu właśnie dochodzimy do momentu, gdy z jednej strony możemy trenować fantastycznie pracującą sieć neuronową, a z drugiej potrzebujemy danych treningowych. To wąskie gardło, stwierdza Foley. Sposobem na poradzenie sobie z tym problemem byłoby stworzenie całego zestawu danych uzyskanych za pomocą takich programów jak Brutus. To jednak oznacza, że najpierw musiałyby powstać standardowe protokoły, dzięki którym dane uzyskane od różnych programów będą spełniały te same wymagania i zostaną zapisane w tych samych formatach. Innym problemem jest fakt, że sieć neuronowa może zostać uruchomiona na określony czas. Nie sposób jednak przewidzieć, jak długo potrwają konkretne obliczenia zatem sieć może przestać działać zanim dostarczy wyników. Foley przewiduje powstawanie hybryd, w których część pracy wykonają programy takie jak Brutus, a sieci neuronowe zajmą się przetwarzaniem tylko najbardziej wymagających obliczeń. Za każdym razem gdy podczas obliczeń Brutus się zatnie, może włączać się sieć neuronowa i popchnie obliczenia do przodu, a gdy Brutus znowu będzie gotów do pracy, podejmie ją na nowo. « powrót do artykułu
  18. Sztuczna inteligencja, analityka danych, biotechnologia, robotyka, transformacja cyfrowa, budowanie zwinnej i pozytywnej kultury organizacyjnej, długowieczność, czytanie emocji, blockchain, przyszłość finansów, miast, mediów, mody i medycyny. Jak wygląda świat jutra, zostanie pokazany podczas 3. edycji konferencji Masters & Robots w dn. 8-9 października. To innowacyjny tygiel, ogromna dawka wiedzy na temat efektywnego wykorzystania nowych technologii oraz nowoczesnego zarządzania biznesem w wykonaniu elity wykładowców i praktyków z całego świata, sesje z mentorami i warsztaty, a także niepowtarzalna okazja do nawiązania kontaktów, które pozwolą na rozwój biznesu w skali globalnej. Głównym sponsorem wydarzenia jest międzynarodowy inwestor, lider młodego pokolenia polskich przedsiębiorców, od lat wspierający startupy - Sebastian Kulczyk. Masters & Robots to coroczne wydarzenie dla przedstawicieli świata biznesu, kadry zarządzającej, ekspertów, urzędników państwowych i przedstawicieli organizacji pozarządowych, inwestorów, pracowników uczelni naukowych, założycieli startupów, którzy myślą o rozwoju swojego biznesu w nadchodzącej dekadzie. To spojrzenie na światowe innowacje pokazane na przykładzie studium przypadku, które można wykorzystać w strategii własnej firmy. To spotkania, które edukują, prowokują do zadawania pytań, tworzą zupełnie nowe perspektywy i świeże spojrzenie na rozwój firmy. Motywem przewodnim wydarzenia jest transformacja cyfrowa i wpływ jaki wywrze na nas w ciągu kolejnych 10 lat, a także spotkania z wizjonerami budującymi rozwiązania „na jutro”. Bardzo dużo mówi się dziś o transformacji cyfrowej organizacji, ale jeśli chodzi o praktykę - wprowadzenie prawdziwej zmiany w firmach, zarówno na poziomie technologii jak i przede wszystkim zmiany w sposobie myślenia i funkcjonowania pracowników - to takich przykładów jest w Polsce i w regionie bardzo mało. Najważniejsze jest, żeby edukować pracowników, pokazywać im przykłady takich transformacji z całego świata, pokazywać im nowe technologie w praktyce, a zwłaszcza Sztuczną Inteligencję i wszystkie tematy związane z analizą danych. To są dziś największe wyzwania - mówi Jowita Michalska, Prezes Fundacji Digital University, organizatora imprezy, wyłącznego przedstawiciela Singularity University w Polsce. Żyjemy w świecie, w którym wiedzą buduje się przewagę konkurencyjną - warto więc w nią inwestować. Na uczestników wydarzenia czekają m.in.: 3 sceny: główna scena Masters & Robots, scena dla młodzieży Masters & Robots Youth oraz scena COINs – poświęcona szczególnie tematyce AI i analityce danych prowadzona przez profesorów z MIT. W trakcie konferencji odbędą się również warsztaty z zagranicznymi ekspertami, wykłady i panele dyskusyjne. Przewidziane są też kameralne spotkania z wykładowcami dla absolwentów programów Singularity University. Wśród tematów poruszanych podczas konferencji będą m.in. przyszłość biznesu (o tym, jak wykorzystywać nowe technologie w organizacji oraz jak prowadzić zwinną, opartą na danych inteligentną firmę), życia (o wykorzystanie najnowszych technologii w urbanistyce, modzie oraz projektowaniu przestrzeni dla pokolenia epoki cyfrowej), medycyny (nowa diagnostyka, sposoby leczenia i rozwiązania, które pozwolą na podniesienie poziomu opieki medycznej). Zaproszeni wykładowcy w większości przypadków po raz pierwszy odwiedzą Polskę i zaprezentują kompletnie nowe rzeczy. A będą to m.in.: Mo Gawdat, były Chief Business Officer w GoogleX, „notoryczny” przedsiębiorca i mentor wielu firm, autor książki „Solve for Happy: Engineer Your Path  to Joy” (2017), gdzie zawarł opracowany przez siebie model szczęścia; Jasna Rokegem, Speaker SXSW, założycielka Jasna Rok – pierwszego studia projektowego FashTech Lab w Belgii łączącego innowacyjną modę z najnowocześniejszymi technologiami; Michael Ventura – Speaker SXSW, CEO & Founder Sub Rosa, autor książki „Applied Empathy”, mentor wielu firm m.in. Johnson & Johnson, Pantone i Adobe; Anahita Moghaddam - założycielka Neural Beings, trenerka Global CEOs, uczennica Dalajlamy; Andrea Fronzetti Colladon - ekspert ds. analityki danych i sztucznej inteligencji, wykładowca MIT, adiunkt na Uniwersytecie w Perugii. Masters & Robots to także wydarzenia towarzyszące, jak np. organizowany 7 października finał międzynarodowego konkursu dla startupów SingularityU Poland GLOBAL IMPACT CHALLENGE. Jego zwycięzca, wybrany spośród finałowej 10-tki, weźmie udział w Global Startup Program – prestiżowym programie akceleracyjnym Singularity University w Dolinie Krzemowej, a także otrzyma zaproszenie do  trzeciej edycji „InCredibles” Sebastiana Kulczyka. Dodatkowym wydarzeniem będzie także HACKATHON, realizowany przed konferencją w dniach 5-6 października wraz z Ambasadą Izraela. Przez 48 godzin programiści z Izraela, Ukrainy i Polski będą pracować nad rozwiązaniem problemu antysemityzmu w Internecie. W trakcie Masters & Robots zostaną zaprezentowani zwycięzcy. Bilety na konferencję można kupić przez https://mastersandrobots.tech/tickets/ Program wydarzenia: https://mastersandrobots.tech/schedule/ Prelegenci: https://mastersandrobots.tech/speakers/ Wydarzenie odbędzie się w 3 lokalizacjach: Multikino Złote Tarasy, ul. Złota 59, Warszawa Google Campus Warsaw, Plac Konesera 10, Warszawa The Heart, Warsaw Spire, plac Europejski 1, Warszawa Organizator: Fundacja Digital University www.digitaluniversity.pl www: https://mastersandrobots.tech/ Wydarzenie na FB:  https://www.facebook.com/events/605070353348287/ Informacja: kontakt@digitaluniversity.pl « powrót do artykułu
  19. Huawei zaprezentowało procesor Ascend 910 oraz framework MindSpore dla platform sztucznej inteligencji. Firma twierdzi, że nowa kość to najpotężniejszy na świecie układ wyspecjalizowany w zadaniach związanych z SI. Po raz pierwszy o pracach nad urządzeniem z rodziny Ascend-Max poinformowano przed rokiem podczas imprezy Huawei Connect. Dla obliczeń zmiennoprzecinkowych połowicznej precyzji (FP16) wydajność układu wynosi 256 TeraFLOPS, a dla obliczeń całkowitych (INT8) jest to 512 TeraOPS. Jednocześnie Ascend 910 charakteryzuje się niedużym poborem mocy. Jest to 310 watów, zatem znacznie mniej niż wstępnie zapowiadane 350 W. Ascend 910 ma być używany do treningu platform sztucznej inteligencji. Twórcy chipa twierdzą, że w połączeniu z MindSpore całość jest około dwukrotnie szybsza niż rozwiązania bazujące na TensorFlow. Zaprezentowany wraz z procesorem framework MindSpore jest kompatybilny ze wszystkimi scenariuszami testowymi. Huawei twierdzi, że w porównaniu z typowymi zastosowaniami NLP (natural language processing) platforma ma 20% mniej linii kodu, a deweloperzy mogą pracować dzięki tej platformie aż o 50% bardziej wydajnie. Przy tym ma wyjątkowo skutecznie dbać o ochronę danych osobowych. « powrót do artykułu
  20. Ostre uszkodzenie nerek (AKI) jest jedną z najczęstszych przyczyn zgonów w szpitalach. W samym tylko 2014 roku doświadczyło go niemal 4 miliony Amerykanów, a każdego roku z jego powodu umierają setki tysięcy ludzi. Ci, którzy przeżyją często wymagają dializowania całymi miesiącami lub latami. Naukowcy z należącej do Google'a firmy DeepMind Health, postanowili zaprząc do pracy sztuczną inteligencję, by ta z wyprzedzeniem identyfikowała pacjentów narażonych na AKI. Zapobieganie ostremu uszkodzeniu nerek nie jest łatwe, gdyż u jego postaw leży wiele przyczyn. Zwykle pojawia się ono podczas rozległych operacji, komplikacji pooperacyjnych lub sepsy, mówi Joseph Vassalotti, nefrolog i prezes ds. medycznych w National Kidney Foundation. Niektóre leki mogą wywoływać też AKI jako skutek uboczny lub też jako reakcję układu odpornościowego, dodaje. Ponadto AKI może pojawiać się w wyniku zablokowania układu moczowego, zawału serca czy poparzeń. Ostre uszkodzenie nerek rozwija się bardzo szybko i przed pojawieniem się niemal nie daje objawów. Są nimi nagły wzrost kreatyniny i spadek funkcji nerek, najczęściej jednak wykrywa się te zjawiska gdy jest już za późno. W DeepMind Health powstał algorytm sztucznej inteligencji, który z 48-godzinnym wyprzedzeniem ma wykrywać ryzyko wystąpienia AKI. Testy wykazały, że ogólna dokładność prognoz algorytmu wynosi 55,8%, jednak dla przypadków cięższych, wymagających późniejszych dializ, trafność ta wynosi już 90,2%. Algorytm był trenowany na danych 703 782 osób pochodzących z bazy Departamentu ds. Weteranów. Były wśród nich informacje dotyczące wyników badań krwi, przyjmowanych leków, zabiegów lekarskich, przyjęć na oddziały szpitalne itp. itd. W sumie w danych znajdowało się ponad 600 000 różnych wskaźników. Na pierwszym etapie badań postanowiono odrzucić wskaźniki nieprzydatne do przewidywania AKI. Za pomocą technik głębokiego uczenia się wyodrębniono grupę 4000 wskaźników, które mogą odgrywać rolę w rozwoju ostrego uszkodzenia nerek. Dzięki temu udało się doprowadzić do sytuacji, gdzie lekarz ma szansę zapobiegać wystąpieniu AKI zamiast starać się ograniczać szkody. Autorzy badań sugerują, że wśród działań zapobiegających u pacjentów, u których może wystąpić AKI, może znaleźć się np. dożylne podawanie płynów, podawanie diuretyków, dodatkowe sprawdzenie, czy przepisane leki nie zaszkodzą nerkom. Vassalotti chwali prace specjalistów z DeepMind, jednak wątpi, czy algorytm przyda się w typowym szpitalu. Przypomina, że dane Departamentu Weteranów są znacznie bardziej dokładne niż typowe dane medyczne, a losy pacjentów trafiających w ciągu życia do różnych lekarzy i placówek medycznych są lepiej śledzone. To zresztą dlatego DeepMind chciało pracować właśnie z tymi danymi. Powstaje więc pytanie, czy algorytm sprawdzi się w sytuacji, gdy szpital nie ma żadnych lub ma niewiele informacji o historii pacjenta sprzed okresu, gdy został on przyjęty do tego szpitala. Ponadto Vassalotti zwraca uwagę na dwie inne słabości algorytmu. Po pierwsze dane kobiet stanowiły zaledwie 6% zestawu treningowego, po drugie algorytm dał dużo fałszywych pozytywnych odpowiedzi. Twórcy algorytmu zauważają, że zdecydowana większość z fałszywych pozytywnych sygnałów dotyczyła ludzi z wcześniejszymi problemami z nerkami. Specjaliści z DeepMind przyznają, że ich algorytm jest na wczesnym etapie rozwoju, przewidują jednak, że w przyszłości będzie go można również zastosować do przewidywania ryzyka wystąpienia sepsy, uszkodzenia wątroby czy komplikacji związanych z cukrzycą. « powrót do artykułu
  21. Inżynierowie z MIT-IBM Watson Lab zaprzęgli do pracy sztuczną inteligencję i stworzyli narzędzie, które zamienia selfie w klasyczne portrety malowane ręką wielkich mistrzów. AIPortraits.com, w przeciwieństwie do popularnej ostatnio aplikacji FaceApp, nie wykorzystuje prostej sztuczki z nakładaniem pewnych elementów na istniejący obraz. Algorytmy, które były trenowane na 45 000 różnych klasycznych portretów, od podstaw tworzą nowe elementy, które będą pasowały do obrazu. Twórcy AIPortraits wykorzystali techniki głębokiego uczenia się, za pomocą których trenowali modele Generative Adversarial Network (GAN). Efekt jest znacznie lepszy niż proste filtry używane przez programy w stylu FaceApp. AIPortraits.com, opierając się na wysłanym zdjęciu, maluje cały portret od podstaw. Algorytm korzysta z wielu różnych stylów charakterystycznych dla mistrzów pędzla: od Rembrandat przez Tycjana po van Gogha. Opierając się na naszym zdjęciu, algorytm decyduje o wyborze stylu tak, by podkreślić elegancję orlego nosa czy szlachetny wygląd czoła. Twórcy AIPortraits.com zapewniają, że nie przechowują przesłanych zdjęć. Służą one jedynie namalowaniu portretu, po czym są natychmiast usuwane. Niestety, nie mogliśmy sprawdzić działania programu. Użytkownicy przeciążyli witrynę i w chwili pisania tekstu była ona wyłączona. « powrót do artykułu
  22. Przed dwoma laty program Libratus wygrał w pokera z czterema zawodowcami. Wielodniowy turniej był rozgrywany w konwencji jeden na jednego, a ludzie ponieśli sromotną klęskę. Dla sztucznej inteligencji był to olbrzymi krok naprzód, jednak nawet współtwórca Libratusa, profesor Tuomas Sandholm, nie wierzył, by SI poradziła sobie jednocześnie z większą liczba graczy. Uczony właśnie udowodnił sam sobie, że się mylił. Sandholm jest współautorem algorytmu o nazwie Pluribus, który właśnie wygrał z sześcioma zawodowcami w nielimitowany Texas Hold'em. Nie sądziłem, że stanie się to możliwe za mojego życia, stwierdził uczony. Dotychczas sztuczna inteligencja coraz lepiej radziła sobie w grach z ludźmi, ale były to rozgrywki jeden na jeden lub drużynowe, dwóch przeciwko dwóm. SI zadziwiała swoimi osiągnięciami w warcabach, szachach, Go oraz pokerze. Wszystkie mecze były rozgrywkami o sumie zerowej. Jedna strona wygrywała, druga przegrywała. Jednak gra przeciwko sześciu osobom to zupełnie inny poziom trudności. Bardziej przypomina to rzeczywiste sytuacje, gdy trzeb podejmować decyzje nie znając zasobów (kart) i procesu podejmowania decyzji przez przeciwników. To pierwszy poważny sprawdzian możliwości SI w sytuacji innej niż pojedynek lub walka dwóch drużyn i gra o sumie zerowej. Po raz pierwszy wyszliśmy poza ten paradygmat i wykazaliśmy, że SI dobrze radzi sobie w takich sytuacjach, mówi współtwórca Pluribusa Noam Brown, zatrudniony w Facebook AI Research. Pluribus zaczynał od rozgrywki, w której brał udział 1 człowiek i 5 niezależnych wersji Pluribusa. Z czasem doszedł do poziomu, w którym mógł wygrać z 5 profesjonalistami jednocześnie. Przeciwnikami sztucznej inteligencji było 15 zmieniających się zawodowych graczy, z których każdy wcześniej wygrał w pokera co najmniej milion dolarów. Rozegrano 10 000 rozdań, a turniej trwał 12 dni. Co prawda Pluribus nie odniósł nad ludźmi tak miażdżącego zwycięstwa jak Libratus, jednak jego osiągnięcia zaskoczyły ekspertów. Istniały pewne dowody wskazujące, że techniki SI wykorzystane w pokerowym pojedynku powinny działać też przy trzech graczach, jednak nie było jasne, czy można je zastosować do większej liczby przeciwników grających na najwyższym poziomie. To naprawdę sensacyjna wiadomość, że sprawdziły się one w meczu sześcioosobowym. To ważny kamień milowy, mówi profesor Michael Wellman z University of Michigan. Pluribus, podobnie jak Libratus, uczył się pokera rozgrywając wiele symulowanych pojedynków sam ze sobą. Jak informują jego twórcy, sukces programu leży w zastosowaniu „wyszukiwania o ograniczonej głębokości”. Mechanizm ten pozwala SI na obliczenie dla wszystkich przeciwników kilku ruchów naprzód i opracowaniu na tej podstawie najlepszej strategii. Tego typu taktykę wykorzystuje wiele programów grających w pokera, jednak jej użycie w przypadku rozgrywki sześcioosobowej wymaga kolosalnych ilości pamięci do przechowania wszystkich możliwych ruchów wszystkich przeciwników oraz wszystkich możliwych zakładów. Libratus radził sobie z tym problemem biorąc pod uwagę jedynie dwie ostatnie rundy podbić. Jednak i tak wymagało to użycia 100 procesorów dla gry dwuosobowej. Pluribus działał nieco inaczej. Brał pod uwagę tylko cztery możliwe zachowania przeciwnika. Jedno to obliczony najbardziej prawdopodobny ruch, drugie w którym przeciwnik skłania się ku pasowi, trzecie gdy przeciwnik raczej wybiera sprawdzenie oraz ostatnie, gdy przeciwnik raczej podbija stawkę. Dzięki temu możliwe było znaczące ograniczenie wymaganych zasobów liczeniowych. Wykorzystane algorytmy były niezwykle wydajne. Dość wspomnieć, że podczas pokazu na żywo Pluribus był uruchomiony na maszynie zawierającej jedynie dwa procesory i 128 GB RAM. To zadziwiające, że w ogóle to się udało i że udało się bez wykorzystywania mocy obliczeniowej procesorów graficznych i innego ekstremalnie wydajnego sprzętu, cieszy się Sandholm. Dość tutaj wspomnieć, że program AlphaGo, który w 2016 roku pokonał w Go Lee Sedola korzystał z 1920 CPU i 280 GPU. Specjaliści z Carnegie Mellon University i Facebooka, którzy stworzyli Pluribusa, opublikują jedynie jego pseudkod, czyli opis kroków niezbędnych do stworzenia podobnego programu. Zdecydowali jednak, że nie upublicznią prawdziwego kodu, by nie ułatwiać rozpowszechniania oprogramowania do gry w pokera. Mogłoby to bowiem zniszczyć zarówno tę dziedzinę działalności gospodarczej jak i społeczność graczy. Wykorzystany algorytm SI może znaleźć zastosowanie wszędzie tam, gdzie trzeba podjąć decyzje bez pełniej wiedzy o tym, co robią lub myślą inni. Przyda się w takich dziedzinach jak cyberbezpieczeństwo, handel, negocjacje biznesowe czy ustalanie cen. Zdaniem Sandhloma może też pomóc podczas zbliżających się wyborów prezydenckich w USA, gdyż pomoże kandydatom na określenie poziomu wydatków potrzebnych do zwycięstwa w kluczowych stanach. Sandholm założył już trzy firmy, które będą świadczyły usługi z wykorzystaniem SI na rynkach biznesowych czy wojskowych,. « powrót do artykułu
  23. Pet-Commerce to internetowy sklep brazylijskiej sieci Petz, w którym dzięki połączeniu technologii rozpoznawania twarzy oraz sztucznej inteligencji pies może kupić swoje ulubione produkty. Wystarczy ustawić kamerę internetową na pysk zwierzęcia. Gdy tylko AI wykryje produkt, który podczas przewijania strony wywołał u psa duże zainteresowanie, zostaje on automatycznie dodany do koszyka. By Pet-Commerce powstał, agencja reklamowa Ogilvy Brazil nawiązała współpracę z trenerem psów Leonardem Ogatą. To on "oświecił" wszystkich w kwestii wyrazów pyska różnych ras i ich znaczenia. Sztucznej inteligencji zaprezentowano tysiące zdjęć psów, tak by mogła się nauczyć lepiej wykrywać szczególiki związane z wyrażaniem zainteresowania przez psy. Stroną produkcyjno-techniczną przedsięwzięcia zajęły się firmy D2G Tecnologia i Hogarth. Produkty z witryny pogrupowano w 3 kategorie: kości, zabawki, piłki. Gdy człowiek klika na dany obiekt, wyświetlają się filmy. Tło jest żółte bądź niebieskie, bo wg Ogaty, to kolory, które psy najlepiej widzą. Poziom zainteresowania psa jest prezentowany za pomocą ikonek w kształcie kości. Witryna przekazuje też ludziom zalecenia, co zrobić, by czworonogowi jak najłatwiej było robić zakupy. Po pierwsze, należy włączyć dźwięk, bo to ważny dla psów zmysł. [Poza tym] pies musi być zrelaksowany, w zabawowym nastroju. Nie należy go podnosić bądź podtrzymywać głowy, bo to może drażnić. Wystarczy nakierować kamerę internetową na jego pysk [...]. Zakup jest dokonywany po potwierdzeniu przez właściciela i wprowadzeniu niezbędnych danych. Na razie Pet-Commerce jest tylko dla psów, ale być może pewnego dnia projekt obejmie też np. koty.   « powrót do artykułu
  24. W książce "Sztuczna inteligencja. Co każdy powinien wiedzieć" Jerry Kaplan analizuje złożone problemy dotyczące sztucznej inteligencji, posługując się jasnym, nietechnicznym językiem. Zastanawia się: • Czy maszyny naprawdę mogą przewyższyć ludzką inteligencję? • Jak sztuczna inteligencja wpłynie na nasze miejsca pracy i dochody? • Czy robot może świadomie popełnić przestępstwo? • Czy maszyna może być świadoma albo posiadać wolną wolę? Wiele systemów sztucznej inteligencji uczy się teraz z doświadczenia i podejmuje działania wykraczające poza zakres tego, do czego zostały pierwotnie zaprogramowane. W związku z tym rodzą się kłopotliwe pytania, na które społeczeństwo musi znaleźć odpowiedź. • Czy naszemu osobistemu robotowi należy pozwolić stać za nas w kolejce albo zmusić go do zeznawania przeciwko nam w sądzie? • Czy tylko my ponosimy wyłączną odpowiedzialność za wszystkie jego działania? • Jeśli załadowanie umysłu do maszyny okaże się możliwe, czy to nadal będziemy my? Odpowiedzi mogą zaskakiwać.
  25. Adrienne Mayor, historyk nauki z Uniwersytetu Stanforda, autorka książki Gods and Robots: Myths, Machines, and Ancient Dreams of Technology, dowodzi, że koncepcja sztucznych istot czy robotów występuje już w mitach i legendach sprzed co najmniej 2700 lat. Nasza zdolność wyobrażenia sobie sztucznej inteligencji datuje się na czasy starożytne. Na długo przed postępami technologicznymi, które sprawiły, że poruszające się samodzielnie urządzenia stały się rzeczywistością, idee tworzenia sztucznego życia i robotów były eksplorowane w mitach. Mayor podkreśla, że najwcześniejsze motywy sztucznej inteligencji, robotów i przemieszczających się samodzielnie obiektów pojawiają się w dziełach Hezjoda i Homera. Wg Mayor, historia Talosa, o której Hezjod wspomina po raz pierwszy ok. 700 r. p.n.e., stanowi jedną z najwcześniejszych koncepcji robota. W mitologii greckiej Talos był olbrzymem wykonanym z brązu przez Hefajstosa. Na rozkaz Zeusa bądź Minosa 3 razy dziennie obchodził Kretę. Strzegł jej przed cudzoziemcami i gdy jakiegoś spostrzegł, rozgrzewał się do czerwoności i brał go w objęcia, paląc żywcem. Walcząc, rzucał olbrzymimi głazami. W jego jedynej żyle, która biegła od szyi do stopy, płynęła boska krew - ichor. W Argonautykach, eposie mitologicznym Apolloniosa z Rodos, napisano, że Medea pokonała Talosa, wyjmując zatykający żyłę od dołu spiżowy kołek. Cała boska krew bluznęła i Talos wyzionął ducha. Hefajstos lubował się w tworzeniu rozmaitych istot. Odlał np. dwadzieścia trójnogów własnym chodzących ruchem. Chciał je pożyczać bogom na zgromadzenia na Olimpie; potem miały samodzielnie wracać do niego (Homer pisze o nich w Iliadzie). Hefajstos stworzył też dwie dziewice, które podpierały go podczas pracy w kuźni. Były one posągami, obdarzonymi przez bogów rozumem, głosem i ruchem. W Theogonii Hezjod wspomina o Pandorze, która została zesłana na Ziemię za karę dla ludzi za to, że Prometeusz ukradł bogom ogień z Olimpu. Na rozkaz Zeusa Hefajstos ulepił ją z gliny i wody. Można by twierdzić, że Pandora była czymś w rodzaju agentki AI. Jej jedyną misją była infiltracja ludzkiego świata i otwarcie puszki z nieszczęściami. Po zesłaniu na Ziemię, żadna z analizowanych opowieści nie kończy się dobrze. To trochę tak, jakby mity mówiły, że dobrze jest, gdy te wszystkie sztuczne byty są używane w niebie przez bogów. Kiedy [bowiem] zaczynają z nich korzystać ludzie, pojawiają się [nieodłączne] chaos i zniszczenie. Jak widać, już w starożytności ludzie byli zafascynowani ideą sztucznego życia. Kiedy jednak powstały pierwsze takie twory? Wiadomo, że w czasach dynastii Han w III w. p.n.e w Państwie Środka cesarzowi grała automatyczna orkiestra. Za rządów dynastii Sui (581-618 r. n.e.) automaty były już rozpowszechnione. Opublikowano nawet dzieło pt. Księga hydraulicznych elegancji. Gdy Chinami rządziła dynastia T'ang (618-907), tutejsi naukowcy umieli zbudować wiele rodzajów automatów, w tym, androidy: żebrzących mnichów czy śpiewające dziewczęta. Mniej więcej 300 lat po upadku tej dynastii prace nad automatami zostały zarzucone. « powrót do artykułu
×
×
  • Dodaj nową pozycję...