Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

IBM i Microsoft liderami w rozwoju sztucznej inteligencji. Rośnie rola Chin

Rekomendowane odpowiedzi

Światowa Organizacja Własności Intelektualnej (WIPO) opublikowała swój pierwszy raport z serii „Technology Trends”. Dotyczy on sztucznej inteligencji.

Autorzy raportu wzięli pod uwagę to, co działo się na polu sztucznej inteligencji od jej pojawienia się w latach 50. ubiegłego wieku. Przeanalizowali ponad 340 000 patentów związanych z tą dziedziną wiedzy oraz 1,6 miliona artykułów naukowych na jej temat.

Jak się okazuje, większość patentów związanych z SI złożono po roku 2013. Aktywność patentowa na polu sztucznej inteligencji bardzo szybko rośnie, co oznacza, że możemy spodziewać się wysypu produktów, aplikacji i technik bazujących na sztucznej inteligencji. To wpłynie na nasze codzienne życie i ukształtuje przyszłe interakcje człowieka z maszyną, powiedział dyrektor generalny WIPO Francis Gurry.

Kluczowymi graczami na rynku sztucznej inteligencji są USA, Chiny oraz Japonia. Przedsiębiorstwa prywatne stanowią 26 z 30 największych posiadaczy patentów związanych z SI. Pozostałe cztery instytucje to uniwersytety lub publiczne organizacje badawcze. Dane dotyczące patentów dotyczą okresu od początku istnienia sztucznej inteligencji po koniec roku 2016. To opóźnienie wynika z czasu, jaki upływa pomiędzy złożeniem wniosku patentowego, a jego upublicznieniem.

Największym na świecie portfolio patentów z dziedziny SI może pochwalić się IBM, który posiada 8290 tego typu patentów. Na drugim miejscu jest Microsoft (5930 patentów). Kolejne trzy pozycje należą do firm z Azji: japońskiej Toshiby (5223), koreańskiego Samsunga (5102) oraz japońskiego NEC (4406). Z kolei 3 z 4 wspomnianych wcześniej instytucji akademickich znajdujących się w grupie 30 największych światowych posiadaczy patentów SI stanowią instytucje z Chin. Największa z nich, ulokowana na 17. pozycji największych światowych właścicieli patentów SI jest Chińska Akademia Nauk (ponad 2500 patentów). Chińskie instytucje naukowe są potęgą w akademickim świecie SI. Z Państwa Środka pochodzi bowiem aż 17 z 20 właścicieli największego portfolio patentów w świecie akademickim oraz 10 z 20 największych akademickich autorów prac naukowych na temat SI.

Dominującą techniką wykorzystywaną w opatentowanych technologiach SI jest maszynowego uczenie się, w szczególności to z wykorzystaniem sieci neuronowych. Wymieniono je w ponad 30% patentów. Na polu tym notuje się imponujący wzrost. Jeszcze w 2013 roku maszynowe uczenie się wymieniono w 9567 nowych wnioskach patentowych, a w roku 2016 liczba ta wzrosła do 20 195. Najszybciej rosnącą techniką z dziedziny maszynowego uczenia się jest deep learning. Tutaj zanotowano imponujący wzrost ze 118 patentów w roku 2013 do 2399 patentów w roku 2016. Roczny wzrost w tej dziedzinie wynosi zatem 175%. Dla porównania, roczny wzrost wszystkich patentów związanych z nowymi technologiami wynosi średnio 10%.

Z analizy patentów dowiadujemy się też, że komputerowe widzenie wymieniono w 49% wniosków patentowych oraz, że szybko – w tempie 55% rocznie – rośnie zastosowanie SI w robotyce.

Przemysł transportowy jest tym sektorem, w którym najszybciej rośnie zainteresowanie technologiami SI. W 2016 roku złożył on 8764 wnioski patentowe związane ze sztuczną inteligencją. Oznacza to, że od roku 2013 liczba patentów rośnie tutaj w tempie 33% rocznie, a przemysł transportowy złożył 19% wszystkich wniosków patentowych z lat 2013–2016.

Wolniej, bo w tempie 23% rocznie rośnie liczba patentów SI związanych z przemysłem telekomunikacyjnym. W roku 2016 złożono 6684 wniosków, a telekomunikacja była odpowiedzialna za 15% patentów SI w latach 2013–2016. Na kolejnym miejscu tej listy znajdziemy szeroko rozumiany sektor zdrowia. Tam SI znajduje zastosowanie w diagnostyce, chirurgii czy personalizacji leków. W 2016 roku sektor zdrowia złożył 4112 wniosków patentowych na sztuczną inteligencję, co oznacza roczny wzrost w tempie 12%, i był odpowiedzialny za 11% wszystkich patentów z lat 2013–2016.

W końcu sektory związane z gadżetami, urządzeniami osobistymi, komputerami i interakcją człowiek-komputer wypełniły w 2016 roku 3977 wniosków patentowych. Mamy tutaj do czynienia z 11-procentowym rocznym wzrostem, a wnioski te stanowiły 11% wszystkich z lat 2013–2016.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 5.02.2019 o 16:33, KopalniaWiedzy.pl napisał:

IBM, który posiada 8290 tego typu patentów. Na drugim miejscu jest Microsoft (5930 patentów). Kolejne trzy pozycje należą do firm z Azji: japońskiej Toshiby (5223), koreańskiego Samsunga (5102) oraz japońskiego NEC (4406).

Chyba się zmobilizuję i przejrzę... czy COKOLWIEK można jeszcze napisać w tym temacie? Tylko ci powyżej mają ~30k patentów, ja się pytam na co!?!

No, chyba, że mówimy o rozwiązaniach wykorzystujących SI... ale wtedy to co innego.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Nasza rodaczka, pochodząca z Gdańska kapitan Martyna Graban, i załoga okrętu badawczego Nautilus, na którym Graban jest I oficerem, odkryli wrak japońskiego niszczyciela Teruzuki (pol. Świecący Księżyc). Wrak został znaleziony na głębokości ponad 800 metrów u wybrzeży Guadalcanal, jednej z Wysp Salomona. Na jego ślad wpadł najpierw bezzałogowy nawodny pojazd DriX należący do University of New Hampshire, który prowadził zaawansowane mapowanie dna morskiego. Wtedy do akcji przystąpił E/V Nutilus, którego załoga, za pomocą zdalnie sterowanego pojazdu podwodnego, potwierdziła, że mamy do czynienia z wrakiem i go zidentyfikowała.
      Zwodowany w drugiej połowie 1942 roku Teruzuki – Japończycy nazywali niszczyciele od zjawisk pogodowych lub przyrodniczych – pływał zaledwie kilka miesięcy. Był drugim nowoczesnym niszczycielem klasy Akizuki. W sumie na potrzeby Cesarskiej Marynarki Wojennej Wielkiej Japonii zwodowano 13 okrętów tej klasy. Były do duże niszczyciele, których głównym zadaniem była ochrona przeciwlotnicza grup lotniskowców. Były jednostkami uniwersalnymi, zdolnymi również do zwalczania okrętów podwodnych. To jedne z najlepszych niszczycieli II wojny światowej.
      Teruzuki wziął udział w słynnej bitwie morskiej u wybrzeży Guadalcanal, uszkadzając i biorąc udział w zatopieniu kilku amerykańskich jednostek. Wkrótce po bitwie został okrętem flagowym 10. Eskadry Niszczycieli. Brał udział w eskortowaniu okrętów zaopatrzeniowych podczas legendarnych zmagań o Guadalcanal. Dnia 12 grudnia 1942 roku niszczyciel został zaatakowany przez amerykańskie kutry torpedowe PT. W pobliżu Cape Esperance został trafiony dwiema torpedami, które uszkodziły ster i doprowadziły do pożaru. Nie udało się go opanować. Większość załogi zdążyła się ewakuować, zanim doszło do wybuchu amunicji i zatonięcia niszczyciela.
      Odnalezienie okrętu flagowego admirała Tanaki to dzieło wielonarodowego zespołu, który wspólnie udokumentował wrak, stwierdził archeolog morski Phil Hatmeyer z NOAA. To właśnie obecne badania archeologiczne pokazały prawdziwe losy Teruzuki. Okazało się, że to nie eksplozja amunicji przypieczętowała jego los. Okręt skazany był na zagładę już wcześniej. Torpedy, które weń trafiły oderwały 19-metrowy fragment rufy, który leży 200 metrów od wraku.
      Japońska jednostka została odkryta w ramach międzynarodowej misji badawczej, która dotychczas odnalazła w regionie 12 miejsc spoczynku wraków z czasów II wojny światowej. Kampania na Wyspach Salomona rozpoczęła się w sierpniu 1942 roku od lądowania Amerykanów na Guadalcanal. Ciężkie walki o wyspę trwały przez pół roku. Amerykańska piechota morska broniła się wokół lotniska polowego, a Japończycy atakowali z głębi wyspy. W tym czasie w pobliżu toczyły się liczne bitwy morskie. Na niewielkim fragmencie oceanu pomiędzy wyspami Savo, Florida i Guadalcanal spoczęło kilkadziesiąt okrętów. Z tego też powodu obszar ten nazywa się obecnie Iron Bottom Sound, czyli Cieśniną Żelaznego Dna.
      Na witrynie NautilusLive można m.in. oglądać całodobową relację na żywo z Nautilusa.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Odkryty w południowo-zachodnich Chinach zestaw drewnianych narzędzi sprzed 300 tysięcy lat daje nam wgląd w życie, dietę oraz warunki środowiskowe, w jakich żyli ówcześni ludzie. To niezwykłe znalezisko. I to podwójnie niezwykłe. Dotychczas znaliśmy jedynie dwa zestawy drewnianych narzędzi z paleolitu, jeden odkryty w Europie i jeden z Afryki. Służyły do polowań. Tutaj zaś mamy narzędzia do pracy w ziemi. W skład zestawu wchodzi 35 narzędzi wykonanych głównie z sosny i gatunków drzew o twardym drewnie Znajdują się w nim kije do kopania, haki oraz niewielkie narzędzia ręczne.
      Odkrycia dokonano na stanowisku Gantangquing. Drewniane narzędzia znaleziono w towarzystwie narzędzi kamiennych, młotków wykonanych z poroża i kości ze śladami nacięć. Wiek stanowiska określono na 361–250 tysięcy lat, a drewniane narzędzia znaleziono w warstwach sprzed około 300 tysięcy lat. To wyjątkowe odkrycie, gdyż pokazuje moment w historii, gdy wcześni ludzie używali zaawansowanych drewnianych narzędzi do pozyskiwania pożywienia spod ziemi. Przygotowanie takich przedmiotów wymagało takiego poziomu zaawansowania i rzemiosła, które przeczą założeniu, jakoby homininy z tamtych terenów nie korzystały z zaawansowanych narzędzi, mówi profesor Bo Li z University of Wollongong.
      W zestawie widzimy narzędzia o różnym przeznaczeniu. Dwa duże kije do kopania przypominają te z Poggetti Vecchi we Włoszech, datowane na 171 tysięcy lat. Cztery unikatowe haki mogły służyć do przecinania korzeni. Badania śladów zużycia wykazały celowe polerowanie i obecność materiału, wskazującego na wykopywanie bulw i korzeni. To wskazuje, że ich użytkownicy spożywali dietę roślinną, w tym orzechy, owoce kiwi i bulwy roślin wodnych. To też pokazuje różnice w diecie pomiędzy współcześnie żyjącymi grupami ludźmi. O ile na współczesnych stanowiskach w Europie (jak Schöningen w Niemczech) widzimy dowody świadczące o polowaniu na duże zwierzęta, w subtropikalnym Gantanquing mamy unikatowe ślady strategii przetrwania polegającej na diecie roślinnej, dodaje Li.
      Źródło: 300,000-year-old wooden tools from Gantangqing, southwest China, https://www.science.org/doi/10.1126/science.adr8540

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Wielkie tsunami niszczą wybrzeża i transportują olbrzymie ilości szczątków roślinnych i innych na dużej odległości. Jednak z powodu erozji wybrzeży i słabego zachowywania się materiału roślinnego, trudno jest rozpoznać depozyty złożone przez tsunami w starszym zapisie geologicznym. Grupa japońskich naukowców zidentyfikowała wyjątkowo bogate nagromadzenie bursztynu w osadach morskich na dużej głębokości. Uczeni uważają, że bursztyn znalazł się tam w wyniku jednego lub więcej tsunami, które uderzyło w wybrzeże Wysp Japońskich pomiędzy 116 a 114 milionów lat temu.
      Uczeni analizowali bogate w bursztyn pokłady krzemionki znajdujące się w kamieniołomie Shimonakagawa. Złoża te powstały około 115 milionów lat temu, gdy region ten stanowił dno głębokiego morza. Naukowcy zauważyli, że złoża bursztynu są zdeformowane w sposób przypominający struktury płomieniowe w deformacjach sedymentacyjnych. Struktury takie tworzą się w miękkich osadach. Jako że żywica wystawiona na działanie powietrza twardnieje w ciągu tygodni, struktury płomieniowe sugerują, że żywica z której powstał bursztyn, nie była przez dłuższy czas wystawiona na kontakt z powietrzem. Szybko trafiła na dno.
      Zdaniem autorów badań, jedynym scenariuszem, który wyjaśnia tak szybkie przedostanie się dużej ilości żywicy na dno jest przyniesienie jej tam przez tsunami. Żywica została następnie przykryta warstwą mułu i zachowana do naszych czasów.
      Ze szczegółami badań można zapoznać się na łamach Scientific Reports.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Prezydent Trump nie ustaje w wysiłkach na rzecz ograniczenia finansowania nauki. Wcześniej informowaliśmy o propozycji obcięcia budżetu NASA na naukę. Tym razem na celowniku jego administracji znalazł się superkomputer Horizon. Mimo, że prezydent twierdzi, że utrzymanie dominacji USA na rynku najbardziej wydajnych maszyn obliczeniowych jest jego priorytetem, działania Białego Domu mogą opóźnić lub całkowicie zniweczyć plany budowy maszyny Horizon, która ma stanąć na University of Texas w Austin.
      Stany Zjednoczone dominują na rynku superkomputerów. To w tym kraju tradycyjnie już znajduje się największa liczba spośród 500 najbardziej wydajnych maszyn świata. Jednak dominacja ta jest coraz mniejsza. Obecnie na liście TOP500 superkomputerów znajdują się 173 maszyny z USA – w tym 5 z 10 najpotężniejszych – a przed 10 laty w USA stały 232 takie maszyny.
      Horizon ma być najpotężniejszym superkomputerem na amerykańskiej uczelni wyższej. Obecnie miano takiej maszyny należy do superkomputera Frontera, również znajdującego się na University of Texas. Maksymalna moc obliczeniowa Frontery to 23,52 Pflops (Pflops to 1015 operacji zmiennoprzecinkowych na sekundę), teoretyczna szczytowa wydajność tej maszyny to 38,75 Pflops. Frontera znajduje się obecnie na 52. miejscu na liście TOP500. W chwili powstania był 5. najbardziej wydajnym superkomputerem na świecie. Dla porównania, najpotężniejszy polski superkomputer Helios GPU, z maksymalną mocą obliczeniową 19,14 Pflops zajmuje obecnie 69. pozycję.
      Horizon, którego koszt ma wynieść 520 milionów dolarów, będzie 10-krotnie bardziej wydajny od Frontery. Znalazłby się na 10. miejscu obecnej listy. Obecnie jednak nie wiadomo czy i kiedy powstanie. Wszystko przez działania Białego Domu, który chce uniemożliwić Narodowej Fundacji Nauki (NFC) wydatkowanie 234 milionów dolarów, jakie Kongres przyznał jej w ubiegłym miesiącu na program Major Research Equipment and Facilities Construction (MREFC). Zdecydowana większość tej kwoty – 154 miliony USD – miało zostać przeznaczone na budowę Horizona, a resztę NFC ma zamiar wydać na wieloletni program unowocześniania stacji antarktycznej McMurdo i niewielką infrastrukturę naukową w kraju.
      Pieniądze przyznane na MFERC to część znacznie większej kwoty 1,9 biliona USD zatwierdzonej w marcu jako awaryjne wydatki w celu uniknięcia przerw w pracy w wyniku możliwego zamknięcia rządu federalnego.
      Prezydent Trump sprzeciwił się takim działaniom i zapowiedział, że wstrzyma wydatkowanie 2,9 miliarda USD, w tym właśnie 234 milionów dolarów dla Narodowej Fundacji Nauki. Stwierdził bowiem, że nie są to wydatki awaryjne. Prawdopodobnie takie działanie byłoby nielegalne, gdyż zgodnie z prawem prezydent może albo wstrzymać całość wydatków (1,9 biliona), albo żadnego.
      Jeśli jednak Trump dopnie swego, budowa Horizona może co najmniej poważnie się opóźnić. Texas Advanced Computing Center (TACC) ma fundusze wystarczające na prace nad superkomputerem przez 3–4 miesiące. W zbudowanie i oprogramowanie komputera zaangażowanych jest 80 specjalistów z TACC oraz prywatne firmy.
      Naukowcy z niecierpliwością czekają na nowy superkomputer. Pozwoli on na symulowanie zarówno ewolucji galaktyk, jak i rozprzestrzeniania się wirusów w aerozolach. Mikrobiolodzy mówią, że zastosowanie Horizona w połączeniu z algorytmami sztucznej inteligencji sprawi, że obliczenia związane z wirusami będą 100-krotnie bardziej wydajne, niż obliczenia prowadzone na Fronterze.
      Uruchomienie Horizona planowane jest na połowę przyszłego roku. Frontera używa technologii z 2019 roku. Starzeje się i nie możemy go już dłużej używać, stwierdzają naukowcy. Już samo opóźnienie prac nad Horizonem to poważny problem. Może to bowiem oznaczać unieważnienie umowy pomiędzy TACC a Nvidią na dostarczenie tysięcy zaawansowanych procesorów graficznych. W związku z rozwojem sztucznej inteligencji zapotrzebowanie na takie układy jest ogromne, więc nie wiadomo, kiedy znowu Nvidia mogłaby dostarczyć tylu układów, ile potrzebuje Horizon.
      Zatrzymanie prac nad superkomputerem oznaczałoby też zmarnowanie 100 milionów USD, które dotychczas wydano na maszynę.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Niewidoczna z Ziemi strona Księżyca zawiera znacznie mniej wody, niż część widoczna – donoszą chińscy naukowcy. Takie zaskakujące wnioski płyną z badań próbek bazaltu zebranych przez misję Chang'e-6. Wyniki badań, opublikowane na łamach Nature, pozwolą lepiej zrozumieć ewolucję ziemskiego satelity.
      Dostarczone na Ziemię próbki zawierały mniej niż 2 mikrogramy wody w gramie. Nigdy wcześniej nie zanotowano tak mało H2O na Księżycu. Wcześniejsze badania próbek ze strony widocznej z Ziemi zawierały nawet do 200 mikrogramów wody na gram.
      Naukowcy potrafią mierzyć zawartość wody w materiale z dokładnością do 1–1,5 części na milion. Już widoczna strona Księżyca jest niezwykle sucha. A ta niewidoczna całkowicie zaskoczyła naukowców. Nawet najbardziej suche pustynie na Ziemi zawierają około 2000 części wody na milion. To ponad tysiąckrotnie więcej, niż zawiera jej niewidoczna z Ziemi część Księżyca, mówi główny autor badań, profesor Hu Sen z Instytutu Geologii i Geofizyki Chińskiej Akademii Nauk.
      Obecnie powszechnie przyjęta hipoteza mówi, że Księżyc powstał w wyniku kolizji Ziemi z obiektem wielkości Marsa. Do zderzenia doszło 4,5 miliarda lat temu, a w wyniku niezwykle wysokich temperatur, będących skutkiem zderzenia, Księżyc utracił wodę i inne związki lotne. Debata o tym, jak dużo wody pozostało na Księżycu, trwa od dekad. Dotychczas jednak dysponowaliśmy wyłącznie próbkami ze strony widocznej z Ziemi.
      Chińska misja Chang'e-6 została wystrzelona w maju 2024 roku, wylądowała w Basenie Południowym – Aitken i w czerwcu wróciła z niemal 2 kilogramami materiału. To pierwsze w historii próbki pobrane z niewidocznej części Księżyca.
      Zespół profesora Hu wykorzystał 5 gramów materiału, na który składało się 578 ziaren o rozmiarach od 0,1 do 1,5 milimetra. Po przesianiu i dokładnej analizie okazało się, że 28% z nich stanowi bazalt. I to on właśnie został poddany badaniom.
      Ilość wody w skałach księżycowych to bardzo ważny test hipotezy o pochodzeniu Księżyca. Jeśli w skałach byłoby 200 części wody na milion lub więcej, byłoby to poważne wyzwanie dla obecnie obowiązującej hipotezy i naukowcy musieliby zaproponować nowy model powstania Księżyca, wyjaśnia profesor Hu. Wyniki badań jego zespołu stanowią więc potwierdzenie tego, co obecnie wiemy.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...