Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

IBM i Microsoft liderami w rozwoju sztucznej inteligencji. Rośnie rola Chin

Recommended Posts

Światowa Organizacja Własności Intelektualnej (WIPO) opublikowała swój pierwszy raport z serii „Technology Trends”. Dotyczy on sztucznej inteligencji.

Autorzy raportu wzięli pod uwagę to, co działo się na polu sztucznej inteligencji od jej pojawienia się w latach 50. ubiegłego wieku. Przeanalizowali ponad 340 000 patentów związanych z tą dziedziną wiedzy oraz 1,6 miliona artykułów naukowych na jej temat.

Jak się okazuje, większość patentów związanych z SI złożono po roku 2013. Aktywność patentowa na polu sztucznej inteligencji bardzo szybko rośnie, co oznacza, że możemy spodziewać się wysypu produktów, aplikacji i technik bazujących na sztucznej inteligencji. To wpłynie na nasze codzienne życie i ukształtuje przyszłe interakcje człowieka z maszyną, powiedział dyrektor generalny WIPO Francis Gurry.

Kluczowymi graczami na rynku sztucznej inteligencji są USA, Chiny oraz Japonia. Przedsiębiorstwa prywatne stanowią 26 z 30 największych posiadaczy patentów związanych z SI. Pozostałe cztery instytucje to uniwersytety lub publiczne organizacje badawcze. Dane dotyczące patentów dotyczą okresu od początku istnienia sztucznej inteligencji po koniec roku 2016. To opóźnienie wynika z czasu, jaki upływa pomiędzy złożeniem wniosku patentowego, a jego upublicznieniem.

Największym na świecie portfolio patentów z dziedziny SI może pochwalić się IBM, który posiada 8290 tego typu patentów. Na drugim miejscu jest Microsoft (5930 patentów). Kolejne trzy pozycje należą do firm z Azji: japońskiej Toshiby (5223), koreańskiego Samsunga (5102) oraz japońskiego NEC (4406). Z kolei 3 z 4 wspomnianych wcześniej instytucji akademickich znajdujących się w grupie 30 największych światowych posiadaczy patentów SI stanowią instytucje z Chin. Największa z nich, ulokowana na 17. pozycji największych światowych właścicieli patentów SI jest Chińska Akademia Nauk (ponad 2500 patentów). Chińskie instytucje naukowe są potęgą w akademickim świecie SI. Z Państwa Środka pochodzi bowiem aż 17 z 20 właścicieli największego portfolio patentów w świecie akademickim oraz 10 z 20 największych akademickich autorów prac naukowych na temat SI.

Dominującą techniką wykorzystywaną w opatentowanych technologiach SI jest maszynowego uczenie się, w szczególności to z wykorzystaniem sieci neuronowych. Wymieniono je w ponad 30% patentów. Na polu tym notuje się imponujący wzrost. Jeszcze w 2013 roku maszynowe uczenie się wymieniono w 9567 nowych wnioskach patentowych, a w roku 2016 liczba ta wzrosła do 20 195. Najszybciej rosnącą techniką z dziedziny maszynowego uczenia się jest deep learning. Tutaj zanotowano imponujący wzrost ze 118 patentów w roku 2013 do 2399 patentów w roku 2016. Roczny wzrost w tej dziedzinie wynosi zatem 175%. Dla porównania, roczny wzrost wszystkich patentów związanych z nowymi technologiami wynosi średnio 10%.

Z analizy patentów dowiadujemy się też, że komputerowe widzenie wymieniono w 49% wniosków patentowych oraz, że szybko – w tempie 55% rocznie – rośnie zastosowanie SI w robotyce.

Przemysł transportowy jest tym sektorem, w którym najszybciej rośnie zainteresowanie technologiami SI. W 2016 roku złożył on 8764 wnioski patentowe związane ze sztuczną inteligencją. Oznacza to, że od roku 2013 liczba patentów rośnie tutaj w tempie 33% rocznie, a przemysł transportowy złożył 19% wszystkich wniosków patentowych z lat 2013–2016.

Wolniej, bo w tempie 23% rocznie rośnie liczba patentów SI związanych z przemysłem telekomunikacyjnym. W roku 2016 złożono 6684 wniosków, a telekomunikacja była odpowiedzialna za 15% patentów SI w latach 2013–2016. Na kolejnym miejscu tej listy znajdziemy szeroko rozumiany sektor zdrowia. Tam SI znajduje zastosowanie w diagnostyce, chirurgii czy personalizacji leków. W 2016 roku sektor zdrowia złożył 4112 wniosków patentowych na sztuczną inteligencję, co oznacza roczny wzrost w tempie 12%, i był odpowiedzialny za 11% wszystkich patentów z lat 2013–2016.

W końcu sektory związane z gadżetami, urządzeniami osobistymi, komputerami i interakcją człowiek-komputer wypełniły w 2016 roku 3977 wniosków patentowych. Mamy tutaj do czynienia z 11-procentowym rocznym wzrostem, a wnioski te stanowiły 11% wszystkich z lat 2013–2016.


« powrót do artykułu

Share this post


Link to post
Share on other sites
W dniu 5.02.2019 o 16:33, KopalniaWiedzy.pl napisał:

IBM, który posiada 8290 tego typu patentów. Na drugim miejscu jest Microsoft (5930 patentów). Kolejne trzy pozycje należą do firm z Azji: japońskiej Toshiby (5223), koreańskiego Samsunga (5102) oraz japońskiego NEC (4406).

Chyba się zmobilizuję i przejrzę... czy COKOLWIEK można jeszcze napisać w tym temacie? Tylko ci powyżej mają ~30k patentów, ja się pytam na co!?!

No, chyba, że mówimy o rozwiązaniach wykorzystujących SI... ale wtedy to co innego.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      W USA na nowo rozgorzał spór dotyczący badań, w ramach których wirusy są modyfikowane tak, by były bardziej niebezpieczne dla ludzi. Tym razem spór dotyczy tego, czy należy ujawniać szczegóły obrad specjalnego federalnego komitetu, który rozważa zyski i ryzyka z takich badań i decyduje o przyznaniu funduszy. W ciągu ostatnich 2 lat komitet ten zezwolił na prowadzenie 2 kontrowersyjnych badań nad ptasią grypą.
      Przedstawiciele Departamentu Zdrowia i Usług dla Ludności (HHS) oraz Narodowych Instytutów Zdrowia (NIH) mówią, że są otwarci na propozycje, szczególnie w obliczu epidemii koronawirusa z Wuhan. Jeśli polityka zatwierdzania takich badań musi zostać poprawiona, to ją poprawmy, mówi Christian Hassel.
      To kolejna odsłona dyskusji, która zaczęła się w 2011 roku, kiedy to poinformowano, że w ramach badań finansowanych przez NIH zmodyfikowano wirus ptasiej grypy tak, by zarażał fretki. Tego typu eksperymenty pozwalają naukowcom lepiej zrozumieć działanie wirusów, ale ich krytycy mówią, że jeśli taki wirus zostanie uwolniony z laboratorium, może spowodować pandemię.
      Wówczas, w 2011 roku, rząd USA – po raz pierwszy w historii – poprosił pisma Science i Nature o ocenzurowanie artykułów dotyczących badań nad wirusem. Obawiano się, że na podstawie artykułu terroryści byliby w stanie stworzyć łatwo rozprzestrzeniającą się formę wirusa. Ostatecznie jednak specjalny panel ekspertów WHO orzekł, że artykuły powinny ukazać się w oryginalnej formie.
      Z kolei w 2014 roku pracujący z USA japoński naukowiec potwierdził, że zmodyfikował wirusa świńskiej grypy tak, że może on pokonać układ odpornościowy człowieka. W tym samym roku dowiedzieliśmy się, że w jednym z laboratoriów CDC niezgodnie z procedurami dezaktywowano wąglika, a w magazynie NIH znaleziono nieprawidłowo przechowywane niebezpieczne substancje oraz wirusa ospy. Wtedy też w Stanach Zjednoczonych wprowadzono moratorium na badania z superniebezpiecznymi patogenami. Przerwano m.in. prowadzone badania nad koronawirusami SARS i MERS. Jednak w 2017 roku moratorium zniesiono.
      Obecny spór dotyczy przejrzystości procesu zatwierdzania funduszy dla tego typu badań. Zajmuje się tym National Science Advisory Board for Biosecurity (NSABB), w skład którego wchodzą specjaliści z wielu różnych dziedzin. Pojawiły się głosy, że należy m.in. ujawnić nazwiska członków NSABB. Jednak istnieją obawy, że upublicznienie nazwisk może narazić naukowców na różnego typu nieprzyjemności, zatem eksperci nie będą chcieli tam pracować.
      Thomas Inglesby, dyrektor w Center for Health Security na Uniwersytecie Johnsa Hopkinsa argumentuje, że ujawnienie nazwisk członków NSABB pozwoli sprawdzić, czy nie zachodzi tam konflikt interesów oraz czy mają oni odpowiednie kwalifikacje, by podejmować tak istotne decyzje. Ponadto, jak stwierdza Inglesby, proces powinien być publiczny, a przed przyznaniem środków na badania nad szczególnie niebezpiecznymi wirusami opinia publiczna powinna mieć prawo wypowiedzieć się, co o tym sądzi.
      Eksperci dodają, że tak potencjalnie ryzykowne badania powinny podlegać innym zasadom przyznawania funduszy niż standardowe. Na przykład cały proces powinien być bardziej jawny. Jeśli chcesz prowadzić takie badania, musisz coś poświęcić. A to dlatego, że jeśli taki patogen wydostanie się z laboratorium, to może on zaszkodzić ludziom znajdującym się tysiące kilometrów dalej, mówi epidemiolog Marc Lipsitch z Uniwersytetu Harvarda.
      Jednak, jak zauważają inni eksperci, taka zmiana dodatkowo wydłuży termin rozpoczęcia badań. Jeśli np. naukowcy chcieliby, w ramach poszukiwań szczepionki przeciwko koronawirusowi z Wuhan, zainfekować nim myszy, by wykorzystać je jako modele do poszukiwań szczepionki, musieliby dodatkowo czekać na zakończenie okresu publicznej dyskusji nad przyznaniem funduszy, co opóźniłoby badania.
      Przedstawiciele NIH zwrócili się do NSABB, by do wiosny bieżącego roku opracowano propozycję zmian na rzecz większej transparentności.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W Pekinie, Hongkongu i Makao odwołano publiczne obchody chińskiego Nowego Roku. Kwarantanną objęte są Wuhan, Huanggang i Ezhou. Nowym koronawirusem zaraziło się już niemal 600 osób, z czego 17 zmarło. Sytuacja zmienia się bardzo dynamicznie, a Światowa Organizacja Zdrowia zwołuje kolejne spotkanie, którego uczestnicy mają zdecydować, czy należy ogłosić zagrożenie epidemiologiczne dla całego świata.
      Tymczasem naukowcy przypuszczają, że do zarażenia ludzi nowym koronawirusem doszło na targu w Wuhanie. Wirus przeszedł prawdopodobnie z węża na człowieka, a za całą sytuację odpowiada handel dzikimi zwierzętami.
      W ostatnim dniu ubiegłego roku, 31 grudnia, Światowa Organizacja Zdrowia otrzymała z Chin informację osobach chorujących w mieście Wuhan na zapalenie płuc spowodowane przez nieznanego wirusa. KopalniaWiedzy poinformowała o nowej chorobie już 2 stycznia. Tydzień później Chińczycy potwierdzili, że zachorowania są powodowane przez koronawirusa, który obecnie znany jest jako 2019-nCoV. Od tego czasu pojawiła się też poza Chinami. Jej pojedyncze przypadki potwierdzono w Japonii, Korei Południowej, Tajlandii i USA. Dzisiaj potwierdzenia nadeszły też z Wietnamu, Singapuru, Hongkongu i Arabii Saudyjskiej. Wiemy już, że wirus zmutował i przenosi się między ludźmi, nie tylko ze zwierząt na ludzi.
      Czym są koronawirusy?
      To duża rodzina wirusów wywołujących wiele różnych chorób od przeziębienia po MERS (Middle East Respiratory Syndrome) i SARS (Severe Acute Respiratory Syndrome). Rezerwuarem koronawirusów są zwierzęta. Czasem wirusy te mutują, przenoszą się ze zwierząt na ludzi, ulegają kolejnym zmianom i w końcu są zdolne do przenoszenia się pomiędzy ludźmi. W ostatnich latach mieliśmy do czynienia z dwiema epidemiami koronawirusów. Od kwietnia 2012 roku na MERS zachorowało około 2500 osób, z czego zmarło 858, a choroba pojawiła się w 27 krajach. Z kolei podczas epidemii SARS z 2003 roku zachorowało niemal 8100 osób, a zmarły 774.
      Obecnie wiemy, że SARS przeniósł się na ludzi z cywet, a MERS – z dromaderów. Głównym podejrzanym o zarażenie ludzi 2019-nCoV są węże. Znamy też wiele koronawirusów atakujących zwierzęta, ale nie ludzi.
      Objawy nowej choroby to trudności z oddychaniem, gorączka i kaszel. W poważniejszych przypadkach dochodzi do zapalenia płuc, ciężkich problemów z oddychaniem, uszkodzenia nerek a nawet śmierci.
      Kto jest narażony?
      Nowa choroba rozprzestrzenia się szybciej niż poprzednie epidemie. SARS potrzebował 2 miesięcy by zarazić 456 osób, tymczasem 2019-nCoV zaraził 571 osób w ciągu trzech tygodni. Na szczęście odsetek przypadków zgonów jest obecnie znacznie niższy niż w przypadku wcześniejszych epidemii i wynosi na razie poniżej 4%. MERS zabijał do 40%, a SARS do 50% zarażonych.
      Obecnie naukowcy próbują dopiero zrozumieć, gdzie rozprzestrzenia się 2019-nCoV i kto jest najbardziej narażony. Wiemy, że nowy wirus zabił ludzi w wieku 48–89 lat. Nie wiemy dokładnie, gdzie się oni zarazili, ani dlaczego właśnie u nich rozwinęły się tak ciężkie objawy.
      Wiemy natomiast, że w przypadku SARS i MERS do największej liczby zakażeń dochodziło w szpitalach, że najbardziej narażeni byli ludzie starsi i chorzy. Ponadto w przypadku poprzednich epidemii istnieli ludzie określeni jako „superroznosiciele”.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Zdaniem autorów nowych badań oraz algorytmu sztucznej inteligencji, jedno z masowych ziemskich wymierań, wymieranie dewońskie, nigdy nie miało miejsca. Obecnie uważa się, że przed około 375 milionami lat oceany stały się toksyczne, co doprowadziło do masowego wymierania. Wyginęły wówczas m.in. niemal wszystkie trylobity. Jednak grupa naukowców twierdzi, że nie było to masowe wymieranie, a stopniowy proces rozciągnięty na 50 milionów lat.
      Wymieranie dewońskie nie miało miejsca. Ziemia doświadczyła powolnego spadku bioróżnorodności, co zresztą niektórzy naukowcy już wcześniej sugerowali, mówi Doug Erwin z Narodowego Muzeum Historii Naturalnej w Waszyngtonie.
      Badanie historii bioróżnorodności nie jest łatwym zadaniem. Większość gatunków istnieje zaledwie kilka milionów lat. Jeśli więc widzimy skamieniałości gatunku w różnych miejscach, to pochodzą one z mniej więcej tego samego okresu. Podczas dotychczasowych badań nad bioróżnorodnością skupiano się na okresach liczących około 10 milionów lat.
      Jednak Shuzhong Shen z Instytutu Geologii i Paleontologii w Nankinie oraz jego koledzy i współpracujący z nimi Erwin byli w stanie przeprowadzić badania, w czasie których przyjrzeli się okresom trwającym zaledwie 26 000 lat. Dokonali tego za pomocą opracowanych przed dekadą metod analizy statystycznej, które wykorzystali do analizy 100 000 rekordów dotyczących skamieniałości 11 000 gatunków morskich znalezionych w Chinach i Europie. Obliczenia były tak złożone, że naukowcy musieli opracować specjalny algorytm sztucnej inteligencji i uruchomić go na czwartym najpotężniejszym superkomputerze świata, Tianhe-2A.
      Badaniami objęto okres 300 milionów lat,od początku kambru po początek triasu. Jak mówią obrazowo uczeni, poprawienie rozdzielczości czasowej badań pozwoliło na przejście od stwierdzenia, że wszyscy ludzie żyjący w tym samym wieku byli sobie współcześni, po uznanie za współczesnych sobie tylko ludzi, żyjących w tym samym półroczu.
      Spadek bioróżnorodności w dewonie jest wciąż jasno widoczny, ale następował on przez cały późny dewon, a nie był pojedynczym skoncentrowanym wydarzeniem, mówi emerytowany paleontolog Richard Bambach, autor pracy naukowej z 2004 roku, w której argumentował, że w dewonie nie doszło do masowego wymierania.
      Pomysł, że na Ziemi doszło do 5 masowych wymierań pojawił się po raz pierwszy w 1982 roku. Od tamtego czasu autorzy różnych badań argumentowali, że wymierań było od 3 do 20.
      Nie istnieje formalna definicja masowego wymierania, jednak większość specjalistów zgadza się, że takim mianem należy określić znaczne zwiększenie liczby gatunków ginących w krótkim czasie. Na przykład w okresie wymierania permskiego większość gatunków wyginęła w ciągu 63 000 lat.
      W roku 2004 Bambach argumentował również, że nie było wymierania triasowego. Jednak od tamtej pory pojawiło się więcej dowodów, iż miało ono jednak miejsce. Bambach przyznaje, że w tej kwestii się mylił.
      Wszystko jednak wskazuje na to, że Ziemia doświadczyła czterech, a nie pięciu, okresów masowego wymierania.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Microsoft udostępnił właśnie gotową najnowszą wersję swojej przeglądarki Edge. Co interesujące, wzmacnia ona pozycję Google'a i wizję internetu propagowaną przez wyszukiwarkowego giganta. W nowym Edge'u zastosowano bowiem silnik Blink, wykorzystywany w przeglądarce Chrome.
      Internet Explorer, który w przeszłości dominował na rynku przeglądarek internetowych, z czasem stał się dla Microsoftu poważnym obciążeniem. Z jednej bowiem strony coraz bardziej odstawał od standardów nowoczesnej sieci, z drugiej zaś, koncern nie mógł go nagle porzucić lub radykalnie zmodernizować, gdyż zbyt wiele witryn i programów firm trzecich działało prawidłowo wyłącznie na starszych wersjach IE. Rozwój tego programu stał się więc bardzo uciążliwy, konieczne było zachowywanie wieloletniej kompatybilności wstecznej przy jednoczesnej próbie dostosowywanie IE do wymogów współczesności. Przeglądarka stawała się przez to coraz bardziej ociężała i pełna błędów, a jednocześnie coraz bardziej odstawała od konkurencji.
      Microsoft postanowił więc jednocześnie rozwijać kolejny projekt. Przeglądarka Edge zadebiutowała w 2015 roku, a jej silnikiem był Edge HTML. Przeglądarka była wyraźnie lepsza od IE, dorównywała produktom konkurencji, a w niektórych aspektach je przewyższała, jednak było już za późno. Klienci masowo odwrócili się od produktu Microsoftu i wybrali Firefoksa oraz Chrome'a.
      W końcu po trzech kolejnych latach koncern z Redmond doszedł do wniosku, że rozwijanie przeglądarki na własnym silniku mija się z celem i w grudniu 2018 roku ogłosił rozpoczęcie prac nad Edge'em z silnikiem Blink. Wczoraj koncern udostępnił gotową przeglądarkę. Nowy Microsoft Edge jest dostępny dla wszystkich wspieranych wersji Microsoft Windows oraz MacOS w ponad 90 wersjach językowych, oznajmił wiceprezes Microsoftu ds. korporacyjnych, Joe Belfiore. Najnowsza wersja przeglądarki nie jest obecnie włączona do systemu automatycznych aktualizacji, więc pobrać można ją jedynie ręcznie.
      Obecnie sytuacja wygląda zatem tak, że Microsoft wspiera pięć wersji Edge'a. Edycje oznaczone numerami wersji 41.16299 (z września 2017), 42.17124 (z kwietnia 2018), 44.17763 (z października 2018) oraz 44.18362 (z maja 2019) to Edge z silnikiem EdgeHTML. Z kolei najnowsza wersja przeglądarki Microsoftu, Edge 79.0.309 zadebiutowała wczoraj i korzysta z silnika Blink.
      Microsoft zapowiada, że rozwój EdgeHTML będzie podtrzymany na potrzeby Universal Windows Platform oraz że silnik ten będzie w pełni kompatybilny z silnikiem Blink.
      Obecnie na rynku przeglądarek internetowych dla komputerów stacjonarnych zdecydowanie dominuje Chrome, którego udziały sięgają 67,28%. Na drugim miejscu znajdziemy Firefoksa (9%), na trzecim Internet Explorera (7,42%), a Edge znajduje się na czwartej pozycji z udziałami 5,56%. Na rynku mobilnym przeglądarki Microsoftu mają łącznie 0,05% udziałów i zajmują 13. oraz 15. pozycję.
      Już wcześniej ambicję rozwijania własnego silnika porzuciły Opera, Samsung, Brave, Vivaldi i inni. Dołączenie do tego grona Microsoftu tylko wzmacnia pozycję Google'a względem wciąż jeszcze niezależnych silników wykorzystywanych przez Firefoksa i Safari.
      Zdecydowana większość internautów używa już Chrome'a lub silnika Chrome'a i nie zauważa większych problemów z kompatybilnością. Czym więc Microsoft chce zachęcić ich do korzystania z Edge'a? Koncern podkreśla dwie cechy: produktywność i prywatność.
      W zakresie produktywności użytkowników mają przyciągnąć narzędzia takie jak Collections, które pozwalają na zebranie z wielu witryn informacji na konkretny temat. Jeśli zaś chodzi o prywatność to koncern z Redmond próbuje blokować śledzenie użytkowników przez witryny. To podejście podobne do stosowanego przez Mozillę w Firefoksie. Google pozostaje tutaj nieco z tyłu, uważając, że zbyt restrykcyjne blokowanie zagraża rozwojowi sieci, gdyż pozbawia dochodów przede wszystkim małe witryny, służąc wielkim firmom, które są w stanie samodzielnie rozwijać technologie omijające blokady stosowane w przeglądarkach. Chociaż i w tym zakresie wyszukiwarkowy koncern zmienia stanowisko i zapowiada, że w ciągu dwóch lat do Chrome'a trafią bardziej restrykcyjne mechanizmy kontroli prywatności.
      Na razie Microsoft kieruje nowego Edge'a przede wszystkim do użytkowników biznesowych, gdzie potrzebna jest dobra integracja przeglądarki z narzędziami do zarządzania oraz kompatybilność z IE. Edge zawiera też ułatwienia dla użytkowników MS Office'a czy Binga. Jednak w ciągu najbliższych 2-3 tygodni koncern zacznie coraz szerzej propagować Edge'a wśród użytkowników indywitualnych, powoli też przeglądarka z nowym silnikiem będzie trafiała do Windows Update. Ma temu towarzyszyć rozpisana na wiele miesięcy kampania informacyjna, gdyż większość internautów nie wie o przebudowie Edge'a i nie rozpozna nowej ikon przeglądarki.
      Historia Internet Explorera, Edge'a i Edge'a z silnikiem Chrome'a dobrze obrazują ewolucję rynku i samego Microsoftu, który w przeszłości dominował na rynku przeglądarek i w dużej mierze decydował, jak wygląda internet, a teraz pogodzony z wieloplatformową rzeczywistością współczesnego świata IT stosuje rozwiązania konkurencji i dba o interoperacyjność.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Na początku stycznia Departament Energii USA poinformował o wybraniu lokalizacji dla nowego potężnego urządzenia badawczego fizyki wysokich energii. Zderzacz Elektron-Jon (EIC) ma powstać w Brookhaven National Laboratory (NY) kosztem ok. 2 mld. dolarów. Dwa przeciwbieżne akceleratory zderzać będą elektrony z protonami lub z jonami atomowymi, z możliwością polaryzacji obu wiązek. Program badawczy planowanych eksperymentów współtworzą naukowcy z NCBJ.
      Nowe urządzenie pozwoli na lepsze zrozumienie budowy najmniejszych cegiełek materii i oddziaływań, dzięki którym ona istnieje - wyjaśnia profesor Lech Szymanowski z Narodowego Centrum Badań Jądrowych (NCBJ). Fizycy na całym świecie przygotowują program badawczy EIC i pracują nad optymalizacją projektu akceleratorów i eksperymentów korzystających z ich wiązek.
      Wśród badaczy przygotowujących nowe eksperymenty jest m.in. polska grupa fizyków teoretyków z Departamentu Badań Podstawowych NCBJ. Doktorzy Paweł Sznajder i Jakub Wagner wraz z kolegami z francuskiego CEA przygotowali platformę obliczeniową PARTONS, pozwalającą na generowanie przewidywań dla EIC w oparciu o istniejącą wiedzę teoretyczną na temat oddziaływań silnych. Wyniki uzyskane dzięki tej platformie oraz dzięki technikom obliczeniowym takim jak sieci neuronowe i algorytm genetyczny pozwalają na tworzenie precyzyjnych przewidywań dla EIC, ale także na ocenę jego oczekiwanego wpływu na zrozumienie struktury materii - opisuje dr Sznajder. Niezwykła precyzja planowanych eksperymentów po raz pierwszy umożliwi stworzenie trójwymiarowych, tomograficznych obrazów wnętrza protonu. Przygotowane przez nas narzędzie jest unikalne - uzupełnia dr Wagner. Udało nam się uzyskać i opublikować już kilka prac z pierwszymi wynikami, które powinny ułatwić analizę teoretyczną danych uzyskanych w EIC.
      Materia jądrowa nadal nie jest dokładnie poznana, a oddziaływania w niej zachodzące potrafimy opisywać jedynie w dużym przybliżeniu - przekonuje dr Tolga Altinoluk, realizujący w NCBJ grant Unii Europejskiej dotyczący fizyki ciężkich jonów w EIC. Zderzenia z użyciem ciężkich jonów umożliwiają badanie nowych stanów materii, o niespotykanej dotychczas gęstości gluonów - cząstek przenoszących oddziaływania silne, odpowiedzialnych za istnienie m.in. protonu.
      Badania teoretyczne oddziaływań silnych na najbardziej elementarnym poziomie mają w NCBJ wieloletnią tradycję, a nasi naukowcy należą do grona światowych ekspertów w tej dziedzinie. W 2021 roku instytut wraz z Uniwersytetem Warszawskim będzie organizować międzynarodowe spotkanie fizyków pracujących nad EIC, goszczące kilkuset najwybitniejszych specjalistów z całego świata.
      Więcej na temat projektu EIC można przeczytać w informacji na stronie BNL

      « powrót do artykułu
×
×
  • Create New...