Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Ciągły spadek zainteresowana Facebookiem w USA powoduje, że w ciągu 2-3 miesięcy straci on na rzecz YouTube'a pozycję drugiej najchętniej odwiedzanej witryny w USA. W ciągu ostatnich 2 lat ruch generowany na Facebooku przez Amerykanów zmniejszył się niemal o połowę. Tymczasem popularność YouTube'a ciągle rośnie.

Badania przeprowadzone przez firmę SimilarWeb na zlecenie CNBC ujawniły, że miesięczna liczba odsłon Facebooka dokonywana z USA zmniejszyła się z 8,5 miliarda przed dwoma laty do obecnych 4,7 miliarda. Skandale takie jak ten związany z Cambridge Analytica pokazały, że serwis Zuckerberga nie potrafi upilnować danych użytkowników, co zniechęciło znaczną ich część. Co prawda aplikacje Facebooka są coraz popularniejsze, jednak te wzrosty nie rekompensują spadku odwiedzin witryny.

Niezagrożona pozostaje pozycja Google'a. W lipcu bieżącego roku witrynę tę Amerykanie odwiedzili aż 15 miliardów razy. Poza nią, Facebookiem i YouTube'em w najpopularniejszej piątce witryn plasują się jeszcze Yahoo! i Amazon. Zaskakujący może być fakt, że Yahoo! jest wciąż popularniejsze od Amazona, jednak najprawdopodobniej zmieni się to w ciągu najbliższych miesięcy. Od ubiegłorocznych świąt Bożego Narodzenia Amazon notuje duże wzrosty liczby odwiedzin. Przejawem tego trendu był niezwykle udany Amazon Prime Day z lipca bieżącego roku, kiedy to w ciągu zaledwie 36 godzin klienci dokonali zakupów na kwotę niemal 4 miliardów dolarów.

Z rosnącą popularnością Amazona wiąże się rosnąca zamożność jego właściciela. Majątek Jeffa Bezosa jest wyceniany obecnie na 150 miliardów dolarów i jest on najbogatszym człowiekiem na świecie.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Ludzie jednak w jakiś nie do końca uświadomiony sposób wyczuwają że wolność jest lepsza niż niewola.

Odkąd FB zaczęło cenzurować świat - traci.

Share this post


Link to post
Share on other sites

Nie wiem, czy porównywanie liczby wejść na wyszukiwarkę z liczbą wejść na sklep internetowy. To tak jakby porównać liczbę wejść do pokojów dziennych z liczbą wyjść na zakupy w supermarkecie i stwierdzić, że ludzie częściej bywają w swoich pokojach niż w sklepach.

Share this post


Link to post
Share on other sites
20 godzin temu, MaG napisał:

Nie wiem, czy porównywanie liczby wejść na wyszukiwarkę z liczbą wejść na sklep internetowy.

Owszem, to nie do końca to samo ale po uwzględnieniu tego że to nie to samo przypadek staje się jeszcze bardziej jaskrawy.

Tak jakby porównać liczbę wejść do pokojów dziennych z liczbą wyjść na zakupy do supermarketu i się okazało że do pokojów było 10 a do supermarketu 12.

Share this post


Link to post
Share on other sites

A może po prostu ludziom się znudził fb? W sumie ja tak miałem, bo ile w kółko można oglądać to samo, tylko w innej paczce. Może fb czeka podobny los jak naszą klasę?

Na pewno fajny jest komunikator, bo można każdego łatwo odnaleźć i tworzyć grupy a to się przydaje, tak samo jak jakieś tematyczne grupy by znaleźć coś ciekawego czy to ogłoszenia czy wiedzę. 

Natomiast tablica to śmietnik. 

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Czternastego lutego podczas wyrywkowej kontroli przeprowadzanej za Blue Water Bridge, który łączy amerykańskie miasto Port Huron (Michigan) i Sarnię w Kanadzie (Ontario), w ciężarówce poczty kanadyjskiej znaleziono przesyłkę z ludzkim mózgiem.
      Przesyłka była opisana jako "Zabytkowa pomoc naukowa" (Antique Teaching Specimen) i miała zostać przetransportowana z Toronto do Kenoshy w Wisconsin.
      Po otwarciu paczki celnicy stwierdzili, że w środku znajduje się słój, a w nim ludzki mózg. Nie było żadnej [...] dokumentacji, która potwierdzałaby legalność wwozu do USA - napisano w komunikacie US Customs and Border Protection (CBP).
      Michael Fox z CBP podkreśla, że ludzie muszą pamiętać, że amerykańskie Centra Kontroli i Prewencji Chorób (CDC) mają ścisłe zasady dot. pozwoleń na sprowadzanie takich materiałów (Import Permit Program). Obecnie trwają konsultacje CBP i CDC. Dotyczą one regulacji importowych (42 CFR 71.54, Import regulations for infectious biological agents, infectious substances, and vectors).

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Trenowanie systemów sztucznej inteligencji trwa obecnie wiele tygodni. Firma Cerebras Systems twierdzi, że potrafi skrócić ten czas do kilku godzin. Pomysł polega na tym, by móc testować więcej pomysłów, niż obecnie. Jeśli moglibyśmy wytrenować sieć neuronową w ciągu 2-3 godzin, to rocznie możemy przetestować tysiące rozwiązań, mówi Andrew Feldman, dyrektor i współzałożyciel Cerebras.
      Jeśli chcemy wytrenować sieć sztucznej inteligencji, która np. ma zarządzać autonomicznym samochodem, potrzebujemy wielu tygodni i olbrzymiej mocy obliczeniowej. Sieć musi przeanalizować olbrzymią liczbę zdjęć czy materiałów wideo, by nauczyć się rozpoznawania istotnych obiektów na drodze.
      Klienci Cerebras skarżą się, że obecnie trenowanie dużej sieci neuronowej może trwać nawet 6 tygodni. W tym tempie firma może wytrenować około 6 sieci rocznie. To zdecydowanie zbyt mało dla przedsiębiorstw, które chcą sprawdzić wiele nowych pomysłów za pomocą SI.
      Rozwiązaniem problemu ma być komputer CS-1, a właściwie jego niezwykły procesor. Maszyny CS-1 mają wysokość 64 centymetrów, a każda z nich potrzebuje do pracy 20 kW. Jednak 3/4 obudowy każdego z komputerów zajmuje układ chłodzenia, a tym, co najbardziej rzuca się w oczy jest olbrzymi układ scalony. Zajmuje on powierzchnię 46 255 milimetrów kwadratowych, czyli około 50-krotnie więcej niż tradycyjny procesor. Zawiera 1,2 biliona tranzystorów, 400 000 rdzeni obliczeniowych i 18 gigabajtów pamięci SRAM.
      Procesor o nazwie Wafer Scale Engine (WSE) wypada znacznie lepiej niż podobne systemy. Jak zapewniają przedstawiciele Cerebras, ich maszyna, w porównaniu z klastrem TPU2 wykorzystywanym przez Google'a do trenowania SI, zużywa 5-krotnie mniej energii i zajmuje 30-krotnie mniej miejsca, a jest przy tym 3-krotnie bardziej wydajna. Takie zestawienie brzmi imponująco, a na ile rzeczywiście WSE jest lepszy od dotychczasowych rozwiązań powinno ostatecznie okazać się w bieżącym roku. Jak zauważa analityk Mike Demler, sieci neuronowe stają się coraz bardziej złożone, więc możliwość szybkiego ich trenowania jest niezwykle ważna.
      Trzeba jednak przyznać, że w twierdzeniach Cerebras musi być ziarno prawdy. Wśród klientów firmy jest m.in. Argonne National Laboratory, które ma już maszyny CS-1 u siebie. Zapewne już wkrótce dowiemy się, czy rzeczywiście zapewniają one tak wielką wydajność i pozwalają tak szybko trenować sieci neuronowe.
      Twórcami Cerebras są specjaliści, którzy pracowali w firmie Sea Micro, przejętej przez AMD. Pomysł stworzenia komputera wyspecjalizowanego w sztucznej inteligencji zaczął kiełkować w ich głowach w 2015 roku. Stwierdzili, że odpowiedni procesor musi być w stanie szybko przesyłać duże ilości danych, układy pamięci muszą znajdować się blisko rdzenia, a same rdzenie nie powinny zajmować się danymi, którymi już zajmują się inne rdzenie. To zś oznaczało, że tego typu układ musi składać się z olbrzymiej liczby niewielkich rdzeni wyspecjalizowanych w obliczeniach z zakresu sieci neuronowych, połączenia między rdzeniami muszą być szybkie i zużywać niewiele energii, a wszystkie dane muszą być dostępne na procesorze, a nie w osobnych układach pamięci.
      Twórcy Cerebras uznali, że tym, czego potrzebują, jest chip niemalże wielkości całego plastra krzemowego. Udało im się taki układ skonstruować, chociaż nie było to łatwe zadanie i wciąż muszą poradzić sobie z licznymi problemami. Jednym z nich było poradzenie sobie z filozofią tworzenia współczesnych plastrów krzemowych. Obecnie z pojedynczego plastra tworzy się wiele procesorów. Po ich przygotowaniu, plaster, zawierający wiele identycznych układów, jest cięty. W procesie przygotowywania plastra do produkcji tworzy się na nim specjalne linie, wzdłuż których przebiegają cięcia. Tymczasem Cerebras potrzebowało takiego plastra w całości, z połączeniami pomiędzy poszczególnymi rdzeniami. To zaś wymagało nawiązania współpracy z TSMC i opracowania metody przeprowadzenia połączeń przez linie.
      Wysiłek się opłacił. Poszczególne rdzenie komunikują się między sobą z prędkością 1000 Pb/s, a komunikacja pomiędzy pamięcią a rdzeniami przebiega w tempie do 9 PB/s. To nie jest trochę więcej. To o cztery rzędy wielkości więcej, gdyż wszystko odbywa się w ramach tego samego plastra, cieszy się Feldman.
      Jednak przeprowadzenie połączeń przez linie nie był jedynym problemem. Trzeba było zmodyfikować cały proces projektowania i produkcji układów. Nawet oprogramowanie do projektowania procesorów jest przygotowane pod niewielkie układy. Każda zasada, każde narzędzie i każde urządzenie jest obecnie dostosowana do produkcji układów scalonych o zwyczajowych rozmiarach. My zaś potrzebujemy czegoś znacznie większego, dlatego też musieliśmy na nowo opracować każdy element, dodaje Feldman.
      Jeszcze innym problemem okazało się zasilanie takiego układu. Każdy z 1,2 biliona tranzystorów potrzebuje 0,8 wolta. To standardowe napięcie, ale tranzystorów jest tak dużo, że do układu należy doprowadzić prąd o natężeniu 20 000 amperów.
      Uzyskanie w całym plastrze 20 000 amperów bez znacznego spadku napięcia było kolejnym wyzwaniem inżynieryjnym, mówią przedstawiciele Cerebras. Doprowadzenie prądu do krawędzi WSE nie wchodziło w rachubę, gdyż opory spowodowałyby spadek napięcia do zera zanim prąd osiągnąłby środek układu. Rozwiązaniem okazało się prostopadłe podłączenie od góry. Inżynierowie Cerebras zaprojektowali specjalny zestaw składający się z setek układów wyspecjalizowanych w kontrolowaniu przepływu prądu. Za pomocą miliona miedzianych połączeń dostarcza on zasilanie do WSE.
      Cerebras nie podaje żadnych danych odnośnie testów wydajności swojego rozwiązania w porównaniu z innymi systemami. Zamiast tego firma zachęca swoich klientów, by po prostu sprawdzili, czy  CS-1 i WSE sprawują się lepiej w zadaniach, których ci klienci potrzebują. Nie ma w tym jednak nic dziwnego. Każdy korzysta z własnych modeli dostosowanych do własnych potrzeb. To jedyne co się liczy dla klienta, mówi analityk Karl Freund.
      Jednym z takich klientów jest właśnie Argonne National Laboratory. Ma ono dość specyficzne potrzeby. Wykorzystuje sieci neuronowe do rozpoznawania różnych rodzajów fal grawitacyjnych w czasie rzeczywistym. Pracujący tam specjaliści wolą więc samodzielnie przekonać się, czy nowe urządzenie lepiej sprawdzi się w tych zastosowaniach niż dotychczas stosowane superkomputery.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W USA na nowo rozgorzał spór dotyczący badań, w ramach których wirusy są modyfikowane tak, by były bardziej niebezpieczne dla ludzi. Tym razem spór dotyczy tego, czy należy ujawniać szczegóły obrad specjalnego federalnego komitetu, który rozważa zyski i ryzyka z takich badań i decyduje o przyznaniu funduszy. W ciągu ostatnich 2 lat komitet ten zezwolił na prowadzenie 2 kontrowersyjnych badań nad ptasią grypą.
      Przedstawiciele Departamentu Zdrowia i Usług dla Ludności (HHS) oraz Narodowych Instytutów Zdrowia (NIH) mówią, że są otwarci na propozycje, szczególnie w obliczu epidemii koronawirusa z Wuhan. Jeśli polityka zatwierdzania takich badań musi zostać poprawiona, to ją poprawmy, mówi Christian Hassel.
      To kolejna odsłona dyskusji, która zaczęła się w 2011 roku, kiedy to poinformowano, że w ramach badań finansowanych przez NIH zmodyfikowano wirus ptasiej grypy tak, by zarażał fretki. Tego typu eksperymenty pozwalają naukowcom lepiej zrozumieć działanie wirusów, ale ich krytycy mówią, że jeśli taki wirus zostanie uwolniony z laboratorium, może spowodować pandemię.
      Wówczas, w 2011 roku, rząd USA – po raz pierwszy w historii – poprosił pisma Science i Nature o ocenzurowanie artykułów dotyczących badań nad wirusem. Obawiano się, że na podstawie artykułu terroryści byliby w stanie stworzyć łatwo rozprzestrzeniającą się formę wirusa. Ostatecznie jednak specjalny panel ekspertów WHO orzekł, że artykuły powinny ukazać się w oryginalnej formie.
      Z kolei w 2014 roku pracujący z USA japoński naukowiec potwierdził, że zmodyfikował wirusa świńskiej grypy tak, że może on pokonać układ odpornościowy człowieka. W tym samym roku dowiedzieliśmy się, że w jednym z laboratoriów CDC niezgodnie z procedurami dezaktywowano wąglika, a w magazynie NIH znaleziono nieprawidłowo przechowywane niebezpieczne substancje oraz wirusa ospy. Wtedy też w Stanach Zjednoczonych wprowadzono moratorium na badania z superniebezpiecznymi patogenami. Przerwano m.in. prowadzone badania nad koronawirusami SARS i MERS. Jednak w 2017 roku moratorium zniesiono.
      Obecny spór dotyczy przejrzystości procesu zatwierdzania funduszy dla tego typu badań. Zajmuje się tym National Science Advisory Board for Biosecurity (NSABB), w skład którego wchodzą specjaliści z wielu różnych dziedzin. Pojawiły się głosy, że należy m.in. ujawnić nazwiska członków NSABB. Jednak istnieją obawy, że upublicznienie nazwisk może narazić naukowców na różnego typu nieprzyjemności, zatem eksperci nie będą chcieli tam pracować.
      Thomas Inglesby, dyrektor w Center for Health Security na Uniwersytecie Johnsa Hopkinsa argumentuje, że ujawnienie nazwisk członków NSABB pozwoli sprawdzić, czy nie zachodzi tam konflikt interesów oraz czy mają oni odpowiednie kwalifikacje, by podejmować tak istotne decyzje. Ponadto, jak stwierdza Inglesby, proces powinien być publiczny, a przed przyznaniem środków na badania nad szczególnie niebezpiecznymi wirusami opinia publiczna powinna mieć prawo wypowiedzieć się, co o tym sądzi.
      Eksperci dodają, że tak potencjalnie ryzykowne badania powinny podlegać innym zasadom przyznawania funduszy niż standardowe. Na przykład cały proces powinien być bardziej jawny. Jeśli chcesz prowadzić takie badania, musisz coś poświęcić. A to dlatego, że jeśli taki patogen wydostanie się z laboratorium, to może on zaszkodzić ludziom znajdującym się tysiące kilometrów dalej, mówi epidemiolog Marc Lipsitch z Uniwersytetu Harvarda.
      Jednak, jak zauważają inni eksperci, taka zmiana dodatkowo wydłuży termin rozpoczęcia badań. Jeśli np. naukowcy chcieliby, w ramach poszukiwań szczepionki przeciwko koronawirusowi z Wuhan, zainfekować nim myszy, by wykorzystać je jako modele do poszukiwań szczepionki, musieliby dodatkowo czekać na zakończenie okresu publicznej dyskusji nad przyznaniem funduszy, co opóźniłoby badania.
      Przedstawiciele NIH zwrócili się do NSABB, by do wiosny bieżącego roku opracowano propozycję zmian na rzecz większej transparentności.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Microsoft udostępnił właśnie gotową najnowszą wersję swojej przeglądarki Edge. Co interesujące, wzmacnia ona pozycję Google'a i wizję internetu propagowaną przez wyszukiwarkowego giganta. W nowym Edge'u zastosowano bowiem silnik Blink, wykorzystywany w przeglądarce Chrome.
      Internet Explorer, który w przeszłości dominował na rynku przeglądarek internetowych, z czasem stał się dla Microsoftu poważnym obciążeniem. Z jednej bowiem strony coraz bardziej odstawał od standardów nowoczesnej sieci, z drugiej zaś, koncern nie mógł go nagle porzucić lub radykalnie zmodernizować, gdyż zbyt wiele witryn i programów firm trzecich działało prawidłowo wyłącznie na starszych wersjach IE. Rozwój tego programu stał się więc bardzo uciążliwy, konieczne było zachowywanie wieloletniej kompatybilności wstecznej przy jednoczesnej próbie dostosowywanie IE do wymogów współczesności. Przeglądarka stawała się przez to coraz bardziej ociężała i pełna błędów, a jednocześnie coraz bardziej odstawała od konkurencji.
      Microsoft postanowił więc jednocześnie rozwijać kolejny projekt. Przeglądarka Edge zadebiutowała w 2015 roku, a jej silnikiem był Edge HTML. Przeglądarka była wyraźnie lepsza od IE, dorównywała produktom konkurencji, a w niektórych aspektach je przewyższała, jednak było już za późno. Klienci masowo odwrócili się od produktu Microsoftu i wybrali Firefoksa oraz Chrome'a.
      W końcu po trzech kolejnych latach koncern z Redmond doszedł do wniosku, że rozwijanie przeglądarki na własnym silniku mija się z celem i w grudniu 2018 roku ogłosił rozpoczęcie prac nad Edge'em z silnikiem Blink. Wczoraj koncern udostępnił gotową przeglądarkę. Nowy Microsoft Edge jest dostępny dla wszystkich wspieranych wersji Microsoft Windows oraz MacOS w ponad 90 wersjach językowych, oznajmił wiceprezes Microsoftu ds. korporacyjnych, Joe Belfiore. Najnowsza wersja przeglądarki nie jest obecnie włączona do systemu automatycznych aktualizacji, więc pobrać można ją jedynie ręcznie.
      Obecnie sytuacja wygląda zatem tak, że Microsoft wspiera pięć wersji Edge'a. Edycje oznaczone numerami wersji 41.16299 (z września 2017), 42.17124 (z kwietnia 2018), 44.17763 (z października 2018) oraz 44.18362 (z maja 2019) to Edge z silnikiem EdgeHTML. Z kolei najnowsza wersja przeglądarki Microsoftu, Edge 79.0.309 zadebiutowała wczoraj i korzysta z silnika Blink.
      Microsoft zapowiada, że rozwój EdgeHTML będzie podtrzymany na potrzeby Universal Windows Platform oraz że silnik ten będzie w pełni kompatybilny z silnikiem Blink.
      Obecnie na rynku przeglądarek internetowych dla komputerów stacjonarnych zdecydowanie dominuje Chrome, którego udziały sięgają 67,28%. Na drugim miejscu znajdziemy Firefoksa (9%), na trzecim Internet Explorera (7,42%), a Edge znajduje się na czwartej pozycji z udziałami 5,56%. Na rynku mobilnym przeglądarki Microsoftu mają łącznie 0,05% udziałów i zajmują 13. oraz 15. pozycję.
      Już wcześniej ambicję rozwijania własnego silnika porzuciły Opera, Samsung, Brave, Vivaldi i inni. Dołączenie do tego grona Microsoftu tylko wzmacnia pozycję Google'a względem wciąż jeszcze niezależnych silników wykorzystywanych przez Firefoksa i Safari.
      Zdecydowana większość internautów używa już Chrome'a lub silnika Chrome'a i nie zauważa większych problemów z kompatybilnością. Czym więc Microsoft chce zachęcić ich do korzystania z Edge'a? Koncern podkreśla dwie cechy: produktywność i prywatność.
      W zakresie produktywności użytkowników mają przyciągnąć narzędzia takie jak Collections, które pozwalają na zebranie z wielu witryn informacji na konkretny temat. Jeśli zaś chodzi o prywatność to koncern z Redmond próbuje blokować śledzenie użytkowników przez witryny. To podejście podobne do stosowanego przez Mozillę w Firefoksie. Google pozostaje tutaj nieco z tyłu, uważając, że zbyt restrykcyjne blokowanie zagraża rozwojowi sieci, gdyż pozbawia dochodów przede wszystkim małe witryny, służąc wielkim firmom, które są w stanie samodzielnie rozwijać technologie omijające blokady stosowane w przeglądarkach. Chociaż i w tym zakresie wyszukiwarkowy koncern zmienia stanowisko i zapowiada, że w ciągu dwóch lat do Chrome'a trafią bardziej restrykcyjne mechanizmy kontroli prywatności.
      Na razie Microsoft kieruje nowego Edge'a przede wszystkim do użytkowników biznesowych, gdzie potrzebna jest dobra integracja przeglądarki z narzędziami do zarządzania oraz kompatybilność z IE. Edge zawiera też ułatwienia dla użytkowników MS Office'a czy Binga. Jednak w ciągu najbliższych 2-3 tygodni koncern zacznie coraz szerzej propagować Edge'a wśród użytkowników indywitualnych, powoli też przeglądarka z nowym silnikiem będzie trafiała do Windows Update. Ma temu towarzyszyć rozpisana na wiele miesięcy kampania informacyjna, gdyż większość internautów nie wie o przebudowie Edge'a i nie rozpozna nowej ikon przeglądarki.
      Historia Internet Explorera, Edge'a i Edge'a z silnikiem Chrome'a dobrze obrazują ewolucję rynku i samego Microsoftu, który w przeszłości dominował na rynku przeglądarek i w dużej mierze decydował, jak wygląda internet, a teraz pogodzony z wieloplatformową rzeczywistością współczesnego świata IT stosuje rozwiązania konkurencji i dba o interoperacyjność.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Na początku stycznia Departament Energii USA poinformował o wybraniu lokalizacji dla nowego potężnego urządzenia badawczego fizyki wysokich energii. Zderzacz Elektron-Jon (EIC) ma powstać w Brookhaven National Laboratory (NY) kosztem ok. 2 mld. dolarów. Dwa przeciwbieżne akceleratory zderzać będą elektrony z protonami lub z jonami atomowymi, z możliwością polaryzacji obu wiązek. Program badawczy planowanych eksperymentów współtworzą naukowcy z NCBJ.
      Nowe urządzenie pozwoli na lepsze zrozumienie budowy najmniejszych cegiełek materii i oddziaływań, dzięki którym ona istnieje - wyjaśnia profesor Lech Szymanowski z Narodowego Centrum Badań Jądrowych (NCBJ). Fizycy na całym świecie przygotowują program badawczy EIC i pracują nad optymalizacją projektu akceleratorów i eksperymentów korzystających z ich wiązek.
      Wśród badaczy przygotowujących nowe eksperymenty jest m.in. polska grupa fizyków teoretyków z Departamentu Badań Podstawowych NCBJ. Doktorzy Paweł Sznajder i Jakub Wagner wraz z kolegami z francuskiego CEA przygotowali platformę obliczeniową PARTONS, pozwalającą na generowanie przewidywań dla EIC w oparciu o istniejącą wiedzę teoretyczną na temat oddziaływań silnych. Wyniki uzyskane dzięki tej platformie oraz dzięki technikom obliczeniowym takim jak sieci neuronowe i algorytm genetyczny pozwalają na tworzenie precyzyjnych przewidywań dla EIC, ale także na ocenę jego oczekiwanego wpływu na zrozumienie struktury materii - opisuje dr Sznajder. Niezwykła precyzja planowanych eksperymentów po raz pierwszy umożliwi stworzenie trójwymiarowych, tomograficznych obrazów wnętrza protonu. Przygotowane przez nas narzędzie jest unikalne - uzupełnia dr Wagner. Udało nam się uzyskać i opublikować już kilka prac z pierwszymi wynikami, które powinny ułatwić analizę teoretyczną danych uzyskanych w EIC.
      Materia jądrowa nadal nie jest dokładnie poznana, a oddziaływania w niej zachodzące potrafimy opisywać jedynie w dużym przybliżeniu - przekonuje dr Tolga Altinoluk, realizujący w NCBJ grant Unii Europejskiej dotyczący fizyki ciężkich jonów w EIC. Zderzenia z użyciem ciężkich jonów umożliwiają badanie nowych stanów materii, o niespotykanej dotychczas gęstości gluonów - cząstek przenoszących oddziaływania silne, odpowiedzialnych za istnienie m.in. protonu.
      Badania teoretyczne oddziaływań silnych na najbardziej elementarnym poziomie mają w NCBJ wieloletnią tradycję, a nasi naukowcy należą do grona światowych ekspertów w tej dziedzinie. W 2021 roku instytut wraz z Uniwersytetem Warszawskim będzie organizować międzynarodowe spotkanie fizyków pracujących nad EIC, goszczące kilkuset najwybitniejszych specjalistów z całego świata.
      Więcej na temat projektu EIC można przeczytać w informacji na stronie BNL

      « powrót do artykułu
×
×
  • Create New...