Zaloguj się, aby obserwować tę zawartość
Obserwujący
0
Studentka znalazła błąd w Wielkim Zderzaczu
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Uczeni pracujący przy eksperymencie ATLAS w CERN donieśli o zaobserwowaniu pierwszego przypadku jednoczesnego powstania trzech masywnych bozonów W (produkcja WWW), które pojawiły się w wyniku zderzeń prowadzonych w Wielkim Zderzaczu Hadronów.
Bozony W, jako nośniki oddziaływań elektrosłabych, odgrywają kluczową rolę w testowaniu Modelu Standardowego. Po raz pierwszy zostały odkryte przed 40 laty i od tamtej pory są przedmiotem badań fizyków.
Naukowcy z ATLAS przeanalizowali dane zarejestrowane w latach 2015–2018 i oznajmili, że zauważyli produkcję WWW z poziomem ufności rzędu 8,2 sigma. To znacznie powyżej 5 sigma, gdy już można powiedzieć o odkryciu. Osiągnięcie tak dużej pewności nie było łatwe. Naukowcy przeanalizowali około 20 miliardów zderzeń, wśród których zauważyli kilkaset przypadków produkcji WWW.
Bozon W może rozpadać się na wiele różnych sposobów. Specjaliści skupili się na czterech modelach rozpadu WWW, które dawały największe szanse na odkrycie poszukiwanego zjawiska, gdyż powodują najmniej szumów tła. W trzech z tych modeli dwa bozony W rozpadają się w elektrony lub miony o tym samym ładunku oraz neutrina a trzeci bozon W rozpada się do pary kwarków. W czwartym z modeli wszystkie bozony W rozpadają się w leptony (elektrony lub miony) i neutrino.
Dzięki odkryciu specjaliści będą mogli poszukać teraz interakcji, które wykraczają poza obecne możliwości LHC. Szczególnie interesująca jest możliwość wykorzystania procesu produkcji WWW do badania zjawiska polegającego na wzajemnym rozpraszaniu się dwóch bozonów W.
Więcej na temat najnowszego odkrycia w artykule Observation of WWW production in pp collisions at s√=13 TeV with the ATLAS detector [PDF].
« powrót do artykułu -
przez KopalniaWiedzy.pl
Badacze z całego świata będą po raz drugi debatować nad przyszłością nowego kierunku badań w Wielkim Zderzaczu Hadronów pod Genewą, który ma zaowocować szczegółowymi pomiarami wysokoenegetycznych neutrin oraz otworzy nowe drogi poszukiwań ciemnej materii. Współautorem dyskutowanej propozycji nowego eksperymentu FLArE jest dr Sebastian Trojanowski z AstroCeNT i Zakładu Fizyki Teoretycznej NCBJ.
Planowane ponowne uruchomienie Wielkiego Zderzacza Hadronów jest jednym z najbardziej wyczekiwanych wydarzeń w świecie fizyki. Przy tej okazji, zostanie również zainicjowany nowy kierunek badań w LHC, obejmujący pomiary wysokoenergetycznych neutrin oraz poszukiwania śladów nowej fizyki w kierunku wzdłuż osi wiązki zderzenia protonów. Ten nietypowy sposób wykorzystania zderzacza został zaproponowany przez autorów koncepcji detektora FASER (odnośniki w uzupełnieniu). Jednym z jego pomysłodawców był dr Sebastian Trojanowski związany z ośrodkiem badawczym AstroCeNT przy Centrum Astronomicznym im. Mikołaja Kopernika PAN oraz z Narodowym Centrum Badań Jądrowych.
Choć eksperyment FASER ma dopiero zacząć zbierać dane w najbliższym czasie, to już zadajemy sobie pytanie, jak rozwinąć ten pomysł do jeszcze ambitniejszego projektu w dalszej przyszłości – mówi dr Trojanowski. Dyskusje na ten temat zgromadzą w dniach 27-28 maja (w formule zdalnej) około 100 badaczy z całego świata zajmujących się fizyką cząstek elementarnych. Na spotkaniu inżynierowie z CERN zaprezentują również wstępne plany dotyczące budowy nowego laboratorium podziemnego, które mogłoby pomieścić większą liczbę eksperymentów skupionych wzdłuż osi wiązki zderzenia. Jest to projekt długofalowy, który ma na celu maksymalizację potencjału badawczego obecnego zderzacza, który powinien służyć nauce jeszcze wiele lat.
Wśród kilku eksperymentów proponowanych do umieszczenia w nowym laboratorium jest m.in. bezpośredni spadkobierca detektora FASER. Eksperyment, nazwany roboczo FASER 2, znacząco poszerzyłby potencjał odkrywczy obecnego detektora. Choć ani obecny, ani proponowany przyszły eksperyment nie dają możliwości bezpośredniej obserwacji ciemnej materii, to umożliwiają one poszukiwanie postulowanych teoretycznie niestabilnych cząstek, które mogą pośredniczyć w jej oddziaływaniach.
O krok dalej idą autorzy kwietniowego artykułu opublikowanego w czasopiśmie Physical Review D, prof. Brian Batell z Uniwersytetu w Pittsburgu w USA, prof. Jonathan Feng z Uniwersytetu Kalifornijskiego w Irvine oraz dr Trojanowski. Proponują oni sposób na bezpośrednią obserwację lekkich cząstek ciemnej materii w nowym laboratorium. W tym celu sugerują umieszczenie tam nowego detektora, nazwanego FLArE (ang. Forward Liquid Argon Experiment), wykorzystującego technologię ciekło-argonowej komory projekcji czasowej oraz wstępny sygnał w postaci błysku (ang. flare) scyntylacyjnego. Detektor taki byłby nowym narzędziem do bezpośredniego poszukiwania cząstek ciemnej materii poprzez badanie ich oddziaływań przy bardzo wysokich energiach oraz przy laboratoryjnie kontrolowanym strumieniu takich cząstek. Jest to metoda wysoce komplementarna względem obecnych podziemnych eksperymentów poszukujących cząstek pochodzących z kosmosu lub produkowanych przez promieniowanie kosmiczne – argumentuje dr Trojanowski.
Pomysł na nowy detektor FLArE został błyskawicznie włączony we wstępne plany inżynieryjne nowego laboratorium oraz w dyskusje eksperymentalne, również te dotyczące przyszłych badań neutrin w LHC. Czas pokaże, czy projekt ten będzie kolejnym sukcesem na miarę FASERa, czy też zostanie zastąpiony jeszcze lepszym rozwiązaniem – komentuje dr Trojanowski. Jedno jest pewne: fizycy nie próżnują i nie ustają w wysiłkach w celu lepszego poznania praw rządzących naszym światem.
« powrót do artykułu -
przez KopalniaWiedzy.pl
W Wielkim Zderzaczu Hadronów zainstalowano nowe urządzenie o nazwie FASER (Forward Search Experiment), którego współtwórcą jest dr Sebastian Trojanowski. FASER będzie badał cząstki, co do których naukowcy mają podejrzenie, że wchodzą w interakcje z ciemną materią. Testy nowego urządzenia potrwają do końca roku.
To krok milowy dla tego eksperymentu. FASER będzie gotowy do zbierania danych z Wielkiego Zderzacza Hadronów, gdy tylko na nowo podejmie on pracę wiosną 2022 roku, mówi profesor Shih-Chieh hsu z University of Washington, który pracuje przy FASER.
Eksperyment będzie badał interakcje z wysokoenergetycznymi neutrinami i poszukiwał nowych lekkich słabo oddziałujących cząstek, które mogą wchodzić w interakacje z ciemną materią. Stanowi ona około 85% materii we wszechświecie. Zbadanie cząstek, które mogą z nią oddziaływać, pozwoli na określenie właściwości ciemnej materii.
W pracach eksperymentu FASER bierze udział 70 naukowców z 19 instytucji w 8 krajach.
Naukowcy sądzą, że podczas kolizji w Wielkim Zderzaczu Hadronów powstają słabo reagujące cząstki, które FASER będzie w stanie wykryć. Jak informowaliśmy przed dwoma laty, w LHC mogą powstawać też niewykryte dotąd ciężkie cząstki.
FASER został umieszczony w nieużywanym tunelu serwisowym znajdującym się 480 metrów od wykrywacza ATLAS. Dzięki niewielkiej odległości FASER powinien być w stanie wykryć produkty rozpadu lekkich cząstek. Urządzenie ma 5 metrów długości, a na jego początku znajdują się dwie sekcje scyntylatorów. Będą one odpowiedzialne za usuwanie interferencji powodowanej przez naładowane cząstki. Za scyntylatorami umieszczono 1,5-metrowy magnes dipolowy, za którym znajduje się spektrometr, składający się z dwóch 1-metowych magnesów dipolowych. Na końcu, początku i pomiędzy magnesami znajdują się 3 urządzenia rejestrujące zbudowane z krzemowych detektorów. Na początku i końcu spektrometru znajdują się dodatkowe stacje scyntylatorów. Ostatnim elementem jest elektromagnetyczny kalorymetr. Będzie on identyfikował wysokoenergetyczne elektrony i fotony oraz mierzył całą energię elektromagnetyczną.
Całość jest schłodzona do temperatury 15 stopni Celsjusza przez własny system chłodzenia. Niektóre z elementów FASERA zostały zbudowane z zapasowych części innych urządzeń LHC.
FASER zostanie też wyposażony w dodatkowy detektor FASERv, wyspecjalizowany w wykrywaniu neutrin. Powinien być on gotowy do instalacji pod koniec bieżącego roku.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Gavin Thomas, który w Microsofcie sprawuje funkcję Principal Security Engineering Manager, zasugerował, że ze względów bezpieczeństwa czas porzucić języki C i C++. Thomas argumentuje na blogu Microsoftu, że rezygnacja ze starszych języków na rzecz języków bardziej nowoczesnych pozwoli na wyeliminowanie całej klasy błędów bezpieczeństwa.
Od 2004 roku każdy błąd naprawiony w oprogramowaniu Microsoftu jest przez nas przypisywany do jednej z kategorii. Matt Miller podczas konferencji Blue Hat w 2019 roku zauważył, że większość tych dziur powstaje wskutek działań programistów, którzy przypadkowo wprowadzają do kodu C i C++ błędy związane z zarządzeniem pamięcią. Problem narasta w miarę jak Microsoft tworzy coraz więcej kodu i coraz silniej zwraca się w stronę oprogramowania Open Source. A Microsoft nie jest jedyną firmą, która ma problemy z błędami związanymi z zarządzaniem pamięcią, pisze Thomas.
W dalszej części swojego wpisu menedżer wymienia liczne zalety C++, ale zauważa, że język ten ma już swoje lata i pod względem bezpieczeństwa czy metod odstaje od nowszych języków. Zamiast wydawać kolejne zalecenia i tworzyć narzędzia do walki z błędami, powinniśmy skupić się przede wszystkim na tym, by programiści nie wprowadzali błędów do kodu, czytamy.
Dlatego też Thomas proponuje porzucenie C++. Jednym z najbardziej obiecujących nowych języków programistycznych zapewniających bezpieczeństwo jest Rust, opracowany oryginalnie przez Mozillę. Jeśli przemysł programistyczny chce dbać o bezpieczeństwo, powinien skupić się na rozwijaniu narzędzi dla developerów, a nie zajmować się tymi wszystkimi pobocznymi sprawami, ideologią czy przestarzałymi metodami i sposobami rozwiązywania problemów.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Niedawno donosiliśmy o wynikach badań, z których wynika, że oceany ogrzały się bardziej niż dotychczas sądziliśmy. Teraz ich autorzy informują, że popełnili błąd w obliczeniach. Podkreślają przy tym, że pomyłka nie falsyfikuje użytej metodologii czy nowego spojrzenia na biochemię oceanów, na których metodologię tę oparto. Oznacza jednak, że konieczne jest ponowne przeprowadzenie obliczeń.
Jak mówi współautor badań, Ralph Keeling, od czasu publikacji wyników badań w Nature, ich autorzy zauważyli dwa problemy. Jeden z nich związany jest z nieprawidłowym podejściem do błędów pomiarowych podczas mierzenia poziomu tlenu. Sądzimy, że łączy efekt tych błędów będzie miał niewielki wpływ na ostateczny wynik dotyczący ilości ciepła pochłoniętego przez oceany, ale wynik ten będzie obarczony większym marginesem błędu. Właśnie prowadzimy ponowne obliczenia i przygotowujemy się do opublikowania autorskiej poprawki na łamach Nature, stwierdza Keeling.
Redakcja Nature również postanowiła pochylić się nad problemem. Dla nas, wydawców, dokładność publikowanych danych naukowych ma zasadnicze znaczenie. Jesteśmy odpowiedzialni za skorygowanie błędów w artykułach, które opublikowaliśmy, oświadczyli przedstawiciele pisma.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.