Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Fizycy wciąż nie potrafią wyjaśnić sygnałów znad Antarktydy. Cząstka spoza Modelu Standardowego?

Rekomendowane odpowiedzi

Tajemnicze sygnały zarejestrowane nad Antarktydą nadal nie doczekały się wyjaśnienia, a opublikowany właśnie kolejny artykuł naukowy wskazuje, że sygnały te mogą pochodzić od cząstek spoza Modelu Standardowego. Coraz bardziej prawdopodobne staje się, że znaleziono coś, co nie pasuje do najbardziej rozpowszechnionej teorii fizycznej.

Jak informowaliśmy przed dwoma laty w tekście zatytułowanym Tajemnicze sygnały wstrząsną współczesną fizyką?, w roku 2016 zależący do NASA Antarctic Impulsive Transient Antenna (ANITA), dryfujący nad Antarktyką balon z anteną wykrywającą promieniowanie kosmiczne, zarejestrował dwa impulsy promieniowania kosmicznego, które... pochodziły z Ziemi. Wówczas minęły 2 lata od wykrycia tych sygnałów, a nikt nie potrafił ich przekonująco wyjaśnić. Część naukowców już wtedy oceniała, że szansa, iż sygnały są zgodne z Modelem Standardowym wynosi 1/3.500.000.

ANITA jest bowiem instrumentem, który jest w stanie wykryć neutrina o dużym przekroju czynnym, czyli o dużej energii. Urządzenie wykryło dwa sygnały pochodzące z Ziemi, co sugerowałoby, że wykryło neutrina, która przeszły przez planetę. Jednak neutrina o dużym przekroju czynnym nie przedostaną się przez Ziemię, zatem ANITA mogła wykryć nieznane dotychczas cząstki.

Od czasu dokonania niezwykłego odkrycia przez ANITĘ wielu naukowców sugerowało, że może istnieć intensywne źródło neutrin. Być może spośród wielu wyemitowanych przezeń neutrin kilku udało się, mimo wszystko, przedostać przez Ziemię i zostały one zarejestrowane przez ANITĘ.

Taki scenariusz postanowił sprawdzić Alex Pizzuto z University of Wisconsin-Madison i inni członkowie zespołu IceCube. IceCube wykorzystuje 5160 optycznych wykrywaczy neutrin. Gdy przechodzące przez lód neutrino wejdzie w interakcję z atomem wodoru lub tlenu, dochodzi do emisji sygnału, który IceCube wykrywa. IceCube jest znacznie bardziej czułe niż ANITA. Dlatego też naukowcy przejrzeli swoje archiwum danych, szukając w nich sygnału pochodzącego z potencjalnego źródła neutrin znajdującego się w kierunku, w którym sygnały zostały wykryte przez ANITĘ. Przeanalizowali dane z ośmiu lat, szukają podobieństw pomiędzy lokalizacją sygnałów zarejestrowanych przez ANITĘ, a lokalizacją sygnałów rejestrowanych przez IceCube.

Wykorzystali przy tym trzy różne i uzupełniające się metody analizy danych, podczas których wzięli pod uwagę niewiadome związane z odkryciem dokonanym przez ANITĘ. Ponadto symulowali neutrina przechodzące przez Ziemię, by dowiedzieć się, ile z nich powinno ruszyć w drogę, by jedno mogło zostać wykryte przez ANITĘ. Takich samych obliczeń dokonali dla IceCube'a.

Analizy pokazały, że w kierunku, z którego pochodziły sygnały zarejestrowane przez ANITĘ nie ma żadnego źródła neutrin. Jest to tym bardziej zaskakujące, że, ze względu na zjawisko znane jako regeneracja neutrin tau, wysokoenergetyczne neutrina, które nie mają szans dotrzeć do ANITY, wciąż powinny być wykrywane przez IceCube. Zjawisko to powoduje, że IceCube jest niezwykle przydatnym narzędziem do potwierdzania obserwacji dokonanych przez ANITĘ, gdyż na każdy anomalny sygnał wykryty przez ANITĘ IceCube powinno wykryć wielokrotnie więcej takich sygnałów. W tym przypadku nie wykrył niczego, mówi Anastasia Barbano z Uniwersytetu w Genewie.

To zaś oznacza, że możemy odrzucić pomysł, iż sygnały pochodzą z intensywnego pojedynczego źródła, gdyż szansa, że sygnał taki zarejestruje ANITA, a nie zauważy go IceCube są bardzo małe, dodaje.

Gdy ANITA zarejestrowała niezwykłe sygnały, wyjaśnienia ich pochodzenia można było pogrupować na trzy kategorie: istnienie intensywnego źródła neutrin, wystąpienie błędu w urządzeniu lub zarejestrowanie sygnału, którego nie opisuje Model Standardowy. Nasze analizy wykluczyły jedyne wyjaśnienie zgadzające się z Modelem Standardowym. Jeśli zatem sygnały są prawdziwe i nie pochodzą z błędów w urządzeniu, mogą one wskazywać na istnienie zjawiska fizycznego spoza Modelu Standardowego, mówi Pizzuto.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pewnego dnia późno w nocy rozmawialiśmy z moją dziewczyną o wszechświecie wybiegając trochę w science fiction i zdumiało mnie co wtedy powiedziała: Planety mogłyby "porozumiewać" się miedzy sobą oraz Słońcem celem prawidłowych interakcji. Na przykład minimum słoneczne mogłoby być zapoczątkowane na Ziemi przez impuls informacji informujący o zbyt wysokich temperaturach. ... Wracając na Ziemię myślę, że jeszcze nasz wszechświat ma kilka asów w rękawie i nie raz nas zaskoczy swoją inteligencją.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To bardziej fantastyka niż SF, ale jakby tak było to Jowisz miałby 317 razy więcej głosów i Ziemia miałaby niewiele do powiedzenia ;)

Żeby zmniejszyć jasność gwiazdy w ramach SF, to trzeba usunąć masę. To jest ciekawe zagadnienie i jest przynajmniej 5 powodów dla których zaawansowana cywilizacja może chcieć przeprowadzić taką operację.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

I to jest właśnie coś co pokazuje dokładnie że fizyka jest zbudowana na porównaniach tego co znamy. Tysiąc lat temu nikt nie wiedział co to elektromagnetyzm i jakieś tam promienie. Być może to kolejny skok do odkrycia czegoś nowego, a to co się pokazało to tylko przypadkowa interferencja czegoś zupełnie innego, a właściwego zjawiska jeszcze długo nie wykryjemy bo nadal operujemy na porównaniu cząstek z modelu z czasów Einsteina.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Głównym powodem wybudowania Wielkiego Zderzacza Hadronów (LHC) były poszukiwania bozonu Higgsa. Urządzenie wywiązało się z tego zadania w 2012 roku i od tej pory poszerza naszą wiedzę o świecie. Teraz naukowcy z eksperymentów CMS i ATLAS w CERN poinformowali o znalezieniu pierwszych dowodów na rzadki rozpad bozonu Higgsa do bozonu Z i fotonu. Jeśli ich spostrzeżenia się potwierdzą, może być to pośrednim dowodem na istnienia cząstek spoza Modelu Standardowego.
      Model Standardowy przewiduje, że jeśli bozon Higgsa ma masę ok. 125 gigaelektronowoltów – a z ostatnich badań wiemy, że wynosi ona 125,35 GeV – to w około 0,15% przypadków powinien się on rozpadać na bozon Z – elektrycznie obojętny nośnik oddziaływań słabych – oraz foton, nośnik oddziaływań elektromagnetycznych. Niektóre teorie uzupełniające Model Standardowy przewidują inną częstotliwość dla takiego rozpadu. Zatem sprawdzenie, które z nich są prawdziwe, daje nam ważny wgląd zarówno w samą fizykę spoza Modelu Standardowego, jak i na bozon Higgsa. A mowa jest o fizyce poza Modelem Standardowym, gdyż modele przewidują, że bozon Higgsa nie rozpada się bezpośrednio do bozonu Z i fotonu, ale proces ten przebiega za pośrednictwem pojawiających się i znikających cząstek wirtualnych, które trudno jest wykryć.
      Uczeni z ATLAS i CMS przejrzeli dane z 2. kampanii badawczej LHC z lat 2015–2018 i zdobyli pierwsze dowody na rozpad bozonu Higgsa do bozonu Z i fotonu. Istotność statystyczna odkrycia wynosi sigma 3,4, jest więc mniejsza od sigma 5, kiedy to można mówić o odkryciu. Dlatego też na na razie do uzyskanych wyników należy podchodzić z ostrożnością, wymagają one bowiem weryfikacji.
      Każda cząstka ma specjalny związek z bozonem Higgsa, zatem poszukiwanie rzadkich dróg rozpadu bozonu Higgsa jest priorytetem. Dzięki drobiazgowemu połączeniu i analizie danych z eksperymentów ATLAS i CMS wykonaliśmy krok w kierunku rozwiązania kolejnej zagadki związanej z bozonem Higgsa, mówi Pamela Ferrari z eksperymentu ATLAS. A Florencia Canelli z CMS dodaje, że podczas trwającej właśnie 3. kampanii badawczej LHC oraz High-Luminosity LHC naukowcy będą w stanie doprecyzować obecnie posiadane dane oraz zarejestrować jeszcze rzadsze rodzaje rozpadów Higgsa.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Technicy z Fermi National Accelerator Laboratory ukończyli prototyp specjalnego nadprzewodzącego kriomodułu, jedynego takiego urządzenia na świecie. Projekt PIP-II, w którym udział biorą też polscy naukowcy, ma na celu zbudowanie najpotężniejszego na świecie źródła neutrin. Zainwestowała w nie również Polska.
      HB650 będzie najdłuższym i największym kriomodułem nowego akceleratora liniowego (linac). Wraz z trzema innymi będzie przyspieszał protony do 80% prędkości światła. Z linac protony trafią do dwóch kolejnych akceleratorów, tam zostaną dodatkowo przyspieszone i zamienione w strumień neutrin. Neturina te zostaną wysłane w 1300-kilometrową podróż przez skorupę ziemską, aż trafią do Deep Underground Neutrino Experiment and the Long Baseline Neutrino Facility w Lead w Dakocie Południowej.
      Prace nad nowatorskim kriomodułem rozpoczęły się w 2018 roku, w 2020 jego projekt został ostatecznie zatwierdzony i rozpoczęła się produkcja podzespołów. W styczniu 2022 roku w Fermilab technicy zaczęli montować kriomoduł. HB650 to 10-metrowy cylinder o masie około 12,5 tony. Wewnątrz znajduje się szereg wnęk wyglądających jak połączone ze sobą puszki po napojach. Wnęki wykonano z nadprzewodzącego niobu, który podczas pracy będzie utrzymywany w temperaturze 2 kelwinów. W tak niskiej temperaturze niob staje się nadprzewodnikiem, co pozwala efektywnie przyspieszyć protony.
      Żeby osiągnąć tak niską temperaturę wnęki będą zanurzone w ciekłym helu, nad którym znajdzie wiele warstw izolujących, w tym MLI, aluminium oraz warstwa próżni. Całość zamknięta jest w stalowej komorze próżniowej, która zabezpiecza wnęki przed wpływem pola magnetycznego Ziemi.
      Linac będzie przyspieszał protony korzystając z pola elektrycznego o częstotliwości 650 MHz. Wnętrze wnęk musiało zostać utrzymane w niezwykle wysokiej czystości, gdyż po złożeniu urządzenia nie ma możliwości ich czyszczenia, a najmniejsze nawet zanieczyszczenie zakłóciłoby pracę akceleratora. Czystość musiała być tak wysoka, że nie wystarczyło, iż całość prac przeprowadzano w cleanroomie. Wszelkie przedmioty znajdujące się w cleanroomie oraz stosowane procedury były projektowane z myślą o utrzymaniu jak najwyższej czystości. Pracownicy nie mogli na przykład poruszać się zbyt szybko, by nie wzbijać w powietrze ewentualnych zanieczyszczeń.
      Obecnie trwa schładzanie kriomodułu do temperatury 2 kelwinów. Naukowcy sprawdzają, czy całość wytrzyma. Nie bez powodu jest to prototyp. Chcemy dzięki niemu zidentyfikować wszelkie problemy, zobaczyć co do siebie nie pasuje, co nie działa, mówi Saravan Chandrasekaran z Fermilab. Po zakończeniu chłodzenia urządzenie zostanie poddane... testowi transportu. Kriomoduł trafi do Wielkiej Brytanii, a gdy wróci do Fermilab zostaną przeprowadzone testy, by upewnić się, że wszystko nadal działa.
      Gdy HB650 przejdzie pomyślnie wszystkie testy, rozpocznie się budowa właściwego kriomodułu. Wezmą w nim udział partnerzy projektu PIP-II (Photon Improvement Plan-II) z Polski, Indii, Francji, Włoch, Wielkiej Brytanii i USA.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Autorzy nowych badań przeprowadzonych przez NASA wykazali, że utrata lodu szelfowego w Antarktyce jest dwukrotnie większa niż pokazywały dotychczasowe dane. W ramach badań powstała m.in. pierwsza mapa cielenia się lodowców szelfowych.
      Czynnikiem, który w największym stopniu wpływa na niepewność przewidywania wzrostu poziomu oceanów jest zwiększanie się tempa utraty lodu w Antarktyce. Naukowcy z Jet Propulsion Laboratory opublikowali właśnie dwa badania dotyczące ubywania lodu w Antarktyce w ostatnich dekadach.
      Autorzy jednego z badań, które opisano na łamach Nature, stworzyli mapę cielenia się antarktycznych lodowców szelfowych w ciągu ostatnich 25 lat. Cielenie się lodowców szelfowych to nic innego, jak odłamywanie się fragmentów lodowca, tworzących następnie góry lodowe. Autorzy mapy zauważyli, że tempo cielenia się było szybsze, niż tempo przyrastania lodu w lodowcach.
      Od 1997 roku antarktyczne lodowce szelfowe utraciły 12 bilionów ton lodu. Dotychczas sądzono, że strata ta jest dwukrotnie mniejsza. Utrata lodu osłabiła lodowce szelfowe i spowodowała, że lądolód szybciej spływa do oceanu.
      Autorzy drugich badań, opublikowanych w Earth System Science Data, szczegółowo pokazali jak woda roztapiająca lód Antarktyki od spodu, wdziera się coraz bardziej w głąb pokrywy lodowej. W niektórych miejscach Antarktyki Zachodniej jest ona już dwukrotnie dalej od krawędzi niż jeszcze dekadę temu. Oba powyższe badania dają najbardziej szczegółowy obraz zmian zachodzących na Antarktyce.
      Antarktyka kruszy się na brzegach. A gdy lodowce szelfowe ulegają osłabieniu i rozpadnięciu, potężne lodowce na lądzie stałym spływają coraz szybciej i przyspieszają wzrost poziomu oceanów, mówi Chad Greene, lider zespołu badającego cielenie się lodowców szelfowych. Musimy pamiętać, że lodowce szelfowe są najważniejszym czynnikiem wpływającym na stabilność lądolodu Antarktydy. Są też jednak czynnikiem najbardziej wrażliwym, gdyż są podmywane przez wody oceaniczne.
      Spływające z Antarktydy lodowce tworzą potężne lodowce szelfowe o grubości do 3 kilometrów i szerokości 800 kilometrów. Działają one jak bufory, utrudniające spływanie lądolodu. Gdy cykl utraty masy (cielenia się) i jej przyrostu równoważy się, lodowce szelfowe są stabilne, ich wielkość w dłuższym terminie jest stała i spełniają swoją rolę bufora. Jednak w ostatnich dekadach ocieplające się wody oceaniczne zaczęły destabilizować lodowce szelfowe Antarktyki, coraz bardziej podmywając je i roztapiając. Lodowce stają się więc cieńsze i słabsze.
      Od kilku dekad dokonywane są regularne satelitarne pomiary grubości lodowców szelfowych Antarktyki, jednak dane te trudno interpretować. Wyobraźmy sobie, że oglądamy zdjęcia satelitarne i próbujemy na nich odróżnić od siebie białą górę lodową, biały lodowiec szelfowy, biały lód pływający i białą chmurę. To zawsze było trudne zadanie. Teraz jednak dysponujemy wystarczająco dużą ilością danych z różnych czujników satelitarnych, dzięki którym możemy powiedzieć, jak w ostatnich latach zmieniało się wybrzeże Antarktyki, mówi Greene.
      Uczony wraz ze swoim zespołem połączył zbierane od 1997 roku dane z czujników pracujących w zakresie światła widzialnego, podczerwieni i z radarów. Na tej podstawie powstała mapa pokazująca linię brzegową lodowców szelfowych. Jej twórcy stwierdzili, że cielenie się lodowców szelfowych daleko przewyższa przyrosty ich masy, a utrata lodu jest tak duża, że jest mało prawdopodobne, by do końca wieku lodowce szelfowe mogły odzyskać swój zasięg sprzed roku 2000. Jest wręcz przeciwnie, należy spodziewać się dalszych strat, a w ciągu najbliższych 10-20 lat może dojść do wielkich epizodów cielenia się.
      Z kolei autorzy drugich badań wykorzystali niemal 3 miliardy rekordów z siedmiu różnych rodzajów instrumentów, by stworzyć najbardziej szczegółową bazę danych zmian wysokości lodowców. Użyli przy  przy tym danych z pomiarów radarowych i laserowych, które pozwalają na mierzenie z dokładnością do centymetrów. Pomiary te pokazały, jak długoterminowe trendy klimatyczne oraz doroczne zmiany pogodowe wpływają na lód. Pokazały nawet, jak zmienia się wysokość lodowców gdy regularnie napełniają się i opróżniają podlodowe jeziora położone wiele kilometrów pod powierzchnią lodu. Takie subtelne zmiany, w połączeniu z lepszym rozumieniem długoterminowych trendów, pozwoli nam lepiej zrozumieć procesy, wpływające na utratę masy lodu, a to z kolei umożliwi lepsze przewidywanie przyszłych zmian poziomu oceanów, stwierdził lider grupy badawczej, Johan Nilsson.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Przez 9 lat pracy instrumenty Daya Bay Reactor Neutrino Experiment zarejestrowały 5,5 miliona neutrin. Teraz międzynarodowy zespół pracujący przy eksperymencie poinformował o pierwszych wynikach uzyskanych na podstawie całego zbioru danych. A najważniejszym z nich są najbardziej precyzyjne pomiary theta 13 (θ13), kluczowego parametru potrzebnego nam do zrozumienia oscylacji neutrin.
      Neutrina to cząstki subatomowe, które wypełniają cały wszechświat, a które niezwykle trudno zauważyć. Co sekundę przez nasze ciała przelatują miliardy neutrin. Neutrino może przelecieć przez ścianę ołowiu o grubości roku świetlnego, nie zderzając się przy tym z żadnym atomem.
      Jednym z cech charakterystycznych neutrin jest oscylacja, czyli zmiana pomiędzy trzema zapachami: neutrino minowym, taonowym i elektronowym. Day Bay Reactor Neutrino Experiment zaprojektowano do badania parametrów określających, a jakim prawdopodobieństwem zajdzie oscylacja. Wśród parametrów tych znajdują się kąty mieszania. Gdy projektowano Daya Bay w rok 2007 nieznany pozostawał jeden z kątów mieszania, θ13. Dlatego właśnie eksperyment został zbudowany tak, by z bezprecedensową dokładnością określił ten właśnie parametr.
      Day Bay Reactor Neutrino Experiment znajduje się w Guangdongu w Chinach. Składa się z wielkich cylindrycznych wykrywaczy cząstek zanurzonych w wodzie, a znajdujących się w trzech podziemnych grotach. Osiem detektorów odpowiedzialnych jest za wykrywanie sygnałów z antyneutrin pochodzących z pobliskich reaktorów atomowych.
      Daya Bay projekt międzynarodowy i pierwszy tego typu wielki wspólny projekt fizyczny Chin i USA. Biorą w nich udział liczne instytucje naukowe, na czele których z chińskiej strony stoi Instytut Fizyki Wysokich Energii Chińskiej Akademii Nauk, a ze strony amerykańskiej Lawrence Berkeley National Laboratory oraz Brookhaven National Laboratory.
      W każdej z podziemnych grot Daya Bay wykrywa antyneutrina elektronowe. Dwie groty znajdują się w blisko reaktorów atomowych, a trzecia jest od nich sporo oddalona, co daje neutrinom czas na oscylacje. Naukowcy, porównując liczbę antyneutrin elektronowych, które dotarły do wykrywaczy położonych bliżej i dalej od reaktorów, mogą wyliczyć ile z nich zmieniło zapach, a z tego wyprowadzają wartość theta 13.
      W 2012 roku naukowcy pracujący przy Daya Bay ogłosili wyniki pierwszych powszechnie przyjętych pomiarów theta13. Od tego czasu ciągle uściślają swoje pomiary. W grudniu 2020 roku, po 9 latach pracy eksperymentu, zakończono zbieranie danych i zajęto się ich analizą. Okazało się, że Daya Bay znacznie przekroczył oczekiwania. Udało się bowiem zmierzyć wartość θ13 z 2,5-krotnie większą dokładnością, niż przyjęto w założeniach projektu. Żaden obecnie działający i planowany eksperyment nie powinien osiągnąć tak dużej precyzji.
      Liczne zespoły analityków wykonały benedyktyńską pracę szczegółowo analizując cały zestaw danych, biorąc pod uwagę zmiany wydajności czujników w czasie tych 9 lat pracy. Dane te posłużyły nam nie tylko do wyodrębnienia z nich antyneutrin, ale również do udoskonalenia naszej wiedzy o szumie w tle. To pozwoliło nam osiągnąć niezwykłą precyzję, mówi rzecznik prasowy eksperymenty, Jun Cao z Instytutu Fizyki Wysokich Energii.
      Dzięki precyzyjnym pomiarom θ13 naukowcy będą mogli łatwiej badań inne parametry neutrin oraz stworzyć dokładniejsze modele cząstek subatomowych i ich wzajemnego oddziaływania.
      Lepsze poznanie właściwości i oddziaływania antyneutrin może rzucić wiele światła na kwestię nierównowagi pomiędzy materią i antymaterią. Obecnie uważa się, że podczas Wielkiego Wybuchu powstało tyle samo materii i antymaterii. Jeśli jednak tak by się stało, to powinno dojść do całkowitej anihilacji, po której pozostałoby tylko światło. Musi więc istnieć coś, co spowodowało, że współczesny wszechświat składa się z materii. Być może tym czymś są jakieś różnice pomiędzy neutrinami a antyneutrinami. Nigdy nie wykryliśmy żadnych różnic pomiędzy cząstkami i antycząstkami w przypadku leptonów, do których należy neutrino. Znaleźliśmy jedynie różnice między kwarkami i antykwarkami. Jednak różnice te nie wystarczą, by wyjaśnić, dlaczego materia ma we wszechświecie taką przewagę. Może odpowiedź ukrywa się w neutrinach, mówi drugi z rzeczników eksperymentu, Kam-Biu Luk z Berkeley.
      Eksperymenty przyszłej generacji, takie jak DUNE (Deep Underground Neutrino Experiment) będą mogły wykorzystać pomiary wykonane przez Daya Bay do precyzyjnego porównania właściwości neutrin i antyneutrin. DUNE będzie najbardziej precyzyjnym wykrywaczem neutrin na świecie. Będzie on korzystał z budowanego właśnie najpotężniejszego na świecie źródła neutrin, PIP-II, w które zainwestowała Polska.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W uruchomionym ponownie po trzech latach Wielkim Zderzaczu Hadronów rozpoczęto nowe testy modelu, który ma wyjaśnić masę neutrina. Zgodnie z Modelem Standardowym te cząstki, których nie można podzielić na mniejsze składowe – jak kwarki czy elektrony – zyskują masę dzięki interakcji z polem bozonu Higgsa. Jednak neutrino jest tutaj wyjątkiem. Mechanizm interakcji z bozonem Higgsa nie wyjaśnia jego masy. Dlatego też fizycy badają alternatywne wyjaśnienia.
      Jeden z modeli teoretycznych – mechanizm huśtawki, seesaw model – mówi, że znane nam lekkie neutrino zyskuje masę poprzez stworzenie pary z hipotetycznym ciężkim neutrinem. Żeby jednak ten model działał, neutrina musiałyby być cząstkami Majorany, czyli swoimi własnymi antycząstkami.
      Naukowcy pracujący w Wielkim Zderzaczu Hadronów przy eksperymencie CMS postanowili mechanizm huśtawki, poszukując neutrin Majorany powstających w bardzo specyficznym procesie zwanym fuzją bozonów wektorowych. Przeanalizowali w tym celu dane z CMS z lat 2016–2018. Jeśli model huśtawki by działał, w danych z kolizji powinny być widoczne dwa miony o tym samym ładunku elektrycznym, dwa oddalone od siebie dżety cząstek o dużej masie oraz żadnego neutrino.
      Uczeni nie znaleźli żadnych śladów neutrin Majorany. To jednak nie znaczy, że ich praca poszła na marne. Udało im się bowiem ustalić nowy zakres parametrów, które określają zakres poszukiwań ciężkiego neutrino Majorany. Wcześniejsze analizy w LHC wskazywały, że ciężkie neutrino Majorany ma masę powyżej 650 GeV. Najnowsze badania wskazują zaś, że należy go szukać w przedziale od 2 do 25 TeV. Teraz naukowcy z CMS zapowiadają zebranie nowych danych i kolejne przetestowanie modelu huśtawki.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...