Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Bozon Higgsa rozpadł się na kwarki b

Recommended Posts

Po sześciu latach od odkrycia bozonu Higgsa udało się zaobserwować jego rozpad na kwarki b (kwarki niskie). Zaobserwowane zjawisko jest zgodne z hipotezą mówiącą, że pole kwantowe bozonu Higgsa nadaje masę kwarkom b.

Model Standardowy przewiduje, że w 60% przypadków bozon Higgsa rozpada się na kwarki b, drugie najbardziej masywne kwarki. Przetestowanie tego założenia jest niezwykle ważne, gdyż opiera się ono na hipotezie, że to właśnie bozon Higgsa nadaje masę cząstkom elementarnym.

Dokonanie najnowszego odkrycia trwało aż sześć lat, gdyż zidentyfikowanie sposobu rozpadu bozonu Higgsa nie jest łatwe. Podczas wielu zderzeń proton-proton dochodzi do pojawienia się kwarków b, przez co wyizolowanie tych kwarków, które powstały wskutek rozpadu Higgsa jest bardzo trudne. Znacznie łatwiej jest wyizolować rzadsze rodzaje rozpadu Higgsa, jak na przykład jego rozpad do pary fotonów.

W końcu, po sześciu latach się udało. To kamień milowy w badaniu bozonu Higgsa, mówi Karl Jakobs, rzecznik prasowy eksperymentu ATLAS. Od czasu zaobserwowania przed rokiem rozpadu bozonu Higgsa do leptonów tau zespoły pracujące przy CMS i ATLAS obserwowały, jak z bozonu Higgsa powstają najbardziej masywne fermiony: tau, kwark górny, a teraz kwark b, dodaje Joel Butler, rzecznik prasowy CMS.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Czy ktoś mógłby podać przykład wykorzystania tej wiedzy w jakimś wynalazku  - tak w perspektywie najbliższych 100 lat ?

Share this post


Link to post
Share on other sites
53 minuty temu, Ergo Sum napisał:

Czy ktoś mógłby podać przykład wykorzystania tej wiedzy w jakimś wynalazku  - tak w perspektywie najbliższych 100 lat ?

Rutynowe rozbijanie bozonu Higgsa i tworzenie obszarów bez masy, co umożliwi przemieszczanie obiektów masywnych z prędkością świetlną, a obiekty bezmasowe to nawet z nadświetlną. Nie będziemy zakrzywiać przestrzeni, tylko będziemy usuwać przestrzeń. Jesteśmy o krok od osobliwości technologicznej i pytania futurologiczne mają nieduży sens, a odpowiedzi jeszcze mniejszy :)

 

Edited by Jajcenty
  • Upvote (+1) 1

Share this post


Link to post
Share on other sites
Godzinę temu, Ergo Sum napisał:

Czy ktoś mógłby podać przykład wykorzystania tej wiedzy w jakimś wynalazku  - tak w perspektywie najbliższych 100 lat ?

To pytanie przekracza granice wiedzy ludzkości.

Owszem, jest taka możliwość że to nigdy nie zostanie użyte bardziej praktycznie niż na kolokwium jako broń do tępienia studentów zanim zostaną magistrami :)
A jednak równie dobrze może to być cegiełka która w połączeniu z innymi cegiełkami sprawi że będziemy uzyskiwać energię z próżni :)

Na chwilę obecną jest to tylko kolejne potwierdzenie Modelu Standardowego a raczej jego ostatnio używanej modyfikacji.

Edited by thikim
  • Upvote (+1) 1

Share this post


Link to post
Share on other sites
8 minut temu, thikim napisał:

użyte bardziej praktycznie niż na kolokwium jako broń do tępienia studentów zanim zostaną magistrami

Ach, ten Twój pesymizm. Ja widzę narzędzie do ostrzenia studentów :)

Share this post


Link to post
Share on other sites

Ale co w tym pesymistycznego? Każdy naukowy sadysta (a tacy głównie uczą) będzie zachwycony :)

Share this post


Link to post
Share on other sites

 

16 godzin temu, Jajcenty napisał:

będziemy usuwać przestrzeń

no to brzmi nieźle jak faktycznie jakieś praktyczne wykorzystanie, tzn my tego nie dożyjemy ale już może nasze praprawnuki będą mogły sobie np. zmniejszyć przestrzeń w lodówce ;) a naukowi sadyści pustą przestrzeń w mózgach studentów :D

Share this post


Link to post
Share on other sites

poznanie tych podstawowych klocków lego i zależności między nimi jest fundamentalne i ilość zastosowań jest trudna do określenia. od nowych źródeł energii po nowe materiały aż po nowe systemy komunikacji

Share this post


Link to post
Share on other sites

Nie zapominajmy też o zwyczajnej elektronice użytkowej, która w zaskakująco dużym stopniu bazuje na odkryciach z badań podstawowych.

To właśnie takie badania przesunęły granicę rozmiaru tranzystora w procesorze. Jeszcze nie tak dawno temu mówiono o limicie bodajże 20nm, potem 15, 11, 8... a teraz chyba 5nm nie wydaje się ostatnim słowem.

Nie jest to tak bezpośrednio widoczne, ale to pewne "skutki uboczne" badań nad rozpadem różnych dziwnych cząstek.

Dołóżmy też inżynierię materiałową, która podobno też odrobinę daje radę z tego czerpać... a i w medycynie zastosowania się znajdą i bez nadmiernego wybiegania w przyszłość, bo często to zaledwie 5-20 lat.

 

Sam rozpad bozonu Higsa to raczej taki fetysz naukowców, ale przy okazji tego badania zawsze odkrywa się masę mniej medialnych rzeczy, które potem mogą całkiem szybko trafić do naszych kieszeni.

Edited by pogo

Share this post


Link to post
Share on other sites

Fantazjujecie. To jest poziom badania materii który jest poza możliwościami technicznymi wykonania czegokolwiek. A wiele wskazuje na to że ten poziom w aspekcie budowy czegoś pozostanie dla nas nieosiągalny na zawsze.
My tu co chwila walimy głowami w "final frontier" i się odbijamy.

To jest jak odkrycie że poprzez bombardowanie ołowiu możemy otrzymać złoto. Nikt tak nie produkuje jednak złota.

To jest jak odkrycie że planeta X składa się z diamentów a Y ze złota. Jakoś nie wybuchła z tego powodu gorączka złota :)

2 godziny temu, pogo napisał:

ale przy okazji tego badania zawsze odkrywa się masę mniej medialnych rzeczy, które potem mogą całkiem szybko trafić do naszych kieszeni.

To się już skończyło. Gro rzeczy mieliśmy z programu Apollo. I koniec.

Tak jak każde ognisko wygasa tak każde odkrycie ma ograniczony potencjał tworzenia nowych wynalazków.

Edited by thikim

Share this post


Link to post
Share on other sites
5 godzin temu, thikim napisał:

Fantazjujecie. To jest poziom badania materii który jest poza możliwościami technicznymi wykonania czegokolwiek.

Przecież nie chodzi o to, żeby Janusz z Grażynką sobie w garażu protony zderzali czy łapali do wiaderka kwarki powstające z rozpadu bozonu Higgsa. Tu chodzi o wiedzę jaką ludzkość uzyskuje z tych badań i wykorzystanie tej wiedzy w praktyce. Nie jesteśmy w stanie oszacować/wyobrazić sobie ile i jakie to mogą być zastosowania. Jak dla mnie to ognisko na pewno jeszcze nie wygasło, przynajmniej tak długo jak długo jesteśmy w stanie zwiększać enerię w akceleratorach...

Share this post


Link to post
Share on other sites
3 hours ago, tomak said:

przynajmniej tak długo jak długo jesteśmy w stanie zwiększać enerię w akceleratorach

Ten temat praktycznie jest już zamknięty, przynajmniej na długo. Przede wszystkim z powodu kosztów, które rosną wykładniczo ze zwiększaniem energii. A są i problemy techniczne.
Poza tym w przypadku LHC było wiadomo, co chce się znaleźć/sprawdzić. To była motywacja. Teraz tego nie ma (no prawie, bo...). Nie wiadomo jak duża może być "dziura poznawcza" na skali energii - ile rzędów wielkości by trzeba dołożyć, żeby coś istotnego znaleźć. I tak dalej, bo podobnych problemów jest więcej. Był projektowany akcelerator 80 km (LHC 27), ale projekt padł. Jeśli coś nowego dzieje się przy energiach prównywalnych z LHC, to tam zostanie znalezione, to sprawa statystyki. Przy większych energiach, ale porównywalnych z LHC, to co w LHC zdarza się ekstremalnie rzadko, będzie zdarzać się częściej, i to prawdopodobnie wszystko, czego można spodziewać po akceleratorze, który byłby w najbliższych latach technicznie wykonalny. Najbliższych, czyli 20-30 lat.

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites

No to lipa :( Dawno się tematem nie interesowałem, kojarzę, że miał być przedstawiony wynik studium na temat FCC jakoś w tym roku - czyli co, nic z tego nie będzie?

A co z HL-LHC? O ile się nie mylę, był planowany kolejny upgrade LHC w bliższej perspektywie niż 20-30 lat. Tak czy inaczej, nawet jeśli nie większe energie, to nadal coś tam kombinują i generują dane, których analiza może potrwać jeszcze długie lata (przykład odkrycia po latach w komentowanym artykule). Ja bym był daleki od stwierdzenia, że nic już nie odkryjemy i nie wynajdziemy dzięki akceleratorom.

Share this post


Link to post
Share on other sites

Jeszcze 100 lat temu wydawało się możliwe tylko na papierze przezwyciężenie sił jądrowych. A tu proszę, od wielu dekad możemy się cieszyć z nowego źródła energii.

aaaaaa, sorry zapomniałem, my nadal nie możemy.

jak przeanalizuje się budowę/strukturę muru to będzie łatwiej go rozbić głową uderzając we właściwy punkt, niż walenie na oślep. od teorii do technologii mogą upłynąć wieki ale i tak warto bo można się dowiedzieć czy brnięcie w danych kierunkach rozwoju w ogóle ma sens.

 

 

Share this post


Link to post
Share on other sites
18 godzin temu, tomak napisał:

Przecież nie chodzi o to, żeby Janusz z Grażynką sobie w garażu protony zderzali czy łapali do wiaderka kwarki powstające z rozpadu bozonu Higgsa. Tu chodzi o wiedzę jaką ludzkość uzyskuje z tych badań i wykorzystanie tej wiedzy w praktyce.

Jak się wrócisz do postu początkującego dyskusję to przeczytasz że nie chodzi o wiedzę tylko o praktyczne wykorzystanie tej wiedzy.

Praktyczne wykorzystanie jest np. wtedy jak odkrywasz że można manipulować atomami i nimi manipulujesz uzyskując coś co ma praktyczne zastosowanie dla Janusza i Grażyny. Nawet jeśli to Janusz z wielkiego miasta :)

Tu nic takiego nie ma.

5 godzin temu, tempik napisał:

Jeszcze 100 lat temu wydawało się możliwe tylko na papierze przezwyciężenie sił jądrowych. A tu proszę, od wielu dekad możemy się cieszyć z nowego źródła energii.

Nie do końca zrozumiałem. Rozpad promieniotwórczy (1896) to jednak wcześniej odkryto niż siły jądrowe (powiedzmy że 1928) :D i od razu zaczęto wykorzystywać - chociażby zegarki ze świecącymi wskazówkami.
Więc nie było tak że coś tam tylko na papierze. Najpierw zauważono zjawisko, potem trochę zrozumiano, potem zastosowano, potem lepiej zrozumiano, potem lepiej zastosowano.

A tu tylko coś wyliczyliśmy i coś zauważyliśmy - i koniec. Nie ma praktycznego zastosowania. Żadnego. Poza kolokwiami i punktami za publikację - co się zresztą ukróci w nowym systemie. Tzn. nie punkty ale parcie na nie.

5 godzin temu, tempik napisał:

jak przeanalizuje się budowę/strukturę muru to będzie łatwiej go rozbić głową uderzając we właściwy punkt, niż walenie na oślep

Odkrycie Higgsa ani jego rozpadu nie zrobiło w tym murze najmniejszej rysy, ba, jeśli chodzi o sam mur to nic nowego w sumie nie wniosło do tego co znano od lat załóżmy 40-stu. Dalej trzeba walić głową :D licząc że za biliard pierwszym uderzeniem powstanie jednak rysa :D

Ja na to nie liczę. Jest wiele granic wiedzy. Jedną napotkaliśmy - i od prawie 100 lat jest nienaruszalna.

Niedługo zrozumiemy że napotkaliśmy kolejne.

Ostatecznie chciałbym wszystkim uświadomić. Akceleratory budowano w nadziei potwierdzenia supersymetrii w modelu standardowym. I zonk. Higgs był tylko przy okazji.
To teraz co to oznacza. To oznacza że paru ludków profesorów szło do polityka jakiejś partii i mówiło: możemy dokonać przełomowego odkrycia trzeba tylko wydać załóżmy 20 mld $. No i polityk mówił - no dobra może będę pamiętany że pomogłem.
Ale to wszystko się nie udało :)  nie odkryto supersymetrii.

I teraz już argument w rodzaju: sorry, źle liczyłem że cząstki supersymetryczne są do 10 TeV, właściwie nie wiem czemu się pomyliłem, sorry za te 20 mld $. Teraz jak wydamy 200 mld $ w akceleratorze o rozmiarze 200 km który zderzać będzie z energią do 100 TeV to może się uda - chociaż nie mam pewności.
Nic takiego nie nastąpi. Nie w najbliższych latach. Prawdopodobnie nie za naszego życia.

Można powiedzieć że supersymetria pogrzebała większe akceleratory a tym samym wiele szans na kolejne odkrycia.

Jest jeszcze nadzieja że Chiny kiedyś stwierdzą: nasze musi być większe :) Ale ile razy większe?

100? 1000? 10 000? Nie. Do tych energii nie dojdziemy nigdy przy naszych planetarnych ograniczeniach. A może tam są odpowiedzi na nasze pytania?

Edited by thikim

Share this post


Link to post
Share on other sites

Zgodzę się z Tobą że w badaniu cząstek elementarnych zbliżamy się do zapaści.bo żeby pchać ten wózek dalej koszty będą rosły wykładniczo. A polityk jest hojny jeśli mówimy o max kilku mld. Wtedy jest duża szansa na sławę, relatywnie małym kosztem. Jak koszty są większe to lepiej jest zainwestować np. w jakąś populistyczną kiełbasę wyborczą, murowany sukces, zero ryzyka.

A co do ss to brak jej potwierdzenia to też cenna wiedza i sukces. Z higsem było podobnie, porażki w szukaniu na niższych energiach wykluczało jego przewidywane właściwości. Trochę jak gra w statki, odkrycie pustego pola to też cenna wiedza i zwiększenie prawdopodobieństwa trafienia kolejnym strzałem.

Ale wiadomo, Noble dają raczej za znalezienie czegoś a nie ze stwierdzenie że czegoś nie ma,nie da się :)

Edited by tempik

Share this post


Link to post
Share on other sites

Postęp w fizyce fundamentalnej (ex nihilo mi zaraz napisze że postęp to jest jak fizyk używa ekologicznego młotka do rozbijania atomu) kosztuje coraz więcej.

Oczywiście jest szansa że przy wiedzy którą mamy lub uzyskamy z kosmosu (np. kolejne cząstki Oh my God) dokonamy postępu i obejdzie się bez akceleratora - opracowanie nowej teorii pociągnie za sobą nowe przewidywania i konieczność budowy nowego akceleratora.

Ale skąd ten optymizm we wszystkich? Pewnie z doświadczenia że umierają zawsze tylko inni ludzie :D
Równie dobrze może być tak że do dalszego postępu teoretycznego potrzebujemy danych z akceleratora 1000 razy większego. I d*pa. Koniec postępu.

6 minut temu, tempik napisał:

Zgodzę się z Tobą że w badaniu cząstek elementarnych zbliżamy się do zapaści.bo żeby pchać ten wózek dalej koszty będą rosły wykładniczo

Zatem zgoda :)
Możemy oczywiście polegać na obserwacjach kosmologicznych ale tak jakby akceleratory dają możliwość powtarzania eksperymentów, upewniania się, dobierania parametrów i jest z 1000 razy szybciej akceleratorem niż innymi metodami. 1000 razy szybciej oznacza parę lat :)

Może oczywiście być też tak że narodzi się super Einstein który wyprowadzi teorię wszystkiego mając ołówek i zeszyt.
Ale po pierwsze liczenie na to jest jak gra w lotka (statystyk na studiach zapytał kto gra w lotka po czym tym co podnieśli ręce powiedział że będą poprawiać pierwszy rok :D ).

A po drugie nawet takiego geniusza będzie trzeba zweryfikować jakimś doświadczeniem - podobnie jak wiele razy weryfikowano STW i OTW - czyli sprawdzano Einsteina.

Co do wydatku. Wydatki na takie rzeczy mają ograniczenia. Lepiej się wydaje publiczne pieniądze gdy sukces jest pewny w perspektywie 2-3 lat.

A budowa akceleratora od planu do sukcesu to jest kilkanaście lat. Można na to wydać parę mld, nawet kilkadziesiąt jeśli się wiele państw weźmie za to. Ale nie kilka bln.

Edited by thikim

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Zderzenia pomiędzy wysoko energetycznymi protonami po raz pierwszy pozwoliły na przyjrzenie się niezwykłym hiperonom. Zaliczane są one do cząstek dziwnych. To bariony zawierające co najmniej jeden kwark dziwny. Hiperony prawdopodobnie występują w jądrach gwiazd neutronowych, zatem ich badanie może sporo zdradzić na temat samych gwiazd oraz środowisk o tak ekstremalnie upakowanej materii.
      Hiperony są hadronami, czyli cząstek złożonych z co najmniej dwóch kwarków. Interakcje pomiędzy hadronami mają miejsce za pośrednictwem oddziaływań silnych. Niezbyt wiele wiemy o oddziaływaniach pomiędzy hadronami, a większość tej wiedzy pochodzi z badan, w których używane są protony i neutrony. Natura oddziaływań silnych powoduje, że bardzo trudno jest czynić w ich przypadku przewidywania teoretyczne. Trudno jest więc teoretycznie badać, jak hadrony oddziałują między sobą. Zrozumienie tych oddziaływań jest często nazywane „ostatnią granicą” Modelu Standardowego.
      Protony, neutrony i hiperony składają się z trzech kwarków. O ile jednak protony i neutrony zbudowane są wyłącznie z kwarków górnych i dolnych, to hiperony zawierają co najmniej jeden kwark dziwny. Badanie hiperonów daje nam zatem nowe informacje na temat oddziaływań silnych.
      Podczas badań naukowcy z CERN, pracujący przy eksperymencie ALICE, przyglądali się wynikom zderzeń wysoko energetycznych protonów, w wyniku których w otoczeniu miejsca kolizji pojawiają się „źródła” cząstek. Dochodzi do interakcji kwarków i gluonów, tworzących nowe cząstki. Powstają też pary hiperonów i protonów. Naukowcy, mierząc korelacje momentów pędu w takich parach zbierają informacje na temat sposobu ich interakcji.
      Interakcje takie można w ograniczonym stopniu przewidywać na podstawie modelowania zachowania kwarków i gluonów. Najnowsze badania wykazały, że przewidywania niemal idealnie zgadzają się z pomiarami.
      Ze szczegółami badań można zapoznać się na łamach Nature.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Międzynarodowy zespół tropiący neutrina "nowej fizyki" skonfrontował dane ze wszystkich istotnych eksperymentów powiązanych z rejestracją neutrin z rozszerzeniami Modelu Standardowego proponowanymi przez teoretyków. Najnowsza analiza, pierwsza o tak kompleksowym zasięgu, ukazuje skalę wyzwań stojących przed poszukiwaczami prawoskrętnych neutrin, ale też niesie i iskierkę nadziei.
      We wszystkich zaobserwowanych procesach z udziałem neutrin cząstki te wykazują się cechą nazywaną przez fizyków lewoskrętnością. Neutrin prawoskrętnych, będących naturalnym dopełnieniem Modelu Standardowego, nie widać nigdzie. Dlaczego? Na to pytanie pomaga odpowiedzieć najnowsza, wyjątkowo kompleksowa, analiza, przeprowadzona przez międzynarodową grupę fizyków, w tym z Instytutu Fizyki Jądrowej Polskiej Akademii Nauk (IFJ PAN) w Krakowie. Po raz pierwszy przy użyciu najnowocześniejszych metod statystycznych uwzględniono tu dane ze wszystkich istotnych eksperymentów pośrednio i bezpośrednio dedykowanych rejestrowaniu neutrin i skonfrontowano je z zakresami parametrów narzucanych przez różne rozszerzenia teoretyczne Modelu Standardowego.
      Pierwszą cząstkę subatomową, elektron, zaobserwowano ponad 120 lat temu. Od tego czasu fizycy odkryli ich całe zoo. Bogactwo cegiełek natury wyjaśniono przy założeniu, że świat materii składa się z masywnych kwarków, występujących w sześciu odmianach, oraz znacznie mniej masywnych leptonów, także sześciu rodzajów. Do leptonów zakwalifikowano elektron, mion (o masie 207 razy większej od masy elektronu), taon (3477 mas elektronu) i odpowiadające im trzy rodzaje neutrin.
      Neutrina niezwykle słabo oddziałują z resztą materii. Wykazują też inne cechy o szczególnym znaczeniu dla kształtu współczesnej fizyki. Niedawno odkryto, że cząstki te oscylują, czyli nieustannie przekształcają się z jednego rodzaju w inny. Zjawisko to oznacza, że obserwowane neutrina muszą mieć pewną (choć bardzo małą) masę. Tymczasem Model Standardowy, czyli współczesne narzędzie teoretyczne ze znakomitą dokładnością opisujące cząstki subatomowe, nie pozostawia alternatyw: w jego ramach neutrina nie mogą mieć masy! Ta sprzeczność między teorią a doświadczeniem jest jedną z najsilniejszych wskazówek przemawiających za istnieniem nieznanych cząstek subatomowych. Masa neutrin nie jest jednak ich jedyną zastanawiającą właściwością.
      O obecności neutrin dowiadujemy się, obserwując produkty rozpadów różnych cząstek i porównując to, co zarejestrowaliśmy, z tym, co przewiduje teoria. Okazuje się, że we wszystkich procesach świadczących o obecności neutrin cząstki te zawsze miały tę samą skrętność: 1/2, czyli były lewoskrętne. To ciekawe, bo pozostałe cząstki materii mogą być zarówno lewo-, jak i prawoskrętne. Lecz nigdzie nie widać neutrin prawoskrętnych, o spinie -1/2! Jeśli nie istnieją, to dlaczego? A jeśli istnieją, gdzie się chowają? - pyta dr hab. Marcin Chrząszcz (IFJ PAN).
      Artykuł międzynarodowego zespołu fizyków, właśnie opublikowany w czasopiśmie The European Physical Journal C, przybliża nas do odpowiedzi na powyższe pytania. Naukowcy z IFJ PAN, European Organization for Nuclear Research (CERN, Genewa), Université catholique de Louvain (Louvain-la-Neuve, Belgia), Monash University (Melbourne, Australia), Technische Universität München (Niemcy) i University of Amsterdam (Holandia) przeprowadzili jak do tej pory najdokładniejszą analizę danych zebranych w kilkunastu najbardziej wyrafinowanych eksperymentach z zakresu fizyki subatomowej, zarówno tych o charakterze ogólnym, jak też bezpośrednio dedykowanych obserwacjom neutrin (m.in. PIENU, PS-191, CHARM, E949, NuTeV, DELPHI, ATLAS, CMS).
      Badacze nie ograniczyli się do samego zwiększenia liczby eksperymentów i ilości przetworzonych danych. W swojej analizie uwzględnili możliwość występowania hipotetycznych procesów proponowanych przez teoretyków, a wymagających obecności neutrin prawoskrętnych. Jednym z nich był mechanizm huśtawki, związany z neutrinami Majorany.
      W 1937 roku Ettore Majorana zapostulował istnienie cząstki materii będącej własną antycząstką. Taka cząstka nie mogłaby mieć ładunku elektrycznego. Ponieważ z wyjątkiem neutrin wszystkie cząstki materii przenoszą ładunek elektryczny, nową cząstką może być właśnie neutrino.
      Z teorii wynika, że jeśli neutrina Majorany istnieją, to może również istnieć mechanizm huśtawki. Powodowałby on, że gdy neutrina o jednej skrętności są mało masywne, to neutrina o skrętności przeciwnej muszą mieć bardzo duże masy. Skoro więc nasze neutrina, lewoskrętne, mają znikome masy, to w wersji prawoskrętnej musiałyby być masywne. To tłumaczyłoby, dlaczego ich dotychczas nie zobaczyliśmy - mówi dr hab. Chrząszcz i dodaje, że takie neutrina są jednym z kandydatów na ciemną materię.
      Analiza, przeprowadzona z użyciem specjalistycznego pakietu open source GAMBIT, uwzględniała wszystkie aktualnie dostępne dane doświadczalne oraz zakresy parametrów przewidziane przez różne mechanizmy teoretyczne. Pod względem numerycznym była karkołomna. Sam mechanizm huśtawki powodował, że przy obliczeniach należało operować liczbami zmiennopozycyjnymi nie o podwójnej, a o poczwórnej precyzji. Ostatecznie objętość danych sięgnęła 60 TB. Analizę trzeba było przeprowadzić w najszybszym polskim klastrze obliczeniowym Prometheus, zarządzanym przez Akademickie Centrum Komputerowe Cyfronet Akademii Górniczo-Hutniczej.
      Wyniki analizy, po stronie polskiej finansowanej z grantów Fundacji na rzecz Nauki Polskiej i Narodowej Agencji Wymiany Akademickiej, nie napawają optymizmem. Okazało się, że mimo wielu eksperymentów i ogromnej ilości zgromadzonych danych, przestrzeń możliwych parametrów została spenetrowana w niewielkim stopniu.
      Być może prawoskrętne neutrina odkryjemy w eksperymentach, które rozpoczną się lada chwila. Jeśli jednak będziemy mieć pecha i prawoskrętne neutrina kryją się w najdalszych zakamarkach przestrzeni parametrów, na ich odkrycie możemy poczekać nawet i sto lat - mówi dr hab. Chrząszcz.
      Na szczęście pojawił się też cień nadziei. W danych wychwycono ślad potencjalnego sygnału, który można byłoby wiązać z prawoskrętnymi neutrinami. Na obecnym etapie jest on bardzo słaby i ostatecznie może się okazać tylko statystyczną fluktuacją. Lecz co by się stało, gdyby nią nie był?
      W takim przypadku wszystko wskazuje na to, że prawoskrętne neutrina dałoby się zaobserwować już w następcy LHC, akceleratorze Future Circular Collider. FCC ma jednak pewną wadę: rozpocząłby pracę mniej więcej 20 lat od zatwierdzenia, do czego w optymalnym wariancie może dojść latem tego roku. Jeśli nie dojdzie, nim zobaczymy prawoskrętne neutrina, będziemy musieli się uzbroić we wręcz gigantyczną cierpliwość - podsumowuje dr hab. Chrząszcz.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Podczas konferencji Large Hadron Collider Physics 2020 eksperymenty ATLAS i CMS przedstawiły najnowsze wyniki dotyczące rzadkich sposobów rozpadu bozonu Higgsa produkowanego na Wielkim Zderzaczu Hadronów w CERN. Nowe kanały obejmują rozpady Higgsa na bozon Z, współodpowiedzialny za słabe oddziaływania jądrowe, oraz inną cząstkę, jak również rozpady na cząstki „niewidzialne”. Te pierwsze, w razie rozbieżności z przewidywaniami Modelu Standardowego, mogą świadczyć o zjawiskach wykraczających poza znaną nam fizykę (tzw. nowa fizyka), podczas gdy niewidzialne rozpady cząstki Higgsa rzuciłyby nowe światło na naturę cząstek tzw. ciemnej materii kosmicznej. Przedstawione analizy oparte są o całość danych zebranych w latach 2015-2018, czyli około miliarda milionów zderzeń proton-proton.
      Eksperyment ATLAS zmierzył częstość rozpadu Higgsa na Z i foton (γ) na 2.0+1.0−0.9 częstości przewidzianej w Modelu Standardowym, tym samym zbliżając się do czułości umożliwiającej obserwację ewentualnych odstępstw od przewidywań modelu. Eksperyment CMS poszukiwał o wiele rzadszych rozpadów na Z i mezon ρ lub φ i stwierdził, że w nie więcej niż 1.9% przypadków może nastąpić rozpad na Zρ, a nie więcej niż w 0.6% przypadków na Zφ. Obserwacja tego typu rozpadów przy obecnie zebranej ilości danych świadczyłaby o zjawiskach związanych z istnieniem nowej fizyki.
      Niektóre hipotezy dotyczące nowej fizyki przewidują, że bozon Higgsa może rozpadać się na dwie tzw. słabo oddziałujące masywne cząstki (ang.: WIMP), odpowiedzialne za ciemna materię kosmiczną, a niewidoczne dla aparatury eksperymentalnej. Zespół eksperymentu ATLAS wykluczył, aby prawdopodobieństwo takiego procesu przekraczało 13%. Analogiczne wykluczenie rozpadu bozonu Higgsa na parę tzw. ciemnych fotonów przedstawiła współpraca CMS.
      Polskie grupy z IFJ, AGH i UJ w Krakowie współtworzą zespól eksperymentu ATLAS, a grupy eksperymentalne z UW i NCBJ w Warszawie uczestniczą w eksperymencie CMS.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Analiza danych z Wielkiego Zderzacza Hadronów wskazuje, że w LHC powstają podwójne pary kwark t/antykwark t. Najnowsze odkrycie jest pierwszym krokiem w kierunku przetestowania prawdziwości hipotezy mówiącej, że podwójne pary kwarków t pojawiają się częściej niż wynika to z Modelu Standardowego.
      Kwarki t to najcięższe cząstki elementarne. Każdy z nich ma masę podobną do masy atomu wolframu. Jednocześnie, jako że kwarki t są znacznie mniejsze od protonu, oznacza to, iż są najgęstszą formą materii.
      Kwarki t powstały podczas Wielkiego Wybuchu, jednak błyskawicznie się rozpadły. Obecnie możemy je uzyskiwać i badać jedynie w akceleratorach cząstek. Pierwsze kwarki t zostały odkryte w 1995 roku w akceleratorze Tevatron w Fermilab. Tevatron był wówczas najpotężniejszym akceleratorem na świecie i można w nim było uzyskać parę kwark t/antykwark t raz na kilka dni. Tevatron – najbardziej zasłużony dla nauki akcelerator cząstek – został wyłączony w 2011 roku, po uruchomieniu Wielkiego Zderzacza Hadronów (LHC).
      LHC pracuje z 6,5-krotnie większymi energiami niż Tevatron, a do zderzeń dochodzi w nim około 100-krotnie częściej. Dzięki temu w urządzeniach ATLAS i CMS, będących częścią LHC, możliwe jest uzyskiwanie par kwark t/antykwark t co sekundę.
      Niedawno naukowcy analizowali dane z eksperymentu ATLAS, by sprawdzić, jak często powstają podwójne pary kwark t/antykwark t. Model Standardowy przewiduje, że powinny one powstawać około 70 000 razy rzadziej niż pojedyncze pary kwark t/antykwark t.
      Analizie poddano dane z eksperymentów ATLAS i CMS z lat 2015–2018. Okazało się, że w przypadku eksperymentu ATLAS pewność uzyskiwania tam podwójnych par kwarków t wynosi sigma 4.3, a w przypadku CMS jest to sigma 2.6. Dotychczas uważano, że w obu przypadkach wartość ta wynosi 2.6.
      Sigma to miara pewności statystycznej. Fizycy cząstek mówią o odkryciu, gdy wartość sigma wynosi 5 lub więcej. Oznacza to bowiem, że prawdopodobieństwo, iż mamy do czynienia z przypadkową fluktuacją, a nie z prawdziwą obserwacją, wynosi 1:3500000. Wartość sigma 3 oznacza, że prawdopodobieństwo wystąpienia przypadkowej fluktuacji wynosi 1:740. Wówczas mówi się o dowodzie, wymagającym dalszych potwierdzeń obserwacyjnych. Osiągnięcie wartości 4.6 oznacza, że jesteśmy bardzo blisko potwierdzenia, że w LHC powstają podwójne pary kwarków t. A gdy już zostanie to potwierdzone, można będzie sprawdzić, czy częstotliwość ich powstawania jest zgodna z Modelem Standardowym.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Pierwsze badania spektroskopowe monofluorku radu wskazują, że molekuła ta może zostać wykorzystana do bardzo precyzyjnych testów Modelu Standardowego. Autorzy badań – fizycy z CERN-u oraz laboratorium ISOLDE – twierdzą, że mogą one doprowadzić do ustalenia nowego górnego limitu elektrycznego momentu dipolowego elektronu, a to zaś może pozwolić w wyjaśnieniu, dlaczego we wszechświecie jest więcej materii niż antymaterii.
      Spektroskopia atomowa i molekularna umożliwia przeprowadzenie niezwykle precyzyjnych pomiarów niektórych podstawowych właściwości elektronów i jąder atomowych. Takie pomiary pozwalają na stwierdzenie, czy dana cząstka pasuje do Modelu standardowego. Monofluorek radu to niezwykle interesująca molekuła, gdyż w niektórych jej wersjach izotopowych jądro radu jest bardzo niesymetryczne. Rozkład masy w nim ma kształt gruszki. Ta właściwość oraz sama wysoka masa radu oznaczają, że świetnie się nadaje do badania właściwości elektronów, w tym ich elektrycznego momentu dipolowego.
      Wiemy, że elektron posiada magnetyczny moment dipolowy, będący wynikiem posiadania spinu. W najprostszej wersji Modelu Standardowego parzystość T, czyli parzystość operacji odwrócenia czasu, zakazuje elektronom jednoczesnego posiadania elektrycznego momentu dipolowego. Jednak bardziej złożone wersje Modelu Standardowego dopuszczają, że elektrony posiadają elektryczny moment dipolowy, jednak jego wartość jest niezwykle mała. Jeśli udałoby się wykazać, że wartość ta jest znacząco większa od zakładanej, wskazywałoby to na istnienie fizyki poza Modelem Standardowym oraz oznaczałoby poważne złamanie symetrii we wczesnym wszechświecie, dzięki temu zaś moglibyśmy zrozumieć, dlaczego materii jest więcej niż antymaterii.
      Podczas najnowszych badań wykazano, że molekuły monofluorku radu można za pomocą lasera schłodzić do temperatur nieco tylko wyższych od zera absolutnego. A skoro tak, to można też dokonać niezwykle precyzyjnych pomiarów ich właściwości.
      Dlatego też ISOLDE, CERN i MIT już nawiązały współpracę, której celem jest precyzyjne określenie elektrycznego momentu dipolowego elektronów. Chcemy jeszcze bardziej zmniejszyć różnicę pomiędzy najbardziej precyzyjnymi pomiarami, a teoretycznie przewidywaną wartością momentu dipolowego. Wartość przewidywana przez Model Standardowy jest niezwykle mała i poza obecnym zasięgiem pomiarów. Doprecyzowując ją możemy przetestować teorie przewidujące znacznie wyższą wartość, mówi Gerda Neyens, z Uniwersytetu Katolickiego w Leuven, która stoi na czele laboratorium ISOLDE.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...