Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Monofluorek radu pozwoli wyjaśnić, dlaczego materii jest więcej niż antymaterii?

Recommended Posts

Pierwsze badania spektroskopowe monofluorku radu wskazują, że molekuła ta może zostać wykorzystana do bardzo precyzyjnych testów Modelu Standardowego. Autorzy badań – fizycy z CERN-u oraz laboratorium ISOLDE – twierdzą, że mogą one doprowadzić do ustalenia nowego górnego limitu elektrycznego momentu dipolowego elektronu, a to zaś może pozwolić w wyjaśnieniu, dlaczego we wszechświecie jest więcej materii niż antymaterii.

Spektroskopia atomowa i molekularna umożliwia przeprowadzenie niezwykle precyzyjnych pomiarów niektórych podstawowych właściwości elektronów i jąder atomowych. Takie pomiary pozwalają na stwierdzenie, czy dana cząstka pasuje do Modelu standardowego. Monofluorek radu to niezwykle interesująca molekuła, gdyż w niektórych jej wersjach izotopowych jądro radu jest bardzo niesymetryczne. Rozkład masy w nim ma kształt gruszki. Ta właściwość oraz sama wysoka masa radu oznaczają, że świetnie się nadaje do badania właściwości elektronów, w tym ich elektrycznego momentu dipolowego.

Wiemy, że elektron posiada magnetyczny moment dipolowy, będący wynikiem posiadania spinu. W najprostszej wersji Modelu Standardowego parzystość T, czyli parzystość operacji odwrócenia czasu, zakazuje elektronom jednoczesnego posiadania elektrycznego momentu dipolowego. Jednak bardziej złożone wersje Modelu Standardowego dopuszczają, że elektrony posiadają elektryczny moment dipolowy, jednak jego wartość jest niezwykle mała. Jeśli udałoby się wykazać, że wartość ta jest znacząco większa od zakładanej, wskazywałoby to na istnienie fizyki poza Modelem Standardowym oraz oznaczałoby poważne złamanie symetrii we wczesnym wszechświecie, dzięki temu zaś moglibyśmy zrozumieć, dlaczego materii jest więcej niż antymaterii.

Podczas najnowszych badań wykazano, że molekuły monofluorku radu można za pomocą lasera schłodzić do temperatur nieco tylko wyższych od zera absolutnego. A skoro tak, to można też dokonać niezwykle precyzyjnych pomiarów ich właściwości.

Dlatego też ISOLDE, CERN i MIT już nawiązały współpracę, której celem jest precyzyjne określenie elektrycznego momentu dipolowego elektronów. Chcemy jeszcze bardziej zmniejszyć różnicę pomiędzy najbardziej precyzyjnymi pomiarami, a teoretycznie przewidywaną wartością momentu dipolowego. Wartość przewidywana przez Model Standardowy jest niezwykle mała i poza obecnym zasięgiem pomiarów. Doprecyzowując ją możemy przetestować teorie przewidujące znacznie wyższą wartość, mówi Gerda Neyens, z Uniwersytetu Katolickiego w Leuven, która stoi na czele laboratorium ISOLDE.


« powrót do artykułu

Share this post


Link to post
Share on other sites
45 minut temu, KopalniaWiedzy.pl napisał:

wskazywałoby to na istnienie fizyki poza Modelem Standardowym

Lepiej napisać, że jest efektem niezgodnym z Modelem Standardowym, to że istnieje fizyka poza MS jest pewne od dawna a ostatnio potwierdzono obserwacyjnie.

 

Share this post


Link to post
Share on other sites

Mamy fundamentalne monopole elektryczne i dipole magnetyczne - dualnie do monopoli magnetycznych Diraca, wszystko wskazuje że zarówno monopol magnetyczny, jak i dipol elektryczny są fundamentalnie zero ...

Czyli tutaj raczej nie znajdziemy wyjaśnienia dlaczego mamy więcej barionów niż antybarionów, więc należy szukać gdzie indziej np.:
- model cykliczny z kolejnymi Wielkimi Odbiciami (zapadnięcie-wybuch), w którym może być wręcz zachowana liczba barionowa - przenosząc problem do minus nieskończoności ... liczba barionowa jako stała naszego wszechświata, nie potrzebne żadne łamanie,

- łamanie na poziomie statystycznym jak z życiem: czym więcej np. organizmów używających D-cukrów, tym więcej pożywienia mając kolejne pokolenia tego typu. Sytuacja pół na pół L,D jest statystycznie odpychająca, prowadząc do pełnej dominacji losowo wybranego jednego z nich. W fizyce analogicznie wystarczy symetryczna reguła jak np.: w obecności np. elektronu (pozytronu) ciut łatwiej wytworzyć proton (anty-proton), co spowodowałoby że równowaga między nimi jest statystycznie odpychająca.

 

A co do momentów elektrycznych, znacznie lepiej gdyby się skupili na neutronie.

To są niby 3 naładowane kwarki - nie da się ustawić 3 ładunków żeby był zerowy zarówno moment dipolowy jak i kwadrupolowy - jednak tak bezkrytycznie się przyjmuje.

Tutaj jest kilka prac twierdzących że neutron ma dodatnio naładowany rdzeń i ujemnie 'shell':

https://inspirehep.net/literature/1377841

http://www.actaphys.uj.edu.pl/fulltext?series=Reg&vol=30&page=119

http://www.phys.utk.edu/neutron-summer-school/lectures/greene.pdf

qSl6kTu.png

 

Share this post


Link to post
Share on other sites

Dipolowy jak najbardziej zero.

Pytanie właśnie o kwadrupolowy, "- + -" jak na gęstościach powyżej zwykle oznacza ujemny moment kwadrupolowy ... ale przyjęte jest że cząstka o spinie 1/2 nie może mieć momentu kwadrupolowego i basta.

Owszem niestety przetestowanie tego to bajka, choć pewnie porównywalna kosztem z tymi ograniczeniami na dipol elektryczny elektronu ... i są ciekawe lusterka na neutronach: https://en.wikipedia.org/wiki/Neutron_reflector

 

Też ciekawostka z deuteronem - tutaj wiemy że ma duży dodatni moment kwadrupolowy ...

Tylko jak dostać kwadrupol z "pn"?

No więc stwierdzili że jest on w stanie D jak orbital, czyli że jakby proton jest po obu stronach neutronu ... co jak dla mnie jest oszustwem, pozwalającym osiągnąć dowolny multipol.

Edited by Jarek Duda

Share this post


Link to post
Share on other sites

To jest wniosek z łamania CP, czyli "ponieważ kaony rozpadają się na dwa sposoby, więc neutron musi mieć dipolowy moment elektryczny".

Dobrze, ale jeśli np. za 100 lat poprawimy górną granicę powiedzmy 10^-10 raza, to czy będzie można się w końcu poddać? Czy jeśli nie będzie widać tego dipola to ludzkość już będzie skazana na wieczne poszukiwania?

Czy może jednak warto zostawiać furtkę bezpieczeństwa pozwalającą na stwierdzenie że konkluzja jak powyżej jednak miała w sobie zbyt wiele pychy?

Ogólniej: czy powinniśmy dopasowywać eksperymenty do teorii, czy może jednak teorię do eksperymentów? Jak tutaj wygląda współczesna praktyka?

Może jednak bezpieczniej zamiast bezkrytycznie zakładać np. że kwadrupolowy moment elektryczny neutronu jest zero, jednak agnostycznie potraktować go jako nieznany parametr i dofitować do eksperymentów? Nie, tak się teraz nie robi - jest zero i basta.

Podobnych przykładów z bezkrytyczną wiarą w założenia jest oczywiście znacznie więcej, jak ten chyba najbardziej kluczowy: że elektron jest idealnym punktem - podczas gdy jak się zajrzy do literatury, okazuje się że ta bezkrytyczna wiara wzięła się z ekstrapolacji dopasowując parabolę do dwóch punktów poniżej (!): https://physics.stackexchange.com/questions/397022/experimental-boundaries-for-size-of-electron

6BAG4.png

Share this post


Link to post
Share on other sites
8 godzin temu, Jarek Duda napisał:

Czy może jednak warto zostawiać furtkę bezpieczeństwa pozwalającą na stwierdzenie że konkluzja jak powyżej jednak miała w sobie zbyt wiele pychy?

Nie wiem ile jest w tym pychy, bo według mnie to tylko konsekwencja założeń. Nikt rozsądny chyba nie uważa takiego MS za ostateczną teorię wszystkiego. Zupełnie tego bym nie chciał, ale może nasza wiedza jest limitowana tylko kolejnymi przybliżeniami?

8 godzin temu, Jarek Duda napisał:

Ogólniej: czy powinniśmy dopasowywać eksperymenty do teorii, czy może jednak teorię do eksperymentów? Jak tutaj wygląda współczesna praktyka?

Pytanie retoryczne (ładne :)). Odpowiem Ci z podwórka, które lepiej znam: jest jak powinno być*. ;)

8 godzin temu, Jarek Duda napisał:

jak ten chyba najbardziej kluczowy: że elektron jest idealnym punktem - podczas gdy jak się zajrzy do literatury, okazuje się że ta bezkrytyczna wiara wzięła się z ekstrapolacji dopasowując parabolę do dwóch punktów poniżej

Gdyby tak znienawidzeni przez Ciebie strunowcy wierzyli w to, to chyba nie staraliby się uprawiać uparcie tego ogródka? Wiara innych może brać się stąd, że górne ograniczenie na promień elektronu (empiria) to jakieś 10-22 m, czyli jakieś 7 rzędów wielkości mniej niż "promień" protonu.

*Bodaj z Mistrza i Małgorzaty: "fakty to najbardziej uparta rzecz pod Słońcem".
(oczywiście o ile w tym, co wydaje się nam, że obserwujemy, potrafimy oddzielić fakty)

P.S. Wiem, że dla wielu teoretyków ograniczenia empirii to woda na młyn, ale wydaje mi się, że dla większości to jednak powód do frustracji.

Share this post


Link to post
Share on other sites

Cenię strunowców i podziwiam za biegłość matematyczną, ale widzę dziedzinę jako pułapkę systemu - nakazującego publikowanie ekscytujących rzeczy i wąskie specjalizacje.

26 minutes ago, Astro said:

Wiara innych może brać się stąd, że górne ograniczenie na promień elektronu (empiria) to jakieś 10-22 m, czyli jakieś 7 rzędów wielkości mniej niż "promień" protonu.

No właśnie poszukaj sobie źródła tego stwierdzenia (link powyżej).

Przypuszczam że dojdziesz do konkluzji: "ponieważ g-factor elektronu jest ciut powyżej 2, więc jego promień jest bardzo mały".

Szukając źródła tej "oczywistej konkluzji" dochodzimy do pracy Dehmelta z 1988 ( http://iopscience.iop.org/article/10.1088/0031-8949/1988/T22/016/pdf ) z wykresem powyżej: proton jako z 3 kwarków, triton jako z 3 nukleonów. Z tych dwóch punktów ekstrapolował hipotezę elektronu jako z 3 partonów - chciałoby się użyć prostej, ale wyszedłby ujemny promień, więc sprytnie użył paraboli ... czy zgadzasz się z taką ekstrapolacją? Albo znasz inny argument doświadczalny za tym 10-22m?

Problem w tym że w fizyce jest pełno silnych ukrytych założeń, które mogą mieć podstawy typu ta ekstrapolacja parabolą z dwóch punktów, ale jest tak "oczywiste" że nikt nawet nie sprawdzi ... a naprawa takiego głębokiego przekonania w społeczności graniczy cudem ...

Share this post


Link to post
Share on other sites
15 minut temu, Jarek Duda napisał:

No właśnie poszukaj sobie źródła tego stwierdzenia (link powyżej).

Cytat

Observation of a single electron in a Penning trap suggests the upper limit of the particle's radius to be 10−22 meters.[76] The upper bound of the electron radius of 10−18 meters[77] can be derived using the uncertainty relation in energy. There is also a physical constant called the "classical electron radius", with the much larger value of 2.8179×10−15 m, greater than the radius of the proton. However, the terminology comes from a simplistic calculation that ignores the effects of quantum mechanics; in reality, the so-called classical electron radius has little to do with the true fundamental structure of the electron.[78][79][f]

https://en.wikipedia.org/wiki/Electron#Fundamental_properties
 

Share this post


Link to post
Share on other sites

Dokładnie o tym mówię - sprawdź źródła, dojdziesz do powyższej pracy z 1988 Dehmelta, który dostał nobla za Penning trap w 1989.

Share this post


Link to post
Share on other sites

Czyli według Ciebie elektron to kulka o rozmiarze protonu z pilocikiem na łebku?

Share this post


Link to post
Share on other sites

Intrygująca konkluzja, ale chyba nie o te źródła mi chodziło ...

Spróbuję jeszcze raz: czy mógłbyś naszkicować wnioskowanie tego ograniczenia do 10^-22m (znalezionego w tym źródle wiedzy ostatecznej)?

Ja próbując je prześledzić doszedłem do powyższego wykresu z ekstrapolacją z dwóch punktów parabolą, co brzmi kusząco bo możesz przewidzieć co tylko sobie zamarzysz ... zgadzasz się z takim wnioskowaniem, czy może znasz inne?

 

Natomiast odnośnie moich przekonań, tam gdzieś na szczycie jest zasada zachowania energii - czyli np. produkując elektron+pozytron z 2 x 511keV energii EM w fotonie, końcowa energia pola EM nie może przekraczać początkowej energii, a założenie punktowego ładunku oznaczałoby nieskończoną energię pola elektrycznego - kompletna bzdura.

Żeby dostać 511keV z pola elektrycznego ładunku, należy całkować nie od r=0, tylko od r~1.4fm, czyli dla zachowania energii konieczna jest deformacja pól wszystkich ładunków w tej skali. Rozumiem że masz na myśli promień RMS protonu - to jest uśrednienie po pozycjach 3 kwarków, czyli coś zupełnie innego.

Czy taka regularyzacja (deformacja pola żeby nie przekraczać 511keV) miałaby jakieś konsekwencje eksperymentalne? Owszem, np. jako deformacja oddziaływania Coulombowskiego dla bardzo bliskich cząstek - co jest obserwowane jako running coupling ( https://en.wikipedia.org/wiki/Coupling_constant#QED_and_the_Landau_pole ): alpha deformuje się w bardzo wysokich energiach.

Edited by Jarek Duda

Share this post


Link to post
Share on other sites
33 minuty temu, Jarek Duda napisał:

znalezionego w tym źródle wiedzy ostatecznej

:D Nie jest to dla mnie źródło wiedzy ostatecznej i nie wątpię, że gdybym stracił trochę czasu (a mnie to idzie topornie w tej materii), to doszedłbym do tego co Ty.

Dzięki za wyjaśnienie, a ponieważ nie mam najmniejszego pojęcia czym jest ładunek, to powiedz jak to widzisz. Coś, o czym natura uparcie przekonuje nas, że jest dyskretne miałoby być "ciągłym fluidem" jakoś tam rozmazanym na powierzchni "kulki"?
Skoro pytam, to zahaczę jeszcze o jedno. Czy falki pilotujące ktoś próbuje wplatać w jakąś "konkurencję" dla QCD?

 

Edited by Astro

Share this post


Link to post
Share on other sites

Niestety problem w tym że praktycznie nikt nie szuka, tylko bezmyślnie bezkrytycznie używa tego typu źródeł - bardzo silnych założeń, które oznaczają np. nieskończone energie ... i tak naprawdę często nie mają podstaw w empirii - to jest ten ślepy zaułek współczesnej fizyki z którego społecznie prawie niemożliwe jest wyjść.

Na pytanie czym jest ładunek polecam przemyśleć fluxony/wiry Abrikosova etc. ( https://en.wikipedia.org/wiki/Abrikosov_vortex ) - eksperymentalnie obserwowane kwanty pola magnetycznego (jako solitony topologiczne) które zachowują się jak cząstki, np. mamy kreację/anihilację par, oddziaływania między nimi ... interferencję ( https://journals.aps.org/prb/abstract/10.1103/PhysRevB.85.094503 ), tunelowanie ( https://journals.aps.org/prb/pdf/10.1103/PhysRevB.56.14677 ), Aharonova-Bohma ( http://www.tau.ac.il/~yakir/yahp/yh33 ) ...

Powyżej mamy ładunki topologiczne 2D, jak przeniesiemy to do 3D to kwantyzacja pola magnetycznego staje się kwantyzacją ładunku - dostajemy np. Maxwella z wbudowaną kwantyzacją ładunku (używając topologicznego tw. Gaussa-Bonneta w miejsce prawa Gaussa) i o skończonej energii pola ładunku (analogicznie jak dla fluxonów):

W którym miejscu natura przekonuje nas w dyskretność pola???? Ja widzę tylko argumenty przeciwko, zaczynając od tego że byłoby to sprzeczne z Lorenzowską niezmienniczością.

Odnośnie wpływu falek pilotujących, polecam przeglądnąć hydrodynamiczne analogi zjawisk kwantowych (odtwarzanych eksperymentalnie) jak interferencja, tunelowanie, kwantyzacja orbit, Casimir, Aharonov-Bohm: https://www.dropbox.com/s/kxvvhj0cnl1iqxr/Couder.pdf

Edited by Jarek Duda

Share this post


Link to post
Share on other sites
49 minut temu, Jarek Duda napisał:

W którym miejscu natura przekonuje nas w dyskretność pola???? Ja widzę tylko argumenty przeciwko, zaczynając od tego że byłoby to sprzeczne z Lorenzowską niezmienniczością.

Pisałem o ładunku, ale jakoś nie widzę problemu z kwantyzacją pola. ;)
Twierdzenie Noether, niezmienniczość lorentzowska itd. to owszem, piękne struktury klasyczne i choć nie powątpiewam w nie, to czasem (tak odbiję celowo od dziczki ;)) zastanawiam się na ile to fundamentalne prawa Rzeczywistości, a na ile coś "emergentnego" z czegoś bardziej fundamentalnego (oczywiście o ile istnieje).

Godzinę temu, Jarek Duda napisał:

Odnośnie wpływu falek pilotujących, polecam przeglądnąć hydrodynamiczne analogi zjawisk kwantowych (odtwarzanych eksperymentalnie) jak interferencja, tunelowanie, kwantyzacja orbit, Casimir, Aharonov-Bohm

Tak, kojarzę, ale raczej nie o to pytałem. Nie chodziło mi o analogie hydrodynamiczne dla kucharek (to analogon dowcipu z dawnych czasów, gdy często spotykałem się z "[...] dla fizyków"; czemuż więc nie np. "Mechanika kwantowa dla kucharek"? ;))

P.S. Moim zdaniem analogie klasyczne (jednak) w dość złożonych układach mogą się mieć nijak do czegoś dużo prostszego (i być może bardziej fundamentalnego).
Zamiast jednej magii aż trzy? Determinizm + magiczny pilot + nielokalność (znaczy ta ostatnia aż tak mnie nie boli)...

3 godziny temu, Jarek Duda napisał:

widzę dziedzinę jako pułapkę systemu - nakazującego publikowanie ekscytujących rzeczy i wąskie specjalizacje

Ech... Nie chciałem się odnosić, ale może jednak dodam. To pułapka całego systemu, nie tylko strunowców, nie tylko fizyki (w system finansowania chyba nie będziemy wchodzić; to też pułapka i przekleństwo, ale przyznam, że wolę to co jest niż wolę króla, któremu wiadomo co tylko mogłoby się podobać). Raz czy drugi też zdarzyło mi się zadać niezbyt wygodne pytania (może w mniejszym formacie)... Milczenie jest raczej tutaj powszechną odpowiedzią.

P.S. Jeszcze taki mały patent na "życie". Załóżmy, że interesują Cię robale X, ale wszyscy zachwyceni są robalami Y (jest medialne). Co robić? Składasz wniosek dotyczący poszukiwania Y w środowisku Z, w którym nikt by się nie spodziewał Y, choć z pewnością występują tam X. Masz dwie publikacje: jedna dotyczy kategorycznego stwierdzenia, że Y nie występują w Z, co potwierdzasz dowodami za grubą kasę, a przy okazji robisz swoje.

Share this post


Link to post
Share on other sites

Są przeróżne kwantyzacje też klasycznych pól, np.:

- ładunku możemy zrobić analogicznie jak fluxony realizują kwantyzację pola magnetycznego - ładunkiem topologicznym (2D dla kwantyzacji pola magnetycznego, 3D dla ładunku elektrycznego),

- kwantyzacja orbit jest osiągana na wiele sposobów dla tych skaczących kropelek z "dualizmem korpuskularno-falowym" też podwójna (promienia i momentu pędu), efekt Zeemana (siła Coriolisa jako Lorentza): slajdy 14, 19-25 w https://www.dropbox.com/s/kxvvhj0cnl1iqxr/Couder.pdf ) ... ogólnie warunek kwantyzacji bierze się tutaj z rezonansu z polem - tak żeby sprzężona fala była fają stojącą (opisywaną Schrodingerem) żeby zminimalizować energię fluktuacji,

- tu jest "układ okresowy" z podwójną kwantyzacją dla wibracji jednej kropelki: https://www.pnas.org/content/116/11/4849

- druga kwantyzacja czyli w praktyce przejście do zespołów po diagramach Feynmana czyli scenariuszach - też trzeba je rozważyć chcąc liczyć zdarzenia na kropelkach czy solitonach gdy nie posiadamy pełnej informacji o stanie układu.

Problemy w fizyce biorą się głównie z bezkrytycznej wiary w stare założenia, jak ten punktowy ładunek mimo nieskończonej energii i braku prawdziwych argumentów eksperymentalnych ... też z tego że niby dalej oficjalnie "nikt nie rozumie mechaniki kwantowej", czyli można popuścić wodze fantazji - zamiast prawdziwej dyskusji jest kilku autorytetów którzy narzucają swoje ekscytujące pomysły.

Share this post


Link to post
Share on other sites
19 minut temu, Jarek Duda napisał:

Problemy w fizyce biorą się głównie z bezkrytycznej wiary w stare założenia, jak ten punktowy ładunek mimo nieskończonej energii i braku prawdziwych argumentów eksperymentalnych ...

Jarku, nie bym złośliwością próbował odbijać, bo Nobelka dostaje się nie tylko za potwierdzenie, ale i za obalenie pewnych "ugruntowanych" rzeczy. Zapewne nie dziwi Cię ogromna ilość eksperymentów "potwierdzających" OTW. Zapewne doskonale wiesz, że każdy "ustawiający eksperyment" liczył na coś zupełnie innego. ;)
Przy okazji tych, którzy niekoniecznie przyjmują zasadę zachowania energii (i mają ku temu jakieś argumenty) też nie brakuje. Problem oczywiście w empirii, ale już dawno nasze możliwości "poznawcze" zostały w tyle za naszymi koncepcjami. Na szczęście nie wszędzie (by o astrofizykach nie wspomnieć ;)).

19 minut temu, Jarek Duda napisał:

też z tego że niby dalej oficjalnie "nikt nie rozumie mechaniki kwantowej", czyli można popuścić wodze fantazji - zamiast prawdziwej dyskusji jest kilku autorytetów którzy narzucają swoje ekscytujące pomysły

Problem "terminowania" jest znany od dawna, ale spójrz proszę na Einsteina. Miał pod górkę, ale nic nie stało na przeszkodzie, by sam zbyt długo "trzymał" pracę Theodora Kaluzy.
Nie chcę być złośliwy, ale gdyby Ci się udało... ;)
Wydaje mi się zdecydowanie, że obecnie młodzi mają zdecydowanie bardziej z górki. To, czy im chce się włączyć myślenie bardziej "ogólne" to już inny problem.

Dodam tylko, że (niestety, w większości tak bywa) bardziej "ogólny" ogląd wymaga nieco przebrnięcia również przez ścieżki, które "nie dają nadziei". Znaczy kwestia jednak doświadczenia wielu problemów.

Edited by Astro

Share this post


Link to post
Share on other sites

Najważniejszy eksperyment "potwierdzający OTW" to jest Gravity Probe B ... który tak naprawdę potwierdził GEM ( https://en.wikipedia.org/wiki/Gravitoelectromagnetism wprowadzony wcześniej przez Heavisidea) jako przybliżenie OTW - to jest poziom którego raczej możemy być pewni, w przeciwieństwie do pełnego OTW trywialnie go zunifikować z EM (kolejne F_munu F^munu w Lagrangianie) ... co z kolejnymi poprawkami to ja nie wiem, bardzo trudno tutaj rozróżnić ukryte założenia od rzeczywistych wyników eksperymentalnych.

Problemy sprzed wieku były zupełnie inne - oczywiste braki które trzeba było uzupełnić, tzw. "low hanging fruit". Obecne problemy są głównie oparte na naleciałościach których nie da się ruszyć - bezkrytycznie przyjmowanych założeniach jak o punktowości elektronu (bo 30 lat temu noblista dofitował parabolę do dwóch punktów), które wręcz zabrania zadawania podstawowych pytań o strukturę pól EM cząstek.

Share this post


Link to post
Share on other sites
2 minuty temu, Jarek Duda napisał:

"low hanging fruit"

Czasami ktoś chwyci i... Bingo. Było g*no. :D
Wbrew pozorom nie uważam tego za "low hanging fruit". Owszem, powszechnie astrofizycy to ciemnogród "miu-mezonów", ale co ciekawe od wczoraj (chyba) zniknęło to z wiki. :)

13 minut temu, Jarek Duda napisał:

Obecne problemy są głównie oparte na naleciałościach których nie da się ruszyć - bezkrytycznie przyjmowanych założeniach jak o punktowości elektronu

Jarku, radośnie odrzuć to i działaj. Nikt Ci nie zabroni. :)
Wszystko przed Tobą.

Share this post


Link to post
Share on other sites

Jakkolwiek by się wyklarował obraz na temat grawitacji sto lat temu (też wariacje na temat GEM Heavisidea), współcześni astrofizycy by go teraz bronili na śmierć i życie - ze względu na kilka pokoleń odstępu między teorią a porządną weryfikacją (czyli tysięcy doktoratów, artykułów, karier) - Gravity Probe B to prawie stulecie odstępu i zweryfikował tylko pierwszą poprawkę (wspólną dla Heavisidea i Einsteina, konieczną dla Lorentzowskiej niezmienniczości).

Z działaniem w postaci np. pytania o strukturę pól EM elektronu jest właśnie ten problem społeczny że "wszyscy wiedzą że jest punktem" (co tam nieskończona energia) i nikt nawet nie próbuje weryfikować tej informacji.

Share this post


Link to post
Share on other sites

Jarku. Ludzie, którzy bardziej cenili OBSERWACJE dokładnie wówczas, gdy już Einstein nie był już "młody" prowadzili takie debaty:
https://en.wikipedia.org/wiki/Great_Debate_(astronomy)
Potem Einstein musiał pluć sobie zresztą w brodę i nigdy nie przeprosił Kaluzy. Przypadek? :D

8 minut temu, Jarek Duda napisał:

współcześni astrofizycy by go teraz bronili na śmierć i życie - ze względu na kilka pokoleń odstępu między teorią a porządną weryfikacją (czyli tysięcy doktoratów, artykułów, karier)

Wal śmiało, nazwiskami. :)

11 minut temu, Jarek Duda napisał:

(też wariacje na temat GEM Heavisidea)

Bardziej Cię boli samouk, czy fizyk? ;)

Share this post


Link to post
Share on other sites

Mówię tyko że wtedy była swoboda którą dopiero teraz powoli technicznie jesteśmy w stanie weryfikować ... ale w międzyczasie jej wynik tak głęboko społecznie się zakorzenił, że pojawia się poważny problem z rzeczywiście obiektywną oceną, kluczowe osoby bardziej mają motywację żeby zachwalać legendę ... "Einstein dał nam pracę".

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Podczas ostatnich badań w CERN zdobyto dane, które – jeśli zostaną potwierdzone – będą oznaczały, że doszło do naruszenia Modelu Standardowego. Dane te dotyczą potencjalnego naruszenia zasady uniwersalności leptonów. O wynikach uzyskanych w LHCb poinformowano podczas konferencji Recontres de Moriond, na której od 50 lat omawia się najnowsze osiągnięcia fizyki oraz w czasie seminarium w CERN.
      Podczas pomiarów dokonywanych w LHCb porównywano dwa typy rozpadu kwarków powabnych. W pierwszym z nich pojawiają się elektrony, w drugim miony. Miony są podobne do elektronów, ale mają około 200-krotnie większą masę. Elektron, mion i jeszcze jedna cząstka – tau – to leptony, które różnią się pomiędzy sobą zapachami. Zgodnie z Modelem Standardowym, interakcje, w wyniku których pojawiają się leptony, powinny z takim samym prawdopodobieństwem prowadzić do pojawiania się elektronów i mionów podczas rozpadu kwarka powabnego.
      W roku 2014 zauważono coś, co mogło wskazywać na naruszenie zasady uniwersalności leptonów. Teraz, po analizie danych z lat 2011–2018 fizycy z CERN poinformowali, że dane wydają się wskazywać, iż rozpad kwarka powabnego częściej dokonuje się drogą, w której pojawiają się elektrony niż miony.
      Istotność zauważonego zjawiska to 3,1 sigma, co oznacza, iż prawdopodobieństwo, że jest ono zgodne z Modelem Standardowym wynosi 0,1%. Jeśli naruszenie zasady zachowania zapachu leptonów zostanie potwierdzone, wyjaśnienie tego procesu będzie wymagało wprowadzenie nowych podstawowych cząstek lub interakcji, mówi rzecznik prasowy LHCb profesor Chris Parkes z University of Manchester.
      Rozpad kwarka powabnego prowadzi do pojawienia się kwarka dziwnego oraz elektronu i antyelektronu lub mionu i antymionu. Zgodnie z Modelem Standardowym w procesie tym pośredniczą bozony W+ i Z0. Jednak naruszenie zasady uniwersalności leptonów wskazuje, że zaangażowana w ten proces może być jakaś nieznana cząstka. Jedna z hipotez mówi, że jest to leptokwark, masywny bozon, który wchodzi w interakcje zarówno z leptonami jak i z kwarkami.
      Co istotne, dane z LHCb zgadzają się z danymi z innych anomalii zauważonych wcześniej zarówno w LHCb, jak i obserwowanych od 10 lat podczas innych eksperymentów na całym świecie. Nicola Serra z Uniwersytetu w Zurichu mówi, że jest zbyt wcześnie by wyciągać ostateczne wnioski. Jednak odchylenia te zgadzają się ze wzorcem anomalii obserwowanych przez ostatnią dekadę. Na szczęście LHCb jest odpowiednim miejscem, w którym możemy sprawdzić potencjalne istnienie nowych zjawisk fizycznych w tego typu rozpadach. Musimy przeprowadzić więcej pomiarów.
      LHCb to jeden z czterech głównych eksperymentów Wielkiego Zderzacza Hadronów.Jego zadaniem jest badanie rozpadu cząstek zawierających kwark powabny.
      Artykuły na temat opisanych tutaj badań zostały opublikowane na stronach arXiv oraz CERN.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Zderzenia pomiędzy wysoko energetycznymi protonami po raz pierwszy pozwoliły na przyjrzenie się niezwykłym hiperonom. Zaliczane są one do cząstek dziwnych. To bariony zawierające co najmniej jeden kwark dziwny. Hiperony prawdopodobnie występują w jądrach gwiazd neutronowych, zatem ich badanie może sporo zdradzić na temat samych gwiazd oraz środowisk o tak ekstremalnie upakowanej materii.
      Hiperony są hadronami, czyli cząstek złożonych z co najmniej dwóch kwarków. Interakcje pomiędzy hadronami mają miejsce za pośrednictwem oddziaływań silnych. Niezbyt wiele wiemy o oddziaływaniach pomiędzy hadronami, a większość tej wiedzy pochodzi z badan, w których używane są protony i neutrony. Natura oddziaływań silnych powoduje, że bardzo trudno jest czynić w ich przypadku przewidywania teoretyczne. Trudno jest więc teoretycznie badać, jak hadrony oddziałują między sobą. Zrozumienie tych oddziaływań jest często nazywane „ostatnią granicą” Modelu Standardowego.
      Protony, neutrony i hiperony składają się z trzech kwarków. O ile jednak protony i neutrony zbudowane są wyłącznie z kwarków górnych i dolnych, to hiperony zawierają co najmniej jeden kwark dziwny. Badanie hiperonów daje nam zatem nowe informacje na temat oddziaływań silnych.
      Podczas badań naukowcy z CERN, pracujący przy eksperymencie ALICE, przyglądali się wynikom zderzeń wysoko energetycznych protonów, w wyniku których w otoczeniu miejsca kolizji pojawiają się „źródła” cząstek. Dochodzi do interakcji kwarków i gluonów, tworzących nowe cząstki. Powstają też pary hiperonów i protonów. Naukowcy, mierząc korelacje momentów pędu w takich parach zbierają informacje na temat sposobu ich interakcji.
      Interakcje takie można w ograniczonym stopniu przewidywać na podstawie modelowania zachowania kwarków i gluonów. Najnowsze badania wykazały, że przewidywania niemal idealnie zgadzają się z pomiarami.
      Ze szczegółami badań można zapoznać się na łamach Nature.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Kosmologowie od dawna mają problem z jedną z podstawowych wartości opisujących wszechświat – tempem jego rozszerzania się. Różne pomiary przynoszą bowiem różne wartości. Teraz coraz wyraźniej widać kolejne pęknięcie w standardowym modelu kosmologicznym. Niedawno grupa naukowców wykazała, że wszechświat jest niespodziewanie rzadki. Materia nie gromadzi się w nim tak, jak się spodziewano. Podobne sygnały pojawiały się już wcześniej, tym razem jednak mamy do czynienia z najbardziej szczegółową analizą danych zbieranych przez 7 lat.
      Dane są na tyle wiarygodne, że niektórzy specjaliści zastanawiają się, czy nie wpadliśmy na trop czegoś nieznanego. Mamy już ciemną materię i ciemną energię. Mam nadzieję, że do wyjaśnień nie potrzebujemy kolejnej ciemnej rzeczy, mówi Michael Hudson, kosmolog z University of Waterloo, który nie był zaangażowany w najnowsze badania.
      Autorzy najnowszych badań, skupieni wokół inicjatywy Kilo-Degree Survey (KiDS), obserwowali około 31 milionów galaktyk, położonych w promieniu do 10 miliardów lat świetlnych od Ziemi. Na podstawie tych obserwacji wyliczyli średni rozkład niewidocznego gazu i ciemnej materii we wszechświecie. Odkryli, że jest jej niemal o 10% mniej niż przewiduje jeden z najpowszechniej uznawanych modeli kosmologicznych, Model Lambda-CDM.
      W ciągu ostatnich ośmiu lat pojawiło się kilkanaście badań, których autorzy – korzystając z różnych technik – dochodzili do wniosku, że materia nie gromadzi się zgodnie z przewidywaniami. Rozpatrywane osobno badania te nie mają większego znaczenia. Rozważane w nich kwestie są tak trudne do zbadania, że łato mogło dojść do pomyłek. Jednak coraz częściej pojawiają się głosy, że to nie statystycznie dopuszczalne niedoskonałości w badaniach, ale reguła. Gdy w wielu różnych zestawach danych zaczynasz dostrzegać tę samą rzecz, musisz wziąć pod uwagę, że coś w tym jest, stwierdza Hudson.
      Naukowcy muszą teraz pogodzić dwie sprzeczne ze sobą rzeczy. Z jednej strony, by określić tempo rozszerzania się wszechświata – w wiele wskazuje na to, że jest ono większe, niż sądzono – muszą znaleźć dodatkowy element, który go napędza. Z drugiej jednak strony skoro materia nie gromadzi się razem tak, jak przypuszczano, do siły na nią oddziałujące są słabsze, a nie mocniejsze, jak wymagałoby tego wyjaśnienie tempa rozszerzania się wszechświata. Julien Lesgourgues, kosmolog-teoretyk z Uniwersytetu Aachen mówi, że znalezienie satysfakcjonującego wyjaśnienia obu tych zjawisk będzie koszmarem.
      Podejmowane są pewne próby wyjaśnień wspomnianych zjawisk. Przyspieszenie ekspansji wszechświata można by wyjaśnić „ciemnym promieniowaniem”. Jednak trzeba by je zbilansować dodatkową materią, która by się grupowała. Aby osiągnąć obserwowane mniejsze grupowanie się, trzeba by wprowadzić dodatkowy element, który to uniemożliwia. Tutaj pojawia się próba wyjaśnienia w postaci zamiany ciemnej materii – która powoduje grupowanie się materii – w ciemną energię, powodującą jej oddalanie się od siebie. Można też przyjąć, że Ziemia znajduje się w jakimś wielkim bąblu rozrzedzonej materii, co zaburza nasze obserwacje. Lub też uznać, że szybkie tempo rozszerzania się wszechświata i mniejsze grupowanie się materii nie są ze sobą powiązane. Nie widzę obecnie żadnego satysfakcjonującego wyjaśnienia. Jeśli jednak byłbym teoretykiem byłbym bardzo podekscytowany, mówi Hudson.
      Wciąż też istnieje prawdopodobieństwo, że oba omawiane zjawiska lub przynajmniej jedno z nich, w rzeczywistości nie mają miejsca. Jednak by to stwierdzić, trzeba poczekać na inne dane. KiDS to jeden z trzech dużych projektów badawczych. Inne to międzynarodowy Dark Energy Survey prowadzony w Chile i japoński Hyper Suprime-Cam. W ramach każdego z nich skanowany jest inny fragment nieboskłonu na inną głębokość. W czasie ostatniej kampanii Dark Energy Survey przeskanowano obszar 5-krotnie większy niż badał KiDS. Wyniki powinny ukazać się w ciągu najbliższych miesięcy. Wszyscy na nie czekają. To kolejna wielka rzecz w kosmologii, mówi Daniel Scolnic, kosmolog z Duke University, który specjalizuje się w badaniu tempa rozszerzania się wszechświata.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Międzynarodowy zespół tropiący neutrina "nowej fizyki" skonfrontował dane ze wszystkich istotnych eksperymentów powiązanych z rejestracją neutrin z rozszerzeniami Modelu Standardowego proponowanymi przez teoretyków. Najnowsza analiza, pierwsza o tak kompleksowym zasięgu, ukazuje skalę wyzwań stojących przed poszukiwaczami prawoskrętnych neutrin, ale też niesie i iskierkę nadziei.
      We wszystkich zaobserwowanych procesach z udziałem neutrin cząstki te wykazują się cechą nazywaną przez fizyków lewoskrętnością. Neutrin prawoskrętnych, będących naturalnym dopełnieniem Modelu Standardowego, nie widać nigdzie. Dlaczego? Na to pytanie pomaga odpowiedzieć najnowsza, wyjątkowo kompleksowa, analiza, przeprowadzona przez międzynarodową grupę fizyków, w tym z Instytutu Fizyki Jądrowej Polskiej Akademii Nauk (IFJ PAN) w Krakowie. Po raz pierwszy przy użyciu najnowocześniejszych metod statystycznych uwzględniono tu dane ze wszystkich istotnych eksperymentów pośrednio i bezpośrednio dedykowanych rejestrowaniu neutrin i skonfrontowano je z zakresami parametrów narzucanych przez różne rozszerzenia teoretyczne Modelu Standardowego.
      Pierwszą cząstkę subatomową, elektron, zaobserwowano ponad 120 lat temu. Od tego czasu fizycy odkryli ich całe zoo. Bogactwo cegiełek natury wyjaśniono przy założeniu, że świat materii składa się z masywnych kwarków, występujących w sześciu odmianach, oraz znacznie mniej masywnych leptonów, także sześciu rodzajów. Do leptonów zakwalifikowano elektron, mion (o masie 207 razy większej od masy elektronu), taon (3477 mas elektronu) i odpowiadające im trzy rodzaje neutrin.
      Neutrina niezwykle słabo oddziałują z resztą materii. Wykazują też inne cechy o szczególnym znaczeniu dla kształtu współczesnej fizyki. Niedawno odkryto, że cząstki te oscylują, czyli nieustannie przekształcają się z jednego rodzaju w inny. Zjawisko to oznacza, że obserwowane neutrina muszą mieć pewną (choć bardzo małą) masę. Tymczasem Model Standardowy, czyli współczesne narzędzie teoretyczne ze znakomitą dokładnością opisujące cząstki subatomowe, nie pozostawia alternatyw: w jego ramach neutrina nie mogą mieć masy! Ta sprzeczność między teorią a doświadczeniem jest jedną z najsilniejszych wskazówek przemawiających za istnieniem nieznanych cząstek subatomowych. Masa neutrin nie jest jednak ich jedyną zastanawiającą właściwością.
      O obecności neutrin dowiadujemy się, obserwując produkty rozpadów różnych cząstek i porównując to, co zarejestrowaliśmy, z tym, co przewiduje teoria. Okazuje się, że we wszystkich procesach świadczących o obecności neutrin cząstki te zawsze miały tę samą skrętność: 1/2, czyli były lewoskrętne. To ciekawe, bo pozostałe cząstki materii mogą być zarówno lewo-, jak i prawoskrętne. Lecz nigdzie nie widać neutrin prawoskrętnych, o spinie -1/2! Jeśli nie istnieją, to dlaczego? A jeśli istnieją, gdzie się chowają? - pyta dr hab. Marcin Chrząszcz (IFJ PAN).
      Artykuł międzynarodowego zespołu fizyków, właśnie opublikowany w czasopiśmie The European Physical Journal C, przybliża nas do odpowiedzi na powyższe pytania. Naukowcy z IFJ PAN, European Organization for Nuclear Research (CERN, Genewa), Université catholique de Louvain (Louvain-la-Neuve, Belgia), Monash University (Melbourne, Australia), Technische Universität München (Niemcy) i University of Amsterdam (Holandia) przeprowadzili jak do tej pory najdokładniejszą analizę danych zebranych w kilkunastu najbardziej wyrafinowanych eksperymentach z zakresu fizyki subatomowej, zarówno tych o charakterze ogólnym, jak też bezpośrednio dedykowanych obserwacjom neutrin (m.in. PIENU, PS-191, CHARM, E949, NuTeV, DELPHI, ATLAS, CMS).
      Badacze nie ograniczyli się do samego zwiększenia liczby eksperymentów i ilości przetworzonych danych. W swojej analizie uwzględnili możliwość występowania hipotetycznych procesów proponowanych przez teoretyków, a wymagających obecności neutrin prawoskrętnych. Jednym z nich był mechanizm huśtawki, związany z neutrinami Majorany.
      W 1937 roku Ettore Majorana zapostulował istnienie cząstki materii będącej własną antycząstką. Taka cząstka nie mogłaby mieć ładunku elektrycznego. Ponieważ z wyjątkiem neutrin wszystkie cząstki materii przenoszą ładunek elektryczny, nową cząstką może być właśnie neutrino.
      Z teorii wynika, że jeśli neutrina Majorany istnieją, to może również istnieć mechanizm huśtawki. Powodowałby on, że gdy neutrina o jednej skrętności są mało masywne, to neutrina o skrętności przeciwnej muszą mieć bardzo duże masy. Skoro więc nasze neutrina, lewoskrętne, mają znikome masy, to w wersji prawoskrętnej musiałyby być masywne. To tłumaczyłoby, dlaczego ich dotychczas nie zobaczyliśmy - mówi dr hab. Chrząszcz i dodaje, że takie neutrina są jednym z kandydatów na ciemną materię.
      Analiza, przeprowadzona z użyciem specjalistycznego pakietu open source GAMBIT, uwzględniała wszystkie aktualnie dostępne dane doświadczalne oraz zakresy parametrów przewidziane przez różne mechanizmy teoretyczne. Pod względem numerycznym była karkołomna. Sam mechanizm huśtawki powodował, że przy obliczeniach należało operować liczbami zmiennopozycyjnymi nie o podwójnej, a o poczwórnej precyzji. Ostatecznie objętość danych sięgnęła 60 TB. Analizę trzeba było przeprowadzić w najszybszym polskim klastrze obliczeniowym Prometheus, zarządzanym przez Akademickie Centrum Komputerowe Cyfronet Akademii Górniczo-Hutniczej.
      Wyniki analizy, po stronie polskiej finansowanej z grantów Fundacji na rzecz Nauki Polskiej i Narodowej Agencji Wymiany Akademickiej, nie napawają optymizmem. Okazało się, że mimo wielu eksperymentów i ogromnej ilości zgromadzonych danych, przestrzeń możliwych parametrów została spenetrowana w niewielkim stopniu.
      Być może prawoskrętne neutrina odkryjemy w eksperymentach, które rozpoczną się lada chwila. Jeśli jednak będziemy mieć pecha i prawoskrętne neutrina kryją się w najdalszych zakamarkach przestrzeni parametrów, na ich odkrycie możemy poczekać nawet i sto lat - mówi dr hab. Chrząszcz.
      Na szczęście pojawił się też cień nadziei. W danych wychwycono ślad potencjalnego sygnału, który można byłoby wiązać z prawoskrętnymi neutrinami. Na obecnym etapie jest on bardzo słaby i ostatecznie może się okazać tylko statystyczną fluktuacją. Lecz co by się stało, gdyby nią nie był?
      W takim przypadku wszystko wskazuje na to, że prawoskrętne neutrina dałoby się zaobserwować już w następcy LHC, akceleratorze Future Circular Collider. FCC ma jednak pewną wadę: rozpocząłby pracę mniej więcej 20 lat od zatwierdzenia, do czego w optymalnym wariancie może dojść latem tego roku. Jeśli nie dojdzie, nim zobaczymy prawoskrętne neutrina, będziemy musieli się uzbroić we wręcz gigantyczną cierpliwość - podsumowuje dr hab. Chrząszcz.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Analiza danych z Wielkiego Zderzacza Hadronów wskazuje, że w LHC powstają podwójne pary kwark t/antykwark t. Najnowsze odkrycie jest pierwszym krokiem w kierunku przetestowania prawdziwości hipotezy mówiącej, że podwójne pary kwarków t pojawiają się częściej niż wynika to z Modelu Standardowego.
      Kwarki t to najcięższe cząstki elementarne. Każdy z nich ma masę podobną do masy atomu wolframu. Jednocześnie, jako że kwarki t są znacznie mniejsze od protonu, oznacza to, iż są najgęstszą formą materii.
      Kwarki t powstały podczas Wielkiego Wybuchu, jednak błyskawicznie się rozpadły. Obecnie możemy je uzyskiwać i badać jedynie w akceleratorach cząstek. Pierwsze kwarki t zostały odkryte w 1995 roku w akceleratorze Tevatron w Fermilab. Tevatron był wówczas najpotężniejszym akceleratorem na świecie i można w nim było uzyskać parę kwark t/antykwark t raz na kilka dni. Tevatron – najbardziej zasłużony dla nauki akcelerator cząstek – został wyłączony w 2011 roku, po uruchomieniu Wielkiego Zderzacza Hadronów (LHC).
      LHC pracuje z 6,5-krotnie większymi energiami niż Tevatron, a do zderzeń dochodzi w nim około 100-krotnie częściej. Dzięki temu w urządzeniach ATLAS i CMS, będących częścią LHC, możliwe jest uzyskiwanie par kwark t/antykwark t co sekundę.
      Niedawno naukowcy analizowali dane z eksperymentu ATLAS, by sprawdzić, jak często powstają podwójne pary kwark t/antykwark t. Model Standardowy przewiduje, że powinny one powstawać około 70 000 razy rzadziej niż pojedyncze pary kwark t/antykwark t.
      Analizie poddano dane z eksperymentów ATLAS i CMS z lat 2015–2018. Okazało się, że w przypadku eksperymentu ATLAS pewność uzyskiwania tam podwójnych par kwarków t wynosi sigma 4.3, a w przypadku CMS jest to sigma 2.6. Dotychczas uważano, że w obu przypadkach wartość ta wynosi 2.6.
      Sigma to miara pewności statystycznej. Fizycy cząstek mówią o odkryciu, gdy wartość sigma wynosi 5 lub więcej. Oznacza to bowiem, że prawdopodobieństwo, iż mamy do czynienia z przypadkową fluktuacją, a nie z prawdziwą obserwacją, wynosi 1:3500000. Wartość sigma 3 oznacza, że prawdopodobieństwo wystąpienia przypadkowej fluktuacji wynosi 1:740. Wówczas mówi się o dowodzie, wymagającym dalszych potwierdzeń obserwacyjnych. Osiągnięcie wartości 4.6 oznacza, że jesteśmy bardzo blisko potwierdzenia, że w LHC powstają podwójne pary kwarków t. A gdy już zostanie to potwierdzone, można będzie sprawdzić, czy częstotliwość ich powstawania jest zgodna z Modelem Standardowym.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...