Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Unikatowe badania antymaterii mogą wstrząsnąć Modelem Standardowym

Recommended Posts

Naukowcy z CERN-u wykorzystali zaawansowane techniki spektroskopii laserowej do zbadania, po raz pierwszy w historii, struktury subtelnej antywodoru. Okazało się, że przesunięcie Lamba – niewielkie rozbieżności między obserwowanymi poziomami energetycznymi, a przewidywaniami równania Diraca – jest tutaj takie samo jak w przypadku wodoru.

Fakt że w kosmosie wydaje się istnieć bardzo niewiele antymaterii od dawna niepokoi fizyków. Tworzenie i badania atomów antymaterii to jeden ze sposobów na poznanie przyczyn tej asymetrii. Szczególnym zainteresowaniem cieszy się tutaj badanie anomalii w spektrach antyatomów i porównywanie ich ze spektrami atomów, za pomocą którego możemy odkryć i wyjaśnić naruszenie symetrii CPT.

ALPHA tworzy atomy antywodoru łącząc antyprotony dostarczane przez Antiproton Decelerator z antyalektronami. Następnie całość umieszcza w pułapce magnetycznej w próżni, dzięki czemu antywodór nie wchodzi w reakcję z materią i nie ulega anihilacji. Na atomy antywodoru kierowane jest następnie światło lasera, za pomocą którego dokonywane są pomiary.

Na łamach Nature opisano najnowszy eksperyment, podczas którego uczeni z ALPHA badali strukturę subtelną antywodoru znajdującego się w pierwszym stanie wzbudzonym. Pomiary wykonano za pomocą setek antyatomów, które wytwarzano w grupach po około 20 średnio co 4 minuty. Antyatomy były przez dwa dni przechowywane w pułapce magnetycznej. Następnie za pomocą krótkich impulsów światła ultrafioletowego poziom wzbudzenia był zmieniany ze stanu podstawowego do 2P1/2 lub 2P3/2. Gdy antyatomy wracały do stanu 1S niektóre z nich uciekały z pułapki i ulegały anihilacji z atomami z jej ścianek.

W ten sposób naukowcy byli w stanie określić różnice pomiędzy oboma stanami 2P, a stanem 1S. Pomiarów z dokładnością 16 części na miliard. Okazało się, że rozszczepienie struktury subtelnej atomów wodoru i antywodoru jest takie samo. Niepewność obliczeń nie przekracza tutaj 2%. Również badania przesunięcia Lamba wykazały wysoką zgodność pomiędzy atomami wodoru i antywodoru. Tutaj różnice nie przekraczają 11%.

Randolf Pohl z Uniwersytetu w Moguncji mówi, że zespół ALPHA osiągnął spektakularny sukces w dziedzinie spektroskopii laserowej antywodoru. Szczególnie ważnym osiągnięciem jest zmniejszenie niepewności pomiaru przesunięcia Lamba do mniej niż 1/10000. Dalsze uściślenie pomiarów powinno pozwolić na zbadanie czy rzeczywiście dochodzi do naruszenia symetrii CPT.

Stwierdzenie, że pomiędzy tymi dwiema formami materii nie ma żadnej różnicy, może wstrząsnąć podstawami fizyki opartej na Modelu Standardowym. Nasze nowe pomiary dotyczą pewnych aspektów związanych z interakcją antymaterii, takich jak przesunięcie Lamba, które od dawna chcemy badać, mówi Jeffrey Hangst, rzecznik prasowy grupy ALPHA.
W następnym etapie naszych badań chcemy wykorzystać najnowocześniejszą technikę do schłodzenia dużych ilości antywodoru. Tego typu techniki umożliwią niezwykle precyzyjne porównanie materii i antymaterii, dodaje.


« powrót do artykułu

Share this post


Link to post
Share on other sites
2 godziny temu, KopalniaWiedzy.pl napisał:

Stwierdzenie, że pomiędzy tymi dwiema formami materii nie ma żadnej różnicy, może wstrząsnąć podstawami fizyki opartej na Modelu Standardowym.

 M.S. spodziewa się różnic w poziomach energetycznych i widmach wodoru i antywodoru? Czy chodzi o to, że dalej nie widać powodu, dla którego mamy więcej materii niż antymaterii?   

Edited by Jajcenty

Share this post


Link to post
Share on other sites

Clou programu sprowadza się do:

2 godziny temu, KopalniaWiedzy.pl napisał:

Szczególnym zainteresowaniem cieszy się tutaj badanie anomalii w spektrach antyatomów i porównywanie ich ze spektrami atomów, za pomocą którego możemy odkryć i wyjaśnić naruszenie symetrii CPT.

Na razie nie odkryliśmy. ;)

Share this post


Link to post
Share on other sites
3 godziny temu, Jajcenty napisał:

Czy chodzi o to, że dalej nie widać powodu, dla którego mamy więcej materii niż antymaterii?   

Ano. Albo więcej antymaterii niż materii, bo to na jedno wychodzi ;)

Share this post


Link to post
Share on other sites

Ten eksperyment potwierdził tylko, że oddziaływania elektromagnetyczne zachowują parzystość, a badane energie są zbyt małe, aby dostrzec naruszenia parzystości z oddziaływań słabych. Generalnie, największym problemem współczesnej fizyki jest to, że teoria modelu standardowego zbyt dokładnie przewiduje wyniki eksperymentów, nie dając miejsca na nową fizykę. Potwierdzanie wciąż tych samych teorii robi się nudne. Z drugiej strony, wiemy że coś w Kosmosie jest bardzo nie halo, ale nie potrafimy tego złapać bezpośrednio za rękę. Ciemna materia - której powinno być z 6-7 razy więcej niż zwykłej - cały czas nam umyka. Ciemna energia rozszerzająca wszechświat jest jeszcze bardziej tajemnicza, a jej zachowanie na przestrzeni miliardów lat historii wszechświata jest bardziej niż zagadkowe.

Share this post


Link to post
Share on other sites
1 godzinę temu, GROSZ-ek napisał:

Potwierdzanie wciąż tych samych teorii robi się nudne.

Ale do tego przecież zmierza fizyka, do stworzenia teorii którą będziemy mogli tylko w kółko potwierdzać. Co "gorsza" Model Standardowy pozostanie z nami praktycznie do "końca".

1 godzinę temu, GROSZ-ek napisał:

nie dając miejsca na nową fizykę

Miejsca na nową fizykę jest w cholerę, tylko na razie jest ono daleko od Genewy ;)
 

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Kosmologowie od dawna mają problem z jedną z podstawowych wartości opisujących wszechświat – tempem jego rozszerzania się. Różne pomiary przynoszą bowiem różne wartości. Teraz coraz wyraźniej widać kolejne pęknięcie w standardowym modelu kosmologicznym. Niedawno grupa naukowców wykazała, że wszechświat jest niespodziewanie rzadki. Materia nie gromadzi się w nim tak, jak się spodziewano. Podobne sygnały pojawiały się już wcześniej, tym razem jednak mamy do czynienia z najbardziej szczegółową analizą danych zbieranych przez 7 lat.
      Dane są na tyle wiarygodne, że niektórzy specjaliści zastanawiają się, czy nie wpadliśmy na trop czegoś nieznanego. Mamy już ciemną materię i ciemną energię. Mam nadzieję, że do wyjaśnień nie potrzebujemy kolejnej ciemnej rzeczy, mówi Michael Hudson, kosmolog z University of Waterloo, który nie był zaangażowany w najnowsze badania.
      Autorzy najnowszych badań, skupieni wokół inicjatywy Kilo-Degree Survey (KiDS), obserwowali około 31 milionów galaktyk, położonych w promieniu do 10 miliardów lat świetlnych od Ziemi. Na podstawie tych obserwacji wyliczyli średni rozkład niewidocznego gazu i ciemnej materii we wszechświecie. Odkryli, że jest jej niemal o 10% mniej niż przewiduje jeden z najpowszechniej uznawanych modeli kosmologicznych, Model Lambda-CDM.
      W ciągu ostatnich ośmiu lat pojawiło się kilkanaście badań, których autorzy – korzystając z różnych technik – dochodzili do wniosku, że materia nie gromadzi się zgodnie z przewidywaniami. Rozpatrywane osobno badania te nie mają większego znaczenia. Rozważane w nich kwestie są tak trudne do zbadania, że łato mogło dojść do pomyłek. Jednak coraz częściej pojawiają się głosy, że to nie statystycznie dopuszczalne niedoskonałości w badaniach, ale reguła. Gdy w wielu różnych zestawach danych zaczynasz dostrzegać tę samą rzecz, musisz wziąć pod uwagę, że coś w tym jest, stwierdza Hudson.
      Naukowcy muszą teraz pogodzić dwie sprzeczne ze sobą rzeczy. Z jednej strony, by określić tempo rozszerzania się wszechświata – w wiele wskazuje na to, że jest ono większe, niż sądzono – muszą znaleźć dodatkowy element, który go napędza. Z drugiej jednak strony skoro materia nie gromadzi się razem tak, jak przypuszczano, do siły na nią oddziałujące są słabsze, a nie mocniejsze, jak wymagałoby tego wyjaśnienie tempa rozszerzania się wszechświata. Julien Lesgourgues, kosmolog-teoretyk z Uniwersytetu Aachen mówi, że znalezienie satysfakcjonującego wyjaśnienia obu tych zjawisk będzie koszmarem.
      Podejmowane są pewne próby wyjaśnień wspomnianych zjawisk. Przyspieszenie ekspansji wszechświata można by wyjaśnić „ciemnym promieniowaniem”. Jednak trzeba by je zbilansować dodatkową materią, która by się grupowała. Aby osiągnąć obserwowane mniejsze grupowanie się, trzeba by wprowadzić dodatkowy element, który to uniemożliwia. Tutaj pojawia się próba wyjaśnienia w postaci zamiany ciemnej materii – która powoduje grupowanie się materii – w ciemną energię, powodującą jej oddalanie się od siebie. Można też przyjąć, że Ziemia znajduje się w jakimś wielkim bąblu rozrzedzonej materii, co zaburza nasze obserwacje. Lub też uznać, że szybkie tempo rozszerzania się wszechświata i mniejsze grupowanie się materii nie są ze sobą powiązane. Nie widzę obecnie żadnego satysfakcjonującego wyjaśnienia. Jeśli jednak byłbym teoretykiem byłbym bardzo podekscytowany, mówi Hudson.
      Wciąż też istnieje prawdopodobieństwo, że oba omawiane zjawiska lub przynajmniej jedno z nich, w rzeczywistości nie mają miejsca. Jednak by to stwierdzić, trzeba poczekać na inne dane. KiDS to jeden z trzech dużych projektów badawczych. Inne to międzynarodowy Dark Energy Survey prowadzony w Chile i japoński Hyper Suprime-Cam. W ramach każdego z nich skanowany jest inny fragment nieboskłonu na inną głębokość. W czasie ostatniej kampanii Dark Energy Survey przeskanowano obszar 5-krotnie większy niż badał KiDS. Wyniki powinny ukazać się w ciągu najbliższych miesięcy. Wszyscy na nie czekają. To kolejna wielka rzecz w kosmologii, mówi Daniel Scolnic, kosmolog z Duke University, który specjalizuje się w badaniu tempa rozszerzania się wszechświata.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Pierwsze badania spektroskopowe monofluorku radu wskazują, że molekuła ta może zostać wykorzystana do bardzo precyzyjnych testów Modelu Standardowego. Autorzy badań – fizycy z CERN-u oraz laboratorium ISOLDE – twierdzą, że mogą one doprowadzić do ustalenia nowego górnego limitu elektrycznego momentu dipolowego elektronu, a to zaś może pozwolić w wyjaśnieniu, dlaczego we wszechświecie jest więcej materii niż antymaterii.
      Spektroskopia atomowa i molekularna umożliwia przeprowadzenie niezwykle precyzyjnych pomiarów niektórych podstawowych właściwości elektronów i jąder atomowych. Takie pomiary pozwalają na stwierdzenie, czy dana cząstka pasuje do Modelu standardowego. Monofluorek radu to niezwykle interesująca molekuła, gdyż w niektórych jej wersjach izotopowych jądro radu jest bardzo niesymetryczne. Rozkład masy w nim ma kształt gruszki. Ta właściwość oraz sama wysoka masa radu oznaczają, że świetnie się nadaje do badania właściwości elektronów, w tym ich elektrycznego momentu dipolowego.
      Wiemy, że elektron posiada magnetyczny moment dipolowy, będący wynikiem posiadania spinu. W najprostszej wersji Modelu Standardowego parzystość T, czyli parzystość operacji odwrócenia czasu, zakazuje elektronom jednoczesnego posiadania elektrycznego momentu dipolowego. Jednak bardziej złożone wersje Modelu Standardowego dopuszczają, że elektrony posiadają elektryczny moment dipolowy, jednak jego wartość jest niezwykle mała. Jeśli udałoby się wykazać, że wartość ta jest znacząco większa od zakładanej, wskazywałoby to na istnienie fizyki poza Modelem Standardowym oraz oznaczałoby poważne złamanie symetrii we wczesnym wszechświecie, dzięki temu zaś moglibyśmy zrozumieć, dlaczego materii jest więcej niż antymaterii.
      Podczas najnowszych badań wykazano, że molekuły monofluorku radu można za pomocą lasera schłodzić do temperatur nieco tylko wyższych od zera absolutnego. A skoro tak, to można też dokonać niezwykle precyzyjnych pomiarów ich właściwości.
      Dlatego też ISOLDE, CERN i MIT już nawiązały współpracę, której celem jest precyzyjne określenie elektrycznego momentu dipolowego elektronów. Chcemy jeszcze bardziej zmniejszyć różnicę pomiędzy najbardziej precyzyjnymi pomiarami, a teoretycznie przewidywaną wartością momentu dipolowego. Wartość przewidywana przez Model Standardowy jest niezwykle mała i poza obecnym zasięgiem pomiarów. Doprecyzowując ją możemy przetestować teorie przewidujące znacznie wyższą wartość, mówi Gerda Neyens, z Uniwersytetu Katolickiego w Leuven, która stoi na czele laboratorium ISOLDE.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Fizyk z Uniwersytetu w Genewie zaproponował rozwiązanie poważnego kryzysu, trapiącego kosmologię. Kryzysowi temu na imię stała Hubble'a. To jedna z podstawowych stałych kosmologicznych. Opisuje ona tempo rozszerzania się wszechświata. Problem w tym, że dotychczasowe obliczenia i badania dają co najmniej dwa różne, zbyt różne, wyniki. Profesor Lucas Lombriser twierdzi, że wie, skąd bierze się ta różnica.
      Stałą Hubbla wyznacza się za pomocą dwóch głównych metod. Pierwsza, pomiary promieniowania mikrofalowego tła, wskazuje, że wszechświat rozszerza się z prędkością 64,4 km/s/Mpc, czyli, że na każdy megaparsek (3,26 miliona lat świetlnych) tempo rozszerzania się wszechświata rośnie o 64,4 km/s. Jednak obliczenia z wykorzystaniem cefeid, zmiennych gwiazd pulsujących, dają wartość 73,4 km/s/Mpc. Różnica jest tak duża, że obliczeń tych nie da się pogodzić. W miarę upływu lat te dwie wartości były wyznaczane coraz bardziej precyzyjnie, ale różnica między nimi pozostawała. To doprowadziło do sporu naukowego. Pojawiły się głosy, że mamy do czynienia z „nową fizyką”.
      Lombriser wysunął jednak hipotezę, która nie wymaga odwoływania się do „nowej fizyki”. Zdaniem uczonego, należy przyjąć wszechświat nie jest homogeniczny. Oczywiście takie założenie jest prawdziwe, jednak w dość niewielkich skalach. Nie ma wątpliwości, że w galaktykach i poza nimi materia rozłożona jest inaczej. Jednak trudno wyobrazić sobie różnice w skalach tysiąckrotnie większych niż galaktyki.
      Jeśli znajdowalibyśmy się w gigantycznym „bąblu”, w którym gęstość materii jest znacząco mniejsza niż gęstość materii we wszechświecie, miałoby to konsekwencje dla odległości do supernowych i dla określenia stałej Hubble'a, mówi Lombriser. Naukowiec zaproponował hipotezę, że Droga Mleczna i tysiące innych galaktyk poruszają się w bąblu o średnicy 250 milionów lat świetlnych, w którym gęstość materii jest o 50% niższa niż w reszcie wszechświata.
      Jeśli w takim bąblu znajdują się obiekty, z galaktyk których używamy do wyznaczania stałej Hubble'a, to po przeprowadzeniu obliczeń okazuje się, że uzyskane wyniki w wysokim stopniu zgadzają się z obliczeniami, w których uwzględniane jest mikrofalowe promieniowanie tła. Prawdopodobieństwo, że istnieje tego typu fluktuacja [wspomniany bąbel – red.] wynosi między 1/20 a 1/5, co oznacza, że to nie jest tylko fantazja teoretyka. We wszechświecie istnieje wiele takich regionów jak nasz, mówi Lombriser.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W LHCb zaobserwowano, po raz pierwszy w historii, naruszenie symetrii CP podczas rozpadu mezonu D0. To historyczne wydarzenie, które z pewnością trafi do podręczników fizyki.
      To krok milowy fizyki cząstek. Od czasu odkrycia przed ponad 40 laty mezonu D fizycy podejrzewali, że naruszenie symetrii CP zachodzi również w tym systemie. Jednak dopiero teraz, po analizie wszystkich danych, jakie udało się zebrać w LHCb możemy potwierdzić, że zaobserwowaliśmy to zjawisko, mówi Eckhard Elsen, dyrektor ds. badań i obliczeń w CERN.
      Symetria ładunkowo-przestrzenna CP to termin, który oznacza, że każda cząstka elementarna ma swój odpowiednik, czyli antycząstkę. Są one pod wieloma względami identyczne, różnią się za to ładunkami elektrycznymi oraz liczbami kwantowymi. Wiadomo jednak, gdy w grę wchodzą oddziaływania słabe, symetria w niektórych cząstkach nie jest zachowana. Dochodzi do naruszeń symetrii CP.
      Zjawisko to po raz pierwszy zaobserwowano w latach 60. ubiegłego roku w Brookhaven Laboratory podczas rozpadu neutralnych kaonów. W 1980 roku autorzy odkrycia, James Watson Cronin i Val Logsdon Fitch, otrzymali za nie Nagrodę Nobla z fizyki. Później w 2001 roku badania nad naruszeniem symetrii CP w mezonie B przeprowadził zespół z USA i Japonii. Ponownie skończyło się to Nagrodą Nobla, którą w 2008 roku otrzymali Makoto Kobayashi, Toshihide Masakawa i Yoichiro Nambu.
      Naruszenie symetrii CP to jeden z podstawowych procesów zachodzących we wszechświecie. To dzięki niemu rozpoczął się proces, który po Wielkim Wybuchu doprowadził do pojawienia się przewagi materii nad antymaterią. Jednak rozmiary obecnie obserwowanych naruszeń w Modelu Standardowym są zbyt małe, by wyjaśnić istniejącą nierównowagę pomiędzy materią a antymaterią. To zaś sugeruje, że istnieją dodatkowe, nieznane jeszcze, źródła naruszeń CP.
      Mezon D0 składa się z kwarka powabnego i antykwarka górnego. Dotychczas naruszenia symetrii CP były obserwowane wyłącznie w cząstkach zawierających kwark dziwny lub kwark niski. Dotychczasowe obserwacje potwierdzały wzorzec naruszeń symetrii CP opisany w Modelu Standardowym za pomocą macierzy Cabibbo-Kobayashiego-Masakawy (macierz CKM). Opisuje ona, jakie przemiany zachodzą w kwarkach wskutek oddziaływań słabych. Jednym z największych zadań współczesnej fizyki cząstek jest uzupełnianie macierzy. Odkrycie, że naruszenie symetrii CP zachodzi też w mezonach D0 to pierwszy dowód na przemiany w kwarku powabnym.
      Najnowszego odkrycia dokonano analizując pełny zestaw danych uzyskanych w LHCb w latach 2011–2018 pochodzących z rozpadów mezonu D0 i jego antycząstki, antymezonu D0. Znaczenie statystyczne odkrycia wynosi 5,3, czyli przekracza próg sigma 5, wyznaczający pewność dokonanego odkrycia.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      CERN opublikował wstępny raport projektowy (Conceptual Design Report), w którym zarysowano plany nowego akceleratora zderzeniowego. Future Circular Collider (FCC) miałby być niemal 4-krotnie dłuższy niż Wielki Zderzacz Hadronów (LHC) i sześciokrotnie bardziej potężny. Urządzenie, w zależności od jego konfiguracji, miałoby kosztować od 9 do 21 miliardów euro.
      Publikacja raportu odbyła się w ramach programu European Strategy Update for Particle Pysics. Przez dwa kolejne lata specjaliści będą zastanawiali się nad priorytetami w fizyce cząstek, a podjęte decyzje wpłyną na to, co w tej dziedzinie będzie się działo w Europie w drugiej połowie bieżącego stulecia. To olbrzymi krok, tak jakbyśmy planowali załogową misję nie na Marsa, a na Uran, mówi Gian Francesco Giudice, który stoi na czele wydziału fizyki teoretycznej CERN i jest przedstawicielem tej organizacji w Physics Preparatory Group.
      Od czasu odkrycia bozonu Higgsa w 2012 roku LHC nie odkrył żadnej nowej cząstki. To pokazuje, że potrzebne jest urządzenie, które będzie pracowało z większymi energiami. Halina Abramowicz, fizyk z Tel Aviv University, która kieruje europejskim procesem opracowywania strategii rozwoju fizyki cząstek, nazwała propozycję CERN „bardzo ekscytującą”. Dodała, że projekt FCC będzie szczegółowo rozważany razem z innymi propozycjami. Następnie Rada CERN podejmie ostateczną decyzję, czy należy sfinansować FCC.
      Jednak nie wszyscy uważają, że nowy zderzacz jest potrzebny. Nie ma żadnych podstaw, by sądzić, że przy energiach, jakie mógłby osiągnąć ten zderzacz, można będzie dokonać jakichś znaczących odkryć. Wszyscy to wiedzą, ale nich nie chce o tym mówić, stwierdza Sabine Hossenfelder, fizyk teoretyk z Frankfurckiego Instytutu Zaawansowanych Badań. Jej zdaniem pieniądze, które miałyby zostać wydane w FCC można z większym pożytkiem wydać na inne urządzenia, na przykład na umieszczenie na niewidocznej stronie Księżyca dużego radioteleskopu czy też zbudowanie na orbicie wykrywacza fal grawitacyjnych. Takie inwestycje z większym prawdopodobieństwem przyniosą znaczące odkrycia naukowe.
      Jednak Michael Benedikt, fizyk, który stał na czele grupy opracowującej raport nt. FCC mówi, że warto wybudować nowy zderzacz niezależnie od spodziewanych korzyści naukowych, gdyż tego typu wielkie projekty łączą instytucje naukowe ponad granicami. Hossenfelder zauważa, że podobnie łączą je inne duże projekty naukowe.
      Prace nad FCC rozpoczęły się w 2014 roku i zaangażowało się w nie ponad 1300 osób i instytucji. Rozważanych jest kilka konfiguracji, a większość z nich zakłada, że FCC powstanie obok LCH, a jego tunele będą miało 100 kilometrów długości. Sama budowa tunelu i powiązanej z nim infrastruktury naziemnej pochłoną około 5 miliardów euro. Kolejne 4 miliardy będzie kosztował akcelerator, w którym będą zderzanie elektrony z pozytonami. urządzenie miałoby pracować z energię do 365 gigaelektronowoltów. To mniejsza energia niż w LHC, jednak zderzenia lżejszych cząstek, jak elektron z pozytonem, dają znacznie bardziej szczegółowe dane niż zderzanie protonów, jakie zachodzi w LHC, zatem w FCC można by bardziej szczegółowo zbadać np. bozon Higgsa. FCC miałby zostać uruchomiony około roku 2040.
      Warto tutaj na chwilę się zatrzymać i przypomnieć opisywany przez nas projekt International Linear Collider. Przed ponad pięciu laty świat obiegła wiadomość o złożeniu szczegółowego raportu technicznego 31-kilometrowego liniowego zderzacza elektronów i pozytonów. Raport taki oznaczał, że można rozpocząć budowę ILC. Urządzenie to, dzięki swojej odmiennej od LHC architekturze, ma pracować – podobnie jak FCC – z elektronami i pozytonami i ma dostarczać bardziej szczegółowych danych niż LHC. W projekcie ILC biorą udział rządy wielu krajów, a najbardziej zainteresowana jego budową była Japonia, skłonna wyłożyć nawet 50% jego kosztów. Jednak budowa ILC dotychczas nie ruszyła. Brak kolejnych odkryć w LHC spowodował, że szanse na budowę ILC znacznie zmalały. Rząd Japonii ma 7 marca zdecydować, czy chce u siebie ILC.
      Inny scenariusz budowy FCC zakłada wydatkowanie 15 miliardów euro i wybudowanie w 100-kilometrowym tunelu zderzacza hadronów (kolizje proton–proton) pracującego z energią dochodzącą do 100 TeV, czyli wielokrotnie wyższą niż 16 TeV uzyskiwane w LHC. Jednak bardziej prawdopodobnym scenariuszem jest zbudowanie najpierw zderzacza elektronów i pozytonów, a pod koniec lat 50. bieżżcego wieku rozbudowanie go do zderzacza hadronów. Scenariusz taki jest bardziej prawdopodobny z tego względu, że skonstruowanie 100-teraelektronowoltowego zderzacza hadronów wymaga znacznie więcej badań. Gdybyśmy dysponowali 100-kilometrowym tunelem, to już moglibyśmy rozpocząć budowę zderzacza elektronów i pozytonów, gdyż dysponujemy odpowiednią technologią. Stworzenie magnesów dla 100-teraelektronowego zderzacza wymaga jeszcze wielu prac badawczo-rozwojowych, mówi Guidice.
      Trzeba w tym miejscu wspomnieć, że podobny projekt prowadzą też Chiny. Państwo Środka również chce zbudować wielki zderzacz. O ile jednak w FCC miałyby zostać wykorzystane magnesy ze stopu Nb3Tn, to Chińczycy pracują nad bardziej zaawansowanymi, ale mniej sprawdzonymi, nadprzewodnikami bazującymi na żelazie. Ich zaletą jest fakt, że mogą pracować w wyższych temperaturach. Jeśli pracowałyby przy 20 kelwinach, to można osiągnąć olbrzymie oszczędności, mówi Wang Yifang, dyrektor chińskiego Instytutu Fizyki Wysokich Energii. Także i Chińczycy uważają, że najpierw powinien powstać zderzacz elektronów i pozytonów, a następnie należy go rozbudować do zderzacza hadronów.
      Jako, że oba urządzenia miałyby bardzo podobne możliwości, powstaje pytanie, czy na świecie są potrzebne dwa takie same wielkie zderzacze.

      « powrót do artykułu
×
×
  • Create New...