Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

LHC zwiększa moc i szykuje się do długiego przestoju

Recommended Posts

CERN poinformował, że w bieżącym roku energia strumieni cząstek w Wielkim Zderzaczu Hadronów (LHC) zostanie zwiększona do 4 teraelektronowoltów (TeV). Będzie zatem o 0,5 TeV większa niż w latach 2010-2011. Ma to pomóc w zebraniu jak największej ilości danych przed wyłączeniem akceleratora na dłuższy czas.

Cele, które naukowcy chcą osiągnąć w bieżącym roku to uzyskanie 15 odwrotnych femtobarnów w eksperymentach ATLAS i CMS. Odwrotny femtobarn oznacza liczbę interakcji cząsteczek na 1 femtobarn. Naukowcy mają zatem zamiar aż trzykrotnie zwiększyć ilość pozyskanych danych. Jeden odwrotny femtobarn to w praktyce około 70 bilionów zderzeń.

Gdy rozpoczynaliśmy w 2010 roku prace z LHC zdecydowaliśmy się na pracę z wiązkami o najniższej bezpiecznej energii. Dwa lata pracy z wiązkami i wiele pomiarów wykonanych w 2011 roku upewniło nas, że możemy bezpiecznie podnieść poprzeczkę i rozpocząć bardziej ambitne eksperymenty, zanim na długi czas zamkniemy LHC - mówi Steve Myers dyrektor CERN ds. akceleratorów i technologii.

Pod koniec bieżącego roku LHC zostanie zamknięty na około 20 miesięcy. Podczas tej przerwy Wielki Zderzacz Hadronów będzie przystosowywany do pracy z maksymalną przewidzianą mocą - 7 TeV na wiązkę. Urządzenie zostanie ponownie uruchomione pod koniec 2014 roku, a pełną moc osiągnie w roku 2015.

Share this post


Link to post
Share on other sites

"Gdy rozpoczynaliśmy w 2010 roku prace z LHC zdecydowaliśmy się na pracę z wiązkami o najniższej bezpiecznej energii."

 

Na czym polega niebezpieczeństwo energii stosowanej w LHC, skoro mowa jest o "bezpiecznej energii" ?

Share this post


Link to post
Share on other sites

Na czym polega niebezpieczeństwo energii stosowanej w LHC, skoro mowa jest o "bezpiecznej energii" ?

Boją się, że zrobią małą czarną dziurę.

Share this post


Link to post
Share on other sites

Odpowiedź masz w artykule:

Pod koniec bieżącego roku LHC zostanie zamknięty na około 20 miesięcy. Podczas tej przerwy Wielki Zderzacz Hadronów będzie przystosowywany do pracy z maksymalną przewidzianą mocą - 7 TeV na wiązkę. Urządzenie zostanie ponownie uruchomione pod koniec 2014 roku, a pełną moc osiągnie w roku 2015.

Share this post


Link to post
Share on other sites

"Gdy rozpoczynaliśmy w 2010 roku prace z LHC zdecydowaliśmy się na pracę z wiązkami o najniższej bezpiecznej energii."

 

Na czym polega niebezpieczeństwo energii stosowanej w LHC, skoro mowa jest o "bezpiecznej energii" ?

Główne niebezpieczeństwo polega na możliwości zepsucia się urządzenia wartego wiele milionów euro. LHC było budowane z części, a połączenia między nimi nie były niestety idealne. Dotyczy to głównie połączenia nadprzewodników, w przypadku których nawet małą niedoskonałość może spowodować powstanie mikroskopijnego oporu. Przy proądach jakie tam biegną jest to dość by wytworzyć ciepło i wyprowadzić cały fragment przewodu z nadprzewodnictwa. A to oznacza, że wydzieli się dość ciepłą by odparować spory fragment urządzenia. Taki incydent się zresztą już zdarzył.

Powolne uruchamianie LHC na na celu zmniejszenie tego ryzyka. Połączenia "zwiększają swoją jakość" podczas działania, co powoduje, że można przepuścić większe prądy i tak w kółko, aż do pewnego etapu.

Potem i tak będzie trzeba urządzenie wyłączyć, a wszystkie połączenia poprawić (zostało to podobno zrobione nierzetelnie przy budowie, ale nie znam szczegółów).

  • Upvote (+1) 2

Share this post


Link to post
Share on other sites

macintosh doedukuj sie najpierw zanim zaczniesz takie wierutne bzdury wypisywac... ogladnij przekroczyc horyzont zdarzen nassima harameina chociazby na youtubie, gdzie jest przetlumaczone. Pozdrawiam :)

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Często i mało, czy rzadko, ale do syta? Gdyby chodziło o dietę, większość specjalistów postawiłaby na odpowiedź 1, ale w przypadku magazynowania energii jest odwrotnie. Okazuje się, że więcej można jej zmieścić ładując rzadko, ale do pełna.Taki przynajmniej wniosek płynie z badań przeprowadzonych przez zespół naukowców IChF PAN.
      Doświadczenia dotyczyły co prawda wyidealizowanych, dwuwymiarowych układów sieciowych, ale w końcu zasada to zasada. Dr Anna Maciołek, jedna z autorów pracy opublikowanej w Physical Review opisuje ją tak: Chcieliśmy zbadać, jak zmienia się sposób magazynowania energii w układzie,  gdy  pompujemy  do  niego  energię  w  postaci  ciepła,  innymi  słowy – lokalnie  go podgrzewamy.
      Wiadomo,  że ciepło  w  układach  się  rozprzestrzenia, dyfunduje.  Ale czy na gromadzenie energii ma wpływ sposób jej dostarczania; fachowo mówiąc „geometria podawania”? Czy ma znaczenie, że podajemy dużo energii w krótkim czasie i potem długo nic, i znowu dużo energii, czy też gdy podajemy malutkie porcje  tej energii, ale za to jedna po drugiej, niemal bez przerw?
      Cykliczne podawanie energii jest bardzo powszechne w naturze. Sami dostarczamy jej sobie w ten sposób, jedząc. Tę samą liczbę kalorii można dostarczyć w jednej lub dwóch dużych porcjach zjadanych w ciągu doby, albo rozbić ją na 5-7 mniejszych posiłków, między którymi są krótsze przerwy. Naukowcy wciąż się spierają, który  sposób jest dla organizmu lepszy. Jeśli jednak  chodzi o dwuwymiarowe układy sieciowe, to już wiadomo, że pod względem efektywności magazynowania wygrywa metoda „rzadko a dużo”.
      Zauważyliśmy, że w zależności od tego, w jakich porcjach i jak często podajemy energię, ilość, jaką układ potrafi zmagazynować, zmienia się. Największa jest wtedy, gdy porcje energii są duże, ale odstępy czasowe między ich podaniem też są długie, wyjaśnia Yirui Zhang, doktorantka w IChF PAN. Co ciekawe, okazuje się, że gdy taki układ magazynujący podzielimy wewnętrznie na swego rodzaju przedziały, czy też komory, to ilość energii możliwej do zmagazynowania w takim podzielonym ‘akumulatorze’ – o ile bylibyśmy go w stanie skonstruować – wzrośnie. Innymi słowy, trzy małe baterie zmagazynują więcej energii niż jedna duża, precyzuje badaczka. Wszystko to przy założeniu, że całkowita ilość wkładanej do układu energii jest taka sama, zmienia się tylko sposób jej dostarczania.
      Choć badania prowadzone przez zespół IChF PAN należą do podstawowych i ukazują po prostu fundamentalną  zasadę  rządzącą magazynowaniem energii w magnetykach, ich potencjalne zastosowania  są  nie do  przecenienia.  Wyobraźmy  sobie  np.  możliwość  ładowania  baterii elektrycznego samochodu nie w kilka godzin, lecz w kilkanaście minut albo znaczące zwiększenie pojemności  takich  akumulatorów  bez  zmiany  ich  objętości,  czyli  wydłużenie  zasięgu  auta  na jednym ładowaniu.  Nowe  odkrycie  może  też  w  przyszłości  zmienić  sposoby  ładowania  baterii różnego typu poprzez ustalenie optymalnej periodyczności dostarczania do nich energii

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Jedną z największych tajemnic fizyki jądrowej jest odpowiedź na pytanie, dlaczego wszechświat jest zbudowany z takich a nie innych pierwiastków. Dlaczego nie z innych? Naukowców szczególnie interesują procesy fizyczne stojące u podstaw powstania ciężkich pierwiastków, jak złoto, platyna czy uran. Obecnie uważa się, że powstają one podczas łączenia się gwiazd neutronowych oraz eksplozji gwiazd.
      W Argonne National Laboratory opracowano nowe techniki badania natury i pochodzenia ciężkich pierwiastków, a uczeni z Argonne stanęli na czele międzynarodowej grupy badawczej, która prowadzi w CERN eksperymenty mające dać nam wgląd w procesy powstawania egzotycznych jąder i opracowani modeli tego, co dzieje się w gwiazdach i wydarzeń we wczesnym wszechświecie.
      Nie możemy sięgnąć do wnętrza supernowych, więc musimy stworzyć na Ziemi ekstremalne warunki, jakie w nich panują i badać reakcje, jakie tam zachodzą, stwierdził fizyk Ben Kay z Argonne National Laboratory i główny autor najnowszych badań.
      Uczonym biorącym udział w projekcie udało się – jako pierwszym w historii – zaobserwować strukturę jądra o mniejszej liczbie protonów niż w jądrze ołowiu i o liczbie neutronów przekraczających 126. To jedna z liczb magicznych fizyki jądrowej. Liczba magiczne dla protonów i neutronów wynoszą m.in. 8, 20, 28, 50 i 126. To wartości kanoniczne. Fizycy wiedzą, że jądra atomów o takich wartościach charakteryzują się zwiększoną stabilnością. Jądra o liczbie neutronów powyżej 126 są słabo zbadane, gdyż trudno je uzyskać. Wiedza o ich zachowaniu jest kluczowa dla zrozumienia procesu wychwytu neutronu (proces r), w wyniku którego powstaje wiele ciężkich pierwiastków.
      Obecnie obowiązujące teorie przewidują, że proces r zachodzi w gwiazdach. W tych bogatych w neutrony środowiskach jądra atomowe mogą rosnąć wychwytując neutrony i tworząc cięższe pierwiastki. Proces ten jest na tyle szybki, że nowe cięższe pierwiastki tworzą się zanim jeszcze dojdzie do rozpadu.
      Twórcy eksperymentu skupili się na izotopie rtęci 207Hg. Jego badanie może bowiem rzucić światło na ich bezpośrednich sąsiadów, jądra bezpośrednio zaangażowane w proces r. Naukowcy najpierw wykorzystali infrastrukturę HIE-ISOLDE w CERN. Wysokoenergetyczny strumień protonów skierowali na roztopiony ołów. W wyniku kolizji powstały setki egzotycznych radioaktywnych izotopów. Odseparowali z nich 206Hg i w akceleratorze HIE-ISOLDE wytworzyli strumień jąder o najwyższej osiągniętej tam energii. Strumień skierowali na deuter znajdujący się w ISOLDE Solenoidal Spectrometer.
      Żadne inne urządzenie na świecie nie jest w stanie wytworzyć strumienia jąder rtęci o tej masie i nadać mu takiej energii. To w połączeniu z wyjątkową rozdzielczością ISS pozwolió nam na przeprowadzenie pierwszych w historii obserwacji stanów wzbudzonych 207Hg, mówi Kay.  Dzięki ISS naukowcy mogli więc obserwować, jak jądra 206Hg przechwyciły neutron stając się 207Hg.
      Deuter to ciężki izotop wodoru. Zawiera proton i neutron. Gdy 206Hg przechwytuje z niego neutron, dochodzi do odrzutu protonu. Emitowane w tym procesie protony trafiają do detektora w ISS, a ich pozycja i energia zdradzają kluczowe informacje o strukturze jądra. Informacje te mają bardzo duży wpływ na proces r i uzyskane w ten sposób dane pozwalają na przeprowadzenie istotnych obliczeń.
      ISS korzysta z pionierskiej koncepcji opracowanej przez Johna Schiffera z Argonne National Laboratory. Na podstawie jego pomysłu zbudowano w Argone urządzenie HELIOS. Pozwoliło ono na badanie właściwości jąder atomowych, których wcześniej nie można było badać. HELIOS stał się inspiracją do zbudowania w CERN-ie ISS. Urządzenie to pracuje od 2008 roku i uzupełnia możliwości HELIOS.
      Przez ostatnich 100 lat fizycy mogli zbierać informacje o jądrach atomowych dzięki bombardowaniu ciężkich jąder lekkimi jonami. Jednak reakcja przeprowadzana w drugą stronę, gdy ciężkie jądra uderzały w lekkie cele, prowadziła do pojawiania się wielu zakłóceń, które trudno było wyeliminować. Udało się to dopiero za pomocą HELIOS.
      Gdy ciężka kula uderza w lekki cel dochodzi do zmiany kinematyki i uzyskane w ten sposób spektra są skompresowane. John Schiffer zauważył, że gdy do takiej kolizji dochodzi wewnątrz magnesu, wyemitowane w jej wyniku protony wędrują po spiralnym torze w kierunku detektora. Opracował pewną matematyczną sztuczkę, która opisuje tę kinematyczna kompresję, otrzymujemy więc zdekompresowane spektrum, z którego możemy wnioskować o strukturze jądrowej, wyjaśnia Kay.
      Pierwsze analizy uzyskanych danych potwierdziły prawdziwość przewidywań teoretycznych. Naukowcy planują zatem kolejne eksperymenty, podczas których chcą wykorzystać inne jądra z obszaru 207Hg.
      Ze szczegółami badań zapoznamy się na łamach Physical Review Letters.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Jednym ze sposobów na pozyskiwanie odnawialnej energii jest wykorzystanie różnicy chemicznych pomiędzy słodką i słoną wodą. Jeśli naukowcom uda się opracować metodę skalowania stworzonej przez siebie technologii, będą mogli dostarczyć olbrzymią ilość energii milionom ludzi mieszkających w okolica ujścia rzek do mórz i oceanów.
      Każdego roku rzeki na całym świecie zrzucają do oceanów około 37 000 km3 wody. Teoretycznie można tutaj pozyskać 2,6 terawata, czyli mniej więcej tyle, ile wynosi produkcja 2000 elektrowni atomowych.
      Istnieje kilka metod generowania energii z różnicy pomiędzy słodką a słoną wodą. Wszystkie one korzystają z faktu, że sole złożone są z jonów. W ciałach stałych ładunki dodatnie i ujemne przyciągają się i łączą. Na przykład sól stołowa złożona jest z dodatnio naładowanych jonów sodu połączonych z ujemnie naładowanymi jonami chloru. W wodzie jony takie mogą się od siebie odłączać i poruszać niezależnie.
      Jeśli po dwóch stronach półprzepuszczalnej membrany umieścimy wodę z dodatnio i ujemnie naładowanymi jonami, elektrony będą przemieszczały się od części ujemnie naładowanej do części ze znakiem dodatnim. Uzyskamy w ten sposób prąd.
      W 2013 roku francuscy naukowcy wykorzystali ceramiczną błonę z azotku krzemu, w którym nawiercili otwór, a w jego wnętrzu umieścili nanorurkę borowo-azotkową (BNNT). Nanorurki te mają silny ujemny ładunek, dlatego też Francuzi sądzili, że ujemnie naładowane jony nie przenikną przez otwór. Mieli rację. Gdy po obu stronach błony umieszczono słoną i słodką wodę, przez otwór przemieszczały się niemal wyłącznie jony dodatnie.
      Nierównowaga ładunków po obu stronach membrany była tak duża, że naukowcy obliczyli, iż jeden metr kwadratowy membrany, zawierający miliony otworów na cm2 wygeneruje 30 MWh/rok. To wystarczy, by zasilić nawet 12 polskich gospodarstw domowych.
      Problem jednak w tym, że wówczas stworzenie nawet niewielkiej membrany tego typu było niemożliwe. Nikt bowiem nie wiedział, w jaki sposób ułożyć długie nanorurki borowo-azotkowe prostopadle do membrany.
      Przed kilkoma dniami, podczas spotkania Materials Research Society wystąpił Semih Cetindag, doktorant w laboratorium Jerry'ego Wei-Jena na Rutgers University i poinformował, że jego zespołowi udało się opracować odpowiednią technologię. Nanorurki można kupić na rynku. Następnie naukowcy dodają je do polimerowego prekursora, który jest nanoszony na membranę o grubości 6,5 mikrometrów. Naukowcy chcieli wykorzystać pole magnetyczne do odpowiedniego ustawienia nanorurek, jednak BNNT nie mają właściwości magnetycznych.
      Cetindag i jego zespół pokryli więc ujemnie naładowane nanorurki powłoką o ładunku dodatnim. Wykorzystane w tym celu molekuły są zbyt duże, by zmieścić się wewnątrz nanorurek, zatem BNNT pozostają otwarte. Następnie do całości dodano ujemnie naładowane cząstki tlenku żelaza, które przyczepiły się do pokrycia nanorurek. Gdy w obecności tak przygotowanych BNNT włączono pole magnetyczne, można było manewrować nanorurkami znajdującymi się w polimerowym prekursorze nałożonym na membranę.  Później za pomocą światła UV polimer został utwardzony. Na koniec za pomocą strumienia plazmy zdjęto z obu stron membrany cienką warstwę, by upewnić się, że nanorurki są z obu końców otwarte. W ten sposób uzyskano membranę z 10 milionami BNNT na każdy centymetr kwadratowy.
      Gdy taką membranę umieszczono następnie pomiędzy słoną a słodką wodą, uzyskano 8000 razy więcej mocy na daną powierzchnię niż podczas eksperymentów prowadzonych przez Francuzów. Shan mówi, że tak wielki przyrost mocy może wynikać z faktu, że jego zespół wykorzystał węższe nanorurki, zatem mogły one lepiej segregować ujemnie naładowane jony.
      Co więcej, uczeni sądzą, że membrana może działać jeszcze lepiej. Nie wykorzystaliśmy jej pełnego potencjału. W rzeczywistości tylko 2% BNNT jest otwartych z obu stron, mówi Cetindag. Naukowcy pracują teraz nad zwiększeniem odsetka nanorurek otwartych z obu stron membrany.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Część fizyków uważa, że w Wielkim Zderzaczu Hadronów (LHC) powstają długo żyjące cząstki, które dotychczas nie zostały wykryte. W przyszłym tygodniu w CERN odbędzie się spotkanie, na którym zostaną omówione metody zarejestrowania tych cząstek.
      W 2012 roku LHC zarejestrował obecność bozonu Higgsa, ostatniej nieuchwyconej wcześniej cząstki przewidywanej przez Model Standardowy. Jednak od tamtej pory nie znaleziono niczego nowego czy niespodziewanego. Niczego, co wykracałowy poza Model Standardowy. Nie odkryliśmy nowej fizyki, nie potwierdziliśmy założeń, z jakimi rozpoczynaliśmy prace. Może należy zmienić te założenia, mówi Juliette Alimena z Ohio State University, która pracuje przy CMS (Compact Muon Solenoid), jednym z dwóch głównych detektorów cząstek w LHC.
      Pomimo tego, że w LHC zainwestowano miliardy dolarów, to urządzenia pracuje tak, jak pracowały akceleratory przed kilkudziesięcioma laty. Fizycy od dekad zderzają ze sobą protony lub elektrony, zwiększają ich energie, by w procesie tym uzyskać nowe ciężkie cząstki i obserwować, jak w ciągu biliardowych części sekundy rozpadają się na lżejsze, znane nam cząstki. Te lżejsze są wykrywane i na podstawie ich charakterystyk wiemy, z jakich cięższych cząstek pochodzą. Tak właśnie działa i CMS i drugi z głównych wykrywaczy LHC – ATLAS (A Toroidal LHC Apparatus).
      Jednak długo żyjące ciężkie cząstki mogą umykać uwadze detektorów. Przypuszczenie takie nie jest nowe. Niemal wszystkie teorie wykraczające poza standardowe modele fizyczne przewidują istnienie długo żyjących cząstek, mówi Giovanna Cottin, fizyk-teoretyk z Narodowego Uniwersytetu Tajwańskiego. Na przykład teoria supersymetrii mówi, że każda z cząstek Modelu Standardowego ma cięższego partnera. Istnieją teorie mówiące też o istnieniu np. ciemnych fotonów i innych „ciemnych” cząstek. Dotychczas niczego takiego nie udało się zaobserwować.
      LHC nie został zaprojektowany do poszukiwania cząstek wykraczających poza Model Standardowy. CMS i ATLAS skonstruowano tak, by wykrywały cząstki ulegające natychmiastowemu rozpadowi. Każdy z nich zawiera warstwowo ułożone podsystemy rejestrujące produkty rozpadu cząstek. Wszystkie one ułożone są wokół centralnego punktu, w którym dochodzi do zderzenia. Jednak problem w tym, że jeśli w wyniku zderzenia powstanie cząstka, która będzie żyła tak długo, iż przed rozpadem zdoła przebyć chociaż kilka milimetrów, to pozostawi ona po sobie nieoczywiste sygnały, smugi, zaburzone trasy ruchu.
      Oprogramowanie służące do analiz wyników z detektorów odrzuca takie dane, traktując je jak zakłócenia, artefakty. To problem, bo my tak zaprojektowaliśmy eksperymenty, a programiści tak napisali oprogramowanie, że po prostu odfiltrowuje ono takie rzeczy, mówi Tova Holmes z University of Chicago, która w wykrywaczu ATLAS poszukuje takich zaburzeń.
      Holmes i jej koledzy wiedzą, że muszą zmienić oprogramowanie. Jednak to nie wystarczy. W pierwszym rzędzie należy upewnić się, że wykrywacze w ogóle będą rejestrowały takie dane. Jako, że w w LHC w ciągu sekundy dochodzi do 400 milionów zderzeń protonów, w samym sprzęcie zastosowano mechanizmy chroniące przed przeładowaniem danymi. Już na poziomie sprzętowym dochodzi do odsiewania zderzeń i podejmowania decyzji, które są interesujące, a które należy odrzucić. W ten sposób do dalszej analizy kierowane są dane z 1 na 2000 zderzeń. To zaś oznacza, że możemy mieć do czynienia z utratą olbrzymiej ilości interesujących danych. Dlatego też część naukowców chciałaby przyjrzeć się kalorymetrowi CMS, do którego mogą docierać długo żyjące ciężkie cząstki. Chcieliby zastosować mechanizm, który od czasu do czasu będzie odczytywał pełne wyniki wszystkich zderzeń.
      Szukanie ciężkich cząstek nigdy nie było łatwe, chociażby dlatego, że naukowcy mieli różne pomysły na to, jak je zarejestrować. To zawsze było tak, że pracowały nad tym pojedyncze osoby. A każdy z nich sam dla siebie stanowił grupę wsparcia, przyznaje James Beacham z Ohio State University. Teraz zainteresowani połączyli siły i w marcu ukazało się 301-stronicowe opracowanie autorstwa 182 naukowców, w którym zaproponowano metody optymalizacji poszukiwań ciężkich cząstek.
      Niektórzy z nich proponują, by w najbliższej kampanii, planowanej na lata 2012–2023 częściej zbierano kompletne dane ze wszystkich zderzeń. Niewykluczone, że to ostatnia szansa na zastosowanie tej techniki, gdyż później intensywność generowanych wiązek zostanie zwiększona i zbieranie wszystkich danych stanie się trudniejsze.
      Inni chcą zbudowania kilku nowych detektorów wyspecjalizowanych w poszukiwaniu ciężkich cząstek. Jonathan Feng, fizyk-teoretyk z Uniwersytetu Kalifornijskiego w Irvine, wraz z kolegami uzyskali nawet od CERN zgodę na zbudowanie Forward Search Experiment (FASER). To niewielki detektor, który ma zostać umieszczony w tunelu serwisowym w odległości 480 metrów w dół wiązki od ATLAS-a. Naukowcy zebrali już nawet 2 miliony dolarów od prywatnych sponsorów i dostali potrzebne podzespoły. FASER ma poszukiwać lekkich cząstek, takich jak ciemne fotony, które mogą być wyrzucane z ATLAS-a, przenikać przez skały i rozpadać się w pary elektron-pozyton.
      Jeszcze inna propozycja zakłada wykorzystanie pustej komory znajdującej się za niewielkim wykrywaczem LHCb. Umieszczony tam Compact Detector for Exotics at LHCb miałby poszukiwać długo żyjących cząstek, szczególnie tych pochodzących z rozpadu bozonu Higgsa.
      Jednak najbardziej ambitną propozycją jest budowa detektora o nazwie MATHULSLA. Miałby to być wielki pusty budynek wzniesiony na powierzchni nad detektorem CMS. W jego dachu miałyby zostać umieszczone czujniki, które rejestrowałyby dżety pochodzące z rozpadu długo żyjących cząstek powstających 70 metrów poniżej, wyjaśnia David Curtin z Uniwersytetu w Toronto, jeden z pomysłodawców wykrywacza. Uczony jest optymistą i uważa, że detektor nie powinien kosztować więcej niż 100 milionów euro.
      Po nocach śni nam się koszmar, w którym Jan Teoretyk powie nam za 20 lat, że niczego nie odkryliśmy bo nie rejestrowaliśmy odpowiednich wydarzeń i nie prowadziliśmy właściwych badań, mówi Beacham, który pracuje przy wykrywaczu ATLAS.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W CERN powstanie kolejny eksperyment przy Wielkim Zderzaczu Hadronów (LHC). Jednym z jego pomysłodawców jest Polak, dr Sebastian Trojanowski z Zakładu Fizyki Teoretycznej NCBJ. FASER – bo tak ma nazywać się nowa instalacja – będzie multidetektorem przeznaczonym do poszukiwania długożyciowych cząstek powstających w zderzeniach LHC i mogących być sygnałem istnienia hipotetycznej ciemnej materii. Obserwacje astronomiczne wskazują, że ciemnej materii powinno być we Wszechświecie kilkakrotnie więcej niż zwykłej materii "atomowej" tworzącej ludzi, planety i gwiazdy.
      Koncepcja eksperymentu FASER została zaproponowana przez dr Sebastiana Trojanowskiego i trzech innych fizyków teoretyków współpracujących z nim podczas pobytu dra Trojanowskiego na stypendium na Uniwersytecie Irvine w ramach programu Mobilność Plus finansowanego przez Ministerstwo Nauki i Szkolnictwa Wyższego. Eksperyment ma poszukiwać nowych, nieznanych dotąd cząstek, które mogą powstawać w zderzeniach protonów, na przykład w punkcie zderzenia w detektorze ATLAS. Naukowcy spodziewają się, że mogą one istnieć, ale nie zostały dotąd zarejestrowane ze względu na ich słabe oddziaływanie z materią detektora. Cząstki takie – jeśli są odpowiednio lekkie, jeśli powstają dość rzadko i na dodatek lecą wzdłuż osi wiązki zderzających się protonów, mogły dotychczas umykać uwadze eksperymentatorów – wyjaśnia dr Trojanowski (NCBJ; przebywający obecnie na stażu doktorskim na Uniwersytecie w Sheffield). Trudno byłoby je na przykład zobaczyć jako wyraźny sygnał brakującej energii w bilansie energetycznym produktów zderzenia. Szansą na ich ewentualne wykrycie jest ustawienie detektora w pewnej odległości od punktu produkcji i próba zarejestrowania oczekiwanych produktów rozpadów. Warunkiem powodzenia takiego scenariusza jest, by masa poszukiwanych cząstek była większa niż łączna masa najlżejszych produktów ewentualnego rozpadu – na przykłada pary elektron-pozyton.
      Zaproponowany i zaaprobowany właśnie przez CERN eksperyment FASER ma być ulokowany ok. pół kilometra od detektora ATLAS w tunelu serwisowym, który zbiega w kierunku tunelu LHC. Układ będzie składał się ze scyntylatorów, magnesów, detektorów śladu i kalorymetru mierzącego energię produktów, jeśli rzeczywiście dojdzie do poszukiwanego rozpadu. Całość ma mieć długość kilku metrów i częściowo składać się z układów zapasowych przekazanych przez funkcjonujące już eksperymenty LHC – tłumaczy dr Trojanowski. Największą inwestycją będzie zamówienie w CERN odpowiednich magnesów. Większość wydatków mają pokryć dwie amerykańskie fundacje: Simons i Heising-Simons.
      W projekt – poza czwórką pomysłodawców – jest obecnie zaangażowanych ponad dwudziestu uczonych ze Szwajcarii, USA i innych krajów. Harmonogram zaakceptowany przez CERN przewiduje, że prace instalacyjne zostaną wykonane w czasie kolejnej dużej przerwy w pracy LHC, a zbieranie danych rozpocznie się w cyklu badawczym LHC zaplanowanym na lata 2021-2023.
      Naukowcy od lat intensywnie poszukują nowych, nieznanych dotąd postaci materii. Obserwacje astronomiczne dostarczają trudnych do podważenia argumentów, że we Wszechświecie istnieje nieznana nam dotąd materia, która z atomami, z których składamy się my oraz wszystko co znamy, oddziałuje głównie siłami grawitacji. Mimo iż obliczenia wskazują, że tej nieznanej "ciemnej" materii jest we Wszechświecie kilkakrotnie więcej niż materii "normalnej", nie udało się jej wytworzyć lub zaobserwować jej składników w naszych laboratoriach. Proponowany eksperyment jest jedną z wielu propozycji inspirowanych tą zagadką. Cząstki, których poszukiwał będzie FASER, mogłyby być pierwszym elementem na drodze do jej rozwikłania. Ewentualne negatywne wyniki także wzbogacą naszą wiedzę i wykluczą niektóre teoretyczne koncepcje.

      « powrót do artykułu
×
×
  • Create New...