Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Promieniowanie kosmiczne i Słońce przyspieszają nukleację areozoli

Rekomendowane odpowiedzi

Aktualizacja: artykuł opublikowany w piśmie „Nature", został różnie zinterpretowany przez media. Jednak pola do interpretacji nie pozostawiają słowa Jaspera Kirkby'ego, który stwierdził, że przeprowadzone przez niego i jego kolegów badania nie mówią nic o możliwym wpływie promieniowania kosmicznego na chmury i klimat, ale są bardzo ważnym pierwszym krokiem w zrozumieniu tego zagadnienia.

Wstępne wyniki wykazały bowiem, że promieniowanie kosmiczne ma spory wpływ na nukleację, że wysokoenergetyczne protony przyczyniają się do co najmniej 10-krotnego zwiększenia tempa nukleacji aerozoli, jednak powstające w ten sposób cząsteczki są zbyt małe by mogły posłużyć za zaczątek chmur. Eksperyment wykazał, że na wysokości kilku kilometrów do procesu nukleacji wystarczają para wodna i kwas siarkowy, a proce ten jest znacznie przyspieszany promieniowaniem kosmicznym. Na wysokości do 1 kilometra nad ziemią konieczna jest jeszcze obecność amoniaku.

Co najważniejsze, badania CLOUD pokazały, że para wodna, kwas siarkowy i amoniak, nawet "napędzane" promieniowaniem kosmicznym, nie wyjaśniają zachodzącego w atmosferze procesu formowania się areozoli. Stąd wniosek, że zaangażowane weń muszą być jeszcze inne składniki.

Jak zatem widzimy, pierwsze rezultaty uzyskane w ramach prowadzonego przez CERN eksperymentu CLOUD - Cosmics Leving Outdoor Droplets - nie sugerują (jak wcześniej informowaliśmy) że obecne modele klimatyczne powinny być znacznie zmienione. Z badań wynika jedynie, że promieniowanie z kosmosu odgrywa znacznie większą niż przypuszczano rolę w nukleacji aerozoli, jednak nie oznacza to jeszcze, że czynniki te prowadzą do formowaniu się chmur nad naszą planetą.

Odkrycie CERN-u wpisuje się w polityczną walkę o określenie przyczyn globalnego ocieplenia, dlatego też naukowcy starają się przedstawić tylko i wyłącznie wyniki badań i nie podawać ich interpretacji. Indukowana przez jony nukleacja objawia się ciągłą produkcją nowych cząsteczek, które trudno jest wyizolować w czasie obserwacji atmosfery, gdyż istnieje bardzo dużo zmiennych. Jednak zjawisko to zachodzi na masową skalę w troposferze - mówi Jasper Kirkby, fizyk z CERN-u.

Naukowcy doszli do takich wniosków wykorzystując akcelerator Proton Synchotron do badania zjawiska nukleacji z użyciem różnych gazów i temperatur.

Ojcem teorii o Słońcu jako pośredniej przyczynie globalnego ocieplenia, w którym rolę odgrywa interakcja wiatru słonecznego i promieniowania kosmicznego, jest duński fizyk Henrik Svensmark. Jego zdaniem Słońce to jeden z czterech czynników odpowiedzialnych za zmiany klimatyczne. Trzy pozostałe to wulkany, zmiany w stanie klimatu do których doszło w 1977 roku oraz emisja zanieczyszczeń przez człowieka.

Doktor Kirkby, który opisał dokładnie tę teorię w 1998 roku mówił wówczas, że promieniowanie kosmiczne odpowiada prawdopodobnie za połowę lub nawet całość wzrostu temperatury na Ziemi w ciągu ostatnich 100 lat.

Jak dotychczas nie udało się tej tezy udowodnić.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Interesujące, z tego co sobie przypominam większa pokrywa chmur oznacza obniżenie temperatury globalnej, a jeśli promieniowanie jest głównym ich źródłem to obecny okres niskiej aktywności słońca sprzyja mniejszej pokrywie. A więc po raz pierwszy coś w tej dyskusji nabiera sensu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gdzieś ostatnio czytałem o tej teorii i tak ogólnie chodzi w niej o to, że przy niskiej aktywności słońca, a więc i przy niskim natężeniu wiatru słonecznego, do ziemi dociera znacznie więcej promieniowania kosmicznego, które powoduje wzrost ilości chmur i przez to obniżanie temperatury.

 

Przy dużej aktywności słońca cząstki z wiatru słonecznego powodują, że cząstki promieniowania kosmicznego są rozpraszane (zdmuchiwane?) przez co ilość i grubość chmur jest znacznie mniejsza i temperatury rosną.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale czy wiatr słoneczny nie wywołuje tego samego zjawiska co promieniowanie (czyli wiatr?) kosmiczne? Bo w takim przypadku na pewno gęstość wiatru słonecznego jest daleko większa od kosmicznego.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Cząsteczki zanieczyszczeń, w tym dwutlenku węgla również są źródłem nukleacji. W ostatnich 200 latach ilość CO2 wzrosła z 280 do 370 ppm. Czy aktywność słońca również wzrosła o 1/3 ?

Wydaje mi się, że do rewelacji przedstawionych w artykule należy podejść z ogromną rezerwą.

Nawiasem mówiąc - artykuł sponsorowany przez producentów CO2 :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
nie mówią nic o możliwym wpływie promieniowania kosmicznego na chmury i klimat, ale są bardzo ważnym pierwszym krokiem w zrozumieniu tego zagadnienia. 
Nie dziwi nic , że promy spadają, cud że satelity wiszą, o księżycu nie wspomnę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Cząsteczki zanieczyszczeń, w tym dwutlenku węgla również są źródłem nukleacji. W ostatnich 200 latach ilość CO2 wzrosła z 280 do 370 ppm. Czy aktywność słońca również wzrosła o 1/3 ?

A zachmurzenie, temperatury również zmieniły się o 1/4 przez ostatnie 200lat? Bo taki wniosek sugerujesz.

Przestań proszę przypisywać jakieś mityczne znaczenie ditelnkowi węgla. A jeśli masz na myśli pyły to nie utożsamiaj jednego z drugim.

 

z artykułu:

"zmiany w stanie klimatu do których doszło w 1977" - może mi to ktoś wyjaśnić? bo ja nie znam tej daty. Całkowite zaćmienie słońca? Co za zmiany?

Bo w te antropologiczne czynniki to ja dalej nie wierzę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Greg, czy mógłbyś opisać, jakie to mityczne właściwości przypisuję dwutlenkowi węgla?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

z artykułu:

"zmiany w stanie klimatu do których doszło w 1977" - może mi to ktoś wyjaśnić?

 

Prawdopodobnie chodzi o maksimum zanieczyszczeń przemysłowych w europie - duże zapylenie -> duże zachmurzenie -> niższe temperatury. Paradoksalnie, zwiększenie wymogów wobec przemysłu spowodowało ocieplenie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

IMHO zwykły beton jest groźniejszy niż te całe związki razem wzięte. W obrębie miast jest niesamowite podwyższenie temperatury, co w ich ilości przekłada się na zmiany klimatu. Czynników jest ogrom i szukanie kozła ofiarnego, takiego jak CO2 to parodia, dlatego nie ma co rozwijać kolejnego z rzędu tematu o dwutlenku węgla i jego wpływie na środowisko.

 

Przykład z Historii. Hitlerowi przypisuje się niesamowite ludobójstwo (i słusznie), ale litości nie on jest tylko winien. Nie usprawiedliwiam go, ale gdzie ta reszta. Ludzie lubią jak jest jedna przyczyna bo tak jest po prostu łatwiej.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ludzie lubią jak jest jedna przyczyna bo tak jest po prostu łatwiej.

 

Przegrałeś na mocy prawa Godwina.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W ostatnich 200 latach ilość CO2 wzrosła z 280 do 370 ppm.

Nawiasem mówiąc - artykuł sponsorowany przez producentów CO2 :)

 

no i jaki ma to związek z tworzeniem się chmur? zwiększyła się ich ilość przez ten okres? mniej promieni słonecznych pada na ziemię? obniżyła się temperatura na świecie? Jakiekolwiek wnioski?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale nie odpowiedziałeś na pytanie: jakie mityczne właściwości przypisałem dwutlenkowi węgla?

Czyżbyś nie potrafił obronić wypowiedzianej przez siebie tezy?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Po raz pierwszy udało się bezpośrednio zaobserwować wpływ grawitacji na antymaterię. Fizycy z CERN eksperymentalnie wykazali, że grawitacja działa na antymaterię tak, jak i na materię – antyatomy opadają na źródło grawitacji. Nie jest to niczym niespodziewanym, różnica w oddziaływaniu grawitacji na materię i antymaterię miałaby bardzo poważne implikacje dla fizyki. Jednak bezpośrednia obserwacja tego zjawiska jest czymś, czego fizycy oczekiwali od dziesięcioleci. Oddziaływanie grawitacyjne jest bowiem niezwykle słabe, zatem łatwo może zostać zakłócone.
      Naukowcy z CERN pracujący przy eksperymencie ALPHA wykorzystali atomy antywodoru, które są stabilne i elektrycznie obojętne, do badania wpływu grawitacji na antymaterię. Uczeni utworzyli antywodór łącząc antyprotony – uzyskane w urządzeniach AD i ELENA pracujących w Antimatter Factory – z pozytonami (antyelektronami) z radioaktywnego sodu-22. Atomy antywodoru umieszczono następnie w pułapce magnetycznej, która chroniła je przed wejściem w kontakt z materią i anihilacją. Całość umieszczono w niedawno skonstruowanym, specjalnym urządzeniu o nazwie ALPHA-g, które pozwala na śledzenie losu atomów po wyłączeniu pułapki.
      Symulacje komputerowe wykazywały, że – w przypadku materii – około 20% atomów powinno opuścić pułapkę przez górną jej część, a około 80% – przez dolną. Naukowcy wielokrotnie przeprowadzili eksperymenty z użyciem antymaterii, uwzględniając przy tym różne ustawienia pułapki i różne możliwe oddziaływania poza oddziaływaniami grawitacyjnymi. Po uśrednieniu wyników eksperymentów okazało się, że antymateria zachowuje się tak, jak materia. Około 20% atomów antywodoru uleciało z pułapki górą, a około 80% – dołem.
      Potrzebowaliśmy 30 lat by nauczyć się, jak stworzyć antyatomy, jak utrzymać je w pułapce, jak je kontrolować i jak je uwalniać z pułapki, by oddziaływała na nie grawitacja. Następnym etapem naszych badań będą jak najbardziej precyzyjne pomiary przyspieszenia opadających antyatomów. Chcemy sprawdzić, czy rzeczywiście atomy i antyatomy opadają w taki sam sposób, mówi Jeffrey Hangst, rzecznik prasowy eksperymentu ALPHA.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      CERN poinformował, że w przyszłym roku przeprowadzi o 20% mniej eksperymentów, a w roku bieżącym akcelerator zostanie wyłączony 28 listopada, 2 tygodnie wcześniej, niż planowano. Zmiany mają związek z niedoborami energii i rosnącymi jej kosztami. W ten sposób CERN chce pomóc Francji w poradzeniu sobie z problemami z dostępnością energii.
      CERN kupuje 70–75% energii z Francji. Gdy wszystkie akceleratory w laboratorium pracują, zużycie energii wynosi aż 185 MW. Sama infrastruktura Wielkiego Zderzacza Hadronów potrzebuje do pracy 100 MW.
      W związku ze zbliżającą się zimą we Francji wprowadzono plan zredukowania zużycia energii o 10%. Ma to pomóc w uniknięciu wyłączeń prądu. Stąd też pomysł kierownictwa CERN, by pomóc w realizacji tego planu. Ponadto rozpoczęto też prace nad zmniejszeniem zapotrzebowania laboratorium na energię. Podjęto decyzję m.in. o wyłączaniu na noc oświetlenia ulicznego, rozpoczęcia sezonu grzewczego o tydzień później niż zwykle oraz zoptymalizowania ogrzewania pomieszczeń przez całą zimę.
      Działania na rzecz oszczędności energii nie są w CERN niczym niezwykłym. Laboratorium od wielu lat pracuje nad zmniejszeniem swojego zapotrzebowania i w ciągu ostatniej dekady konsumpcję energii udało się ograniczyć o 10%. Było to możliwe między innymi dzięki zoptymalizowaniu systemów chłodzenia w centrum bazodanowym, zoptymalizowaniu pracy akceleratorów, w tym zmniejszenie w nich strat energii.
      W CERN budowane jest właśnie nowe centrum bazodanowe, które ma ruszyć pod koniec przyszłego roku. Od początku zostało ono zaprojektowane z myślą o oszczędności energii. Znajdą się tam m.in. systemy odzyskiwania ciepła generowanego przez serwery. Będzie ono wykorzystywane do ogrzewania innych budynków laboratorium. Zresztą już teraz ciepło generowane w jednym z laboratoriów CERN jest używane do ogrzewania budynków w pobliskiej miejscowości Ferney-Voltaire. Trwają też prace nad optymalizacją systemu klimatyzacji i wentylacji oraz nad wykorzystaniem energii fotowoltaicznej.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Na przełomie XX i XXI wieku na prestiżowych amerykańskich uniwersytetach zaczęły pojawiać się centra badawcze specjalizujące się w kwestiach ocieplenia klimatu. Powstały one m.in. na Princeton, Stanford, MIT czy na Uniwersytecie Kalifornijskim w Berkeley. Pieniądze na powstanie tych centrów badawczych dały... firmy wydobywające ropę naftową i gaz ziemny.
      To, jak zauważa dziennikarz śledczy Paul Thacker, wyraźny konflikt interesów. Przedsiębiorstwa żyjące z wydobycia paliw kopalnych finansują badania, których celem jest odejście od paliw kopalnych. Thacker, na łamach British Medical Journal stwierdza, że koncerny naftowe zastosowały tę samą taktykę, jaką w połowie XX wieku stosowały koncerny tytoniowe.
      Gdy w latach 50. ubiegłego wieku coraz więcej osób zaczęło domagać się odszkodowań za problemy związane z paleniem papierosów – powodzi argumentowali m.in., że firmy wprowadzały na rynek szkodliwy produkt, nie ostrzegały przed niebezpieczeństwem dla zdrowia i ryzykiem uzależnienia – koncerny tytoniowe zaczęły domagać się większej liczby badań, a nie mniejszej. Strategia ta miała na celu wprowadzenie niepewności co do wyników badań.
      Podobną strategię przyjęły koncerny naftowe. Gdy na początku lat 90. naukowcy z firmy Exxon przekazali, że rządy mają zamiar wprowadzić regulacje w celu powstrzymania globalnego ocieplenia, francuski przemysł naftowy zaczął finansować badania nad przechwytywaniem atmosferycznego węgla przez oceany. W ten sposób chciano wywołać w opinii publicznej wrażenie, że sytuacja jest lepsza, niż w rzeczywistości. W roku 1998 American Petroleum Institute opracował wieloletni plan podważania rządowych działań na rzecz klimatu. Jednym z elementów planu było powołanie komitetu naukowego, którego celem było wprowadzenie niepewności co do wyników badań.
      Finansowanie badań naukowych ma też za zadanie przekonanie polityków, by nie wprowadzali ograniczeń dla przemysłu. Lobbyści koncernów naftowych zachęcają polityków do odrzucania różnych przepisów ograniczających przemysł mówiąc, że są one niepotrzebne, gdyż przemysł finansuje badania na prestiżowych uczelniach, a badania te wkrótce przyniosą rozwiązanie problemów.
      Działania takie przyniosły znaczące wyniki co najmniej w jednym przypadku. W 2011 roku finansowany przez przemysł wydobywczy program Energy Initiative na MIT opublikował raport, w którym stwierdzono, że gaz łupkowy może zastąpić węgiel, gdyż wiąże się z mniejszą emisją węgla do atmosfery. Celem raportu było osłabienie wyników badań przeprowadzonych na Cornell University, z których wynikało, że gaz łupkowy z powodu wycieków metanu jest bardziej szkodliwy niż węgiel. Obecnie wiemy, że raport Energy Initiative zawierał wiele błędów. Jednak spełnił swoje zadanie. Posługując się nim przemysł wydobywczy stworzył obraz „zielonego gazu łupkowego”, rok później raport był cytowany przez prezydenta Obamę podczas State of the Union, jego główny twórca Ernest Moniz został sekretarzem ds. energii i w USA rozpoczął się boom na gaz łupkowy.
      Wielu przeciwników finansowania badań nad zmianami klimatu przez koncerny naftowe podaje przykład badań nad przechwytywaniem dwutlenku węgla. Opracowywanie takich technologii ma przekonać opinię publiczną, że możemy bezkarnie spalać paliwa kopalne, bo CO2 można przechwytywać w miejscu wytworzenia. Technologia taka co prawda istnieje, ale jej stosowanie nie ma sensu ani ekonomicznego, ani ekologicznego. Rząd USA dofinansował badania nad takimi rozwiązaniami kwotą 7 miliardów dolarów i udzielił ulg podatkowych na kwotę miliarda dolarów, a mimo to praktycznie nie jest ona stosowana. Z badań opublikowanych w ubiegłym roku wynika, że usunięcie 1 gigatony CO2 rocznie – a to zaledwie około 2,5% całkowitej emisji – wymaga użycia tyle energii, ile całe USA zużyły w 2020 roku.
      Profesor Mark Jacobson z Universytetu Stanforda, który analizował jedyną amerykańską elektrownię węglową wykorzystującą technologię przechwytywania CO2 mówi, że urządzenia kosztowały miliard USD i są zasilane gazem ziemnym. Uczony zauważa, że przemysł naftowy sponsoruje olbrzymimi kwotami badania nad technologią, która się po prostu nie sprawdza.
      Co więcej, okazuje się, że już w 1981 roku naukowcy Exxona wiedzieli, że o ile technologia przechwytywania CO2 jest możliwa do zrealizowania z naukowego punktu widzenia, to jej stosowanie nie ma żadnego ekonomicznego uzasadnienia, gdyż wymaga użycia zbyt wielkich ilości energii. A w 1989 roku menedżerowie Exxona w wewnętrznych dokumentach zastanawiali się, jak przeciwdziałać rządowym próbom wprowadzania regulacji dotyczących emisji gazów cieplarnianych. Doszli wówczas do wniosku, że należy prowadzić działania mające na celu wprowadzanie wątpliwości co do niekorzystnych badań naukowych, podkreślanie kosztów takich rozwiązań oraz ciągle prowadzenie badań nad innymi rozwiązaniami.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Rada CERN jednogłośnie przyjęła dzisiaj plan dotyczący strategii rozwoju badań nad fizyką cząstek w Europie. Plan zakłada m.in. wybudowanie 100-kilometrowego akceleratora cząstek. O stworzeniu wstępnego raportu projektowego budowy Future Circular Collider (FCC) informowaliśmy na początku ubiegłego roku.
      The European Strategy for Particle Physics został po raz pierwszy przyjęty w 2006 roku, a w roku 2013 doczekał się pierwszej aktualizacji. Prace nad jego obecną wersją rozpoczęły się w 2018 roku, a w styczniu ostateczna propozycja została przedstawiona podczas spotkania w Niemczech. Teraz projekt zyskał formalną akceptację.
      CERN będzie potrzebował znaczniej międzynarodowej pomocy, by zrealizować swoje ambitne plany. Stąd też w przyjętym dokumencie czytamy, że Europa i CERN, za pośrednictwem Neutrino Platform, powinny kontynuować wsparcie dla eksperymentów w Japonii i USA. W szczególności zaś, należy kontynuować współpracę ze Stanami Zjednoczonymi i innymi międzynarodowymi partnerami nad Long-Baseline Neutriono Facility (LBNF) oraz Deep Underground Neutrino Experiment (DUNE).
      Obecnie szacuje się, że budowa nowego akceleratora, który byłby następcą Wielkiego Zderzacza Hadronów, pochłonie co najmniej 21 miliardów euro. Instalacja, w której dochodziłoby do zderzeń elektronów z pozytonami, miała by zostać uruchomiona przed rokiem 2050.
      Zatwierdzenie planów przez Radę CERN nie oznacza jednak, że na pewno zostaną one zrealizowane. Jednak decyzja taka oznacza, że CERN może teraz rozpocząć pracę nad projektem takiego akceleratora, jego wykonalnością, a jednocześnie rozważać inne konkurencyjne projekty dla następcy LHC. Myślę, że to historyczny dzień dla CERN i fizyki cząstek, zarówno w Europie jak i poza nią, powiedziała dyrektor generalna CERN Fabiola Gianotti po przyjęciu proponowanej strategii.
      Z opinią taką zgadzają się inni specjaliści. Dotychczas bowiem CERN rozważał wiele różnych propozycji. Teraz wiadomo, że skupi się przede wszystkim na tej jednej.
      Przyjęta właśnie strategia zakłada dwuetapowe zwiększanie możliwości badawczych CERN. W pierwszym etapie CERN wybuduje zderzacz elektronów i pozytonów, którego energia zostanie tak dobrana, by zmaksymalizować produkcję bozonów Higgsa i lepiej zrozumieć ich właściwości.
      Później instalacja ta zostanie rozebrana, a w jej miejscu powstanie potężny zderzacz protonów. Urządzenie będzie pracowało z energiami rzędu 100 teraelektronowoltów (TeV). Dla porównania, LHC osiąga energie rzędu 16 TeV.
      Zadaniem nowego zderzacza będzie poszukiwanie nowych cząstek i sił natury. Większość technologii potrzebna do jego zbudowania jeszcze nie istnieje. Będą one opracowywane w najbliższych dekadach.
      Co ważne, mimo ambitnych planów budowy 100-kilometrowego zderzacza, nowo przyjęta strategia zobowiązuje CERN do rozważenia udziału w International Linear Collider, którego projekt jest od lat forsowany przez japońskich fizyków. Japończycy są zadowoleni z takiego stanowiska, gdyż może pozwoli to na przekonanie rządu w Tokio do ich projektu.
      W przyjętej właśnie strategii czytamy, że CERN będzie kontynuował rozpoczęte już prace nad High Luminosity LHC (HL-LHC), czyli udoskonaloną wersją obecnego zderzacza. Budowa 100-kilometrowego tunelu i zderzacza elektronów i pozytonów ma rozpocząć się w roku 2038. Jednak zanim ona wystartuje, CERN musi poszukać pieniędzy na realizację swoich zamierzeń. Chris Llewellyn-Smith, były dyrektor generalny CERN, uważa, że do europejskiej organizacji mogłyby dołączyć Stany Zjednoczone, Japonia i Chiny, by powołać nową globalną organizację fizyczną.
      Nie wszyscy eksperci entuzjastycznie podchodzą do planów CERN. Sabine Hossenfelder, fizyk teoretyczna z Frankfurckiego Instytutu Zaawansowanych Badań krytykuje wydawanie olbrzymich kwot w sytuacji, gdy nie wiemy, czy zwiększanie energii zderzeń cząstek przyniesie jakiekolwiek korzyści naukowe poza pomiarami właściwości już znanych cząstek. Z opinią tą zgadza się Tara Shears z University of Liverpool. Uczona zauważa, że o ile powodem, dla którego budowano LHC było poszukiwanie bozonu Higgsa i urządzenie spełniło stawiane przed nim zadanie, to obecnie brak dobrze umotywowanych powodów naukowych, by budować jeszcze potężniejszy akcelerator. Nie mamy obecnie żadnych solidnych podstaw. A to oznacza, że cały projekt obarczony jest jeszcze większym ryzykiem, mówi. Dodaje jednak, że jednocześnie wiemy, że jedynym sposobem na znalezienie odpowiedzi są eksperymenty, a jedynymi miejscami, gdzie możemy je znaleźć są te miejsca, w które jeszcze nie zaglądaliśmy.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W CERN zakończono najbardziej precyzyjne w historii eksperymenty, których celem było sprawdzenie czy materia i antymateria reagują tak samo na oddziaływanie grawitacji. Trwające 1,5 roku badania z wykorzystaniem protonów i antyprotonów przeprowadzili specjaliści z eksperymentu BASE (Baryon Antibaryon Symmetry Experiment).
      Naukowcy zmierzyli stosunek ładunku do masy protonu i antyprotonu z dokładnością 16 części na bilion. To najbardziej precyzyjny ze wszystkich testów symetrii materii i antymaterii przeprowadzony na cząstkach złożonych z trzech kwarków, zwanych barionami, i ich antycząstkach, mówi Stefan Ulmer, rzecznik prasowy BASE.
      Zgodnie z Modelem Standardowym cząstki i antycząstki mogą się od siebie różnić, jednak większość właściwości, szczególnie ich masa, powinno być identycznych. Znalezienie różnicy masy pomiędzy protonami a antyprotonami lub też różnicy w ich stosunku ładunku do masy, oznaczałoby złamanie podstawowej symetrii Modelu Standardowego, symetrii CPT. Byłby to również dowód na znalezienie fizyki wykraczającej poza opisaną Modelem Standardowym.
      Istnienie takiej różnicy mogłoby doprowadzić do wyjaśnienia, dlaczego wszechświat składa się głównie z materii, mimo że podczas Wielkiego Wybuchu powinny powstać takie same ilości materii i antymaterii. Różnice pomiędzy cząstkami materii i antymaterii zgodne z Modelem Standardowym, są o rzędy wielkości zbyt małe, by wyjaśnić obserwowaną nierównowagę.
      Naukowcy z BASE wykorzystali podczas swoich pomiarów antyprotony i jony wodoru, które służyły jako ujemnie naładowane przybliżenia protonów. Umieszczono je w tzw. pułapce Penninga. Badania prowadzono pomiędzy grudniem 2017 roku a majem 2019. Później przystąpiono do opracowywania wyników, a po zakończeniu prac w najnowszym numerze Nature poinformowano o rezultatach.
      Po uwzględnieniu różnic pomiędzy jonami wodoru a protonami okazało się, że stosunek ładunku do masy protonu jest z dokładnością do 16 części na miliard identyczny ze stosunkiem ładunku do masy antyprotonu. To czterokrotnie bardziej dokładne obliczenia niż wszystko, co udało się wcześniej uzyskać, mówi Stefan Ulmer. Aby dokonać tak precyzyjnych pomiarów musieliśmy najpierw znacznie udoskonalić nasze narzędzia. Badania przeprowadziliśmy w czasie, gdy urządzenia wytwarzające antymaterię były nieczynne. Wykorzystaliśmy więc magazyn antyprotonów, w którym mogą być one przechowywane przez lata, dodaje.
      Prowadzenie eksperymentów w pułapce Penninga w czasie, gdy urządzenia wytwarzające antymaterię nie działają, pozwala na uzyskanie idealnych warunków, gdyż nie występują zakłócające badania pola magnetyczne generowane przez „fabrykę antymaterii”.
      Naukowcy z BASE nie ograniczyli się tylko do niespotykanie precyzyjnego porównania protonów i antyprotonów. Przeprowadzili też testy słabej zasady równoważności. Wynika ona z teorii względności i głosi, że zachowanie wszystkich obiektów w polu grawitacyjnym jest niezależne od ich właściwości, w tym masy. Oznacza to, że jeśli pominiemy inne siły – jak np. siłę tarcia – reakcja wszystkich obiektów na oddziaływanie grawitacji jest taka sama. Przykładem może być tutaj piórko i młotek, które w próżni powinny opadać z tym samym przyspieszeniem.
      Orbita Ziemi wokół Słońca ma kształt elipsy, co oznacza, że obiekty uwięzione w pułapce Penninga będą odczuwały niewielkie zmiany oddziaływania grawitacyjnego. Okazało się, że zarówno proton i antyproton identycznie reagują na te zmiany. Uczeni z BASE potwierdzili, że słaba zasada równoważności odnosi się zarówno do materii jak i antymaterii z dokładnością około 3 części na 100.
      Ulmer podkreśla, że uzyskana w tym eksperymencie precyzja jest podobna do założeń eksperymentu, w ramach których CERN chce badać antywodór podczas spadku swobodnego w polu grawitacyjnym Ziemi. BASE nie prowadziło eksperymentu ze swobodnym spadkiem antymaterii w polu grawitacyjnym Ziemi, ale nasze pomiary wpływu grawitacji na antymaterię barionową są co do założeń bardzo podobne do planowanego eksperymentu. To wskazuje, że w dopuszczonym zakresie niepewności nie znaleźliśmy żadnych anomalii w interakcjach pomiędzy antymaterią a grawitacją.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...