Zaloguj się, aby obserwować tę zawartość
Obserwujący
0

Ruszył wielki detektor neutrin, w którego budowę zaangażowani byli Polacy
dodany przez
KopalniaWiedzy.pl, w Astronomia i fizyka
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Masa neutrina jest co najmniej milion razy mniejsza niż masa elektronu, informują naukowcy z Karlsruhe Tritium Neutrino (KATRIN). Badania określiły nową górną granicę możliwej masy neutrino na podstawie 36 milionów pomiarów. Dzięki nim wiemy, że wynosi ona nie więcej niż 0,45 elektronowolta (eV). Masa elektronu, kolejnej z najlżejszych cząstek elementarnych, to 511 000 elektronowoltów.
Neutrino jest jedyną cząstką elementarną, której masy nie znamy. Zdobycie wiedzy na jej temat pozwoli na zbadanie, w jaki sposób neutrina nabywają masę. Czy – jak inne cząstki – dzięki oddziaływaniu z polem Higgsa, czy też w jakiś inny, nieznany dotychczas sposób. Poznanie masy neutrino powinno też zdradzić, w jaki sposób neutrina narodziły się w czasie Wielkiego Wybuchu i jak wpłynęły na formowanie się galaktyk.
Nowa górna granica masy oznacza doprecyzowanie wcześniejszych badań przeprowadzonych przez KATRIN. W 2022 roku naukowcy pracujący przy tym eksperymencie stwierdzili, że górną granicą masy neutrino jest 0,8 eV. Teraz międzynarodowy zespół złożony z ponad 140 naukowców przeanalizował dane z 259 dni pracy KATRIN i jeszcze bardziej doprecyzował pomiary.
Eksperyment KATRIN Collaboration wykorzystuje rozpad beta trytu. Podczas niego dochodzi do emisji elektronu i antyneutrina. Antycząstki mają taką samą masę jak odpowiadające im cząstki, więc badania antyneutrina pozwalają określić masę neutrina. Jednak neutrina niemal nie wchodzą w interakcje z materią. Ich badanie (i badanie antyneutrin) jest niezwykle trudne. W ramach eksperymentu KATRIN badany jest więc elektron, nie neutrino.
Rozpad beta trytu to jeden z najmniej energetycznych rozpadów beta. Emitowane w jego trakcie elektron i neutrino unoszą łącznie 18,6 keV energii. Elektron trafia do 200-tonowego spektroskopu długości 23 metrów, o którego niezwykłym transporcie na miejsce montażu informowaliśmy kilka lat temu. Spektroskop bada widmo energii elektronu, jeśli precyzyjnie je poznamy, będziemy wiedzieli ile brakuje ze wspomnianych 18,6 keV, zatem ile energii przypadło na neutrino. Brzmi to prosto, ale jest niezwykle skomplikowanym zadaniem.
Eksperyment KATRIN zakończy działanie jeszcze w bieżącym roku. Naukowcy będą wówczas dysponowali danymi zebranymi z 1000 dni. Spodziewają się, że obniżą górną granicę masy neutrino do 0,3 eV, a może nawet do 0,2 eV. To i dobra, i zła wiadomość. Coraz lepiej poznajemy bowiem masę neutrino, ale nie znamy jej dokładnej wartości. Gdyby było to bliżej 1 eV, to eksperymenty takie jak KATRIN mogłyby dać nam ostateczną odpowiedź. Jednak teraz wiemy już, że potrzebne będą znacznie bardziej precyzyjne urządzenia, niż te, którymi obecnie dysponujemy.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Podczas seminarium zorganizowanego w CERN-ie naukowcy pracujący przy projekcie NA62, w ramach którego badane są rzadkie rozpady kaonów, poinformowali o jednoznacznym potwierdzeniu rejestracji ultrarzadkiego rozpadu kaonu dodatniego do dodatnio naładowanego pionu i parę neutrino-antyneutrino. Uczeni z NA62 już wcześniej obserwowali sygnały, świadczące o zachodzeniu takiego procesu, jednak teraz, po raz pierwszy, pomiary zostały dokonane z poziomem ufności 5σ, od którego możemy mówić o dokonaniu odkrycia.
Zaobserwowane zjawisko, które zapisujemy jako K+→π+νν, to jeden z najrzadziej obserwowanych rozpadów. Model Standardowy przewiduje, że w ten sposób rozpada się mniej niż 1 na 10 miliardów kaonów dodatnich. Ta obserwacja to moment kulminacyjny projektu, który rozpoczęliśmy ponad dekadę temu. Obserwowanie zjawisk naturalnych, których prawdopodobieństwo wynosi 10-11 jest zarówno fascynujące, jak i wymagające. Wielki wysiłek, jaki włożyliśmy w badania, w końcu zaowocował obserwacją, dla której projekt NA62 powstał, mówi Giuseppe Ruggiero, rzecznik projektu badawczego.
Po co jednak fizycy wkładają tyle wysiłku w obserwacje tak rzadko zachodzącego procesu? Otóż modele teoretyczne sugerują, że rozpad K+→π+νν jest niezwykle wrażliwy na wszelkie odchylenia od Modelu Standardowego, jest zatem jednym z najbardziej interesujących procesów dla poszukiwań zjawisk fizycznych wykraczających poza Model Standardowy.
Uzyskany obecnie wynik jest o około 50% większy, niż zakłada to MS, ale wciąż mieści się w granicach niepewności. Dzięki zebraniu kolejnych danych naukowcy z NA62 będą w stanie w ciągu kilku lat przeprowadzić testy rozpadu pod kątem występowania tam zjawisk, których Model Standardowy nie opisuje. Poszukiwanie nowej fizyki w tym rozpadzie wymaga zgromadzenia większej ilości danych. Nasze obecne osiągnięcie to duży krok naprzód. Stanowi ono fundament dla kolejnych badań, dodaje Karim Massri z NA62.
Grupa NA62 uzyskuje kaony kierując intensywną wiązkę protonów z Super Proton Synchrotron w CERN-ie na stacjonarny cel. W wyniku zderzenia w każdej sekundzie powstaje około miliarda cząstek, które są rejestrowane przez detektory. Dodatnie kaony stanowią około 6% z tych cząstek. NA62 dokładnie określa sposób rozpadu tych kaonów, rejestrując wszystkie powstające wówczas cząstki, z wyjątkiem neutrin. Ich obecność jest dedukowana z brakującej energii.
Dla obecnie opisanego odkrycia kluczowe były dane zebrane w roku 2021 i 2022, które zgromadzono po udoskonaleniu detektorów. Dzięki temu NA62 może pracować z wiązkami o 30% bardziej intensywnymi. W połączeniu z nowymi technikami analitycznymi, naukowcy są w stanie prowadzić analizy o 50% szybciej, niż wcześniej, a jednocześnie tłumić sygnały, które są podobne. Nasza praca polega na zidentyfikowaniu 1 na 10 miliardów rozpadu K+ i upewnieniu się, że nie był to żaden z pozostałych 9 999 999 999, dodaje kierownik projektu, Joel Swallow.
« powrót do artykułu -
przez KopalniaWiedzy.pl
O teleskopie Hubble'a słyszeli chyba wszyscy. Nic w tym dziwnego, gdyż jest to jeden z najważniejszych instrumentów naukowych wykorzystywanych obecnie przez człowieka. Niewiele osób jednak wie, że teleskopy wcale nie muszą spoglądać w niebo. Na Antarktydzie powstaje właśnie niezwykłe urządzenie. Teleskop IceCube (Kostka Lodu), jest budowany wewnątrz lodowej czapy pokrywającej południowy biegun naszej planety. Jego zadaniem jest wykrywanie neutrin.
Neutrino
Neutrino to jedna z cząstek elementarnych. Należy ona do grupy leptonów i wyróżniamy trzy typy neutrin: taonowe, mionowe oraz elektronowe. Neutrino ma zerowy ładunek elektryczny i niemal nie ma masy. Cząstka jest tak przenikliwa, że na przykład planety nie stanowią dla niej żadnej przeszkody. W każdej chwili przez nasze ciała, przez budynki i przez samą Ziemię przelatuje niezliczona liczba neutrin. Ich głównym źródłem jest oddziaływanie promieni kosmicznych w górnych warstwach atmosfery. Neutrina emitują też np. gwiazdy i reaktory atomowe.
Istnienie neutrin zostało przewidziane teoretycznie w 1930 roku przez Wolfganga Pauliego, ale musiało minąć aż 26 lat zanim eksperymentalnie udowodniono, że Pauli się nie mylił.
Cząsteczki te są bardzo łakomym kąskiem dla astronomów. Podróżują z prędkością światła od źródeł promieniowania, a na swej drodze nie napotykają niemal żadnych przeszkód. Neutrina powstają np. we wnętrzach gwiazd i bez najmniejszych problemów przemierzają przestrzeń kosmiczną. Badanie neutrin pozwala więc naukowcom wysnuć wnioski na temat samych źródeł, z których zostały wyemitowane.
Z tego, co wiemy obecnie, zdecydowana większość istniejących neutrin pochodzi z samych początków wszechświata, powstały w momencie Wielkiego Wybuchu.
IceCube
Neutrina badane są od kilkudziesięciu lat i od lat naukowcy opracowują nowe metody ich obserwacji. Teoretycy od dawna uważają, że do obserwacji neutrin pochodzących z bardzo odległych źródeł potrzebny jest instrument długości co najmniej kilometra. Takim instrumentem ma być IceCube. Na miejsce jego budowy wybrano Antarktydę, gdyż jej lody są wyjątkowo czyste i wolne od źródeł promieniowania. Nic nie powinno więc zakłócać pracy niezwykłego teleskopu.
Będzie się on składał z co najmniej 4200 modułów optycznych zawieszonych na 70 pionowych linach, a te z kolei będą umieszczone na głębokości od 1450 do 2450 metrów pod powierzchnią lodu. Na samej powierzchni znajdzie się kopuła zbudowana z co najmniej 280 modułów optycznych. Powierzchnia IceCube'a będzie wynosiła około 1 kilometra kwadratowego. Jak łatwo obliczyć, objętość tego niezwykłego instrumentu naukowego to około 2,5 kilometra sześciennego. Po ukończeniu prac IceCube będzie działał przez 20 lat.
Uczeni mają nadzieję, że odpowie on na tak fundamentalne pytania, jak warunki fizyczne rozbłysków gamma czy też pozwoli zbadać naturę fotonów pochodzących z pozostałości po supernowej w gwiazdozbiorze Kraba oraz z nieodległych galaktyk. Być może IceCube pozwoli również potwierdzić teorię strun.
Obecnie IceCube składa się z 40 lin. Do stycznia 2009 roku przybędzie 9 kolejnych. Rok później mają być już 63 liny, a w marcu 2010 roku urządzenie osiągnie pełną gotowość operacyjną. We wrześniu 2010 roku zakończony zostanie główny etap budowy IceCube'a.
Obecnie budżet projektu wynosi 271 milionów dolarów. W pracach bierze udział około 200 naukowców i 29 instytucji.
O skali przedsięwzięcia niech świadczą liczby. Wywiercenie w lodzie każdego z 70 otworów o średniej głębokości 2454 metrów trwa średnio 48 godzin (pierwszy otwór wiercono przez 57 godzin). W tym czasie usuwane jest 757 metrów sześciennych lodu i zużyciu ulega około 2400 litrów paliwa. W każdym otworze umieszczana jest lina. Operacja ta trwa 11 godzin. Praca nie jest łatwa, gdyż Antarktyda to najzimniejsze, najbardziej wietrzne i najbardziej suche miejsce na Ziemi. W niektórych jej punktach nie padało od tysięcy lat, a średnie temperatury na Biegunie Południowym wynoszą latem około -37 stopni Celsjusza. Rekord ciepła na Biegunie to -13,8 stopnia Celsjusza. Rekord zimna na Antarktydzie to -89 stopni Celsjusza.
Najsilniejsze podmuchy wiatru zanotowano w lipcu 1972 roku. Naukowcy z francuskiej bazy Dumont d'Urville poinformowali wówczas, że wiatr wial z prędkością 320 kilometrów na godzinę. Na Antarktydzie znajduje się też największa pustynia na świecie, a rekordowy zanotowany spadek temperatury wyniósł 36 stopni w ciągu 12 minut.
« powrót do artykułu -
przez KopalniaWiedzy.pl
W każdej próbce wody pobranych z 30 mazurskich jezior znaleziono mikroplastik, a jego ilość w wodzie była ściśle związana ze stopnie zurbanizowania linii brzegowej, informują naukowcy z Uniwersytetu w Białymstoku. Badania prowadzone były w ramach studiów doktoranckich Wojciecha Pola pd kierunkiem doktora habilitowanego Piotra Zielińskiego. Uzyskane wyniki pozwoliły na opracowanie uniwersalnego wskaźnika potencjalnego zagrożenia jezior mikroplastikiem na podstawie zurbanizowania linii brzegowej.
Z każdego badanego zbiornika, pobieraliśmy 30 litrów wody ze strefy pelagialu, czyli oddalonej od brzegu. Następnie próbka była zagęszczana, a potem badana w naszym wydziałowym laboratorium, gdzie z użyciem oleju rycynowego izolowaliśmy plastik, odfiltrowując go na filtrach z włókna szklanego (klasy GF/C). Następnie, już bezpośrednio na filtrach, plastik był zliczany a każda drobina opisywana pod kątem wielkości, koloru i formy. Stopień zanieczyszczenia został przez nas określony w liczbie fragmentów mikroplastiku na litr wody, wyjaśnia Wojciech Pol. W badanych jeziorach stwierdzono od 0,27 do 1,57 kawałków mikroplastiku na każdy litr wody.
Naukowcy badali też morfologię, cechy hydrologiczne oraz zasobność jezior z substancje odżywcze, analizowali zagospodarowanie zlewni, linię brzegową, natężenie turystyki i wydajność oczyszczalni ścieków.
Badacze zauważyli, że parametry jezior takie jak kształt, wielkość, głębokość czy bogactwo substancji odżywczych nie mają większego związku z zagęszczeniem plastiku. Istnieje jednak związek pomiędzy połączeniami jezior a ilością mikroplastiku. Im dalej jezioro znajduje się w ciągu zbiorników połączonych rzekami i kanałami, tym większe w nim zagęszczenie mikroplastiku.
Szczegóły pracy zostały opublikowane na łamach Science of The Total Environment.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Ponad połowa największych jezior na świecie traci wodę, wynika z badań przeprowadzonych przez międzynarodowy zespół naukowy z USA, Francji i Arabii Saudyjskiej. Przyczynami tego stanu rzeczy są głównie globalne ocieplenie oraz niezrównoważona konsumpcja przez człowieka. Jednak, jak zauważają autorzy badań, dzięki opracowanej przez nich nowej metodzie szacunku zasobów wody, trendów oraz przyczyn jej ubywania, można dostarczyć osobom odpowiedzialnym za zarządzanie informacji, pozwalającymi na lepszą ochronę krytycznych źródeł wody.
Przeprowadziliśmy pierwsze wszechstronne badania trendów oraz przyczyn zmian ilości wody w światowych jeziorach, wykorzystując w tym celu satelity oraz modele obliczeniowe, mówi główny autor badań, Fangfang Yao z Uniwersytetu Kalifornijskiego w Boulder (CU Boulder). Mamy dość dobre informacje o słynnych jeziorach, jak Morze Kaspijskie, Jezioro Aralskie czy Salton Sea, jeśli jednak chcemy dokonać szacunków w skali globalnej, potrzebujemy wiarygodnych informacji o poziomie wód i objętości jeziora. Dzięki tej nowej metodzie możemy szerzej spojrzeć na zmiany poziomu wód jezior w skali całej planety, dodaje profesor Balaji Rajagopalan z CU Boulder.
Naukowcy wykorzystali 250 000 fotografii jezior wykonanych przez satelity w latach 1992–2020. Na ich podstawie obliczyli powierzchnię 1972 największych jezior na Ziemi. Użyli też długoterminowych danych z pomiarów poziomu wód z dziewięciu satelitów. W przypadku tych jezior, co do których brak było danych długoterminowych, wykorzystano pomiary wykorzystane za pomocą bardziej nowoczesnego sprzętu umieszczonego na satelitach. Dzięki połączeniu nowych danych z długoterminowymi trendami byli w stanie ocenić zmiany ilości wody w jeziorach na przestrzeni kilku dziesięcioleci.
Badania pokazały, że 53% największych jezior na świecie traci wodę, a jej łączny ubytek jest 17-krotnie większy niż pojemność największego zbiornika na terenie USA, Lake Meads. Wynosi zatem około 560 km3 wody.
Uczeni przyjrzeli się też przyczynom utraty tej wody. W przypadku około 100 wielkich jezior przyczynami były zmiany klimatu oraz konsumpcja przez człowieka. Dzięki tym badaniom naukowcy dopiero teraz dowiedzieli się, że za utratą wody w jeziorze Good-e-Zareh w Afganistanie czy Mar Chiquita w Argentynie stoją właśnie takie przyczyny. Wśród innych ważnych przyczyn naukowcy wymieniają też odkładanie się osadów. Odgrywa ono szczególnie ważną rolę w zbiornikach, które zostały napełnione przed 1992 rokiem. Tam zmniejszanie się poziomu wody jest spowodowane głównie zamuleniem.
Podczas gdy w większości jezior i zbiorników wody jest coraz mniej, aż 24% z nich doświadczyło znacznych wzrostów ilości wody. Są to głównie zbiorniki znajdujące się na słabo zaludnionych terenach Tybetu i północnych części Wielkich Równin oraz nowe zbiorniki wybudowane w basenach Mekongu czy Nilu.
Autorzy badań szacują, że około 2 miliardów ludzi mieszka na obszarach, gdzie w zbiornikach i jeziorach ubywa wody, co wskazuje na pilną potrzebę uwzględnienia takich elementów jak zmiany klimatu, konsumpcja przez człowieka czy zamulanie w prowadzonej polityce. Jeśli na przykład konsumpcja przez człowieka jest ważnym czynnikiem prowadzącym do utraty wody, trzeba wprowadzić mechanizmy, które ją ograniczą, mówi profesor Ben Livneh. Uczony przypomina jezioro Sevan w Armenii, w którym od 20 lat poziom wody rośnie. Autorzy badań łączą ten wzrost z wprowadzonymi i egzekwowanymi od początku wieku przepisami dotyczącymi sposobu korzystania z wód jeziora.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.