Tempo rozpadu nie jest stałe
dodany przez
KopalniaWiedzy.pl, w Ciekawostki
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Analiza ponad 50 000 gwiazd wykazała, że rozbłyski słoneczne mogą być setki razy potężniejsze, niż najsilniejszy rozbłysk kiedykolwiek zanotowany przez astronomów. Na łamach pisma Science badacze z Instytutu Badań Układu Słonecznego im Maxa Plancka poinformowali, że po przebadaniu 56 540 gwiazd doszli do wniosku, że każda z nich średnio co 100 lat doświadcza gigantycznego rozbłysku. Wyniki badań wskazują, że dotychczas potencjał gwiazd był niedoszacowany. Z danych zebranych przez Teleskop Keplera wynika bowiem, że gigantyczne rozbłyski mają miejsce 10-100 razy częściej niż sądzono.
Już wcześniejszych badań wiadomo było, że na Słońcu może dochodzić do potężnych erupcji. Ich ślady znajdowano w prehistorycznych drzewach i lodzie z lodowców. Jednak na podstawie takich źródeł nie można było stwierdzić, jak często tego typu wydarzenia mają miejsce. Bezpośrednie pomiary ilości promieniowania docierającego ze Słońca na Ziemię potrafimy wykonywać dopiero od kilkudziesięciu lat.
Istnieje jednak inny sposób na zdobycie danych na temat długoterminowego zachowania się Słońca. Współczesne teleskopy kosmiczne obserwują tysiące gwiazd i zbierają dane o zmianach ich jasności. W danych tych widać też potężne rozbłyski. Nie możemy obserwować Słońca przez tysiące lat. Możemy jednak badać zachowanie tysięcy gwiazd bardzo podobnych do Słońca w krótkim okresie czasu. To pozwala nam ocenić, jak często dochodzi do superrozbłysków, mówi współautor badań, profesor Sami Solanki.
Naukowcy z Niemiec, Austrii, USA, Japonii, Finlandii i Francji przeanalizowali dane z 56 450 gwiazd dostarczone w latach 2009–2013 przez Teleskop Kosmiczny Keplera. W sumie Kepler dostarczył nam danych z 220 tysięcy lat aktywności słonecznej, wyjaśnia profesor Alexander Shapiro z Uniwersytetu w Grazu.
Kluczowym elementem był dobór gwiazd jak najbardziej podobnych do naszej. Badacze wybrali więc te, których temperatura powierzchni i jasność były jak najbardziej zbliżone. W czasie badań zidentyfikowano 2889 superrozbłysków, które miały miejsce na 2527 gwiazdach spośród 56 450 wybranych. To oznacza, że każda z gwiazd generuje jeden superrozbłysk w ciągu stu lat. To było zaskakujące. Naukowcy nie spodziewali się, że potężne rozbłyski mają miejsce tak często. Dotychczas bowiem, na podstawie dowodów znalezionych na Ziemi, wydawało się, że dochodzi do nich znacznie rzadziej.
Gdy cząstki z potężnego rozbłysku trafią do ziemskiej atmosfery, dochodzi do wytwarzania mierzalnych ilości pierwiastków promieniotwórczych, takich jak węgiel-14. Pierwiastki te trafiają do naturalnych archiwów, jak pierścienie drzew czy lód w lodowcach. Więc informacje o takim wydarzeniu na Słońcu można odczytać tysiące lat później na Ziemi. W ten sposób naukowcom udało się zidentyfikować 5 ekstremalnych wydarzeń tego typu i 3 kandydatów na rozbłyski. Doszło do nich w ciągu ostatnich 12 tysięcy lat. Z tego też powodu sądzono, że Słońce generuje superrozbłyski raz na około 1500 lat. I o ile wiadomo, ostatnie takie wydarzenie miało miejsce w 775 roku.
Wyniki badań mogą niepokoić. O ile w roku 775 wynikiem skierowanego w stronę Ziemi rozbłysku mógł być niewielki wzrost zachorowań na nowotwory skóry, to współczesna cywilizacja techniczna bardzo boleśnie odczułaby skutki takiego wydarzenia.
Już przed kilkunastu laty amerykańskie Narodowe Akademie Nauk opublikowały raport dotyczący ewentualnych skutków olbrzymiego koronalnego wyrzutu masy, który zostałby skierowany w stronę Ziemi. Takie wydarzenie spowodowałoby poważne perturbacje w polu magnetycznym planety, co z kolei wywołałoby przepływ dodatkowej energii w sieciach energetycznych. Nie są one przygotowane na tak gwałtowne zmiany.
Omawiając ten raport, pisaliśmy, że mogłoby dojść do stopienia rdzeni w stacjach transformatorowych i pozbawienia prądu wszystkich odbiorców. Autorzy raportu stwierdzili, że gwałtowny koronalny wyrzut masy mógłby uszkodzić 300 kluczowych transformatorów w USA. W ciągu 90 sekund ponad 130 milionów osób zostałoby pozbawionych prądu. Mieszkańcy wieżowców natychmiast straciliby dostęp do wody pitnej. Reszta mogłaby z niej korzystać jeszcze przez około 12 godzin. Stanęłyby pociągi i metro. Z półek sklepowych błyskawiczne zniknęłaby żywność, gdyż ciężarówki mogłyby dostarczać zaopatrzenie dopóty, dopóki miałyby paliwo w zbiornikach. Pompy na stacjach benzynowych też działają na prąd. Po około 72 godzinach skończyłoby się paliwo w generatorach prądu. Wówczas stanęłyby szpitale.
Najbardziej jednak przerażającą informacją jest ta, iż taki stan mógłby trwać całymi miesiącami lub latami. Uszkodzonych transformatorów nie można naprawić, trzeba je wymienić. To zajmuje zespołowi specjalistów co najmniej tydzień. Z kolei duże zakłady energetyczne mają na podorędziu nie więcej niż 2 grupy odpowiednio przeszkolonych ekspertów. Nawet jeśli część transformatorów zostałaby dość szybko naprawiona, nie wiadomo, czy w sieciach byłby prąd. Większość rurociągów pracuje bowiem dzięki energii elektrycznej. Bez sprawnego transportu w ciągu kilku tygodni również i elektrowniom węglowym skończyłyby się zapasy. Sytuacji nie zmieniłyby też elektrownie atomowe. Są one zaprojektowane tak, by automatycznie wyłączały się w przypadku poważnych awarii sieci energetycznych. Ich uruchomienie nie jest możliwe przed usunięciem awarii.
O tym, że to nie tylko teoretyczne rozważania, świadczy chociażby fakt, że w marcu 1989 roku burza na Słońcu na 9 godzin pozbawiła prądu 6 milionów Kanadyjczyków. Z kolei najpotężniejszym tego typu zjawiskiem, jakie zachowało się w ludzkiej pamięci, było tzw. wydarzenie Carringtona z 1859 roku. Kilkanaście godzin po tym, jak astronom Richard Carrington zaobserwował dwa potężne rozbłyski na Słońcu, Ziemię zalało światło zórz polarnych. Przestały działać telegrafy, doszło do pożarów drewnianych budynków stacji telegraficznych, a w Ameryce Północnej, gdzie była noc, ludzie mogli bez przeszkód czytać gazety. Igły kompasów poruszały się w sposób niekontrolowany, a zorze polarne było widać nawet w Kolumbii. A pamiętać trzeba, że wydarzenie Carringtona było znacznie słabsze, niż superrozbłyski, o których tutaj mowa.
Obecnie ucierpiałyby nie tylko sieci elektromagnetyczne, ale również łączność internetowa. Na szczególne niebezpieczeństwo narażone byłyby kable podmorskie, a konkretnie zainstalowane w nich wzmacniacze oraz ich uziemienia. Więc nawet gdy już uda się przywrócić zasilanie, problemem będzie funkcjonowanie globalnego internetu, bo naprawić trzeba będzie dziesiątki tysięcy kilometrów kabli.
« powrót do artykułu -
przez KopalniaWiedzy.pl
DESI (Dark Energy Spectroscopis Instrument) tworzy największą i najdokładniejszą trójwymiarową mapę wszechświata. W ten sposób zapewnia kosmologom narzędzia do poznania masy neutrin w skali absolutnej. Naukowcy wykorzystują w tym celu dane o barionowych oscylacjach akustycznych – czyli wahaniach w gęstości widzialnej materii – dostarczanych przez DESI oraz informacje z mikrofalowego promieniowania tła, wypełniającym wszechświat jednorodnym promieniowaniu, które pozostało po Wielkim Wybuchu.
Neutrina to jedne z najbardziej rozpowszechnionych cząstek subatomowych. W trakcie ewolucji wszechświata wpłynęły one na wielkie struktury, takie jak gromady galaktyk. Jedną z przyczyn, dla których naukowcy chcą poznać masę neturino jest lepsze zrozumienie procesu gromadzenia się materii w struktury.
Kosmolodzy od dawna sądzą, że masywne neutrina hamują proces „zlepiania się” materii. Innymi słowy uważają, że gdyby nie oddziaływanie tych neutrin, materia po niemal 14 miliardach lat ewolucji wszechświata byłaby zlepiona ze sobą w większym stopniu.
Jednak wbrew spodziewanym dowodom wskazującym na hamowanie procesu gromadzenia się materii, uzyskaliśmy dane wskazujące, że neutrina wspomagają ten proces. Albo mamy tutaj do czynienia z jakimś błędem w pomiarach, albo musimy poszukać wyjaśnienia na gruncie zjawisk, których nie opisuje Model Standardowy i kosmologia, mówi współautor badań, Joel Meyers z Southern Methodist University. Model Standardowy to najlepsza i wielokrotnie sprawdzona teoria budowy wszechświata.
Dlatego też Meyers, który prowadził badania we współpracy z kolegami w Uniwersytetu Kalifornijskiego w Santa Barbara i San Diego oraz Uniwersytetu Johnsa Hopkinsa stwierdza, że jeśli uzyskane właśnie wyniki się potwierdzą, możemy mieć do czynienia z podobnym problemem, jak ten, dotyczący tempa rozszerzania się wszechświata. Tam solidne, wielokrotnie sprawdzone, metody pomiarowe dają różne wyniki i wciąż nie udało się rozstrzygnąć tego paradoksu.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Problem grzania korony słonecznej pozostaje nierozwiązany od 80 lat. Z modeli obliczeniowych wynika, że temperatura we wnętrzu Słońca wynosi ponad 15 milionów stopni, jednak na jego widocznej powierzchni (fotosferze) spada do około 5500 stopni, by w koronie wzrosnąć do około 2 milionów stopni. I to właśnie ta olbrzymia różnica temperatur pomiędzy powierzchnią a koroną stanowi zagadkę. Jej rozwiązanie – przynajmniej częściowe – zaproponował międzynarodowy zespół naukowy z Polski, Chin, USA, Hiszpanii i Belgii. Zdaniem badaczy za podgrzanie części korony odpowiadają... chłodne obszary na powierzchni.
W danych z Goode Solar Telescope uczeni znaleźli intensywne fale energii pochodzące z dość chłodnych, ciemnych i silnie namagnetyzowanych regionów fotosfery. Takie ciemniejsze regiony mogą powstawać, gdy silne pole magnetyczne tłumi przewodzenie cieplne i zaburza transport energii z wnętrza naszej gwiazdy na jej powierzchnię. Naukowcy przyjrzeli się aktywności tych chłodnych miejsc, przede wszystkim zaś włóknom plazmy powstającym w umbrze, najciemniejszym miejscu plamy słonecznej. Włókna te to stożkowate struktury o wysokości 500–1000 kilometrów i szerokości około 100 km. Istnieją one przez 2-3 minuty i zwykle ponownie pojawiają się w tym samym najciemniejszym miejscu umbry, gdzie pola magnetyczne są najsilniejsze, wyjaśnia profesor Vasyl Yurchyshyn z New Jersey Institute of Technology (NJIT).
Te ciemne dynamiczne włóka obserwowane były od dawna, jednak jako pierwsi byliśmy w stanie wykryć ich oscylacje boczne, które są powodowane przez szybko poruszające się fale. Te ciągle obecne fale w silnie namagnetyzowanych włóknach transportują energię w górę i przyczyniają się do podgrzania górnych części atmosfery Słońca, dodaje Wenda Cao z NJIT. Z przeprowadzonych obliczeń wynika, że fale te przenoszą tysiące razy więcej energii niż ilość energii tracona w aktywnych regionach atmosfery. Rozprzestrzenianie się tej energii jest nawet o 4 rzędy wielkości większa niż ilość energii potrzebna do utrzymania temperatury korony słonecznej.
Wszędzie na Słońcu wykryto dotychczas różne rodzaje fal. Jednak zwykle niosą one ze sobą zbyt mało energii, by podgrzać koronę. Szybkie fale, które wykryliśmy w umbrze plam słonecznych to stałe i wydajne źródło energii, które może podgrzewać koronę nad plamami, wyjaśnia Yurchyszyn. Odkrycie to, jak mówią naukowcy, nie tylko zmienia nasz pogląd na umbrę plam, ale również jest ważnym krokiem w kierunku zrozumienia transportu energii i podgrzewania korony.
Jednak, jak sami zauważają, zagadka grzania korony słonecznej nie została rozwiązania. Przepływ energii pochodzącej z plam może odpowiadać tylko za podgrzanie pętli koronalnych, które biorą swoje początki z plam. Istnieją jednak inne, wolne od plam, regiony Słońca powiązane z gorącymi pętlami koronalnymi. I czekają one na swoje wyjaśnienie, dodaje Cao.
« powrót do artykułu -
przez KopalniaWiedzy.pl
W uruchomionym ponownie po trzech latach Wielkim Zderzaczu Hadronów rozpoczęto nowe testy modelu, który ma wyjaśnić masę neutrina. Zgodnie z Modelem Standardowym te cząstki, których nie można podzielić na mniejsze składowe – jak kwarki czy elektrony – zyskują masę dzięki interakcji z polem bozonu Higgsa. Jednak neutrino jest tutaj wyjątkiem. Mechanizm interakcji z bozonem Higgsa nie wyjaśnia jego masy. Dlatego też fizycy badają alternatywne wyjaśnienia.
Jeden z modeli teoretycznych – mechanizm huśtawki, seesaw model – mówi, że znane nam lekkie neutrino zyskuje masę poprzez stworzenie pary z hipotetycznym ciężkim neutrinem. Żeby jednak ten model działał, neutrina musiałyby być cząstkami Majorany, czyli swoimi własnymi antycząstkami.
Naukowcy pracujący w Wielkim Zderzaczu Hadronów przy eksperymencie CMS postanowili mechanizm huśtawki, poszukując neutrin Majorany powstających w bardzo specyficznym procesie zwanym fuzją bozonów wektorowych. Przeanalizowali w tym celu dane z CMS z lat 2016–2018. Jeśli model huśtawki by działał, w danych z kolizji powinny być widoczne dwa miony o tym samym ładunku elektrycznym, dwa oddalone od siebie dżety cząstek o dużej masie oraz żadnego neutrino.
Uczeni nie znaleźli żadnych śladów neutrin Majorany. To jednak nie znaczy, że ich praca poszła na marne. Udało im się bowiem ustalić nowy zakres parametrów, które określają zakres poszukiwań ciężkiego neutrino Majorany. Wcześniejsze analizy w LHC wskazywały, że ciężkie neutrino Majorany ma masę powyżej 650 GeV. Najnowsze badania wskazują zaś, że należy go szukać w przedziale od 2 do 25 TeV. Teraz naukowcy z CMS zapowiadają zebranie nowych danych i kolejne przetestowanie modelu huśtawki.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Od czasu odkrycia oscylacji neutrin wiemy, że neutrina mają niezerową masę. Dotychczas nie udało się jej precyzyjnie określić. Tymczasem neutrina to najbardziej rozpowszechnione, a jednocześnie najtrudniejsze do zbadania, ze wszystkich znanych nam cząstek. Teraz międzynarodowy zespół naukowcy pracujący przy eksperymencie KATRIN przełamał ważną barierę. Po raz pierwszy wykazano, że masa neutrino jest mniejsza od 1 elektronowolta (eV).
KATRIN (Karlsruhe Tritium Neutrino Experiment) znajduje się w Karlsruhe Institute for Technology w Niemczech. Uruchomiony w 2018 roku projekt to owoc współpracy Czech, Niemiec, Rosji, USA i Wielkiej Brytanii. Pracuje przy nim około 130 naukowców. Na łamach Nature ogłoszono właśnie, że podczas drugiej kampanii badawczej masę neutrina określono na 0,7 eV, a poziom ufności pomiaru wynosi 90%. W połączeniu z danymi z pierwszej kampanii badawczej KATRIN pracujący przy eksperymencie naukowcy ogłosili, że górny limit masy neutrina wynosi 0,8 eV. Tym samym wiemy, że neutrino jest o co najmniej 500 000 razy lżejsze od elektronu.
Głównym elementem eksperymentu KATRIN jest największy na świecie spektrometr. Urządzenie ma 23 metry długości i 10 metrów szerokości. Wewnątrz panuje próżnia. Najpierw przeprowadzany jest rozpad beta trytu, w wyniku którego powstaje elektron i antyneutrino. Następnie elektron, bez zmiany jego energii, jest kierowany do spektrometru. Pomiary energii samego neutrina nie są możliwe, ale możemy precyzyjnie mierzyć energię elektronu. Jako, że możemy zmierzyć łączną energię elektronu i antyneutrina oraz energię samego elektronu, jesteśmy w stanie poznać energię czyli masę, antyneutrina.
Gdy przed 5 laty opisywaliśmy zakończenie prac nad KATRIN i niezwykłą podróż komory próżniowej do miejsca montażu, cytowaliśmy ekspertów, którzy twierdzili, że KATRIN może być ostatnią nadzieją współczesnej fizyki,by bez nowej rewolucyjnej technologii zmierzyć masę neutrina. To koniec drogi, mówił wówczas Peter Doe, fizyk w University of Washington.
Obecnie fizyk Björn Lehnert z Lawrence Berkeley National Laboratory, który pracuje przy KATRIN, mówi, że przez najbliższe 3 lata naukowcy będą prowadzili kolejne eksperymenty, by zebrać więcej danych, jednak ze względu na sposób pracy KATRIN nie spodziewa się zmniejszenia poziomu niepewności. Czynnikiem ograniczającym KATRIN jest chemia, ponieważ używamy molekuł trytu (T2). Molekuły to złożone obiekty, mają więcej stopni swobody niż atomy, więc każdy ich rozpad jest nieco inny i inny jest ostateczny rozkład elektronów. W pewnym momencie nie będziemy już mogli udoskonalać pomiaru masy neutrina, gdyż sam początkowy rozpad jest obarczony pewnym marginesem niepewności. Jedynym sposobem na udoskonalenie pomiarów stanie się wówczas wykorzystanie trytu atomowego. Będzie z niego korzystał planowany dopiero eksperyment Project 8. Jest on bardzo obiecujący, ale miną lata zanim zostanie uruchomiony.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.