Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Antyprotony otaczają Ziemię

Rekomendowane odpowiedzi

Satelita odkrył antyprotony uwięzione przez pole magnetyczne Ziemi. To kolejne, po pozytronach, cząsteczki antymaterii otaczające naszą planetę.

Naładowane cząsteczki bez przerwy penetrują atmosferę, zderzając się z obecnymi tam cząsteczkami. W wyniku kolizji powstają nowe cząsteczki, z których wiele uwięzionych jest w pasach Van Allena. Pasy te to dwa półkoliste obszary naładowanych cząsteczek, otaczające Ziemię. Składają się one głównie z elektronów i protonów.

Już wcześniej odkryto tam też pozytrony, czyli odpowiedniki elektronów z antymaterii. Teraz narzędzie PAMELA, znajdujące się na pokładzie rosyjskiego satelity, trafiło na ślad antyprotonów, które są niemal 2000 razy cięższa od pozytronów.

O odkryciu poinformował Piergiorgio Picozza z Uniwersytetu Roma Tor Vergata.

Pomiędzy lipcem 2006 a grudniem 2008 PAMELA odkryła 28 antyprotonów uwięzionych w polu magnetycznym Ziemi nad biegunem południowym. Jako, że PAMELA bada jedynie niewielki fragment pola, można przypuszczać, że antyprotonów są miliardy.

To interesujące, że pole magnetyczne Ziemi działa podobnie do pułapek magnetycznych, które wykorzystujemy w laboratorium - mówi Rolf Landua z CERN-u.

Alessandro Bruno z Uniwersytetu w Bari uważa, że antymateria uwięziona przez pole magnetyczne Ziemi może pewnego dnia posłużyć jako paliwo dla pojazdów kosmicznych. Podczas interakcji pomiędzy materią a antymaterią dochodzi do produkcji energii, a proces ten jest bardziej efektywny niż fuzja zachodząca we wnętrzu Słońca.

To najbardziej obfite źródło antyprotonów w pobliżu Ziemi. Kto wie, może pewnego dnia pojazd kosmiczny wystrzelony z Ziemi zostanie zatankowany w tym obszarze protonami i uda się w dalszą podróż - mówi Bruno.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Intensywność pola magnetycznego Ziemi zmniejsza się od około 200 lat. Proces ten przebiega na tyle szybko, że niektórzy naukowcy ogłosili, iż w ciągu 2000 lat dojdzie do zamiany biegunów magnetycznych. Przebiegunowanie mogłoby spowodować, że przez kilka tysięcy lat Ziemia byłaby gorzej chroniona przed szkodliwym promieniowaniem kosmicznym i słonecznym. To z kolei doprowadziłoby do poważnych zakłóceń i awarii sprzętu elektronicznego, wzrostu przypadków zachorowań na nowotwory i zwiększenia się liczby mutacji genetycznych. Niewykluczone, że ucierpiałyby też te gatunki zwierząt, które w swoich migracjach orientują się wedle pola magnetycznego.
      Naukowcy z MIT-u opublikowali na łamach PNAS artykuł opisujący wyniki ich badań nad stanem pola magnetycznego planety. Ich zdaniem przebiegunowanie nie grozi nam w najbliższym czasie. Uczeni obliczyli średnią intensywność stabilnego ziemskiego pola magnetycznego na przestrzeni ostatnich 5 milionów lat i odkryli, że obecnie pole to jest dwukrotnie bardziej intensywne niż średnia z tego okresu. To oznacza, że minie jeszcze sporo czasu, zanim pole magnetyczne planety stanie się niestabilne i dojdzie do przebiegunowania. To olbrzymia różnica, czy dzisiejsze pole magnetyczne jest takie jak średnia długoterminowa czy też jest powyżej średniej. Teraz wiemy, że nawet jeśli intensywność pola magnetycznego Ziemi się zmniejsza to jeszcze przez długi czas będzie się ono znajdowało w bezpiecznym zakresie - mówi Huapei Wang, główny autor badań.
      Z innych badań wiemy, że w przeszłości wielokrotnie dochodziło do przebiegunowania naszej planety. Jest to jednak proces bardzo nieregularny. Czasami przez 40 milionów lat nie było przebiegunowania, a czasem bieguny zmieniały się 10-krotnie w ciągu miliona lat. Średni czas pomiędzy przebiegunowaniami wynosi kilkaset tysięcy lat. Ostatnie przebiegunowanie miało miejsce około 780 000 lat temu, zatem średnia już została przekroczona - dodaje Wang.
      Sygnałem nadchodzącego przebiegunowania jest znaczący spadek poniżej średniej długoterminowej intensywności pola magnetycznego. To wskazuje, że stanie się ono niestabilne. Zarówno z badań terenowych jak i satelitarnych mamy dobre dane dotyczące ostatnich 200 lat. Mówiąc o przeszłości musimy opierać się na mniej pewnych szacunkach.
      Grupa Wanga zdobywała informacje o przeszłości ziemskiego pola magnetycznego badając skały wyrzucone przez wulkany na Galapagos. To idealne miejsce, gdyż wyspy położone są na równiku. Stabilne pole magnetyczne jest dipolem, jego intensywność powinna być taka sama na obu biegunach, a na równiku powinna być o połowę mniejsza. Wang stwierdził, że jeśli pozna historyczną intensywność pola magnetycznego na równiku i na biegunach uzyska dokładne dane na temat średniej historycznej intensywności. Sam zdobył próbki z Galapagos, a próbki z Antarktyki dostarczyli mu naukowcy ze Scripps Institution of Oceanography. Naukowcy najpierw zmierzyli naturalny magnetyzm skał. Następnie podgrzali je i ochłodzili w obecności pola magnetycznego i zmierzyli ich magnetyzm po ochłodzeniu. Naturalny magnetyzm skał jest proporcjonalny do pola magnetycznego, w którym stygły. Dzięki eksperymentom naukowcy byli w stanie obliczyć średnią historyczną intensywność pola magnetycznego. Wynosiła ona około 15 mikrotesli na równiku i 30 mikrotesli na biegunach. Dzisiejsza intensywność wynosi zaś, odpowiednio, 30 i 60 mikrotesli. To oznacza, że dzisiejsza intensywność jest nienormalnie wysoka i jeśli nawet ona spadnie, to będzie to spadek do długoterminowej średniej, a nie ze średniej do zera, stwierdza Wang.
      Uczony uważa, że naukowcy, którzy postulowali nadchodzące przebiegunowanie opierali się na wadliwych danych. Pochodziły one z różnych szerokości geograficznych, ale nie z równika. Dopiero Wang wziął pod uwagę dane z równika. Ponadto odkrył, że w przeszłości źle rozumiano sposób, w jaki w skałach pozostaje zapisana informacja o ziemskim magnetyzmie. Z tego też powodu przyjęto błędne założenie. Uznano, że gdy poszczególne ferromagnetyczne ziarna w skałach ulegały schłodzeniu spiny elektronów przyjmowały tę samą orientację, z której można było odczytać intensywność pola magnetycznego. Teraz wiemy, że jest to prawdą ale tylko do pewnej ograniczonej wielkości ziaren. Gdy są one większe spiny elektronów w różnych częściach ziarna przyjmują różną orientację. Wang opracował więc metodę korekty tego zjawiska i zastosował ją przy badaniach skał z Galapagos.
      Wang przyznaje, że nie wie, kiedy dojdzie do kolejnego przebiegunowania. Jeśli założymy, że utrzyma się obecny spadek, to za 1000 lat intensywność pola magnetycznego będzie odpowiadała średniej długoterminowej. Wówczas może zacząć się zwiększać. Tak naprawdę nie istnieje sposób, by przewidzieć, co się stanie. Proces magnetohydrodynamiczny ma bowiem chaotyczną naturę".

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Reintrodukcja bobrów, niedźwiedzi czy żubrów znacząco poprawiłaby stan światowych ekosystemów. Zamówiony przez ONZ raport wykazał, że przywrócenie dużych ssaków może pomóc w walce z ociepleniem klimatu, poprawi stan zdrowia ekosystemów i przywróci bioróżnorodność. By osiągnąć ten cel w skali świata wystarczy reintrodukcja zaledwie 20 gatunków, których historyczne zasięgi zostały dramatycznie zredukowane przez człowieka.
      Jeśli pozwolimy powrócić tym zwierzętom, to dzięki ich obecności pojawią się warunki, które z czasem spowodują, że gatunki te pojawią się na 1/4 powierzchni planety, a to z kolei rozszerzy zasięgi innych gatunków i odbuduje ekosystemy, dzięki czemu zwiększy się ich zdolność do wychwytywania i uwięzienia węgla atmosferycznego.
      Przywracanie gatunków nie jest jednak proste. Pojawia się bowiem zarówno pytanie, który z historycznych zasięgów gatunku należy uznać za pożądany. Niektórzy obawiają się też reintrodukcji dużych drapieżników, jak np. wilki, twierdząc, że niesie to ze sobą zagrożenie dla ludzi i zwierząt hodowlanych. Badania pokazują jednak, że duże drapieżniki, wpływając na roślinożerców, doprowadzają do zwiększenia zarówno pokrywy roślinnej, jak i innych gatunków. Z kolei przywracanie historycznych zasięgów roślinożerców powoduje, że roznoszą oni nasiona, pomagają w obiegu składników odżywczych oraz zmniejszają zagrożenie pożarowe poprzez wyjadanie roślinności.
      Autorzy najnowszych badań postanowili sprawdzić, gdzie przywrócenie dużych ssaków przyniosłoby największe korzyści i w jaki sposób można to osiągnąć. Okazało się, że wystarczy reintrodukcja 20 gatunków – 13 roślinożerców i 7 drapieżników – by na całej planecie odrodziła się bioróżnorodność. Te 20 gatunków to niewiele jak na 298 gatunków dużych ssaków żyjących na Ziemi.
      Badania wykazały, że obecnie jedynie w 6% obszarów zasięg dużych ssaków jest taki, jak przed 500 laty. Okazuje się również, że tylko w odniesieniu do 16% planety można stwierdzić, że znajdują się tam gatunki ssaków, na których zasięg nie mieliśmy większego wpływu.
      Naukowcy przyjrzeli się następnie poszczególnym regionom, by określić, ile pracy trzeba włożyć, by przywrócić w nich bioróżnorodnośc. Okazało się, że w większości Azji północnej, północnej Kanady oraz w częściach Ameryki Południowej i Afryki wystarczyłoby wprowadzić jedynie po kilka gatunków dużych ssaków, by przywrócić bioróżnorodność z przeszłości.
      I tak Europie przywrócenie bobra, wilka, rysia, renifera i żubra pozwoliłoby na powrót bioróżnorodności w 35 regionach, w których gatunki te zostały wytępione. Podobnie jest w Afryce, gdzie reintrodukcja hipopotama, lwa, sasebiego właściwego, likaona i geparda doprowadziłaby do dwukrotnego zwiększenia obszarów o zdrowej populacji ssaków w 50 ekoregionach. W Azji, po reintrodukcji tarpana dzikiego oraz wilka w Himalajach doszłoby do zwiększenia zasięgów zdrowych populacji o 89% w 10 ekoregionach. Z kolei w Ameryce Północnej do znacznego poprawienia stanu ekosystemów wystarczyłaby reintrodukcja niedźwiedzia brunatnego, bizona, rosomaka oraz niedźwiedzia czarnego.
      Reintrodukcja gatunków miałaby olbrzymie znaczenie nie tylko dla ekosystemu, ale i dla uratowania ich samych. Na przykład jednym ze zidentyfikowanych 20 kluczowych gatunków jest gazelka płocha, występująca na Saharze. Obecnie to gatunek krytycznie zagrożony, na świecie pozostało zaledwie około 200–300 osobników. Największym zagrożeniem dla niej są zaś działania człowieka – polowania i utrata habitatów.
      Przywrócenie wielu ze wspomnianych gatunków nie będzie jednak proste. Trzeba by np. zabronić polowań na nie i zapobiegać dalszej utracie habitatu. Ponadto wiele z ekoregionów poprzedzielanych jest granicami państwowymi, więc przywracanie gatunków i bioróżnorodności wymagałoby współpracy międzynarodowej.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Historia naszej planety, to historia 4,5 miliarda lat schładzania się. Dzięki temu, że Ziemia stygnie, uformowała się jej sztywna skorupa i mogło powstać życie. Jednocześnie dzięki temu, że nie wystygła, istnieją takie procesy jak tektonika płyt i wulkanizm. Gdy wnętrze planety wystygnie, te kluczowe procesy zatrzymają się. Nie wiemy jednak, jak szybko nasza planeta się wychładza i kiedy procesy przebiegające w jej wnętrzu zatrzymają się.
      Odpowiedzią na te pytania może dać zbadanie przewodnictwa cieplnego minerałów znajdujących się na granicy między jądrem a płaszczem Ziemi. To bardzo ważne miejsce, w którym lepkie skały mają bezpośredni kontakt z płynnym zbudowanym głównie z niklu i żelaza zewnętrznym jądrem. Gradient temperatury pomiędzy jądrem zewnętrznym a płaszczem jest bardzo duży, zatem potencjalnie może tam przepływać sporo ciepła. Warstwa graniczna zbudowana jest głownie z bridgmanitu.
      Profesor Motohiko Murakami ze Szwajcarskiego Instytutu Technologicznego w Zurichuy (ETH Zurich) wraz z naukowcami z Carnegie Institute for Science opracowali złożony system pomiarowy, który pozwolił im na wykonanie w laboratorium oceny przewodnictwa cieplnego bridgmanitu w warunkach ciśnienia i temperatury, jakie panują we wnętrzu Ziemi. Wykorzystali przy tym niedawno opracowaną technikę optycznego pomiaru absorpcji diamentu podgrzewanego impulsami laserowymi.
      Dzięki tej nowej technice wykazaliśmy, że przewodnictwo cieplne bridgmanitu jest około 1,5-razy większe niż się przyjmuje, mówi profesor Murakami. To zaś wskazuje, że przepływ ciepła pomiędzy jądrem a płaszczem jest większy. A większy przepływ ciepła oznacza, że konwekcja w płaszczu zachodzi szybciej i Ziemia szybciej się ochładza. Tektonika płyt może więc w rzeczywistości spowalniać szybciej, niż się obecnie przyjmuje.
      Grupa Murakami wykazała jednocześnie, że szybsze wychładzanie się płaszcza zmieni fazy minerałów na granicy jądra i płaszcza. Schładzający się bridgmanit zmieni się w minerał, który będzie jeszcze efektywniej przewodził ciepło, zatem stygnięcie Ziemi jeszcze bardziej przyspieszy.
      Wyniki naszych badań rzucają nowe światło na ewolucję dynamiki Ziemi. Wskazują, że Ziemia, podobnie jak Merkury czy Mars, schładza się szybciej i stanie się szybciej nieaktywna, wyjaśnia Murakami.
      Trudno jednak powiedzieć, ile czasu minie zanim ruchy konwekcyjne w płaszczu ustaną. Wciąż wiemy zbyt mało, by określić, kiedy do tego dojdzie, przyznają naukowcy. Żeby się tego dowiedzieć, uczeni muszą najpierw lepiej rozpoznać w czasie i przestrzeni procesy konwekcyjne w płaszczu. Ponadto muszą wiedzieć, jak rozpad pierwiastków radioaktywnych we wnętrzu Ziemi, który jest jednym z głównych źródeł ciepła, wpływa na dynamikę procesów płaszcza.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Naukowcy z Big Bear Solar Observatory, Instituto de Astrofísica de Canarias oraz New York University poinformowali, że Ziemia pociemniała w wyniku zmian klimatycznych. Główną zaś przyczyną zmniejszonego współczynnika odbicia naszej planety są ogrzewające się oceany. Na potrzeby swoich badań uczeni wykorzystali dane z 20 lat (1998–2017) pomiarów światła popielatego oraz pomiary satelitarne. Okazało się, że w tym czasie doszło do znacznego spadku albedo – stosunku światła padającego do odbitego – Ziemi.
      Światło popielate to światło odbite od Ziemi, które pada na nieoświetloną przez Słońce powierzchnię Srebrnego Globu. Możemy z łatwością zaobserwować je w czasie, gdy Księżyc widoczny jest jako cienki sierp o zmierzchu lub świcie. Widzimy wtedy słabą poświatę na pozostałej części jego tarczy. To właśnie światło popielate, odbite od naszej planety światło słoneczne, które dotarł do Księżyca.
      Obecnie, jak czytamy na łamach pisma Geophysical Research Letters wydawanego przez American Geophysical Union, Ziemia odbija o około 0,5 W na m2 mniej światła niż przed 20 laty, a do największego spadku doszło na przestrzeni 3 ostatnich lat badanego okresu. Taka wartość oznacza, że współczynnik odbicia naszej planety zmniejszył się o około 0,5%. Ziemia odbija około 30% padającego na nią światła słonecznego.
      Taki spadek albedo był dla nas zaskoczeniem, gdyż przez wcześniejszych 17 lat utrzymywało się ono na niemal stałym poziomie, mówi Philip Goode z Big Bear Solar Observatory.
      Na albedo planety wpływają dwa czynniki, jasność jej gwiazdy oraz współczynnik odbicia samej planety. Badania wykazały zaś, że obserwowane zmiany albedo Ziemi nie są skorelowane ze zmianami jasności Słońca, a to oznacza, że przyczyna zmian albedo znajduje się na samej Ziemi.
      Jak wykazały dalsze analizy, satelity pracujące w ramach projektu Clouds and the Earth’s Radiant Energy System (CERES) zarejestrowały spadek pokrywy nisko położonych jasnych chmur tworzących się nad wschodnią częścią Pacyfiku. Do spadku tego doszło u zachodnich wybrzeży obu Ameryk. Z innych zaś badań wiemy, że w tamtym regionie szybko rośnie temperatura wód powierzchniowych oceanu, a zjawisko to spowodowane jest zmianami w dekadowej oscylacji pacyficznej (PDO). Zaś zmiany te są najprawdopodobniej wywołane globalnym ociepleniem.
      Zmniejszenie współczynnika odbicia oznacza również, że w całym ziemskim systemie zostaje uwięzione więcej energii słonecznej niż wcześniej. To może dodatkowo napędzać globalne ocieplenie.
      Specjaliści zauważają, że to niepokojące zjawisko. Jakiś czas temu naukowcy meli nadzieję, że globalne ocieplenie doprowadzi do pojawienia się większej ilości chmur i zwiększenia albedo Ziemi, co złagodzi wpływ człowieka na klimat i go ustabilizuje. Tymczasem okazało się, że chmur tworzy się mniej, przez co albedo spada.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Troje astronomów, poszukując źródeł atomów antyhelu, które zostały zarejestrowane przez Alpha Magnetic Spectrometer (AMS-02) znajdujący się na pokładzie Międzynarodowej Stacji Kosmicznej, wpadło na ślad 14 gwiazd zbudowanych z antymaterii – antygwiazd.
      Simon Dupourque, Luigi Tibaldo oraz Peter von Ballmoos z Uniwersytetu w Tuluzie znaleźli antygwiazdy w archiwalnych danych Fermi Gamma-ray Telescope. Koncepcja istnienia antygwiazd jest pomysłem kontrowersyjnym, jeśli jednak one istnieją to powinny być widoczne dzięki słabemu sygnałowi promieniowania gamma, który największą moc osiąga przy energii 70 MeV. Sygnał ten pochodzić ma z cząstek materii opadających na gwiazdę i przez nią anihilowanych.
      Antyhel-4 uzyskano po raz pierwszy w 2011 roku podczas zderzeń cząstek w Relativistic Heavy Ion Collider w Brookhaven National Laboratory. Wówczas naukowcy doszli do wniosku, że jeśli pierwiastek ten zostanie wykryty w przestrzeni kosmicznej, będzie to oznaczało, że pochodzi on z fuzji we wnętrzu antygwiazd.
      W 2018 roku AMS-02 wykrył w promieniowaniu kosmicznym 8 atomów antyhelu: sześć atomów antyhelu-3 oraz dwa antyhelu-4. Wówczas jednak uznano, że atomy te powstały w wyniku oddziaływania promieniowania kosmicznego na materię międzygwiezdną, w wyniku czego powstała antymateria.
      Jednak kolejne analizy zasiały wątpliwość co do pochodzenia antyhelu. Stwierdzono bowiem, że im więcej nukleonów w jądrze pierwiastka antymaterii, tym trudniej takiemu pierwiastkowi uformować się w wyniku oddziaływania promieniowania kosmicznego. Naukowcy obliczyli wówczas, że prawdopodobieństwo, by antyhel-3 powstał w wyniku oddziaływania promieni kosmicznych jest 50-krotnie mniejsze niż powstanie jąder zarejestrowanych przez AMS, a powstanie antyhelu-4 w wyniku oddziaływania promieniowania kosmicznego jest aż 105 mniejsze niż jąder, które zarejestrowano na Międzynarodowej Stacji Kosmicznej.
      Po tych badaniach naukowcy skupili się więc na poszukiwaniu źródła antyhelu, w tym w stronę mało wiarygodnie brzmiącego wyjaśnienia, mówiącego, że pierwiastek ten powstał w antygwiazdach.
      Zgodnie z obowiązującymi teoriami, podczas Wielkiego Wybuchu powinno powstać tyle samo materii i antymaterii. Następnie powinno dojść do ich anihilacji i powstania wszechświata, który będzie pełen promieniowania, a pozbawiony będzie materii. Żyjemy jednak we wszechświecie zdominowanym przez materię, a to oznacza, że podczas Wielkiego Wybuchu musiało powstać więcej materii niż antymaterii. Problem ten wciąż stanowi nierozwiązaną zagadkę.
      Większość naukowców od dekad twierdzi, że obecnie we wszechświecie antymateria niemal nie występuje, z wyjątkiem niewielkich ilości powstających w wyniku zderzeń materii, mówi Tibaldo. Jednak odkrycie antyhelu w przestrzeni kosmicznej może podważać to przekonanie. Może bowiem oznaczać, że istnieją antygwiazdy.
      Wspomnianych 14 potencjalnych antygwiazd zostało zidentyfikowanych w katalogu obejmującym 5878 źródeł promieniowania gamma zarejestrowanych w ciągu 10 lat przez Fermi Gamma-ray Telescope. Na podstawie tych danych Dupourque, Tibaldo i von Ballmoos wyliczyli pewne cechy, które powinny mieć antygwiazdy obecne w Drodze Mlecznej.
      Naukowcy stwierdzają, że jeśli antygwiazdy utworzył się w dysku galaktyki obok zwyczajnych gwiazd, to powinna istnieć 1 antygwiazda na 400 000 zwykłych gwiazd. Jeśli jednak antygwiazdy są gwiazdami pierwotnymi i powstały we wczesnym wszechświecie w czasie, gdy Droga Mleczna dopiero się tworzyła, co oznacza, że znajdują się w najstarszych regionach naszej galaktyki – w galaktycznym halo – to mogą stanowić nawet 20% wszystkich gwiazd.
      Jeśli przyjmiemy, że antymateria została uwięziona w antygwiazdach, to mamy tutaj prawdopodobne wyjaśnienie, dlaczego nie doszło do anihilacji. Szczególnie, jeśli antygwiazdy istnieją w regionach, gdzie zwykła materia występuje rzadko, w takich jak galaktyczne halo, mówi von Ballmoos.
      Oczywiście trzeba też przyjąć, że zarejestrowanych 14 kandydatów na antygwiazdy to coś zupełnie innego. Dlatego też Dupourque, Tibaldo i von Ballmoos sugerują, że następnym krokiem badań może być sprawdzenie, czy tych 14 źródeł emituje też sygnały w innych zakresach, które mogłyby świadczyć o tym, że są to np. aktywne jądra galaktyk czy pulsary.
      Autorzy badań opublikowali ich wyniki na łamach Physical Review D.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...