Tajemniczy sygnał z Proxima Centauri. Naukowcy wciąż nie znają źródła transmisji radiowej
dodany przez
KopalniaWiedzy.pl, w Astronomia i fizyka
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Światowa Organizacja Meteorologiczna (WMO) opublikowała raport na temat gazów cieplarnianych w atmosferze w roku 2024. Nie napawa on optymizmem. Raport rozpoczyna się słowami: poziomy trzech najpowszechniej występujących długotrwałych gazów cieplarnianych, dwutlenku węgla, metanu i tlenku azotu pobiły w 2024 roku rekordy. Pomiędzy rokiem 2023 a 2024 poziom CO2 w niskich warstwach atmosfery zwiększył się o 3,5 ppm, to największy wzrost rok do roku od czasu rozpoczęcia regularnych pomiarów w 1957 roku. Wzrost ten był napędzany emisją CO2 ze źródeł kopalnych, zwiększoną emisją z pożarów oraz zmniejszonym pochłanianiem przez lądy i oceany, co może wskazywać na działanie sprzężenia zwrotnego.
W 2024 roku średnie stężenie CO2 przy powierzchni Ziemi osiągnęło 423,9 ppm. Warto zwrócić uwagę na przyspieszenie tempa wzrostu. W latach 60. XX wieku stężenie dwutlenku węgla wzrastało średnio o 0,8 ppm/rok, natomiast w dekadzie 2011–2020 było to średnio 2,4 ppm/rok. W ciągu ostatnich 10 lat (2014–2024) średnia wyniosła 2,57 ppm.
Ubiegłoroczny wzrost o 3,5 ppm był rekordowy, wyższy niż dotychczasowy rekord 3,3 ppm z 2016 roku i znacznie wyższy niż 2,4 ppm z roku 2023. Co więcej, ten duży wzrost miał miejsce pomimo tego, że antropogeniczna emisja CO2 w roku 2024 utrzymała się praktycznie na tym samym poziomie co w roku 2023.
Od 1960 roku ludzkość wyemitowała do atmosfery około 500 miliardów ton węgla. Z tego około połowa została pochłonięta przez oceany i lądy. Problem jednak w tym, nie nie możemy bez końca liczyć na te źródła pochłaniania węgla. Wraz ze wzrostem temperatury oceany są w stanie pochłonąć coraz mniej CO2, gdyż gaz ten gorzej rozpuszcza się w wodzie o wyższej temperaturze. Wyższe temperatury oznaczają też pojawianie się okresów ekstremalnych susz. Z jednej strony oznacza to częstsze pożary, w wyniku których dochodzi do emisji węgla do atmosfery i zmniejszania pokrywy roślinnej, z drugiej zaś, stres wywołany temperaturami i niedoborami wody również może spowodować zmniejszone pochłanianie węgla przez roślinność. Za przykład niech posłużą niedawne badania australijskich uczonych, którzy zauważyli, że w pierwszej dekadzie obecnego wieku doszło do radykalnej zmiany, w wyniku której wilgotne lasy tropikalne Australii stały się emitentem netto węgla.
Z raportu WMO dowiadujemy się, że w rekordowym ubiegłym roku wzrostu stężenia CO2 w atmosferze ekosystemy lądowe i oceany są prawdopodobnie odpowiedzialne za 1,1 ppm tego wzrostu. Średnia globalna temperatura była najwyższa od 1850 roku i po raz pierwszy była o 1,5 stopnia wyższa niż w epoce przedprzemysłowej. Było to spowodowane zarówno długoterminowym ociepleniem klimatu, jak i pojawieniem się zjawiska El Niño. W wyniku połączenia obu czynników doszło do zmian w rozkładzie regionalnych temperatur i opadów, co wpłynęło na wchłanianie i uwalnianie CO2 przez rośliny oraz liczbę i wielkość pożarów. Cieplejsze oceany wyemitowały też więcej węgla niż zwykle. Jednak główną przyczyną anomalii zarejestrowanej w roku 2024 był zmniejszenie wchłaniania netto węgla przez ekosystemy oraz zwiększenie emisji z pożarów, stwierdzają autorzy raportu.
Naukowcy obawiają się, że ekosystemy morskie i lądowe coraz mniej efektywnie pochłaniają dwutlenek węgla, zatem coraz większa część antropogenicznej emisji pozostaje w atmosferze, przyspieszając globalne ocieplenie.
Usuwanie antropogenicznego CO2 z atmosfery jest uzależnione od wymiany pomiędzy miejscami jego wchłaniania. Wymiana ta trwa w skalach od lat (pochłanianie przez wody powierzchniowe oceanów), po setki tysięcy lat (wietrzenie skał). Spowolnienie wchłaniania CO2 jest dodatkowo potęgowane przez powolne pochłanianie energii cieplnej przez głębiny oceaniczne. W wyniku tego raz wyemitowany dwutlenek węgla pozostaje w atmosferze praktycznie bez końca. Inaczej jest w przypadku metanu, którego czas istnienia w atmosferze wynosi około 9 lat. Gaz ten jest usuwany w wyniku utleniania, czytamy w dokumencie.
W epoce przedprzemysłowej w atmosferze utrzymywała się równowaga pomiędzy emisją a pochłanianiem i poziom dwutlenku węgla wynosił 278,3 ppm. Obecnie przekroczył 420 ppm, co oznacza wzrost o ponad 50%.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Od XIX wieku nauka wie, że zdolność materiałów do absorbowania promieniowania elektromagnetycznego jest równoważna ich zdolności do emitowania tego promieniowania. Zjawisko to odkrył w 1859 roku Gustaw Kirchhoff, który sformułował prawo promieniowania cieplnego nazwane jego nazwiskiem. W ostatniej dekadzie naukowcy zaczęli poszukiwać metamateriałów zdolnych do złamania tego prawa. Udało się przed 2 laty, jednak obserwowane zjawisko było słabe. Teraz naukowcy z Pennsylvania State University donieśli o „dramatycznym” odejściu od prawa Kirchhoffa. Daje to nadzieję, że w przyszłości osiągnięcia tego typu można będzie wykorzystać w praktyce.
Możliwość silnego naruszenia prawa Kirchhoffa to nie tylko nowy sposób na kontrolowanie promieniowania cieplnego, to też metoda znaczącego poprawienia działania urządzeń do wytwarzania użytecznej energii czy jej rejestrowania. Na przykład ogniwa fotowoltaiczne muszą – zgodnie z prawem Kirchhoffa – wyemitować energię z powrotem w kierunku Słońca. Ta energia jest dla nas stracona. Jeśli jednak ogniwa słoneczne emitowałyby tę energię w innym kierunku niż obecnie, moglibyśmy umieścić tam kolejne ogniwo, które zaabsorbowałoby część tej energii, zwiększając efektywność całego panelu. Taka strategia zbliżyłaby nas do pozyskiwania energii słonecznej z wydajnością bliską granicy wyznaczonej przez prawa termodynamiki, mówi główny autor badań Zhenong Zhang.
Naukowcy z Penn State stworzyli materiał, który składa się z pięciu 440-nanometrowych warstw arsenku galu indu (InGaAs) domieszkowanych elektronowo. Im głębiej położona była warstwa, tym większe było domieszkowanie. Całość umieszczono na 100-nanometrowej warstwie srebra, a całość przeniesiono na krzemowe podłoże. Tak przygotowaną próbkę podgrzano do temperatury 267 stopni Celsjusza i poddano oddziaływaniu pola magnetycznego o natężeniu 5T. W takich warunkach stosunek zdolności absorpcji do emisji wyniósł 0,43, podczas gdy zgodnie z prawem Kirchhoffa powinien wynieść 1. Co więcej, złamanie symetrii zaobserwowano w szerokim zakresie kątów padania promieniowania oraz w zakresie promieniowania podczerwonego rozciągającym się od 13 do 23 mikrometrów.
Autorzy badań uważają, że dalszy postęp na tym polu może doprowadzić do stworzenia nowej klasy diod czy tranzystorów, bardziej efektywnych ogniw fotowoltaicznych i innych urządzeń związanych z zarządzaniem energią cieplną.
Źródło: Observation of Strong Nonreciprocal Thermal Emission, https://arxiv.org/pdf/2501.12947
« powrót do artykułu -
przez KopalniaWiedzy.pl
Niedawno astronomowie usłyszeli głos z kosmicznych zaświatów. Potężny krótkotrwały impuls na chwilę przyćmił wszystkie źródła sygnałów radiowych. Clancy James z australijskiego Curtin University i jego zespół skanowali nieboskłon za pomocą Australian Square Kilometre Array Pathfinder (ASKAP) – zestawu 36 radioteleskopów znajdujących się w Zachodniej Australii – odebrali krótki, bardzo silny sygnał.
Niezwykle podekscytowani stwierdzili, być może odkryli nowy pulsar lub inny obiekt, a że źródło sygnału wydawało się pochodzić z naszej galaktyki, stwierdzili, że nowy obiekt powinien być widoczny za pomocą teleskopów optycznych. Jednak gdy bardziej szczegółowo przeanalizowali sygnał okazało się, że jego źródło było tak blisko, iż ASKAP nie skupić na nim jednocześnie wszystkich swoich anten. A to oznaczało, że źródło sygnału musi znajdować się mniej niż 20 tysięcy kilometrów od Ziemi. Impuls trwał zaledwie 30 nanosekund i przez tę chwilę silniejszy, niż wszystko inne rejestrowane za pomocą radioteleskopów.
Gdy Australijczycy przeanalizowali pozycję źródła sygnału i porównali ją z pozycjami wszystkich znanych satelitów okazało się, że jedynym możliwym źródłem sygnału jest Relay 2. To jeden z pierwszych satelitów w historii. Został wystrzelony w 1964 roku i służył NASA jako eksperymentalne urządzenie komunikacyjne. Agencja przestała używać Relay 2 już w 1965 roku, natomiast pokładowa elektronika satelity działała do roku 1967. Wówczas Relay 2 zamilkł i od tej pory krąży wokół Ziemi jako bezwładny kawałek metalu.
Teraz, po niemal 60 latach satelita znowu wysłał sygnał. Jednak jego urządzenie nie działają, więc źródłem sygnału musiały być czynniki zewnętrzne. Clancy i jego koledzy sądzą, że albo na powierzchni satelity zebrały się ładunki elektrostatyczne i doszło do wyładowania, albo uderzył w niego mikrometeoryt, który wywołał pojawienie się chmury plazmy. Sygnały z obu tych wydarzeń wyglądają podobnie, więc trudno byłoby je odróżnić. Przede wszystkim ktoś musiałby chcieć przeprowadzić takie badania. Tylko po co?
Źródło: A nanosecond-duration radio pulse originating from the defunct Relay 2 satellite, https://arxiv.org/abs/2506.11462
« powrót do artykułu -
przez KopalniaWiedzy.pl
Krążący wysoko nad Antarktydą wykrywacz promieniowania kosmicznego, zarejestrował nietypowe sygnały, które wykraczają poza nasze obecne rozumienie fizyki cząstek. ANITA (Antarctic Impulsive Transient Antenna) to zespół wyspecjalizowanych anten, które za pomocą balonu wypuszczane były nad Antarktyką i przez około miesiąc krążyły na wysokości do 40 kilometrów, unoszone przez wiatry obiegające kontynent. Celem eksperymentu jest obserwowanie promieniowania kosmicznego po tym, jak dotarło do Ziemi. W trakcie badań co najmniej 2-krotnie zarejestrowano sygnały, które nie pochodzą od promieniowania odbitego przez lód, a kierunek, z którego napłynęły, nie pozwala wyjaśnić ich pochodzenia na gruncie znanych zjawisk fizycznych.
Sygnały radiowe, które odkryliśmy, nadeszły z bardzo ostrego kąta, około 30 stopni spod powierzchni lodu, mówi profesor Stephanie Wissel. Z obliczeń wynika, że taki sygnał musiałby przejść przez tysiące kilometrów skał, z których zbudowana jest Ziemia, ale wówczas byłby niewykrywalny, gdyż zostałby przez Ziemię zaabsorbowany. To interesujący problem, bo obecnie nie potrafimy wyjaśnić, czym jest ten sygnał. Wiemy jednak, że to najprawdopodobniej nie pochodzi z neutrin, dodaje uczona.
Neutrina to cząstki bardzo pożądane przez naukowców. Niosą ze sobą ogrom informacji. W każdej sekundzie przez nasze ciała przechodzą biliony neutrin i nie czynią nam szkody. Neutrina niemal nigdy nie wchodzą w interakcje, trudno więc je wykryć.
Źródłem neutrin mogą być na przykład wydarzenia, do których doszło miliary lat świetlne od nas. Wykrycie takiego neutrina to dla naukowców okazja, by dowiedzieć się czegoś więcej o wydarzeniu, które było jego źródłem.
ANITA ma wykrywać też neutrina. Została umieszczona nad Antarktyką, gdyż tam istnienie najmniejsze ryzyko zakłócenia jej pracy przez inne sygnały. Unoszony przez balon zespół anten skierowany jest w dół i rejestruje wielkie pęki atmosferyczne odbite od lodu. Wielki pęk atmosferyczny, to wywołana pojedynczą cząstką promieniowania atmosferycznego kaskada cząstek powstających w atmosferze Ziemi.
ANITA rejestruje takie pęki odbite od lodu, naukowcy są w stanie przeanalizować sam pęk, jak i pęk odbity od lodu i na tej podstawie określić, jaka cząstka wywołała pęk. Na podstawie kąta odbicia sygnału można zaś określić jego źródło. I tutaj pojawia się problem, gdyż zarejestrowano też sygnały, których nie można prześledzić do źródła. Kąt ich odbicia jest bowiem znacznie bardziej ostry, niż przewidują istniejące modele.
Naukowcy przeanalizowali dane z wielu przelotów, porównali je z modelami matematycznymi, przeprowadzili liczne symulacje i wykluczyli zakłócenia tła i inne źródła sygnałów. Porównali swoje dane z niezależnie zbieranymi danymi innych instrumentów naukowych, takich jak IceCube Experiment czy Pierre Auger Observatory, by sprawdzić, czy i one odebrały podobne nietypowe sygnały. Okazało się, że nie. Dlatego też Wissel i jej koledzy określają znalezione sygnały jako „nietypowe” i wykluczają, by były one spowodowane przez neutrina. Sygnały nie pasują do standardowych modeli fizyki cząstek. Być może wyjaśnieniem tkwi w mniej popularnych teoriach, z których wynika, że sygnały te mogą pochodzić od ciemnej materii, jednak brak na to dowodów.
Obecnie naukowcy budują nowe urządzenie, PUEO. Będzie ono większe i bardziej czułe. Badacze mają nadzieję, że rzuci ono nowe światło na nietypowe sygnały. Sądzę, że przy powierzchni lodu i blisko horyzontu dochodzi do jakichś interesujących zjawisk związanych z rozprzestrzenianiem się sygnałów radiowych. Nie rozumiemy tego. Sprawdzaliśmy różne hipotezy i do niczego nie doszliśmy. To tajemnica. Bardzo się cieszę na myśl o tym, że powstaje bardziej czułe PUEO. Powinniśmy uchwycić więcej takich anomalii, dzięki czemu być może zrozumiemy, z czym mamy do czynienia, dodaje Wissel.
Źródło: Search for the Anomalous Events Detected by ANITA Using the Pierre Auger Observatory, https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.134.121003
« powrót do artykułu -
przez KopalniaWiedzy.pl
Naukowcy potrafią przygotować bakterie tak, by wyczuwały różnego typu molekuły obecne w środowisku, jak składniki odżywcze czy zanieczyszczenia w glebie. Jednak by odczytać takie sygnały, by stwierdzić, że bakterie wyczuły obecność interesujących nas molekuł, trzeba przyjrzeć się samym bakteriom pod mikroskopem. Przez to dotychczas nie mogły być wykorzystywane do monitorowania środowiska na duża skalę. Jednak właśnie się to zmieniło. Naukowcy z MIT stworzyli bakterie, od których sygnały można odczytywać z odległości 90 metrów. W przyszłości mogą więc powstać bakterie, które będzie można monitorować za pomocą dronów lub satelitów.
Wyprodukowane na MIT bakterie wytwarzają molekuły generujące unikatowe połączenie kolorystyczne. To nowy sposób na uzyskiwanie informacji z komórki. Jeśli staniesz obok, niczego nie zauważysz, ale z odległości setek metrów, wykorzystując specjalną kamerę, możesz odczytać potrzebne informacje, mówi jeden z autorów badań, Christopher Voigt, dziekan Wydziału Inżynierii Biologicznej MIT.
Naukowcy stworzyli dwa różne typy bakterii, które wytwarzają molekuły emitujące światło o specyficznej długości fali w zakresie widma widzialnego i podczerwieni. Światło to można zarejestrować za pomocą specjalnej kamery. Generowanie molekuł jest uruchamiane po wykryciu sąsiadujących bakterii, jednak tę samą technikę można wykorzystać do wytwarzania molekuł w obecności np. zanieczyszczeń. W ten sposób można bakterie zamieniać w czujniki wykrywające dowolne substancje.
Generowane przez bakterie molekuły można obserwować za pomocą kamer hiperspektralnych, które pokazują zawartość różnych kolorów w każdym z pikseli obrazu. Każdy z nich zawiera bowiem informację o setkach fal światła o różnej długości.
Obecnie kamery hiperspektralne wykorzystywane są na przykład do wykrywania promieniowania. Wykorzystuje się je chociażby wokół Czarnobyla do rejestrowania niewielkich zmian koloru, powodowanych przez pierwiastki radioaktywne w chlorofilu roślin.
Uczeni z MIT wykorzystali podczas testów bakterie Pseudomonas putida i Rubrivivax gelatinosus. Pierwszą z nich przygotowali tak, by wydzielała biliwerdynę, drugą wyposażono w możliwość wytwarzania pewnego typu bakteriochlorofilu. Testowe skrzynki zawierające bakterie umieszczono w różnych miejscach, a następnie były one obserwowane przez kamery hiperspektralne.
Kamery w ciągu 20–30 sekund skanowały skrzynki, a algorytm komputerowy analizował sygnały i zgłaszał, czy doszło do emisji wspomnianych związków. Największa odległość, z której udało się wykryć emisję molekuł przez bakterie wynosiła 90 metrów.
Autorzy badań pracują już nad zwiększeniem odległości, z jakiej można odczytywać sygnały. Mówią, że ich technologia przyda się zarówno do badania ilości składników odżywczych w glebie, jak i do wykrywania min.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.
