-
Similar Content
-
By KopalniaWiedzy.pl
Po dziesięcioleciach udało się odkryć ambipolarne (dwukierunkowe) pole elektryczne Ziemi. To słabe pole elektryczne naszej planety, które jest tak podstawową jej cechą jak grawitacja czy pola magnetyczne. Hipoteza o istnieniu takiego pola pojawiła się ponad 60 lat temu i od tamtego czasu poszukiwano tego pola. Jest ono kluczowym mechanizmem napędzającym „wiatr polarny”, czyli ucieczkę naładowanych cząstek z ziemskiej atmosfery w przestrzeń kosmiczną. Ma ona miejsce nad ziemskimi biegunami.
„Wiatr polarny” został odkryty w latach 60. XX wieku. Od samego początku naukowcy uważali, że jego siłą napędową jest nieznane pole elektryczne. Uważano, że jest ono generowane w skali subatomowej i jest niezwykle słabe. Przez kolejnych kilkadziesiąt lat ludzkość nie dysponowała narzędziami, które mogły zarejestrować takie pole.
W 2016 roku Glyn Collinson i jego zespół z Goddars Space Flight Center zaczęli pracować nad instrumentami zdolnymi do zmierzenia ambipolarnego pola elektrycznego. Stworzone przez nich urządzenia oraz metoda pomiaru zakładały przeprowadzenie badań za pomocą rakiety suborbitalnej wystrzelonej z Arktyki. Badacze nazwali swoją misję Endurance, na cześć statku, którym Ernest Shackleton popłynął w 1914 roku na swoją słynną wyprawę na Antarktykę. Rakietę postanowiono wystrzelić ze Svalbardu, gdzie znajduje się najbardziej na północ wysunięty kosmodrom. Svalbard to jedyny kosmodrom na świecie, z którego można wystartować, by przelecieć przez wiatr polarny i dokonać koniecznych pomiarów, mówi współautorka badań, Suzie Imber z University of Leicester.
Misja Endurance została wystrzelona 11 maja 2022 roku. Rakieta osiągnęła wysokość 768,03 km i 19 minut później spadła do Morza Grenlandzkiego. Urządzenia pokładowe zbierały dane przez 518 kilometrów nabierania wysokości i zanotowały w tej przestrzeni zmianę potencjału elektrycznego o 0,55 wolta. Pół wolta to tyle co nic, to napięcie baterii w zegarku. Ale to dokładnie tyle, ile trzeba do napędzenia wiatru polarnego, wyjaśnia Collinson.
Generowane pole elektryczne oddziałuje na jony wodoru, które dominują w wietrze polarnym, z siłą 10,6-krotnie większą niż grawitacja. To więcej niż trzeba, by pokonać grawitację. To wystarczająco dużo, by wystrzelić jony z prędkością naddźwiękową prosto w przestrzeń kosmiczną, dodaje Alex Glocer z NASA. Pole napędza też cięższe pierwiastki, jak jony tlenu. Z badań wynika, że dzięki obecności tego pola elektrycznego jonosfera jest na dużej wysokości o 271% bardziej gęsta, niż byłaby bez niego. Mamy tutaj rodzaj taśmociągu, podnoszącego atmosferę do góry, dodaje Collinson.
Pole to nazwano ambipolarnym (dwukierunkowym), gdyż działa w obie strony. Opadające pod wpływem grawitacji jony ciągną elektrony w dół, a w tym samym czasie elektrony – próbując uciec w przestrzeń kosmiczną – ciągną jony w górę. Wskutek tego wysokość atmosfery zwiększa się, a część jonów trafia na wystarczającą wysokość, by uciec w przestrzen kosmiczną w postaci wiatru polarnego.
Odkrycie ambipolarnego pola elektrycznego otwiera przed nauką nowe pola badawcze. Jest ono bowiem, obok grawitacji i pola magnetycznego, podstawowym polem energetycznym otaczającym naszą planetę, wciąż wpływa na ewolucję naszej atmosfery w sposób, który dopiero teraz możemy badać. Co więcej, każda planeta posiadająca atmosferę powinna mieć też ambipolarne pole elektryczne. Można więc będzie go szukać i badać na Marsie czy Wenus.
« powrót do artykułu -
By KopalniaWiedzy.pl
Intensywność pola magnetycznego Ziemi zmniejsza się od około 200 lat. Proces ten przebiega na tyle szybko, że niektórzy naukowcy ogłosili, iż w ciągu 2000 lat dojdzie do zamiany biegunów magnetycznych. Przebiegunowanie mogłoby spowodować, że przez kilka tysięcy lat Ziemia byłaby gorzej chroniona przed szkodliwym promieniowaniem kosmicznym i słonecznym. To z kolei doprowadziłoby do poważnych zakłóceń i awarii sprzętu elektronicznego, wzrostu przypadków zachorowań na nowotwory i zwiększenia się liczby mutacji genetycznych. Niewykluczone, że ucierpiałyby też te gatunki zwierząt, które w swoich migracjach orientują się wedle pola magnetycznego.
Naukowcy z MIT-u opublikowali na łamach PNAS artykuł opisujący wyniki ich badań nad stanem pola magnetycznego planety. Ich zdaniem przebiegunowanie nie grozi nam w najbliższym czasie. Uczeni obliczyli średnią intensywność stabilnego ziemskiego pola magnetycznego na przestrzeni ostatnich 5 milionów lat i odkryli, że obecnie pole to jest dwukrotnie bardziej intensywne niż średnia z tego okresu. To oznacza, że minie jeszcze sporo czasu, zanim pole magnetyczne planety stanie się niestabilne i dojdzie do przebiegunowania. To olbrzymia różnica, czy dzisiejsze pole magnetyczne jest takie jak średnia długoterminowa czy też jest powyżej średniej. Teraz wiemy, że nawet jeśli intensywność pola magnetycznego Ziemi się zmniejsza to jeszcze przez długi czas będzie się ono znajdowało w bezpiecznym zakresie - mówi Huapei Wang, główny autor badań.
Z innych badań wiemy, że w przeszłości wielokrotnie dochodziło do przebiegunowania naszej planety. Jest to jednak proces bardzo nieregularny. Czasami przez 40 milionów lat nie było przebiegunowania, a czasem bieguny zmieniały się 10-krotnie w ciągu miliona lat. Średni czas pomiędzy przebiegunowaniami wynosi kilkaset tysięcy lat. Ostatnie przebiegunowanie miało miejsce około 780 000 lat temu, zatem średnia już została przekroczona - dodaje Wang.
Sygnałem nadchodzącego przebiegunowania jest znaczący spadek poniżej średniej długoterminowej intensywności pola magnetycznego. To wskazuje, że stanie się ono niestabilne. Zarówno z badań terenowych jak i satelitarnych mamy dobre dane dotyczące ostatnich 200 lat. Mówiąc o przeszłości musimy opierać się na mniej pewnych szacunkach.
Grupa Wanga zdobywała informacje o przeszłości ziemskiego pola magnetycznego badając skały wyrzucone przez wulkany na Galapagos. To idealne miejsce, gdyż wyspy położone są na równiku. Stabilne pole magnetyczne jest dipolem, jego intensywność powinna być taka sama na obu biegunach, a na równiku powinna być o połowę mniejsza. Wang stwierdził, że jeśli pozna historyczną intensywność pola magnetycznego na równiku i na biegunach uzyska dokładne dane na temat średniej historycznej intensywności. Sam zdobył próbki z Galapagos, a próbki z Antarktyki dostarczyli mu naukowcy ze Scripps Institution of Oceanography. Naukowcy najpierw zmierzyli naturalny magnetyzm skał. Następnie podgrzali je i ochłodzili w obecności pola magnetycznego i zmierzyli ich magnetyzm po ochłodzeniu. Naturalny magnetyzm skał jest proporcjonalny do pola magnetycznego, w którym stygły. Dzięki eksperymentom naukowcy byli w stanie obliczyć średnią historyczną intensywność pola magnetycznego. Wynosiła ona około 15 mikrotesli na równiku i 30 mikrotesli na biegunach. Dzisiejsza intensywność wynosi zaś, odpowiednio, 30 i 60 mikrotesli. To oznacza, że dzisiejsza intensywność jest nienormalnie wysoka i jeśli nawet ona spadnie, to będzie to spadek do długoterminowej średniej, a nie ze średniej do zera, stwierdza Wang.
Uczony uważa, że naukowcy, którzy postulowali nadchodzące przebiegunowanie opierali się na wadliwych danych. Pochodziły one z różnych szerokości geograficznych, ale nie z równika. Dopiero Wang wziął pod uwagę dane z równika. Ponadto odkrył, że w przeszłości źle rozumiano sposób, w jaki w skałach pozostaje zapisana informacja o ziemskim magnetyzmie. Z tego też powodu przyjęto błędne założenie. Uznano, że gdy poszczególne ferromagnetyczne ziarna w skałach ulegały schłodzeniu spiny elektronów przyjmowały tę samą orientację, z której można było odczytać intensywność pola magnetycznego. Teraz wiemy, że jest to prawdą ale tylko do pewnej ograniczonej wielkości ziaren. Gdy są one większe spiny elektronów w różnych częściach ziarna przyjmują różną orientację. Wang opracował więc metodę korekty tego zjawiska i zastosował ją przy badaniach skał z Galapagos.
Wang przyznaje, że nie wie, kiedy dojdzie do kolejnego przebiegunowania. Jeśli założymy, że utrzyma się obecny spadek, to za 1000 lat intensywność pola magnetycznego będzie odpowiadała średniej długoterminowej. Wówczas może zacząć się zwiększać. Tak naprawdę nie istnieje sposób, by przewidzieć, co się stanie. Proces magnetohydrodynamiczny ma bowiem chaotyczną naturę".
« powrót do artykułu -
By KopalniaWiedzy.pl
Sprawdzają się przewidywania naukowców, który prognozują, że już w roku 2016 średnia roczna koncentracja CO2 przekroczy 400 części na milion (ppm). W ubiegłym roku, w nocy z 7 na 8 maja, po raz pierwszy zanotowano, że średnia godzinowa koncentracja dwutlenku węgla przekroczyła 400 ppm. Tak dużo CO2 nie było w atmosferze od 800 000 – 15 000 000 lat.
W bieżącym roku możemy zapomnieć już o średniej godzinowej i znacznie wydłużyć skalę czasową. Czerwiec był trzecim z kolei miesiącem, w którym średnia miesięczna koncentracja była wyższa niż 400 części na milion.
Granica 400 ppm została wyznaczona symbolicznie. Ma nam jednak uświadomić, jak wiele węgla wprowadziliśmy do atmosfery. Z badań rdzeni lodowych wynika, że w epoce preindustrialnej średnia koncentracja dwutlenku węgla w atmosferze wynosiła 280 części na milion. W roku 1958, gdy Charles Keeling rozpoczynał pomiary na Mauna Loa w powietrzu znajdowało się 316 ppm. Wraz ze wzrostem stężenia CO2 rośnie też średnia temperatura globu. Naukowcy nie są zgodni co do tego, jak bardzo możemy ogrzać planetę bez narażania siebie i środowiska naturalnego na zbytnie niebezpieczeństwo. Zgadzają się zaś co do tego, że już teraz należy podjąć radykalne kroki w celu redukcji emisji gazów cieplarnianych. Paliwa niezawierające węgla muszą szybko stać się naszym podstawowym źródłem energii - mówi Pieter Tans z Narodowej Administracji Oceanicznej i Atmosferycznej.
Kwiecień 2014 roku był pierwszym, w którym przekroczono średnią 400 ppm dla całego miesiąca. Od maja, w związku z rozpoczęciem się najintensywniejszego okresu fotosyntezy na półkuli północnej, rozpoczął się powolny spadek koncentracji CO2, która w szczytowym momencie osiągnęła 402 ppm. Jednak przez cały maj i czerwiec średnia dzienna, a zatem i średnia miesięczna, nie spadły poniżej 400 części CO2 na milion. Eksperci uważają, że w trzecim tygodniu lipca koncentracja dwutlenku węgla spadnie poniżej 400 ppm. Do ponownego wzrostu dojdzie zimą i wzrost ten utrzyma się do maja.
Rośliny nie są jednak w stanie pochłonąć całego antropogenicznego dwutlenku węgla i wraz z każdym sezonem pozostawiają go w atmosferze coraz więcej. Dlatego też Pieter Tans przypuszcza, że w przyszłym roku pierwszym miesiącem, dla którego średnia koncentracja tego gazu przekroczy 400 ppm będzie już luty, a tak wysoki poziom CO2 utrzyma się do końca lipca, czyli przez sześć pełnych miesięcy. Od roku 2016 poziom 400 ppm będzie stale przekroczony.
Dopóki ludzie będą emitowali CO2 ze spalanego paliwa, dopóty poziom tego gazu w oceanach i atmosferze będzie się zwiększał - mówi Tans.
« powrót do artykułu -
By KopalniaWiedzy.pl
Zapach partnera może poprawić jakość snu, a konkretnie jego wydajność - twierdzą psycholodzy z Uniwersytetu Kolumbii Brytyjskiej.
Nasze badanie zapewniło dowody, że zwykłe spanie z zapachem partnera poprawia wydajność snu. Średnio wydajność snu naszych ochotników polepszyła się o ponad 2%. Dostrzegaliśmy efekt zbliżony do występującego przy zażywaniu doustnych suplementów melatoniny [...] - opowiada Marlise Hofer.
W ramach studium naukowcy analizowali dane dot. snu 155 osób, w większości kobiet (75%), którym dano 2 identycznie wyglądające koszulki (miały one posłużyć jako powłoczki na poduszkę). Jedną nosił wcześniej partner, drugą - kontrolną - obca osoba albo była ona nowa. Ochotnicy nie wiedzieli, która koszulka jest która. Średnia długość związku wynosiła 23,28 miesiąca.
By zapach utrwalił się w T-shircie, były one noszone przez dobę. Użytkowników proszono, by na czas eksperymentu nie używali dezodorantu, zapachowych kosmetyków do ciała, nie palili, nie ćwiczyli i nie jedli produktów wpływających na woń ciała. Później koszulki zamrażano.
Jak napisała autorka artykułu, który ukaże się na łamach Psychological Journal, ochotnicy przesypiali cztery noce na poduszkach obleczonych w dostarczone koszulki. T-shirt A miał być wykorzystywany w poniedziałek i wtorek, a T-shirt B w środę i czwartek (kolejność koszulek była losowa i podwójnie ślepa; nie znali jej ani naukowcy, ani uczestnicy). W poniedziałek i środę (przed snem na każdej z koszulek) badani mieli wyprać pościel w bezzapachowym detergencie. Ochotnicy kąpali się, używając dostarczonych przez akademików bezwonnych mydeł i szamponów. By ograniczyć zaburzenia snu, po 14 mieli unikać alkoholu i kofeiny. Podczas 4 nocy, gdy zbierano dane, badani spali, oczywiście, sami.
Każdego dnia rano podawali, o której godzinie położyli się spać i o której godzinie wstali. Odpowiadali też na 2 pytania: 1) jak oceniają jakość snu i 2) w jakim stopniu wypoczęci się czują (gdzie 1 oznaczało bardzo źle/niewypoczęty, a 7 bardzo dobrze/wypoczęty). Odpowiedzi uśredniano, by uzyskać miarę postrzeganej jakości snu. Jakość snu mierzono także obiektywnie za pomocą aktygrafu (urządzenia wielkości zegarka, które pozwala zmierzyć nasilenie aktywności ruchowej).
W badaniu uwzględniono 3 próbki; 1. i 2. (w sumie 115 osób) były wystawione na oddziaływanie czystej koszulki, a 3. (40 osób) na zapach obcej osoby.
Okazało się, że ochotnicy czuli się bardziej wypoczęci po nocach, gdy wg siebie, byli wystawieni na oddziaływanie woni partnera. Co więcej, bez względu na przekonania, dane z aktygrafu zademonstrowały, że jakość snu obiektywnie się poprawiła, gdy ludzie rzeczywiście czuli zapach partnera.
Aktygrafy pokazały, że badani mniej się rzucali i przekładali z boku na bok, kiedy byli wystawiani na oddziaływanie zapachu partnera, nawet jeśli nie byli świadomi, czyj zapach czują - opowiada prof. Frances Chen.
Kanadyjki podkreślają, że fizyczna obecność długoterminowego partnera wiąże się poczuciem bezpieczeństwa, spokojem i rozluźnieniem, co z kolei przekłada się na lepszą jakość snu. Sygnalizując niedawną bliskość fizyczną, zapach partnera może przynosić podobne korzyści.
Obecnie psycholodzy rekrutują ochotników do eksperymentu, podczas którego chcą sprawdzić, czy zapach rodzica może poprawić jakość snu niemowlęcia/małego dziecka.
« powrót do artykułu -
By KopalniaWiedzy.pl
Już wkrótce elektrownia węglowa Dry Fork znajdująca się w pobliżu miasteczka Gillette w stanie Wyoming będzie wykorzystywała dwutlenek węgla do produkcji materiałów budowlanych. W marcu w elektrowni rozpoczyna się program pilotażowy, w ramach którego CO2 będzie zmieniane w betonowe bloczki.
Eksperyment prowadzony będzie przez naukowców z Uniwersytetu Kalifornijskiego w Los Angeles (UCLA). Przez try miesiące każdego dnia będą oni odzyskiwali 0,5 tony dwutlenku węgla i wytwarzali 10 ton betonu. To pierwszy system tego typu. Chcemy pokazać, że można go skalować, mówi profesor Gaurav Sant, który przewodzi zespołowi badawczemu.
Carbon Upcycling UCLA to jeden z 10 zespołów biorących udział a ostatnim etapie zawodów NRG COSIA Carbon XPrize. To ogólnoświatowe zawody, których uczestnicy mają za zadanie opracować przełomową technologię pozwalającą na zamianę emitowanego do atmosfery węgla na użyteczny materiał.
W Wyoming są jeszcze cztery inne zespoły, w tym kanadyjski i szkocki. Pozostałych pięć drużyn pracuje w elektrowni gazowej w Kanadzie. Wszyscy rywalizują o główną nagrodę w wysokości 7,5 miliona dolarów. Zawody zostaną rozstrzygnięte we wrześniu.
Prace UCLA nad nową technologią rozpoczęto przed około 6laty, gdy naukowcy przyjrzeli się składowi chemicznemu... Wału Hadriana. Ten wybudowany w II wieku naszej ery wał miał bronić Brytanii przed najazdami Piktów.
Rzymianie budowali mur mieszając tlenek wapnia z wodą, a następnie pozwalając mieszaninie na absorbowanie CO2 z atmosfery. W ten sposób powstawał wapień. Proces taki trwa jednak wiele lat. Zbyt długo, jak na współczesne standardy. Chcieliśmy wiedzieć, czy reakcje te uda się przyspieszyć, mówi Guarav Sant.
Rozwiązaniem problemu okazał się portlandyt, czyli wodorotlenek wapnia. Łączy się go z kruszywem budowlanym i innymi materiałami, uzyskując wstępny materiał budowlany. Następnie całość trafia do reaktora, gdzie wchodzi w kontakt z gazami z komina elektrowni. W ten sposób szybko powstaje cement. Sant porównuje cały proces do pieczenia ciastek. Mamy oto bowiem mokre „ciasto”, które pod wpływem temperatury i CO2 z gazów kominowych zamienia się w użyteczny produkt.
Technologia UCLA jest unikatowa na skalę światową, gdyż nie wymaga kosztownego etapu przechwytywania i oczyszczania CO2. To jedyna technologia, która bezpośrednio wykorzystuje gazy z komina.
Po testach w Wyoming cała instalacja zostanie rozmontowana i przewieziona do National Carbon Capture Center w Alabamie. To instalacja badawcza Departamentu Energii. Tam zostanie poddana kolejnym trzymiesięcznym testom.
Na całym świecie wiele firm i grup naukowych próbuje przechwytywać CO2 i albo go składować, albo zamieniać w użyteczne produkty. Jak wynika z analizy przeprowadzonej przez organizację Carbon180, potencjalna wartość światowego rynku odpadowego dwutlenku węgla wynosi 5,9 biliona dolarów rocznie, w tym 1,3 biliona to produkty takie jak cementy, asfalty i kruszywa budowlane. Zapotrzebowanie na takie materiały ciągle rośnie, a jednocześnie coraz silniejszy akcent jest kładziony na redukcję ilości węgla trafiającego do atmosfery. To zaś tworzy okazję dla przedsiębiorstw, które mogą zacząć zarabiać na przechwyconym dwutlenku węgla.
Cement ma szczególnie duży ślad węglowy, gdyż jego produkcja wymaga dużych ilości energii. Każdego roku na świecie produkuje się 4 miliardy ton cementu, a przemysł ten generuje około 8% światowej emisji CO2. Przemysł cementowy jest tym, który szczególnie trudno zdekarbonizować, brak więc obecnie efektywnych rozwiązań pozwalających na zmniejszenie emisji węgla. Technologie wykorzystujące przechwycony CO2 mogą więc wypełnić tę lukę.
« powrót do artykułu
-
-
Recently Browsing 0 members
No registered users viewing this page.