Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Gwałtowne zmiany ziemskiego pola magnetycznego zagrażają systemom nawigacji

Recommended Posts

Ziemskie północne pole magnetyczne przemieszcza się z Kanady w stronę Syberii. Ruch ten jest tak szybki, że pojawiła się konieczność dokonana rzadkiej korekty Ziemskiego Modelu Magnetycznego. Opisuje on pole magnetyczne planety i jest podstawą wszystkich współczesnych systemów nawigacyjnych.

Najnowsza wersja modelu pochodzi z roku 2015 i miała być używana do 2020 roku. Jednak zmiany pola magnetycznego są tak duże, że już teraz pojawiła się konieczność korekty modelu. Błąd cały czas się powiększa, mówi Arnaud Chulliat z National Centers for Environmental Information w amerykańskiej Narodowej Administracji Oceanicznej i Atmosferycznej.

Problem leży częściowo w przemieszczającym się polu magnetycznym, a częściowo w innych zmianach zachodzących we wnętrzu Ziemi. Na przykład w 2016 roku głęboko pod północną częścią Ameryki Południowej i wschodnim Pacyfikiem część pola magnetycznego czasowo przyspieszyła. W roku 2018, gdy specjaliści z NOAA i British Geological Survey dokonali corocznego sprawdzenia, na ile aktualny model odpowiada rzeczywistym zmianom pola magnetycznego Ziemi okazało się, że jest on na granicy przekroczenia akceptowalnego marginesu błędów nawigacyjnych.

Naukowcy zaczęli zastanawiać się, co takiego się stało. Okazało się, że nałożyły się dwa zjawiska. Po pierwsze impuls geomagnetyczny z 2016 roku przydarzył się zaraz po aktualizacji modelu, więc pole magnetyczne zaczęło zmieniać się gdy tylko przyjęto nowy model, a zmiany poszły w kierunku, którego nie przewidziano. Po drugie sytuację pogorszyła zmiana położenia północnego bieguna magnetycznego, który przemieszcza się w sposób nieprzewidywalny. Na przykład w połowie ubiegłego wieku przyspieszył on swoją wędrówkę z około 15 kilometrów na rok do około 55 km/rok. Do roku 2001 znalazł się na Oceanie Arktycznym, w 2018 roku przeciął linię zmiany daty, a obecnie podąża w kierunku Syberii. Fakt, że biegun magnetyczny przemieszcza się tak szybko, czyni cały ten region bardziej podatnym na duże błędy, mówi Chulliat.

Naukowcy próbują zrozumieć, dlaczego pole magnetyczne Ziemi zmienia się tak szybko. Impulsy podobne do tego z 2016 roku mogą mieć swoje źródło w „hydromagentycznych” falach z głębi jądra. Z kolei szybkie przemieszczanie się bieguna magnetycznego może być spowodowane przez strumienie płynnego żelaza przemieszczające się szybko pod Kanadą. Wydaje się, że położenie północnego bieguna magnetycznego zależy od dwóch dużych obszarów w jądrze Ziemi, jednego pod Kanadą i jednego pod Syberią. Obszar pod Syberią wygrywa obecnie w to swoiste przeciąganie liny, stwierdził Phil Livermore z University of Leeds.

Zmiana modelu magnetycznego planety miała nastąpić już 15 stycznia, jednak w związku z tzw. zamknięciem rządu USA przesunięto ją na 30 stycznia.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Tak na "oko" to zmiama predkosci przesuwania sie bieguna magnetycznego jest zwiazana z wieksza iloscia wody z topniejacych lodowcow. Zaklada sie ze woda z topniejacych lodowcow jest pochlaniana przez skorupe i plaszcz ziemi ( dlatego nie jest obserwowany katastroficzny poziom oceanow). Jezeli jest to prawda to woda ta musi zmienic wlasciwosci fizyczne skal w (skorupie || plaszcu) ziemi. A to powoduje lepsze smarowanie miedzy warstwami ziemi. No i nastepne teoria o global warming jets gotowa.

Share this post


Link to post
Share on other sites

Szanowny Zibi -  niestety znacznie zaniedbałeś zgromadzenie i analizę dostępnej wiedzy przed wyrażeniem powyższej opinii.

W rzeczywistości topniejący lód na biegunie wpływa na pole magnetyczne Ziemi w takim samym stopniu jak wosk na lakierze mego samochodu wpływa na kierunek jego jazdy.

Nie ten rząd wielkości energii i wzajemnych oddziaływań.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Gwiazdy neutronowe są źródłem najpotężniejszych pól magnetycznych we wszechświecie. Naukowcy z Chińskiej Akademii Nauk donieśli właśnie, że satelita Insight-HXMT zaobserwował gwiazdę o najpotężniejszej indukcji magnetycznej na powierzchni. Z pomiarów wynika, że indukcja na powierzchni gwiazdy znajdującej się w układzie podwójnym Swift J0243.6+6124 wynosi gigantyczne 1,6 miliarda tesli. Dotychczasowy rekord, zmierzony w 2020 roku, wynosił 1 miliard tesli.
      O tym, o jak olbrzymich wartościach mówimy niech świadczy fakt, że indukcja potężnych magnesów wykorzystywanych w akceleratorach cząstek czy reaktorach fuzyjnych wynosi kilkanaście tesli. A indukcja pola magnetycznego na powierzchni Ziemi to... 0,000065 tesli. Indukcja magnetyczna Swift J0243.6+6124 jest więc 24 biliony razy większa.
      Wspomniany układ podwójny składa się z gwiazdy neutronowej oraz jej towarzysza. Potężna grawitacja gwiazdy neutronowej wyciąga z jej towarzysza gaz, który opada na gwiazdę neutronową, tworząc wokół dysk akrecyjny. Plazma z dysku akrecyjnego opada wzdłuż linii pola magnetycznego na powierzchnię gwiazdy, podążając do biegunów magnetycznych, gdzie wywołuje silne promieniowanie rentgenowskie emitowane w wąskich wiązkach wzdłuż biegunów magnetycznych. Jako że gwiazda się obraca, obserwator widzi pulsujące promieniowanie magnetyczne, stąd taki układ nazywa się pulsarem rentgenowskim.
      Z wielu badań wiemy, że energia absorpcji linii promieniowania rentgenowskiego z takiego pulsara odpowiada indukcji magnetycznej na powierzchni gwiazdy neutronowej. Dzięki temu możemy mierzyć tę indukcję badając promieniowanie emitowane przez gwiazdę.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W projektach związanych z syntezą termojądrową konieczne jest wykorzystanie materiałów odpornych na wysokie temperatury i uszkodzenia radiacyjne. Obiecujące pod tym względem są materiały bazujące na węglu, zwłaszcza nanorurki węglowe i grafen. Naukowcy z Zakładu Badań Reaktorowych NCBJ brali udział w badaniach odporności detektorów grafenowych na wysokie strumienie neutronów.

      Reaktory termojądrowe, takie jak powstające obecnie w Cadarache we Francji urządzenie badawcze ITER (International Thermonuclear Experimental Reactor), czy powstający w Hiszpanii jego następca – DEMO (Demonstration Power Plant), wykorzystują silne pole magnetyczne do uwięzienia plazmy, w której zachodzą reakcje syntezy lekkich jąder atomowych. By umożliwić efektywne zachodzenie reakcji syntezy, plazmę należy podgrzać do temperatury dziesiątek milionów stopni Celsjusza. Aby zapewnić stabilne działanie urządzenia, konieczna jest precyzyjna diagnostyka pola magnetycznego. Ze względu na działające na znajdującą się we wnętrzu reaktora elektronikę warunki, takie jak wysoka temperatura (rzędu kilkuset °C) czy silne promieniowanie neutronowe, większość komercyjnie dostępnych półprzewodnikowych czujników pola magnetycznego nie jest w stanie pracować w takich układach. Z tego powodu prowadzone są badania nad detektorami metalowymi, opartymi o chrom czy bizmut. Niestety, detektory oparte o nie mają niską czułość i duży przekrój czynny na oddziaływanie z neutronami.
      Interesującą alternatywą wydają się być detektory wykonane w technologii kwaziswobodnego grafenu epitaksjalnego na węgliku krzemu. Warstwy grafenu mogą być formowane w bardzo czułe sensory efektu Halla: jeżeli przewodnik, przez który płynie prąd elektryczny, znajduje się w polu magnetycznym, pojawia się w nim różnica potencjałów – tzw. napięcie Halla, które może posłużyć do pomiaru pola magnetycznego. Zbadana została już odporność grafenu na promieniowanie. Badania przeprowadzono wykorzystując zarówno wiązki jonów, protonów, jak i elektronów, i nie wykryto istotnych zmian właściwości napromienionych próbek. Przewidywania teoretyczne sugerują, że podobnie grafen reaguje na promieniowanie neutronowe, jednak nigdy wcześniej nie zostało to bezpośrednio potwierdzone eksperymentalnie.
      W pracy, która ukazała się na łamach czasopisma Applied Surface Science, zbadano wpływ prędkich neutronów na układ detektora opartego na grafenie. Instytut Mikroelektroniki i Fotoniki (IMiF) funkcjonujący w Sieci Badawczej Łukasiewicz wytworzył strukturę składającą się z grafenu na wysyconej atomami wodoru powierzchni węglika krzemu 4H-SiC(0001). Całość pokryto dielektryczną pasywacją z tlenku glinu, stanowiącą zabezpieczenie środowiskowe warstwy aktywnej detektora – mówi dr inż. Tymoteusz Ciuk, kierujący pracami w Łukasiewicz-IMiF. Tak przygotowany układ został następnie poddany napromienieniu neutronami prędkimi wewnątrz rdzenia reaktora MARIA w NCBJ.
      Zamontowana w rdzeniu reaktora MARIA unikatowa instalacja do napromieniania neutronami prędkimi pozwala nam przeprowadzać badania materiałów, bądź podzespołów przewidywanych do wykorzystania w układach termojądrowych, w których także są generowane prędkie neutrony – opowiada dr inż. Rafał Prokopowicz, kierownik Zakładu Badań Reaktorowych NCBJ, współautor pracy. W przypadku badań nad strukturami detekcyjnymi z grafenu, próbki napromienialiśmy przez ponad 120 godzin neutronami prędkimi o fluencji rzędu 1017 cm–2, by oddać warunki, na jakie narażona jest elektronika w instalacjach termojądrowych – dodaje mgr Maciej Ziemba z Zakładu Badań Reaktorowych. „Aby zapewnić bezpieczeństwo badań, testy podzespołów wykonano, gdy aktywność próbek nie stanowiła już zagrożenia, czyli po kilku miesiącach od napromienienia”.
      Zarówno przed napromienieniem, jak i po napromienieniu próbek, w Instytucie Fizyki Politechniki Poznańskiej dokładnie zbadano ich strukturę i właściwości elektryczne. Wykorzystano do tego spektroskopię Ramana, badania efektu Halla, jak również wielkoskalowe modelowanie z użyciem teorii funkcjonału gęstości (DFT – density functional theory). Dodatkowo, naukowcy z Politechniki Poznańskiej przeprowadzili charakteryzację napromienionych struktur po ich wygrzewaniu w temperaturze od 100 do 350°C, by zbadać działanie temperatury, w połączeniu z wpływem prędkich neutronów, na właściwości elektryczne. Dzięki testom wykryto na przykład, że z powodu promieniowania, w materiale pojawia się zależność właściwości elektrycznych od temperatury, która nie występowała przed umieszczeniem próbek w strumieniu neutronów – wyjaśnia dr inż. Semir El-Ahmar, kierujący badaniami na Politechnice Poznańskiej. Co więcej, promieniowanie neutronowe powoduje zmniejszenie gęstości nośników ładunku w badanej strukturze. Okazuje się jednak, że odpowiada za to warstwa wodoru, a więc napromienienie jedynie w umiarkowanym stopniu wpływa na strukturę i właściwości grafenu.
      Na podstawie charakteryzacji właściwości badanych struktur przed napromienieniem i po ich napromienieniu, oceniono odporność grafenu na promieniowanie neutronowe jako bardzo dobrą. Gęstość uszkodzeń radiacyjnych była 7 rzędów wielkości mniejsza, niż wartość strumienia neutronów, co oznacza dość niski przekrój czynny grafenu na oddziaływanie z neutronami prędkimi. Mimo, iż wystąpiły uszkodzenia struktury spowodowane promieniowaniem, to w porównaniu z detektorami bazującymi na metalach, czułość układu z grafenem na pole magnetyczne pozostaje kilka rzędów wielkości większa – podsumowuje wyniki dr El-Ahmar. Dodatkowo, okazało się, że duża część uszkodzeń była związana nie z samymi warstwami grafenu, a z warstwą wodoru, która z kolei przy temperaturach powyżej 200°C, jakie będą panować w instalacjach takich jak DEMO, wykazuje wręcz pewien potencjał samo-naprawczy. Z uwagi na to, grafenowe detektory pola magnetycznego mogą stanowić obiecujące struktury do wykorzystania w reaktorach termojądrowych.
      Nad zastosowaniem grafenu jako bazy przy detekcji pola magnetycznego w instalacjach termojądrowych prowadzone będą dalsze badania. Naukowcy rozważają wykorzystanie innego typu podłoża – np. 6H-SiC(0001), na którym formowana struktura może być bardziej odporna na promieniowanie neutronowe. Rozważane jest też zastąpienie warstwy wodoru buforową warstwą atomów węgla.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Reintrodukcja bobrów, niedźwiedzi czy żubrów znacząco poprawiłaby stan światowych ekosystemów. Zamówiony przez ONZ raport wykazał, że przywrócenie dużych ssaków może pomóc w walce z ociepleniem klimatu, poprawi stan zdrowia ekosystemów i przywróci bioróżnorodność. By osiągnąć ten cel w skali świata wystarczy reintrodukcja zaledwie 20 gatunków, których historyczne zasięgi zostały dramatycznie zredukowane przez człowieka.
      Jeśli pozwolimy powrócić tym zwierzętom, to dzięki ich obecności pojawią się warunki, które z czasem spowodują, że gatunki te pojawią się na 1/4 powierzchni planety, a to z kolei rozszerzy zasięgi innych gatunków i odbuduje ekosystemy, dzięki czemu zwiększy się ich zdolność do wychwytywania i uwięzienia węgla atmosferycznego.
      Przywracanie gatunków nie jest jednak proste. Pojawia się bowiem zarówno pytanie, który z historycznych zasięgów gatunku należy uznać za pożądany. Niektórzy obawiają się też reintrodukcji dużych drapieżników, jak np. wilki, twierdząc, że niesie to ze sobą zagrożenie dla ludzi i zwierząt hodowlanych. Badania pokazują jednak, że duże drapieżniki, wpływając na roślinożerców, doprowadzają do zwiększenia zarówno pokrywy roślinnej, jak i innych gatunków. Z kolei przywracanie historycznych zasięgów roślinożerców powoduje, że roznoszą oni nasiona, pomagają w obiegu składników odżywczych oraz zmniejszają zagrożenie pożarowe poprzez wyjadanie roślinności.
      Autorzy najnowszych badań postanowili sprawdzić, gdzie przywrócenie dużych ssaków przyniosłoby największe korzyści i w jaki sposób można to osiągnąć. Okazało się, że wystarczy reintrodukcja 20 gatunków – 13 roślinożerców i 7 drapieżników – by na całej planecie odrodziła się bioróżnorodność. Te 20 gatunków to niewiele jak na 298 gatunków dużych ssaków żyjących na Ziemi.
      Badania wykazały, że obecnie jedynie w 6% obszarów zasięg dużych ssaków jest taki, jak przed 500 laty. Okazuje się również, że tylko w odniesieniu do 16% planety można stwierdzić, że znajdują się tam gatunki ssaków, na których zasięg nie mieliśmy większego wpływu.
      Naukowcy przyjrzeli się następnie poszczególnym regionom, by określić, ile pracy trzeba włożyć, by przywrócić w nich bioróżnorodnośc. Okazało się, że w większości Azji północnej, północnej Kanady oraz w częściach Ameryki Południowej i Afryki wystarczyłoby wprowadzić jedynie po kilka gatunków dużych ssaków, by przywrócić bioróżnorodność z przeszłości.
      I tak Europie przywrócenie bobra, wilka, rysia, renifera i żubra pozwoliłoby na powrót bioróżnorodności w 35 regionach, w których gatunki te zostały wytępione. Podobnie jest w Afryce, gdzie reintrodukcja hipopotama, lwa, sasebiego właściwego, likaona i geparda doprowadziłaby do dwukrotnego zwiększenia obszarów o zdrowej populacji ssaków w 50 ekoregionach. W Azji, po reintrodukcji tarpana dzikiego oraz wilka w Himalajach doszłoby do zwiększenia zasięgów zdrowych populacji o 89% w 10 ekoregionach. Z kolei w Ameryce Północnej do znacznego poprawienia stanu ekosystemów wystarczyłaby reintrodukcja niedźwiedzia brunatnego, bizona, rosomaka oraz niedźwiedzia czarnego.
      Reintrodukcja gatunków miałaby olbrzymie znaczenie nie tylko dla ekosystemu, ale i dla uratowania ich samych. Na przykład jednym ze zidentyfikowanych 20 kluczowych gatunków jest gazelka płocha, występująca na Saharze. Obecnie to gatunek krytycznie zagrożony, na świecie pozostało zaledwie około 200–300 osobników. Największym zagrożeniem dla niej są zaś działania człowieka – polowania i utrata habitatów.
      Przywrócenie wielu ze wspomnianych gatunków nie będzie jednak proste. Trzeba by np. zabronić polowań na nie i zapobiegać dalszej utracie habitatu. Ponadto wiele z ekoregionów poprzedzielanych jest granicami państwowymi, więc przywracanie gatunków i bioróżnorodności wymagałoby współpracy międzynarodowej.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Historia naszej planety, to historia 4,5 miliarda lat schładzania się. Dzięki temu, że Ziemia stygnie, uformowała się jej sztywna skorupa i mogło powstać życie. Jednocześnie dzięki temu, że nie wystygła, istnieją takie procesy jak tektonika płyt i wulkanizm. Gdy wnętrze planety wystygnie, te kluczowe procesy zatrzymają się. Nie wiemy jednak, jak szybko nasza planeta się wychładza i kiedy procesy przebiegające w jej wnętrzu zatrzymają się.
      Odpowiedzią na te pytania może dać zbadanie przewodnictwa cieplnego minerałów znajdujących się na granicy między jądrem a płaszczem Ziemi. To bardzo ważne miejsce, w którym lepkie skały mają bezpośredni kontakt z płynnym zbudowanym głównie z niklu i żelaza zewnętrznym jądrem. Gradient temperatury pomiędzy jądrem zewnętrznym a płaszczem jest bardzo duży, zatem potencjalnie może tam przepływać sporo ciepła. Warstwa graniczna zbudowana jest głownie z bridgmanitu.
      Profesor Motohiko Murakami ze Szwajcarskiego Instytutu Technologicznego w Zurichuy (ETH Zurich) wraz z naukowcami z Carnegie Institute for Science opracowali złożony system pomiarowy, który pozwolił im na wykonanie w laboratorium oceny przewodnictwa cieplnego bridgmanitu w warunkach ciśnienia i temperatury, jakie panują we wnętrzu Ziemi. Wykorzystali przy tym niedawno opracowaną technikę optycznego pomiaru absorpcji diamentu podgrzewanego impulsami laserowymi.
      Dzięki tej nowej technice wykazaliśmy, że przewodnictwo cieplne bridgmanitu jest około 1,5-razy większe niż się przyjmuje, mówi profesor Murakami. To zaś wskazuje, że przepływ ciepła pomiędzy jądrem a płaszczem jest większy. A większy przepływ ciepła oznacza, że konwekcja w płaszczu zachodzi szybciej i Ziemia szybciej się ochładza. Tektonika płyt może więc w rzeczywistości spowalniać szybciej, niż się obecnie przyjmuje.
      Grupa Murakami wykazała jednocześnie, że szybsze wychładzanie się płaszcza zmieni fazy minerałów na granicy jądra i płaszcza. Schładzający się bridgmanit zmieni się w minerał, który będzie jeszcze efektywniej przewodził ciepło, zatem stygnięcie Ziemi jeszcze bardziej przyspieszy.
      Wyniki naszych badań rzucają nowe światło na ewolucję dynamiki Ziemi. Wskazują, że Ziemia, podobnie jak Merkury czy Mars, schładza się szybciej i stanie się szybciej nieaktywna, wyjaśnia Murakami.
      Trudno jednak powiedzieć, ile czasu minie zanim ruchy konwekcyjne w płaszczu ustaną. Wciąż wiemy zbyt mało, by określić, kiedy do tego dojdzie, przyznają naukowcy. Żeby się tego dowiedzieć, uczeni muszą najpierw lepiej rozpoznać w czasie i przestrzeni procesy konwekcyjne w płaszczu. Ponadto muszą wiedzieć, jak rozpad pierwiastków radioaktywnych we wnętrzu Ziemi, który jest jednym z głównych źródeł ciepła, wpływa na dynamikę procesów płaszcza.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Naukowcy z Big Bear Solar Observatory, Instituto de Astrofísica de Canarias oraz New York University poinformowali, że Ziemia pociemniała w wyniku zmian klimatycznych. Główną zaś przyczyną zmniejszonego współczynnika odbicia naszej planety są ogrzewające się oceany. Na potrzeby swoich badań uczeni wykorzystali dane z 20 lat (1998–2017) pomiarów światła popielatego oraz pomiary satelitarne. Okazało się, że w tym czasie doszło do znacznego spadku albedo – stosunku światła padającego do odbitego – Ziemi.
      Światło popielate to światło odbite od Ziemi, które pada na nieoświetloną przez Słońce powierzchnię Srebrnego Globu. Możemy z łatwością zaobserwować je w czasie, gdy Księżyc widoczny jest jako cienki sierp o zmierzchu lub świcie. Widzimy wtedy słabą poświatę na pozostałej części jego tarczy. To właśnie światło popielate, odbite od naszej planety światło słoneczne, które dotarł do Księżyca.
      Obecnie, jak czytamy na łamach pisma Geophysical Research Letters wydawanego przez American Geophysical Union, Ziemia odbija o około 0,5 W na m2 mniej światła niż przed 20 laty, a do największego spadku doszło na przestrzeni 3 ostatnich lat badanego okresu. Taka wartość oznacza, że współczynnik odbicia naszej planety zmniejszył się o około 0,5%. Ziemia odbija około 30% padającego na nią światła słonecznego.
      Taki spadek albedo był dla nas zaskoczeniem, gdyż przez wcześniejszych 17 lat utrzymywało się ono na niemal stałym poziomie, mówi Philip Goode z Big Bear Solar Observatory.
      Na albedo planety wpływają dwa czynniki, jasność jej gwiazdy oraz współczynnik odbicia samej planety. Badania wykazały zaś, że obserwowane zmiany albedo Ziemi nie są skorelowane ze zmianami jasności Słońca, a to oznacza, że przyczyna zmian albedo znajduje się na samej Ziemi.
      Jak wykazały dalsze analizy, satelity pracujące w ramach projektu Clouds and the Earth’s Radiant Energy System (CERES) zarejestrowały spadek pokrywy nisko położonych jasnych chmur tworzących się nad wschodnią częścią Pacyfiku. Do spadku tego doszło u zachodnich wybrzeży obu Ameryk. Z innych zaś badań wiemy, że w tamtym regionie szybko rośnie temperatura wód powierzchniowych oceanu, a zjawisko to spowodowane jest zmianami w dekadowej oscylacji pacyficznej (PDO). Zaś zmiany te są najprawdopodobniej wywołane globalnym ociepleniem.
      Zmniejszenie współczynnika odbicia oznacza również, że w całym ziemskim systemie zostaje uwięzione więcej energii słonecznej niż wcześniej. To może dodatkowo napędzać globalne ocieplenie.
      Specjaliści zauważają, że to niepokojące zjawisko. Jakiś czas temu naukowcy meli nadzieję, że globalne ocieplenie doprowadzi do pojawienia się większej ilości chmur i zwiększenia albedo Ziemi, co złagodzi wpływ człowieka na klimat i go ustabilizuje. Tymczasem okazało się, że chmur tworzy się mniej, przez co albedo spada.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...