
Zostało 21 lat do katastrofy. Australijski raport klimatyczny to dzwonek alarmowy
dodany przez
KopalniaWiedzy.pl, w Nauki przyrodnicze
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Inżynierowie lotniczy i kosmiczni z MIT odkryli, że sposób, w jaki emisja gazów cieplarnianych wpływa na atmosferę, zmniejszy liczbę satelitów, które można będzie umieścić na niskiej orbicie okołoziemskiej (LEO). Na łamach Nature Sustainability stwierdzają, że rosnąca emisja gazów cieplarnianych zmniejsza zdolność atmosfery do usuwania odpadków krążących wokół Ziemi.
Badacze zauważyli, że dwutlenek węgla i inne gazy cieplarniane powodują, iż górne warstwy atmosfery się kurczą. Głównie interesuje ich termosfera, w której krąży Międzynarodowa Stacja Kosmiczna i większość satelitów. Gdy termosfera się kurczy, jej zmniejszająca się gęstość prowadzi do zmniejszenia oporów, a to właśnie opór aerodynamiczny jest tym czynnikiem, który powoduje, że kosmiczne śmieci – chociażby pozostałości po nieczynnych satelitach – opadają w kierunku Ziemi i płoną w atmosferze. Mniejszy opór oznacza, że odpady takie będą dłużej znajdowały się na orbicie, zatem ich liczba będzie rosła, a to zwiększa ryzyko kolizji z działającymi satelitami i innymi urządzeniami znajdującymi się w tych samych rejonach.
Naukowcy przeprowadzili symulacje, których celem było sprawdzenie, jak emisja dwutlenku węgla wpłynie na górne partie atmosfery i astrodynamikę. Wynika z nich, że do roku 2100 pojemność najpopularniejszych regionów orbity zmniejszy się o 50–66 procent właśnie z powodu gazów cieplarnianych.
Nasze zachowanie na Ziemi w ciągu ostatnich 100 lat wpływa na to, w jaki sposób będziemy używali satelitów przez kolejnych 100 lat, mówi profesor Richard Linares z Wydziału Aeronautyki i Astronautyki MIT. Emisja gazów cieplarnianych niszczy delikatną równowagę górnych warstw atmosfery. Jednocześnie gwałtownie rośnie liczba wystrzeliwanych satelitów, szczególnie telekomunikacyjnych, zapewniających dostęp do internetu. Jeśli nie będziemy mądrze zarządzali satelitami i nie ograniczymy emisji, orbita stanie się zbyt zatłoczona, co będzie prowadziło do większej liczby kolizji i większej liczby krążących na niej szczątków, dodaje główny autor badań, William Parker.
Termosfera kurczy się i rozszerza w 11-letnich cyklach, związanych z cyklami aktywności słonecznej. Gdy aktywność naszej gwiazdy jest niska, do Ziemi dociera mniej promieniowania, najbardziej zewnętrzne warstwy atmosfery tymczasowo się ochładzają i kurczą. W okresie zwiększonej aktywności słonecznej są one cieplejsze i rozszerzają się.
Już w latach 90. naukowcy stworzyli modele, z których wynikało, że w miarę ocieplania się klimatu na Ziemi, górne warstwy atmosfery będą się schładzały, co doprowadzi do kurczenia się termosfery i zmniejszania jej gęstości.
W ciągu ostatniej dekady nauka zyskała możliwość precyzyjnych pomiarów oporu aerodynamicznego działającego na satelity. Pomiary te pokazały, że termosfera kurczy się w odpowiedzi na zjawisko wykraczające poza naturalny 11-letni cykl. Niebo dosłownie spada, w tempie liczonych w dziesięcioleciach. A widzimy to na podstawie zmian oporów doświadczanych przez satelity, wyjaśnia Parker.
Naukowcy z MIT postanowili sprawdzić, w jaki sposób to zmierzone zjawisko wpłynie na liczbę satelitów, które można bezpiecznie umieścić na niskiej orbicie okołoziemskiej. Ma ona wysokość do 2000 kilometrów nad powierzchnią Ziemi. Obecnie na orbicie tej znajduje się ponad 10 000 satelitów. Ich liczba jest już tak duża, że operatorzy satelitów standardowo muszą wykonywać manewry unikania kolizji. Każda taka kolizja oznacza nie tylko zniszczenie satelity, ale też pojawienie się olbrzymiej liczby szczątków, które będą krążyły na orbicie przez kolejne dekady i stulecia, zwiększając ryzyko kolejnych kolizji.
W ciągu ostatnich 5 lat ludzkość umieściła na LEO więcej satelitów, niż przez wcześniejszych 60 lat. Jednym z głównych celów badań było sprawdzenie, czy sposób, w jaki obecnie prowadzimy działania na niskiej orbicie okołoziemskiej można będzie utrzymać w przyszłości. Naukowcy symulowali różne scenariusze emisji gazów cieplarnianych i sprawdzali, jak wpływa to na gęstość atmosfery i opór aerodynamiczny. Następnie dla każdego z tych scenariuszy sprawdzali jego wpływ na astrodynamikę i ryzyko kolizji w zależności od liczby obiektów znajdujących się na orbicie. W ten sposób obliczali „zdolność ładunkową” orbity. Podobnie jak sprawdza się, ile osobników danego gatunku może utrzymać się w danym ekosystemie.
Z obliczeń wynika, że jeśli emisja gazów cieplarnianych nadal będzie rosła, to liczba satelitów, jakie można umieścić na wysokości od 200 do 1000 kilometrów nad Ziemią będzie o 50–66 procent mniejsza niż w scenariuszu utrzymania poziomu emisji z roku 2000. Jeśli „zdolność ładunkowa” orbity zostanie przekroczona, nawet lokalnie, dojdzie do całej serii kolizji, przez co pojawi się tyle szczątków, że orbita stanie się bezużyteczna.
Autorzy badań ostrzegają, że niektóre regiony orbity już zbliżają się do granicy ich „zdolności ładunkowej”. Dzieje się tak głównie przez nowy trend, budowanie megakonstelacji olbrzymiej liczby małych satelitów, takich jak Starlink SpaceX.
Polegamy na atmosferze, która oczyszcza orbitę z pozostawionych przez nas odpadów. Jeśli atmosfera się zmienia, zmienia się też środowisko, w którym znajdują się odpady. Pokazujemy, że długoterminowe możliwości usuwania odpadów z orbity są uzależnione od zmniejszenia emisji gazów cieplarnianych, podsumowuje Richard Linares.
Specjaliści szacują, że obecnie na orbicie znajduje się 40 500 odpadków o rozmiarach większych niż 10 cm, 1 milion 100 tysięcy odpadków wielkości od 1 do 10 cm oraz 130 milionów śmieci wielkości od 1 mm do 1 cm. Nawet te najmniejsze odpady stanowią duże zagrożenie. Średnia prędkość kolizji, do jakich między nimi dochodzi, to 11 km/s czyli około 40 000 km/h.
« powrót do artykułu -
przez KopalniaWiedzy.pl
W grudniu 2020 roku miała miejsce spektakularna katastrofa. Zawalił się jeden z najbardziej znanych instrumentów naukowych na świecie, radioteleskop w Arecibo. W raporcie opublikowanym właśnie przez amerykańskie Narodowe Akademie Nauk czytamy, że główną przyczyną katastrofy było – wywołane potężnym promieniowaniem elektromagnetycznym – zmęczenie cynku w mocowaniach lin nośnych, które utrzymywały 900-tonową platformę odbiornika na wysokości 120 metrów nad czaszą radioteleskopu.
Już wcześniejsze raporty wspominały o deformacji cynku, ale jako możliwe przyczyny katastrofy wskazywano też błędy konstrukcyjne czy uszkodzenia przez huragan Maria, który przeszedł w 2017 roku.
Inspekcja wykonana po przejściu huraganu znalazła dowody na ślizganie się lin nośnych, jednak – jak dowiadujemy się z obecnego raportu – nie odnotowano wówczas wzorców zużycia i większości nie wyjaśniono. Ponadto na zdjęciach z roku 2019 widoczne jest poważne zużycie uchwytów lin, miejsc w których były one mocowane. Mimo to nie przeprowadzono żadnych badań. Zaskoczyło to autorów raportu. Ich zdaniem niepokojący jest fakt, że inżynierowie wynajęci do badania stanu lin pomiędzy przejściem huraganu Maria a zawaleniem się teleskopu nie wszczęli alarmu z powodu zauważonego zużycia elementów nośnych.
Główną przyczyną katastrofy była deformacja cynkowych uchwytów lin. W wyniku olbrzymich naprężeń i pod wpływem temperatury doszło do ich deformacji oraz pękania drutów w linach, co osłabiało miejsca mocowania lin. Za główną zaś przyczynę deformacji uznano generowane przez teleskop promieniowanie elektromagnetyczne. Zdaniem badaczy, potężne nadajniki teleskopu indukowały w linach i miejscach mocowania prąd elektryczny, który wywoływał długoterminową elektroplastyczność cynku, co znacząco przyspieszało naturalne zmęczenia materiału.
Twórcy raportu dodają, że – o ile im wiadomo – mamy tu do czynienia z pierwszym w historii udokumentowanym przypadkiem awarii wywołanej pełzaniem cynku. Dlatego też w raporcie zaproponowano, by Narodowa Fundacja Nauki, do której należy Arecibo, przekazała pozostałe liny i ich uchwyty społeczności naukowej, w celu dalszych badań zjawiska zmęczenia cynku pod wpływem silnego promieniowania elektromagnetycznego.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Niemal 100 lat temu, 15 stycznia 1919 roku w Bostonie doszło do niezwykłej śmiercionośnej katastrofy. W dzielnicy North End pękł zbiornik z melasą i ulicę zalała 7-metrowa fala słodkiej cieczy, która zniszczyła wiele budynków i zabiła 21 osób oraz kilkanaście koni. Przez 100 lat naukowcy zastanawiali się, jak wolno poruszający się płyn mógł mieć tak katastrofalne skutki. Dopiero teraz udało się wyjaśnić zjawiska fizyczne stojące u podstaw śmiertelnego słodkiego tsunami.
Nicole Sharp, inżynier lotnictwa, która specjalizuje się w dynamice cieczy oraz Jordan Kennedy z Uniwersytetu Harvarda zebrali wszelkie dostępne dane na temat katastrofy, w tym doniesienia prasowe, stare mapy Bostonu czy informacje pogodowe. Przeprowadzili liczne eksperymenty dotyczące poruszania się melasy w różnych warunkach i wprowadzili uzyskane dane do modeli komputerowych. Niedawno wyniki swoich eksperymentów zaprezentowali podczas dorocznego spotkania Wydziału Dynamiki Cieszy Amerykańskiego Towarzystwa Fizycznego.
Melasa jest płynem nieniutonowskim i pseudoplastycznym. Oznacza to, że lepkość tego płynu nie jest wartością stałą, jego krzywa płynięcia nie jest funkcją liniową, a jego naprężenie stycznie nie jest stałe i maleje wraz ze wzrostem prędkości ścinania. Jednak w niższych temperaturach melasa zachowuje się bardziej jak klasyczny płyn. Eksperymenty Sharp i Kennedy'ego wykazały, że jej lepkość drastycznie wzrasta w zimnych pomieszczeniach. Przelanie 48 mililitrów melasy do cylindra miarowego zajęło nam kilkanaście minut - mówi Sharp. Biorąc pod uwagę fakt, że w czasie wypadku w Bostonie było zimno, zasięg zniszczeń stanowił poważną zagadkę. Już wkrótce po wypadku gazety spekulowały, że pod zbiornik podłożono bombę i eksplozja spowodowała szybkie rozprzestrzenianie się melasy.
Z najnowszych badań wiemy już, że znacznie lepszym wyjaśnieniem od podłożenia ładunku wybuchowego jest podstawowy przepływ horyzontalny cieczy w polu grawitacyjnym, który spowodowany jest różnicami w gęstości ośrodków. Odgrywa on znaczącą rolę wówczas gdy gęstsza ciecz rozprzestrzenia się horyzontalnie po cieczy mniej gęstej (w tym przypadku melasa po powietrzu). Podobne zjawisko obserwujemy, gdy otworzymy drzwi w ciepłym pomieszczeniu i gwałtownie wpada doń zimne powietrze. Ruch powietrza jest silny, pomimo braku wiatru. Sama gęstość melasy mogła odpowiadać za jej dużą prędkość początkową. Ważną rolę odegrała też temperatura. Zbiornik z melasą był nieco cieplejszy od otaczającego go powietrza. Gdy pękł, rozprzestrzeniająca się melasa ulagała szybkiemu schłodzeniu, przez co stawała się bardziej lepka i bardziej niebezpieczna. Melasa działała też na uwięzionych w niej ludzi jak ruchome piaski. Im bardziej próbowali się wydostać, tym bardziej w niej grzęźli. Wszystkie te czynniki spowodowały, że wypadek wiązał się z tak olbrzymimi zniszczeniami i dużą liczbą ofiar.
Pani Sharp chce teraz rozszerzyć swoją analizę o to, co działo się w zbiorniku bezpośrednio przed katastrofą, gdy na jego dno wpompowano gorącą melasę. "Przypuszczam, że powstała jakaś niesamowita mieszanina o właściwościach skomplikowanych faktem, iż lepkośc melasy ulega znacznym zmianom wraz ze zmianami temperatury" - mówi uczona.
« powrót do artykułu -
przez KopalniaWiedzy.pl
W pierścieniach drzew z francuskich Alp zauważono, że przed 14 300 laty doszło do gwałtownego wzrostu ilości radioaktywnej formy węgla, C-14. To ślad po największej znanej nam burzy słonecznej. Gdyby obecnie na Słońcu doszło do takiej burzy, miałoby to katastrofalne skutki dla naszej cywilizacji. Burza taka zniszczyłaby satelity komunikacyjne i nawigacyjne oraz spowodowała masowe uszkodzenia sieci elektroenergetycznych oraz internetu.
O wynikach badań przeprowadzonych przez brytyjsko-francuski zespół naukowy, możemy przeczytać w Philosophical Transactions of the Royal Society A. Mathematical, Physical and Engineering Sciences. Ich autorzy przeanalizowali poziom radiowęgla w pozostałościach częściowo sfosylizowanych drzew znalezionych na zniszczonym erozją brzegu rzeki Drouzet w pobliżu Gap. Zauważyli, że dokładnie 14 300 lat temu nagle wzrósł poziom C-14. Po porównaniu go do poziomu berylu, naukowcy doszli do wniosku, że wzrost ilości węgla spowodowany był olbrzymią burzą na Słońcu.
Radiowęgiel bez przerwy powstaje w górnych warstwach atmosfery w wyniku reakcji łańcuchowych zapoczątkowywanych przez promieniowanie kosmiczne. W ostatnich latach naukowcy zauważyli, że ekstremalne zjawiska na Słońcu, takie jak rozbłyski i koronalne wyrzuty masy, mogą prowadzić do nagłych krótkotrwałych wzrostów ilości energetycznych cząstek, które skutkują znaczącymi wzrostami ilości radiowęgla na przestrzeni zaledwie jednego roku, mówi główny autor badań, profesor Edouard Bard z Collège de France i CEREGE.
Burza słoneczna, której ślady pozostały w pierścieniach drzew, sprowadziłaby katastrofę na współczesną cywilizację opartą na technologii. Już przed kilkunastu laty amerykańskie Narodowe Akademie Nauk opublikowały raport dotyczący ewentualnych skutków olbrzymiego koronalnego wyrzutu masy, który zostałby skierowany w stronę Ziemi. Takie wydarzenie spowodowałoby poważne perturbacje w polu magnetycznym planety, co z kolei wywołałoby przepływ dodatkowej energii w sieciach energetycznych. Nie są one przygotowane na tak gwałtowne zmiany.
Omawiając ten raport, pisaliśmy, że mogłoby dojść do stopienia rdzeni w stacjach transformatorowych i pozbawienia prądu wszystkich odbiorców. Autorzy raportu stwierdzili, że gwałtowny koronalny wyrzut masy mógłby uszkodzić 300 kluczowych transformatorów w USA. W ciągu 90 sekund ponad 130 milionów osób zostałoby pozbawionych prądu. Mieszkańcy wieżowców natychmiast straciliby dostęp do wody pitnej. Reszta mogłaby z niej korzystać jeszcze przez około 12 godzin. Stanęłyby pociągi i metro. Z półek sklepowych błyskawiczne zniknęłaby żywność, gdyż ciężarówki mogłyby dostarczać zaopatrzenie dopóty, dopóki miałyby paliwo w zbiornikach. Pompy na stacjach benzynowych też działają na prąd. Po około 72 godzinach skończyłoby się paliwo w generatorach prądu. Wówczas stanęłyby szpitale.
Najbardziej jednak przerażającą informacją jest ta, iż taki stan mógłby trwać całymi miesiącami lub latami. Uszkodzonych transformatorów nie można naprawić, trzeba je wymienić. To zajmuje zespołowi specjalistów co najmniej tydzień. Z kolei duże zakłady energetyczne mają na podorędziu nie więcej niż 2 grupy odpowiednio przeszkolonych ekspertów. Nawet jeśli część transformatorów zostałaby dość szybko naprawiona, nie wiadomo, czy w sieciach byłby prąd. Większość rurociągów pracuje bowiem dzięki energii elektrycznej. Bez sprawnego transportu w ciągu kilku tygodni również i elektrowniom węglowym skończyłyby się zapasy. Sytuacji nie zmieniłyby też elektrownie atomowe. Są one zaprojektowane tak, by automatycznie wyłączały się w przypadku poważnych awarii sieci energetycznych. Ich uruchomienie nie jest możliwe przed usunięciem awarii.
O tym, że to nie tylko teoretyczne rozważania, świadczy chociażby fakt, że w marcu 1989 roku burza na Słońcu na 9 godzin pozbawiła prądu 6 milionów Kanadyjczyków. Z kolei najpotężniejszym tego typu zjawiskiem, jakie zachowało się w ludzkiej pamięci, było tzw. wydarzenie Carringtona z 1859 roku. Kilkanaście godzin po tym, jak astronom Richard Carrington zaobserwował dwa potężne rozbłyski na Słońcu, Ziemię zalało światło zórz polarnych. Przestały działać telegrafy, doszło do pożarów drewnianych budynków stacji telegraficznych, a w Ameryce Północnej, gdzie była noc, ludzie mogli bez przeszkód czytać gazety. Igły kompasów poruszały się w sposób niekontrolowany, a zorze polarne było widać nawet w Kolumbii.
Obecnie ucierpiałyby nie tylko sieci elektromagnetyczne, ale również łączność internetowa. Na szczególne niebezpieczeństwo narażone byłyby kable podmorskie, a konkretnie zainstalowane w nich wzmacniacze oraz ich uziemienia. Więc nawet gdy już uda się przywrócić zasilanie, problemem będzie funkcjonowanie globalnego internetu, bo naprawić trzeba będzie dziesiątki tysięcy kilometrów kabli.
Bezpośrednie pomiary aktywności Słońca za pomocą instrumentów naukowych ludzkość rozpoczęła dopiero w XVII wieku od liczenia plam słonecznych. Obecnie mamy dane z obserwatoriów naziemnych, teleskopów kosmicznych i satelitów. To jednak nie wystarczy, gdyż pozwala na zanotowanie aktywności Słońca na przestrzeni ostatnich kilkuset lat. Badania radiowęgla w pierścieniach drzew, w połączeniu z badaniem berylu w rdzeniach lodowych to najlepszy sposób na poznanie zachowania naszej gwiazdy w bardziej odległej przeszłości, mówi profesor Bard.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Polskie konsorcjum opracowało Mobilną Platformą Kryminalistyczną (MPK) do szybkiego zbierania i analizowania danych z miejsca ataku terrorystycznego czy katastrofy. Składa się ona z 6 modułów, które umożliwiają dokumentowanie miejsca zdarzenia, wykonanie badań biologicznych i daktyloskopijnych, analizy zabezpieczonych telefonów komórkowych i nagrań z monitoringu oraz rekonstrukcję zdarzeń na podstawie danych balistycznych.
W skład konsorcjum wchodziły Politechnika Warszawska, Wydział Samochodów i Maszyn Roboczych (lider), Wojskowe Zakłady Łączności Nr 1 SA i spółka Hagmed.
MPK jest laboratorium kryminalistycznym zainstalowanym w rozkładanym kontenerze. Może być zasilana z sieci energetycznej lub przez autonomiczny system z wbudowanym agregatem prądotwórczym i układem podtrzymywania napięcia. Platformę wyposażono w układ samopoziomowania, a także automatyczną klimatyzację i wentylację.
Dzięki modułowi do dokumentowania miejsca zdarzenia można stworzyć mapę terenu. Wykorzystywane są do tego skanowanie laserowe 3D i fotografie wykonywane przez dron.
Moduł do badań biologicznych pozwala na ustalenie profilu DNA sprawcy i/lub ofiar. Posiadając zabezpieczony przedmiot z miejsca zdarzenia, można pobrać z niego próbkę DNA, określić jej profil i przesłać go do przeszukania w kryminalistycznych bazach danych (Baza DNA). Możliwe jest również stworzenie lokalnej bazy eliminacyjnej osób biorących udział w oględzinach. To pozwala oddzielić ich ślady od śladów dowodowych pochodzących od sprawców i ofiar katastrofy - wyjaśniono w komunikacie prasowym Politechniki Warszawskiej (PW).
Moduł do badań daktyloskopijnych służy do ujawnienia śladów na zabezpieczonym przedmiocie i przesłania ich do przeszukania w bazach danych (ang. Automated Fingerprint Identification System, AFIS). Tak jak w module do badań biologicznych, możliwe jest stworzenie bazy eliminacyjnej.
Głównym zadaniem Mobilnej Platformy Kryminalistycznej jest udzielenie wsparcia grupom śledczym dokonującym oględzin rozległego i skomplikowanego pod względem kryminalistycznym miejsca zdarzenia bezpośrednio w jego sąsiedztwie. Mobilne laboratorium kontenerowe, bez względu na jego konfigurację, nie jest w stanie w pełni zastąpić stacjonarnego laboratorium kryminalistycznego, ale daje możliwość szybkiej weryfikacji wytypowanego materiału dowodowego - wyjaśnia dr hab. inż. Jędrzej Mączak z PW.
Ta wersja platformy jest dopasowana do szczegółowych wymagań policji, ale dzięki modułowej budowie można ją też konfigurować pod kątem potrzeb innych zamawiających.
Projekt zdobył główną nagrodę na Międzynarodowych Targach Policji i Bezpieczeństwa Publicznego POLSECURE 2022.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.