Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Powierzchnia rzek i strumieni jest znacznie większa niż sądzono

Recommended Posts

Badacze z University of North Carolina (UNC) i Texas A&M wykorzystali zdjęcia satelitarne, pomiary terenowe oraz metody statystyczne, by dowiedzieć się, jak duża część powierzchni naszej planety jest pokryta rzekami i strumieniami. Z ich obliczeń wynika, że powierzchnia cieków wodnych jest o 45% większa, niż dotychczas sądzono.

Rzeki i strumienie są ważnym źródłem emisji gazów cieplarnianych, zatem znajomość ich powierzchni jest ważna dla zrozumienia emisji węgla.

W sytuacji, w której staramy się uniknąć zmian klimatycznych, ważne jest, by rozumieć, co się dzieje z węglem, który emitujemy, a do tego z kolei konieczne jest dokładne policzenie globalnego cyklu obiegu węgla, mówi Tamlin Pavelski z UNC. Nasze badania pomogą obliczyć, ile dwutlenku węgla przedostaje się każdego roku z rzek i strumieni do atmosfery.

Wcześniejsze badania tego typu opierały się na ekstrapolacji małego zestawu danych na cały glob. Autorzy najnowszych badań byli w stanie bezpośrednio mierzyć powierzchnię zarówno największych rzek jak i najmniejszych strumieni. W ramach badań naukowcy stworzyli bazę danych Global River Widths from Landsat, która zawiera niemal 60 milionów pomiarów szerokości rzek i strumieni z całego śwaita.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      W lipcu przyszłego roku zostanie wystrzelona misja Mars 2020. Po trwającej pół roku podróży lądownik z ważącym 1 tonę łazikiem rozpocznie sekwencję lądowania na dnie dawnego jeziora. Na miejsce lądowania wybrano Krater Jezero.
      Lądowanie będzie najbardziej ryzykownym i najmniej przewidywalnym momentem całej misji. Ci, którzy pamiętają słynne „7 minut horroru” podczas lądowania łazika Curiosity mogą wzruszyć ramionami sądząc, że NASA po prostu powtórzy to, co zrobiła w 2012 roku. Jednak pomiędzy oboma lądowaniami jest pewna zasadnicza różnica. Curiosity lądował w bezpiecznym płaskim terenie Krateru Gale. Mars 2020 wyląduje w miejscu znacznie trudniejszym, pełnym głazów i innych niebezpieczeństw.
      Aby zwiększyć powodzenie przyszłorocznego lądowania misję Mars 2020 wyposażono w technologię Terrain Relative Navigation, czyli autopilota. Autopilot ten to efekt 15 lat pracy inżyniera Andrew Johnsona z Jet Propulsion Laboratory. Specjalista pracował przez 15 lat nad urządzeniem, które będzie potrzebne przez... 10 sekund. Jednak te 10 sekund zdecydują o tym, czy lądowanie na Marsie się uda czy też nie, mówi Johnson.
      Gdy łazik znajdzie się na wysokości 4,2 kilometra nad powierzchnią Marsa i będzie opadał na spadochronach, jego komputer pokładowy zacznie szybko wykonywać fotografie powierzchni Czerwonej Planety. Rozdzielczość każdego zdjęcia będzie wynosiła 6 metrów na piksel, a system lądowania będzie je analizował, szukając głazów, szczelin, kraterów, klifów i innych przeszkód. Fotografie te zostaną też porównane ze zdjęciami wykonanymi wcześniej z orbity. Gdy komputer pokładowy zidentyfikuje 15 charakterystycznych cech terenu, przełączy swój system wizyjny na większą rozdzielczość.
      Na całą opisaną powyżej sekwencję będzie tylko 10 sekund. W tym czasie muszą zostać wykonane zdjęcia, ma być przeprowadzona ich analiza, komputer dokona oceny miejsca lądowania, porówna przewidywane miejsce lądowania z tym, wybranym na podstawie zdjęć z orbity i zdecyduje, czy należy zmieć tor lotu. Wszystko w ciągu wspomnianych 10 sekund, gdyż po tym, gdy od lądownika oddzieli się osłona termiczna nie będzie możliwe dokonywanie żadnych korekt lotu.
      To wszystko może wyglądać na niepotrzebne ryzyko i komplikowanie sekwencji lądowania, ale ma swoje głębokie uzasadnienie. O ile bowiem wcześniej łazik był w stanie określić swoje miejsce lądowania z dokładnością do 3000 metrów, nowa technologia ma pozwolić na zmniejszenie marginesu błędu do zaledwie 40 metrów. I NASA nie chodzi tutaj o bicie rekordów. Tylko bowiem taka technologia pozwala nam na lądowania w tak interesujących z naukowego punktu widzenia miejscach, jak Krater Jezero, mówi Johnson.
      NASA szacuje, że bez opracowanego przez Johnsona systemu wizyjnego szansa na udane lądowanie Jezero wynosiłaby 85%. Dzięki Terrain Relative Navigation wrasta ona do 99%.
      Skąd takie zaufanie do systemu, którego nie można było nigdy wcześniej przetestować w miejscu, w którym będzie używany? Wszystko dzięki wyczerpującym testom, jakie system przechodził w kwietniu i maju bieżącego roku na Pustyni Mojave, w tym w Dolinie Śmierci. Johnson i jego koledzy odbyli ponad 600 lotów śmigłowcem na wyskości do 5 kilometrów nad Ziemią. Do śmigłowca był przyczepiony marsjański system wizyjny, którego zadaniem było wykonywanie fotografii, ich analiza, porównywanie, znalezienie miejsca do lądowania, ocena ryzyka i przeprowadzenie symulowanego lądowania.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Za trzy tygodnie zostanie przedstawione szczegółowe podsumowanie projektu Deep Carbon Observatory (DCO), prowadzonego od 10 lat przez amerykańskie Narodowe Akademie Nauk. W programie bierze obecnie udział niemal 1000 naukowców z niemal 50 krajów na świecie. Mediom udostępniono już główne wnioski z raportu, które zostały opublikowane w piśmie Elements.
      Z badań wynika, że w oceanach, najwyższej warstwie gleby oraz w atmosferze znajduje się 43 500 gigaton (Gt – miliardów ton) węgla. Cała reszta jest uwięziona w ziemskiej skorupie, płaszczu i jądrze. Całkowita ilość węgla obecnego na naszej planecie to 1,85 miliarda Gt. Każdego roku z głębi Ziemi za pośrednictwem wulkanów oraz innych aktywnych regionów emitowanych jest od 280 do 360 milionów ton (0,28–0,36 Gt) węgla. Zatem całkowita antropogeniczna emisja węgla jest od 40 do 100 razy większa, niż całkowita emisja z aktywności wulkanicznej.
      Obieg węgla w głębi planety wykazuje długoterminową stabilność. Czasami dochodzi do katastrofalnych wydarzeń, podczas których do atmosfery przedostają się duże ilości węgla, co powoduje ocieplenie klimatu, zakwaszenie oceanów oraz masowe wymieranie. W ciągu ostatnich 500 milionów lat Ziemia doświadczyła co najmniej 5 tego typu wydarzeń. Upadek meteorytu, który przed 66 miliony laty przyczynił się do zagłady dinozaurów, spowodował emisję od 425 do 1400 Gt CO2 powodując ogrzanie klimatu i masowe wymieranie roślin i zwierząt. Niewykluczone, że uda się opracować system wczesnego ostrzegania przed erupcjami wulkanicznymi, gdyż przed 5 laty zaobserwowano, iż przed wybuchem w gazach wulkanicznych zmniejsza się udział dwutlenku siarki, a zwiększa dwutlenku węgla.
      Węgiel, będący podstawą wszelkiego życia i źródłem energii dla ludzkości, obiega planetę od płaszcza po atmosferę. By zabezpieczyć naszą przyszłość, musimy lepiej zrozumieć cały cykl obiegu węgla. Kluczowe jest określenie, jak wiele jest tego węgla, gdzie on się znajduje, jak szybko i w jakiej ilości przemieszcza się pomiędzy głębokimi obszarami ziemi a atmosferą i z powrotem, mówi Marie Edmonds z University of Cambridge, która bierze udział w projekcie DCO. Z kolei Tobias Fischer z University of New Mexico przypomina, że dotychczas w ramach prac DCO powstało ponad 1500 publikacji naukowych. Cieszymy się z postępu, jednak trzeba podkreślić, że głębokie warstwy naszej planety to obszar w dużej mierze nieznany nauce. Dopiero zaczynamy zdobywać potrzebną nam wiedzę.
      Ponad powierzchnią Ziemi występuje 43 500 gigaton węgla. Niemal cały ten węgiel, bo 37 000 gigaton znajduje się w głębinach oceanów. Kolejne 3000 gigaton występuje w osadach morskich, a 2000 Gt w biosferze lądowej. W powierzchniowych wodach oceanów występuje 900 Gt węgla, a w atmosferze jest go 590 Gt.
      Eksperci z DCO oceniają też, że obecnie na Ziemi aktywnych jest około 400 z 1500 wulkanów, które były aktywne od ostatniej epoki lodowej. Kolejnych 670 wulkanów, które były aktywne przed epoką lodową, może emitować gazy. Dotychczas udokumentowano emisję ze 102 takich wulkanów, z czego 22 to wulkany, w przypadku których ostatnia erupcja miała miejsce dawniej niż 2,5 miliona lat temu. Dzięki stacjom monitorującym, modelom cyfrowym i eksperymentom wiemy, że w latach 2005–2017 mierzalne ilości CO2 emitowało do atmosfery ponad 200 systemów wulkanicznych. Jeszcze w roku 2013 ich liczbę oceniano na 150. Udokumentowano też superregiony w których dochodzi do rozproszonej emisji gazów z wnętrza Ziemi, takie jak Yellowstone, Wielki Rów Wschodni w Afryce czy wulkaniczna prowincja Technong w Chinach. Dzięki tym badaniom możliwe było stwierdzenie, że emisja z takich regionów jest porównywalna z emisją wulkaniczną

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Potężna burza geomagnetyczna, która spowoduje wyłączenia prądu, awarie satelitów i urządzeń elektrycznych jest nie do uniknięcia. Prawdopodobnie tego typu wydarzenia mają miejsce częściej, niż nam się wydaje i, bazując na najnowszych badaniach, można przypuszczać, że takiego uderzenia ze strony Słońca możemy spodziewać się prawdopodobnie w ciągu najbliższych 100 lat. Nikt nie jest jednak w stanie powiedzieć, czy nastąpi ono w następnej dekadzie czy w następnym wieku.
      Jako, że w coraz większym stopniu jesteśmy uzależnieni od technologii, burze gaomagnetyczne – związane z aktywnością Słońca – są coraz groźniejsze dla naszej cywilizacji.
      Już przed 10 laty informowaliśmy o raporcie NASA i Narodowej Akademii Nauk opisującym katastrofalne skutki, jakie mogłaby przynieść burza geomagnetyczna, czyli gwałtowna zmiana pola magnetycznego Ziemi spowodowana koronalnymi wyrzutami masy na Słońcu. Autorzy raportu szacują, że same tylko Stany Zjednoczone poniosłyby w ciągu pierwszego roku straty rzędu 2 bilionów dolarów. Przywrócenie stanu sprzed katastrofy potrwałoby 4-10 lat. Mało prawdopodobne, by nawet tak potężne państwo było w stanie całkowicie się z niej podnieść, informowaliśmy.
      Dotychczas najsilniejszą znaną nam burzą geomagnetyczną była ta z września 1859 roku, kiedy to zorza polarna była widoczna na Karaibach, doszło do awarii sieci telegraficznych i pożarów. Sądzono jednak, że tak silne wydarzenia mają miejsce raz na 500 lat. Okazuje się jednak, że zdarzają się znacznie częściej.
      Jeffrey Love i jego koledzy ze Służby Geologicznej Stanów Zjednoczonych informują na łamach Space Weather o wynikach analizy, jakiej poddali New York Railroad Storm, burzę magnetyczną z 1921 roku.
      Tego typu wydarzenia ocenia się według skali Dst (disturbance short time). To skala oceny uśrednionej aktywności pola magnetycznego Ziemi. Jeśli ulega ono osłabieniu, a tak się dzieje przy koronalnych wyrzutach masy ze Słońca, pojawiają się na niej wartości ujemne. Wartość bazowa Dst Ziemi wynosi około -20 nanotesli (nT). Wartości poniżej -250 nT są uznawane za superburzę.
      Naukowcy dysponują bardzo ograniczonym zestawem danych dotyczących burzy z 1859 roku i na tej podstawie uznają, że w tym czasie Dst wynosiło pomiędzy -850 a -1050 nT. Tymczasem, jak wynika z badań Love'a i jego zespołu, Dst podczas burzy z 1921 roku wynosiło około -907 nT. Burza z roku 1921 mogła być bardziej intensywna niż ta z roku 1859. Zanim przeprowadziliśmy badania wiedziano, że było to gwałtowne zjawisko, jednak nie wiedziano, do jakiego stopnia.
      Pomiary historycznych burz geomagnetycznych nie są proste. Obecnie dysponujemy całym szeregiem instrumentów monitorujących, jednak nasza wiedza od wydarzeniach sprzed roku 1957, kiedy to pojawił się indeks Dst, jest bardzo uboga, a dane opierają się na informacjach z różnych magnetometrów rozmieszczonych na całym świecie. Przed badaniami Love'a cała nasza wiedza o burzy z 1921 roku była oparta na danych z jednego obserwatorium na Samoa. Jednak autorom najnowszej analizy udało się dotrzeć do notatek wykonanych przez specjalistów z Australii, Hiszpanii i Brazylii. Dzięki temu mogli ocenić intensywność tego wydarzenia bardziej precyzyjnie niż wcześniej. Ich wyliczenia są też bardziej precyzyjne niż te, dotyczące burzy z 1859 roku, które opierają się na daych z jednego magnetometru w Indiach.
      Burza z 1921 roku została nazwana New York Railroad Storm od pożaru kolejowej wieży kontrolnej w Nowym Jorku, który wówczas wybuchł. Obecnie wiemy, że dowody na związek pomiędzy burzą, a tym pożarem są słabe. Jednak wiemy również, że tego samego dnia wybuchły też trzy inne wielkie pożary, które dotychczas przeoczono. Do jednego z nich doszło w wyniku pojawienia się silnych prądów indukcyjnych w telegrafach na stacji kolejowej w Brewster w stanie Nowy Jork. Stacja całkowicie spłonęła. Drugi z pożarów zniszczył centralę telefoniczną w Karlstad w Szwecji, a trzeci wybuchł w Ontario.
      Wiemy też, że burza ta przebiegła dwuetapowo. W Karlstad operatorzy centrali najpierw informowali o awarii i dymie. A gdy dym się rozwiał, nastąpił nagły pożar okablowania. Autorzy najnowszych badań dotarli tez do zapisków wskazujących, że zorzę polarną obserwowano wówczas na Samoa, w Arizonie i w pobliżu Paryża, a do awarii sieci telegraficznych i telefonicznych doszło w Wielkiej Brytanii, Nowej Zelandii, Danii, Japonii, Brazylii i Kanadzie. Wszystko zaś wskazuje na to, że mieliśmy do czynienia z wydarzeniem o średniej intensywności, które w ciągu kilku godzin znacznie się wzmocniło, powodując liczne problemy.
      Gdyby taka burza jak w 1921 roku miała miejsce dzisiaj, doszłoby to zakłócenia pracy wielu systemów. Doświadczylibyśmy wyłączeń prądu, awarii sieci telekomunikacyjnych, być może utraty niektórych satelitów. Nie twierdzę, że byłby to koniec świata, ale doszłoby do zniszczeń na wielką skalę, stwierdza Love.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Jednym z największych problemów eksploracji kosmosu jest olbrzymi koszt pokonania grawitacji Ziemi. Silniki rakietowe zużywają olbrzymie ilości paliwa na osiągnięcie odpowiedniego przyspieszenia, a samo paliwo tylko zwiększa masę, którą trzeba wynieść. Wskutek tego umieszczenie na orbicie każdego kilograma ładunku kosztuje dziesiątki tysięcy dolarów. Wyprawa w dalsze regiony to kolejne koszty. Dlatego też specjaliści od dawna zastanawiają się, w jaki sposób obniżyć te koszty.
      Jeden z pomysłów zakłada zbudowanie kosmicznej windy, kabla rozciągającego się od Ziemi na orbitę, po której można by wysyłać ładunki. Olbrzymią zaletą takiego rozwiązania byłaby możliwość wykorzystania energii słonecznej, zatem nie trzeba by było wynosić paliwa.
      Jest jednak pewien problem. Taki kabel musiałby być niezwykle wytrzymały. Zephyr Penoyre z University of Cambridge oraz Emily Sandford z Columbia University twierdzą, że już teraz istnieją komercyjnie dostępne materiały, z których taki kabel mógłby powstać. Trzeba jedynie zmienić sposób myślenia o budowie kosmicznej windy.
      Rozważana przez licznych ekspertów winda kosmiczna rozciągałaby się od Ziemi po orbitę geosynchroniczną, która znajduje się około 36 000 kilometrów nad powierzchnią naszej planety. Kabel o takiej długości miałby olbrzymią masę. Żeby nie dopuścić do jego upadku, trzeba by umocować go na orbicie do podobnej masy, a tak skonstruowana winda byłaby utrzymywana przez działające na nią siły odśrodkowe.
      Przez dziesięciolecia specjaliści prowadzili odpowiednie obliczenia i zawsze otrzymywali zniechęcające wyniki. Nie istnieje bowiem materiał wystarczająco wytrzymały, z którego można by taką windę zbudować.
      Penoyre i Sandford zaproponowali więc inne rozwiązanie. Zamiast mocować kabel do Ziemi, należy umocować go do Księżyca i opuścić w kierunku Ziemi. Różnica tkwi w sile odśrodkowej. Rozważana dotychczas winda kosmiczna wykonywałaby jeden obrót wokół planety w ciągu doby. Jednak lina mocowana do Księżyca wykonywałaby obrót raz na miesiąc, zatem działałyby na niż mniejsze siły. Co więcej, siły te byłyby inaczej rozłożone. Lina rozciągnięta od Księżyca ku Ziemi przechodziłaby przez obszar, w którym oddziaływania grawitacyjne Ziemi i Księżyca się znoszą. Obszar ten, punkt Lagrange'a, jest kluczowym elementem nowej koncepcji kosmicznej windy. Poniżej niego grawitacja ciągnie linę ku Ziemi, powyżej, ku Księżycowi.
      Penoyre i Sandford wykazali oczywiście, że nie istnieje materiał pozwalający na stworzenie liny rozciągającej się od Księżyca do Ziemi. Jednak kabel taki, by być użytecznym, nie musi być rozciągnięty na całą długość. Naukowcy wykazali, że z dostępnych obecnie polimerów węglowych można zbudować kabel rozciągający się od Księżyca po orbitę geosynchroniczną Ziemi. Tworzenie prototypowego kabla grubości rysika ołówka kosztowałoby miliardy dolarów. Nie jest to jednak coś, czego już teraz nie da się wykonać.
      Dzięki rozciągnięciu umocowanej do Księżyca liny głęboko w studnię grawitacyjną Ziemi możemy zbudować stabilną użyteczną windę kosmiczną pozwalającą na swobodne przemieszczanie się pomiędzy sąsiedztwem Ziemi a powierzchnią Księżyca, mówią Penoyre i Sandford. Wyliczają, że dzięki takiemu rozwiązaniu obecne koszty osiągnięcia powierzchni Księżyca zmniejszyłyby się o około 70%. Co więcej taka winda ułatwiłaby eksplorację  okolic punktu Lagrange'a. To niezwykle interesujący region, gdyż zarówno grawitacja jak i jej gradient wynoszą w nim 0, dzięki czemu można tam bezpiecznie prowadzić różnego typu prace konstrukcyjne. Jeśli z Międzynarodowej Stacji Kosmicznej wypadnie jakieś narzędzie, będzie ono szybko przyspieszało. W punkcie Lagrange'a gradient grawitacji jest praktycznie pomijalny, takie narzędzie przez długi czas będzie znajdowało się blisko ręki, z której wypadło, zauważają naukowcy.
      Dodatkową zaletą punktu Lagrange'a jest fakt, że w regionie tym znajduje się bardzo mało śmieci pozostawionych przez człowieka oraz innych obiektów, mogących stanowić zagrożenie dla pracujących tam ludzi oraz wznoszonych konstrukcji.
      Z tych właśnie powodów Penoyre i Sandford uważają, że dostęp do punktu Lagrange'a jest główną zaletą proponowanej przez nich windy kosmicznej. Możliwość założenia obozu w punkcie Lagrange'a to, naszym zdaniem, najważniejszy i najbardziej obiecujący element wczesnego użycia proponowanej przez nas windy kosmicznej. Taki obóz pozwoliłby na budowanie i konserwację nowej generacji sprzętu kosmicznego, czy to teleskopów, akceleratorów cząstek, wykrywaczy fal grawitacyjnych, generatorów energii, wiwariów czy platform startowych dla podboju dalszych regionów Układu Słonecznego.

      « powrót do artykułu
×
×
  • Create New...