Jump to content
Forum Kopalni Wiedzy
  • ×   Pasted as rich text.   Paste as plain text instead

      Only 75 emoji are allowed.

    ×   Your link has been automatically embedded.   Display as a link instead

    ×   Your previous content has been restored.   Clear editor

    ×   You cannot paste images directly. Upload or insert images from URL.

  • Similar Content

    • By KopalniaWiedzy.pl
      W lipcu przyszłego roku zostanie wystrzelona misja Mars 2020. Po trwającej pół roku podróży lądownik z ważącym 1 tonę łazikiem rozpocznie sekwencję lądowania na dnie dawnego jeziora. Na miejsce lądowania wybrano Krater Jezero.
      Lądowanie będzie najbardziej ryzykownym i najmniej przewidywalnym momentem całej misji. Ci, którzy pamiętają słynne „7 minut horroru” podczas lądowania łazika Curiosity mogą wzruszyć ramionami sądząc, że NASA po prostu powtórzy to, co zrobiła w 2012 roku. Jednak pomiędzy oboma lądowaniami jest pewna zasadnicza różnica. Curiosity lądował w bezpiecznym płaskim terenie Krateru Gale. Mars 2020 wyląduje w miejscu znacznie trudniejszym, pełnym głazów i innych niebezpieczeństw.
      Aby zwiększyć powodzenie przyszłorocznego lądowania misję Mars 2020 wyposażono w technologię Terrain Relative Navigation, czyli autopilota. Autopilot ten to efekt 15 lat pracy inżyniera Andrew Johnsona z Jet Propulsion Laboratory. Specjalista pracował przez 15 lat nad urządzeniem, które będzie potrzebne przez... 10 sekund. Jednak te 10 sekund zdecydują o tym, czy lądowanie na Marsie się uda czy też nie, mówi Johnson.
      Gdy łazik znajdzie się na wysokości 4,2 kilometra nad powierzchnią Marsa i będzie opadał na spadochronach, jego komputer pokładowy zacznie szybko wykonywać fotografie powierzchni Czerwonej Planety. Rozdzielczość każdego zdjęcia będzie wynosiła 6 metrów na piksel, a system lądowania będzie je analizował, szukając głazów, szczelin, kraterów, klifów i innych przeszkód. Fotografie te zostaną też porównane ze zdjęciami wykonanymi wcześniej z orbity. Gdy komputer pokładowy zidentyfikuje 15 charakterystycznych cech terenu, przełączy swój system wizyjny na większą rozdzielczość.
      Na całą opisaną powyżej sekwencję będzie tylko 10 sekund. W tym czasie muszą zostać wykonane zdjęcia, ma być przeprowadzona ich analiza, komputer dokona oceny miejsca lądowania, porówna przewidywane miejsce lądowania z tym, wybranym na podstawie zdjęć z orbity i zdecyduje, czy należy zmieć tor lotu. Wszystko w ciągu wspomnianych 10 sekund, gdyż po tym, gdy od lądownika oddzieli się osłona termiczna nie będzie możliwe dokonywanie żadnych korekt lotu.
      To wszystko może wyglądać na niepotrzebne ryzyko i komplikowanie sekwencji lądowania, ale ma swoje głębokie uzasadnienie. O ile bowiem wcześniej łazik był w stanie określić swoje miejsce lądowania z dokładnością do 3000 metrów, nowa technologia ma pozwolić na zmniejszenie marginesu błędu do zaledwie 40 metrów. I NASA nie chodzi tutaj o bicie rekordów. Tylko bowiem taka technologia pozwala nam na lądowania w tak interesujących z naukowego punktu widzenia miejscach, jak Krater Jezero, mówi Johnson.
      NASA szacuje, że bez opracowanego przez Johnsona systemu wizyjnego szansa na udane lądowanie Jezero wynosiłaby 85%. Dzięki Terrain Relative Navigation wrasta ona do 99%.
      Skąd takie zaufanie do systemu, którego nie można było nigdy wcześniej przetestować w miejscu, w którym będzie używany? Wszystko dzięki wyczerpującym testom, jakie system przechodził w kwietniu i maju bieżącego roku na Pustyni Mojave, w tym w Dolinie Śmierci. Johnson i jego koledzy odbyli ponad 600 lotów śmigłowcem na wyskości do 5 kilometrów nad Ziemią. Do śmigłowca był przyczepiony marsjański system wizyjny, którego zadaniem było wykonywanie fotografii, ich analiza, porównywanie, znalezienie miejsca do lądowania, ocena ryzyka i przeprowadzenie symulowanego lądowania.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Za trzy tygodnie zostanie przedstawione szczegółowe podsumowanie projektu Deep Carbon Observatory (DCO), prowadzonego od 10 lat przez amerykańskie Narodowe Akademie Nauk. W programie bierze obecnie udział niemal 1000 naukowców z niemal 50 krajów na świecie. Mediom udostępniono już główne wnioski z raportu, które zostały opublikowane w piśmie Elements.
      Z badań wynika, że w oceanach, najwyższej warstwie gleby oraz w atmosferze znajduje się 43 500 gigaton (Gt – miliardów ton) węgla. Cała reszta jest uwięziona w ziemskiej skorupie, płaszczu i jądrze. Całkowita ilość węgla obecnego na naszej planecie to 1,85 miliarda Gt. Każdego roku z głębi Ziemi za pośrednictwem wulkanów oraz innych aktywnych regionów emitowanych jest od 280 do 360 milionów ton (0,28–0,36 Gt) węgla. Zatem całkowita antropogeniczna emisja węgla jest od 40 do 100 razy większa, niż całkowita emisja z aktywności wulkanicznej.
      Obieg węgla w głębi planety wykazuje długoterminową stabilność. Czasami dochodzi do katastrofalnych wydarzeń, podczas których do atmosfery przedostają się duże ilości węgla, co powoduje ocieplenie klimatu, zakwaszenie oceanów oraz masowe wymieranie. W ciągu ostatnich 500 milionów lat Ziemia doświadczyła co najmniej 5 tego typu wydarzeń. Upadek meteorytu, który przed 66 miliony laty przyczynił się do zagłady dinozaurów, spowodował emisję od 425 do 1400 Gt CO2 powodując ogrzanie klimatu i masowe wymieranie roślin i zwierząt. Niewykluczone, że uda się opracować system wczesnego ostrzegania przed erupcjami wulkanicznymi, gdyż przed 5 laty zaobserwowano, iż przed wybuchem w gazach wulkanicznych zmniejsza się udział dwutlenku siarki, a zwiększa dwutlenku węgla.
      Węgiel, będący podstawą wszelkiego życia i źródłem energii dla ludzkości, obiega planetę od płaszcza po atmosferę. By zabezpieczyć naszą przyszłość, musimy lepiej zrozumieć cały cykl obiegu węgla. Kluczowe jest określenie, jak wiele jest tego węgla, gdzie on się znajduje, jak szybko i w jakiej ilości przemieszcza się pomiędzy głębokimi obszarami ziemi a atmosferą i z powrotem, mówi Marie Edmonds z University of Cambridge, która bierze udział w projekcie DCO. Z kolei Tobias Fischer z University of New Mexico przypomina, że dotychczas w ramach prac DCO powstało ponad 1500 publikacji naukowych. Cieszymy się z postępu, jednak trzeba podkreślić, że głębokie warstwy naszej planety to obszar w dużej mierze nieznany nauce. Dopiero zaczynamy zdobywać potrzebną nam wiedzę.
      Ponad powierzchnią Ziemi występuje 43 500 gigaton węgla. Niemal cały ten węgiel, bo 37 000 gigaton znajduje się w głębinach oceanów. Kolejne 3000 gigaton występuje w osadach morskich, a 2000 Gt w biosferze lądowej. W powierzchniowych wodach oceanów występuje 900 Gt węgla, a w atmosferze jest go 590 Gt.
      Eksperci z DCO oceniają też, że obecnie na Ziemi aktywnych jest około 400 z 1500 wulkanów, które były aktywne od ostatniej epoki lodowej. Kolejnych 670 wulkanów, które były aktywne przed epoką lodową, może emitować gazy. Dotychczas udokumentowano emisję ze 102 takich wulkanów, z czego 22 to wulkany, w przypadku których ostatnia erupcja miała miejsce dawniej niż 2,5 miliona lat temu. Dzięki stacjom monitorującym, modelom cyfrowym i eksperymentom wiemy, że w latach 2005–2017 mierzalne ilości CO2 emitowało do atmosfery ponad 200 systemów wulkanicznych. Jeszcze w roku 2013 ich liczbę oceniano na 150. Udokumentowano też superregiony w których dochodzi do rozproszonej emisji gazów z wnętrza Ziemi, takie jak Yellowstone, Wielki Rów Wschodni w Afryce czy wulkaniczna prowincja Technong w Chinach. Dzięki tym badaniom możliwe było stwierdzenie, że emisja z takich regionów jest porównywalna z emisją wulkaniczną

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Potężna burza geomagnetyczna, która spowoduje wyłączenia prądu, awarie satelitów i urządzeń elektrycznych jest nie do uniknięcia. Prawdopodobnie tego typu wydarzenia mają miejsce częściej, niż nam się wydaje i, bazując na najnowszych badaniach, można przypuszczać, że takiego uderzenia ze strony Słońca możemy spodziewać się prawdopodobnie w ciągu najbliższych 100 lat. Nikt nie jest jednak w stanie powiedzieć, czy nastąpi ono w następnej dekadzie czy w następnym wieku.
      Jako, że w coraz większym stopniu jesteśmy uzależnieni od technologii, burze gaomagnetyczne – związane z aktywnością Słońca – są coraz groźniejsze dla naszej cywilizacji.
      Już przed 10 laty informowaliśmy o raporcie NASA i Narodowej Akademii Nauk opisującym katastrofalne skutki, jakie mogłaby przynieść burza geomagnetyczna, czyli gwałtowna zmiana pola magnetycznego Ziemi spowodowana koronalnymi wyrzutami masy na Słońcu. Autorzy raportu szacują, że same tylko Stany Zjednoczone poniosłyby w ciągu pierwszego roku straty rzędu 2 bilionów dolarów. Przywrócenie stanu sprzed katastrofy potrwałoby 4-10 lat. Mało prawdopodobne, by nawet tak potężne państwo było w stanie całkowicie się z niej podnieść, informowaliśmy.
      Dotychczas najsilniejszą znaną nam burzą geomagnetyczną była ta z września 1859 roku, kiedy to zorza polarna była widoczna na Karaibach, doszło do awarii sieci telegraficznych i pożarów. Sądzono jednak, że tak silne wydarzenia mają miejsce raz na 500 lat. Okazuje się jednak, że zdarzają się znacznie częściej.
      Jeffrey Love i jego koledzy ze Służby Geologicznej Stanów Zjednoczonych informują na łamach Space Weather o wynikach analizy, jakiej poddali New York Railroad Storm, burzę magnetyczną z 1921 roku.
      Tego typu wydarzenia ocenia się według skali Dst (disturbance short time). To skala oceny uśrednionej aktywności pola magnetycznego Ziemi. Jeśli ulega ono osłabieniu, a tak się dzieje przy koronalnych wyrzutach masy ze Słońca, pojawiają się na niej wartości ujemne. Wartość bazowa Dst Ziemi wynosi około -20 nanotesli (nT). Wartości poniżej -250 nT są uznawane za superburzę.
      Naukowcy dysponują bardzo ograniczonym zestawem danych dotyczących burzy z 1859 roku i na tej podstawie uznają, że w tym czasie Dst wynosiło pomiędzy -850 a -1050 nT. Tymczasem, jak wynika z badań Love'a i jego zespołu, Dst podczas burzy z 1921 roku wynosiło około -907 nT. Burza z roku 1921 mogła być bardziej intensywna niż ta z roku 1859. Zanim przeprowadziliśmy badania wiedziano, że było to gwałtowne zjawisko, jednak nie wiedziano, do jakiego stopnia.
      Pomiary historycznych burz geomagnetycznych nie są proste. Obecnie dysponujemy całym szeregiem instrumentów monitorujących, jednak nasza wiedza od wydarzeniach sprzed roku 1957, kiedy to pojawił się indeks Dst, jest bardzo uboga, a dane opierają się na informacjach z różnych magnetometrów rozmieszczonych na całym świecie. Przed badaniami Love'a cała nasza wiedza o burzy z 1921 roku była oparta na danych z jednego obserwatorium na Samoa. Jednak autorom najnowszej analizy udało się dotrzeć do notatek wykonanych przez specjalistów z Australii, Hiszpanii i Brazylii. Dzięki temu mogli ocenić intensywność tego wydarzenia bardziej precyzyjnie niż wcześniej. Ich wyliczenia są też bardziej precyzyjne niż te, dotyczące burzy z 1859 roku, które opierają się na daych z jednego magnetometru w Indiach.
      Burza z 1921 roku została nazwana New York Railroad Storm od pożaru kolejowej wieży kontrolnej w Nowym Jorku, który wówczas wybuchł. Obecnie wiemy, że dowody na związek pomiędzy burzą, a tym pożarem są słabe. Jednak wiemy również, że tego samego dnia wybuchły też trzy inne wielkie pożary, które dotychczas przeoczono. Do jednego z nich doszło w wyniku pojawienia się silnych prądów indukcyjnych w telegrafach na stacji kolejowej w Brewster w stanie Nowy Jork. Stacja całkowicie spłonęła. Drugi z pożarów zniszczył centralę telefoniczną w Karlstad w Szwecji, a trzeci wybuchł w Ontario.
      Wiemy też, że burza ta przebiegła dwuetapowo. W Karlstad operatorzy centrali najpierw informowali o awarii i dymie. A gdy dym się rozwiał, nastąpił nagły pożar okablowania. Autorzy najnowszych badań dotarli tez do zapisków wskazujących, że zorzę polarną obserwowano wówczas na Samoa, w Arizonie i w pobliżu Paryża, a do awarii sieci telegraficznych i telefonicznych doszło w Wielkiej Brytanii, Nowej Zelandii, Danii, Japonii, Brazylii i Kanadzie. Wszystko zaś wskazuje na to, że mieliśmy do czynienia z wydarzeniem o średniej intensywności, które w ciągu kilku godzin znacznie się wzmocniło, powodując liczne problemy.
      Gdyby taka burza jak w 1921 roku miała miejsce dzisiaj, doszłoby to zakłócenia pracy wielu systemów. Doświadczylibyśmy wyłączeń prądu, awarii sieci telekomunikacyjnych, być może utraty niektórych satelitów. Nie twierdzę, że byłby to koniec świata, ale doszłoby do zniszczeń na wielką skalę, stwierdza Love.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W ciągu ostatnich 50 lat liczba ptaków w USA i Kanadzie zmniejszyła się o 3 miliardy. Jesteśmy zaszokowani uzyskanymi wynikami. Straciliśmy miliardy ptaków, mówi główny autor badań, Ken Rosenberg z Cornell University. Z artykułu, opublikowanego niedawno w Science, dowiadujemy się, że od roku 1970 liczba ptaków w USA i Kanadzie spadła o 29%.
      Rosenberg stał na czele zespołu naukowego składającego się ze specjalistów z siedmiu instytucji badawczych z obu krajów. Naukowcy przeanalizowali dane dotyczące 529 gatunków ptaków. Analizie poddano zarówno długoterminowe dane obserwacyjne, jak i dane satelitarne. Rozenberg mówi, że uzyskane wyniki wskazują nie tylko na to, że problem dotyczy tylko ptaków. To silny sygnał, że środowisko zmienione przez człowieka nie jest w stanie podtrzymać istnienia ptaków. A to wskaźnik nadchodzącego załamania całego ekosystemu.
      Liczba amerykańskich i kanadyjskich dojrzałych płciowo ptaków zmniejszyła się o 2,9 miliarda. Do spadków doszło w każdym rodzaju ekosystemów. Populacja ptaków leśnych zmniejszyła się o 1 miliard. Ptaków łąkowych zaś jest o 50%, czyli o 700 milionów, mniej. Zdaniem naukowców, główną przyczyną jest prawdopodobnie utrata habitatów.
      Największych spadków doświadczyły najbardziej rozpowszechnione gatunki. Aż 90% strat w liczebności dotyczy zaledwie 12 rodzin, w tym wróbli, zięb, kacykowatych czy lasówek. Populacja ulubionego przez stawiających karmniki Amerykanów junko zwyczajnego zmniejszyła się o 160 milionów, a pasówki białogardłej o 90 milionów. Oba gatunki wojaków (obrożny i żółtogardły) są obecnie mniej liczne o 130 milionów osobników. Liczba epoletników krasnoskrzydłych zmniejszyła się zaś o 92 miliony.
      !RCOL

      Powszechnie występujące ptaki przestają być powszechne, mówi Peter Marra, były dyrektor w Smithsonian Migratory Bird Center. Gdy spojrzymy na co szerzej, weźmiemy pod uwagę spadki populacji innych zwierząt, od owadów po płazy, widzimy, że możemy mieć do czynienia z załamaniem całego ekosystemu. A to sprowadzi kłopoty na wszystkich. To pokazuje nam, że środowisko, w którym żyjemy, nie jest zdrowe. Ani dla ptaków, ani prawdopodobnie dla ludzi.
      W ramach analiz pod uwagę wzięto duże bazy danych, takie jak USGS Breeding Bird Survey, która jest prowadzona od 1966 roku, czy coroczny Christmas Bird Count, jakie Audubon Society prowadzi od ponad 100 lat.
      W końcu opracowaliśmy wiarygodną metodą oceny liczby ptaków w Ameryce Północnej. Możemy ufać tym obliczeniom. I okazało się, że w czasie krótszym niż jedno ludzkie życie straciliśmy niemal 1/3 ptaków. Jako specjaliści widzimy, że coś się dzieje. Jednak nawet specjalista nie jest w stanie w pełni ocenić zachodzących procesów, mówi biostatystyk Adam Smith z Environment and Climate Change Canada.
      Naukowcy przyjrzeli się też archiwalnym danym z ponad 140 radaów pogodowych NEXRAD rozsianych po terenie całych Stanów Zjednoczonych. Na tej podstawie Adriaan Dokter z Cornell Lab of Ornithology szacował masę ptaków przemieszczających się nad USA w czasie migracji i stwierdził, że spadki w liczebności są nawet widoczne na radarach. "Od roku 2007 biomasa przemieszczających się ptaków zmniejszyła się o około 14%. Tempo spadku widoczne na radarach jest podobne do modeli liczebności ptaków. Dokter zauważył, że największe spadki mają miejsce we wschodniej połowie USA.
      Jest też kilka dobrych wiadomości. Liczebność drapieżników, takich jak orły czy jastrzębie, zwiększyła się 3-krotnie od 1970 roku. Zawdzięczamy to zakazowi stosowania DDT i zakazowi polowań na ptaki drapieżne.
      O 50% zwiększyła się liczebność ptaków wodnych. To z kolei zasługa licznych programów, takich jak North American Waterflow Management, w ramach których zainwestowano miliardy dolarów w ochronę terenów podmokłych, a na szczeblu federalnym prowadzona jest polityka „no-net-loss”.
      Rosenberg uważa, że dobrze sprawdzające się programy ochrony terenów podmokłych i cieków wodnych mogą stać się wzorem dla ochrony terenów trawiastych i tamtejszych gatunków ptaków. Jednak działania muszą być podjęte już teraz. Sądzę, że obecnie wszystkie te spadki da się jeszcze odwrócić. Jednak za 10 lat może się okazać, że jest to nieodwracalne, mówi uczony.
      Laboratorium Ornitologiczne Cornell University (Cornel Lab of Ornithology) ma 7 prostych porad, w jaki sposób każdy może pomóc ptakom. Wystarczy uczynić okna bezpieczniejszymi, tak, by ptaki się o nie nie zabijały. Właściciele kotów powinni trzymać je w domach, a nie wypuszczać na zewnątrz. Zamiast krótko przyciętego trawnika przed domem warto pomyśleć o posadzeniu roślin, które lubią ptaki. Należy też unikać pestycydów, a zatem w sklepie wybierać żywność, która została wyprodukowana bez ich użycia. Jeśli pijemy kawę, warto kupować tę oznaczoną jako "Przyjazna ptakom". Certyfikat "Bird friendly" przyznaje Smithsonian Migratory Bird Center, a otrzymać go mogą te kawy, które są m.in. produkowane tak, by pozostawić pokrywę leśną dla ptaków. Jeśli chcemy pomóc ptakom, i nie tylko im, powinniśmy używać jak najmniej plastików. W końcu ostatnia porada, ale i prośba, obserwujmy ptaki, notujmy i dzielmy się takimi danymi.



      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Nowe dowody wskazują, że kultura aszelska pojawiła się na północy Francji o co najmniej 150 000 lat wcześniej niż przypuszczano. Znaleźli je właśnie naukowcy z francuskiego Narodowego Centrum Badań Badań Naukowych (CNRS) i Muzeum Historii Naturalnej. Prowadzili oni badania na stanowisku Moulin Quignon w departamencie Somma, które zostało ponownie odkryte w 2017 roku. Stanowisko znano już wcześniej, jednak na 150 lat o nim zapomniano.
      Teraz w osadach w dolinie Sommy, na wysokości 30 metrów nad rzeką, znaleziono ponad 260 krzemiennych narzędzi, w tym 5 pięściaków, których wiek oszacowano na 650–670 tysięcy lat. Znalezione tu pięściaki są najstarszymi tego typu obiektami odkrytymi w Europie północno-zachodniej.
      Znalezione zabytki zostały wytworzone przez przedstawicieli kultury aszelskiej, a odkrycie potwierdza, że dolina Sommy była centralnym punktem najstarszego osadnictwa w Europie.
      Czas rozprzestrzeniania się homininów i kultury aszelskiej wraz z charakterystycznym dla niej bifacjalnym retuszem stosowanym przy produkcji pięściaków, to kluczowe zagadnienie debaty nad zasiedlaniem Europy przez ludzi. Homininy pojawiły się na południu Europy już 1,4 miliona lat temu, jednak dotychczas sądzono, że na północ dotarli znacznie później. Odkrycia z ostatnich lat każą jednak zweryfikować te przypuszczenia. Okazało się bowiem, że do południowo-wschodniej Anglii dotarli już około 800 000 lat temu.
      Narzędzia kultury aszelskiej, pochodzące sprzed 700 000 lat (centralna Francja) i 610-670 tysięcy lat (Włochy), były znane już wcześniej. Jednak dotychczas powyżej 50. równoleżnika północnego najstarsze narzędzia wytwarzane tą technologią liczyły sobie około 550 000 lat.
      Stanowisko Moulin Quignon to jedno z tych stanowisk, na których w latach 1837–1868 francuski archeologi Jacques Boucher de Perthes odkrył pierwsze narzędzia z bifacjalnym retuszem. Odkrycie to skłoniła Charlesa Lyella do wysunięcia stwierdzenia o bardzo dawnym pochodzeniu człowieka. W latach 1863–1864 w Moulin Quignon odkryto ludzkie szczątki, które, jak się okazało, zostały dla żartu podrzucone przez robotników. To zniszczyło reputację stanowiska archeologicznego, o którym na 150 lat zapomniano. Do stanowiska wrócono niedawno, po analizie zabytków przechowywanych od XIX wieku.
      Szczegółowy opis odkrycia można znaleźć w artykule The earliest evidence of Acheulian occupation in Northwest Europe and the rediscovery of the Moulin Quignon site, Somme valley, France

      « powrót do artykułu
×
×
  • Create New...