Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Powstała pierwsza mapa skąposzczetów zamieszkujących glebę

Recommended Posts

Żyjące w glebie skąposzczety, np. dżdżownice, to jedne z najważniejszych, a jednocześnie najmniej zauważanych, zwierząt na Ziemi. Spulchniają one i użyźniają glebę, prowadzą recykling składników odżywczych, dzięki nim woda i powietrze mogą sięgać większych głębokości. Bez pierścienic gleba byłaby w znacznie gorszym stanie, a jej produktywność by spadła.

Teraz po raz pierwszy w historii stworzono mapę występowania tych zwierząt. W pracach brało udział ponad 140 naukowców, którzy w 6900 miejscach na świecie sprawdzili glebę i skatalogowali w niej setki gatunków.

Mamy tutaj pierwszy globalny obraz występowania jednej z najważniejszych grup zwierząt, mówi Stefan Scheu z Uniwersytetu w Gottingen. Uczony, który nie brał udziału w badaniach, mówi, że dzięki tej wiedzy możliwe będzie opracowanie planu ochrony ekosystemu z uwzględnieniem zwierząt żyjących zarówno w gruncie jak i ponad nim.

Już w XIX wieku naukowcy skatalogowali wiele zwierząt i roślin żyjących na Ziemi. Jednak nie dotyczyło to organizmów żyjących w glebie. Przez długi czas nie wiedzieliśmy, gdzie i jakie gatunki żyją, mówi ekolog gleby, Noah Fierer z University of Colorado w Boulder.

Stworzenie mapy skąposzczetów zamieszkujących glebę do pomysł Helen Philips i jej kolegów z Niemieckiego Centrum Badań nad Bioróżnorodnością w Lipsku. Skontaktowali się oni ze specjalistami w tej dziedzinie i poprosili o przesłanie danych. Odpowiedziało 141 naukowców, którzy dostarczyli danych z ponad 6900 miejsc w 57 krajach. Dostaliśmy trzykrotnie więcej danych niż się spodziewałam, mówi Philips.

Do tworzenia mapy wykorzystano modelowanie komputerowe i tutaj naukowców czekało spore zaskoczenie. Okazało się bowiem, że czynnikiem decydującym o tym, jak dobrze radzi sobie populacja skąposzczetów w glebie są temperatury i opady, a nie – jak sądzono – rodzaj gleby. Uczonych zaskoczyło, jak mały wpływ na populację miała gleba, w której zwierzęta żyją. Badania pokazują, że zmiany klimatu będą miały poważne konsekwencje również dla zwierząt żyjących pod ziemią.

Zaskakujący był też rozkład gatunków. O ile flora i fauna na powierzchni naszej planety wykazuje największe zróżnicowanie w tropikach, to – przynajmniej w skali lokalnej – życie podziemne wygląda inaczej. Gleby Europy, północno-wschodnich USA, południowego krańca Ameryki Południowej oraz południowe regiony Nowej Zelandii i Australii mają na danym obszarze więcej gatunków podziemnych skąposzczetów niż tropiki. Występuje tam też więcej osobników. Modelowanie wykazało, że na każdy metr kwadratowy gleby w strefach umiarkowanych przypada do 150 takich organizmów, a w tropikach jest to zaledwie 5 sztuk.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Pewnie gdyby nie te skąposzczepy ta ziemia niszczałaby w szybszym tempie, niż teraz widzimy. TO tylko świadczy o tym, że przyroda potrafi sama o siebie zadbać.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Pomiędzy latem 2015 a wiosną 2016 roku między Alaską a Kalifornią ocean wyrzucił na brzeg około 62 000 martwych nurzyków zwyczajnych. Większość z nich wykazywała oznaki śmierci głodowej. Gdy naukowcy zaczęli temu przyglądać i ekstrapolowali liczbę martwych ptaków na cały obszar, stwierdzili, że we wspomnianym okresie musiało zginąć około miliona ptaków.
      Rodziło się więc pytanie, w jaki sposób milion ptaków mogło zginąć mniej więcej w tym samym czasie na przestrzeni 6000 kilometrów. I co było przyczyną ich śmierci, mówi John Piatt z US Geological Survey.
      Nurzyki ginęły już masowo w przeszłości, ale zjawisko to obserwowano tylko lokalnie i na mniejszą skalę. Tymczasem to, co zauważono w latach 2015-2016 było tym bardziej niezwykłe, że ptaki te są dobrze przystosowane do swojego środowiska. Potrafią głęboko nurkować by zdobywać ryby, będące głównym źródłem ich pożywienia.
      Po kilku latach badań ptaków, temperatury wody i danych z połowów Piatt i jego zespół doszli do wniosku, że nurzyki zabiła... wysoka temperatura wody i wywołana nią konkurencja ze strony innych drapieżników.
      Pomiędzy końcem roku 2013 a rokiem 2016 u zachodnich wybrzeży Ameryki Północnej woda miała rekordowo wysoką temperaturę. W takiej wodzie wiele zmiennocieplnych drapieżników, jak na przykład dorsz, muszą jeść więcej, by utrzymać prawidłową temperaturę ciała. Dorsze mają jednak nad nurzykami przewagę. Ptaki muszą bowiem zjeść każdego dnia pokarm o wadze odpowiadającej połowy masy ich ciała i giną po 3–5 dniach bez pożywienia. Tymczasem dorszowi wystarczy, że w ciągu dnia zje pożywienie o masie 1% masy jego ciała. Dorszom więc łatwiej się pożywić, ale gdy zjadają więcej ryb, mniej i pozostaje dla nurzyków, które są bardziej wrażliwe na niedostatki pokarmu.
      To jedyne logiczne wyjaśnienie śmierci tak wielu nurzyków na tak dużym obszarze w tak krótkim okresie. Tym bardziej, że Piatt wykluczył, iż śmierć ptaków spowodowały zakwity toksycznych glonów. Badania padłych ptaków wykazały bowiem, że ilość toksyn w ich organizmach jest niższa niż podczas wcześniejszych pomorów wywoływanych właśnie przez glony.
      Problem może stanowić to, że fale upałów i obszary gorącej wody mają pojawiać się coraz częściej. Już zresztą pojawiły się informacje wskazujące, na ponowne formowanie się gorącego bloba u zachodnich wybrzeży Ameryki Północnej. Ma on jednak znacznie mniejszy rozmiar, więc jego wpływ będzie też mniejszy.
      Piatt mówi, że nurzyki nie są zagrożone wyginięciem, ale populacja będzie odradzała się przez dziesięciolecia, gdyż proces ten będą spowalniały kolejne wydarzenia tego typu.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W czasie Wielkiego głodu (1315–1317) w Europie zmarły miliony ludzi. To jeden z wielkich kryzysów, które nastąpiły na Starym Kontynencie w XIV wieku. Wieku awiniońskiej niewoli papieży, wojny stuletniej, Czarnej Śmierci czy pojawienia się Imperium osmańskiego.
      Z historycznych zapisków wiemy, że okres Wielkiego głodu to czas olbrzymich opadów deszczu, którym towarzyszyło zniszczenie zbiorów, gwałtowny wzrost cen i kanibalizm. To mocna wskazówka, iż przyczyną klęski były nadmierne opady, jednak nie wiadomo było, jak się mają one do średnich historycznych, ani na jakim obszarze doszło do zwiększonych opadów.
      Dowiedzieliśmy się tego dopiero teraz, dzięki pracy naukowców z Lamont-Doherty Earth Observatory i Columbia University. Naukowcy ocenili, że lata 1314–1316 były piątym najbardziej wilgodnym okresem w ciągu 700 lat. Dzięki takim badaniom możemy umiejscowić Wielki głód w kontekście długoterminowych trendów klimatycznych oraz dowiedzieć się, jak nadmierne opady wpływały na ówczesne rolnictwo. Zwykle bowiem większa uwagę badacze przywiązują do okresów susz. Zwykle gdy myślimy o ekstremalnych wydarzeniach hydroklimatycznych, mamy na myśli susze. Tutaj jednak mieliśmy do czynienia z powodzią, stwierdza Jason Smerdon, paleoklimatolog z Lamont-Doherty Earth Observatory.
      Smerdon i jego zespół przeanalizowali Old World Drought Atlas, bazę danych z rekonstrukcją corocznych zmian wilgotności w Europie. Baza zostala stworzona na podstawie badań pierścieni drzew ze 106 miejsc w Europie. W latach suchych pierścienie drzew są węższe, w latach wilgotnych – szersze. Takie informacje możemy następnie doprecyzowywać dokładnie mierząc, jak obecnie przyrastają pierścienie drzew w reakcji na dokładnie zmierzona ilość opadów.
      Dane z pierścieni drzew pozwalają na zdobycie informacji, jakich nie znajdziemy w historycznych zapiskach. Z zapisków nie dowiemy się bowiem, jak ilość opadów ma się do średnich z okresów wcześniejszych i późniejszych. Nie wiadomo też gdzie było bardziej wilgotno, gdyż zapiski z wielu obszarów nie zachowały się.
      W ten sposób zespół Smerdona stwierdził, że lata 1314–1316 były piątym najbardziej wilgotnym okresem z lat 1290–2000, a najwięcej opadów było w roku 1315. Badania przyniosły też istotną informację dla współczesności. W Europie dominującym zjawiskiem meteorologicznym jest oscylacja północnoatlantycka (NAO). Działa ona na osi północ-południe, jeśli więc dochodzi do dużych opadów w Norwegii, prawdopodobnie dojdzie do nich również we Włoszech. Jednak, jak obecnie widzimy, w czasie Wielkiego głodu katastrofalne opady dotknęły tylko północ Europy. We Włoszech czy Hiszpanii panowała susza. To zaś oznacza, że dominujący wzorzec może ulec zmianie.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Rośliny potrzebują dwutlenku węgla do przeprowadzania fotosyntezy. Zatem więcej dwutlenku węgla w atmosferze zwiększa wzrost roślin (mechanizm ten, o czym informowaliśmy, w tak prosty sposób działa jedynie w warunkach laboratoryjnych). Jednocześnie jednak więcej CO2 w atmosferze oznacza wyższą temperaturę, co może m.in. spowodować niedobory wody potrzebnej rośliną, ograniczać ich wzrost i zwiększać ryzyko usychania. Na łamach PNAS ukazał się właśnie artykuł, którego autorzy stwierdzają, że od poziomu CO2 czy ogólnego wzrostu temperatury ważniejszy dla roślin jest stosunek obu tych czynników.
      Korzyścią, jaką lasy odnoszą ze zmiany klimatu, jest zwiększony poziom atmosferycznego CO2, dzięki czemu drzewa mogą zużywać mniej wody przy bardziej intensywnej fotosyntezie. Jednak problemem związanym ze zmianą klimatu są rosnące temperatury, które powodują, że drzewa zużywają więcej wody, a fotosynteza przebiega wolniej. Na podstawie realistycznego modelu fizjologii drzew zbadaliśmy wpływ tych przeciwstawnych sobie zjawisk, czytamy w artykule.
      Z badań wynika, że niekorzystny wpływ wzrostu temperatury tylko do pewnej granicy będzie kompensowany przez wzrost stężenia dwutlenku węgla. Jeśli wzrost temperatury będzie szybszy niż wzrost CO2, a proporcje pomiędzy oboma zjawiskami przekroczą pewien poziom, lasy mogą sobie nie poradzić. Jak mówią naukowcy, istniały pewne różnice pomiędzy różnymi typami lasów, ale ogólny wpływ obserwowanych zjawisk był prawdziwy dla wszystkich lasów.
      Wspomniana granica, powyżej której lasy przestaną sobie radzić, zależy od tego, jak szybko będą w stanie dostosować się do zmian klimatu. Niektóre gatunki drzew są w stanie zareagować fizycznymi zmianami na suszę czy inne stresory środowiskowe i dzięki nim zmaksymalizować wykorzystanie dostępnych zasobów. Drzewa te mogą na przykład zmienić kształt liści czy dostosować tempo fotosyntezy.
      Autorzy badań przyjrzeli się wpływowi wzrostowi CO2 i temperatury na lasy w USA. Sprawdzili też, czy zdolności aklimatyzacyjne różnych gatunków drzew będą odgrywały tutaj rolę.
      Okazało się, że jeśli lasy będą w stanie się zaaklimatyzować, to dodatkowa koncentracja CO2 na każdy 1 stopień wzrostu temperatury musi wynieść co najmniej 67 ppm, by drzewa nadal mogły rosnąć. Taki scenariusz rozwoju sytuacji przewiduje 71% modeli klimatycznych wykorzystanych na potrzeby obecnych badań. Jeśli zaś drzewom nie uda się zaaklimatyzować, to wzrost koncentracji CO2 musi wynieść co najmniej 89 ppm na każdy stopień. Taki scenariusz jest przewidywany przez nieco ponad połowę wykorzystanych modeli. To zaś oznacza, że wciąż istnieje olbrzymia niepewność co do tego, co stanie się z lasami.
      Dodatkowym problemem jest fakt, że nawet jeśli wspomniany stosunek CO2 do temperatury wykroczy poza określoną granicę na jeden sezon lub podobnie krótki czas, drzewa mogą zacząć wymierać. Ponadto autorzy badań nie brali pod uwagę wzrostu temperatur na pasożyty drzew czy pożary lasów.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Niezwykłe wzorce pogodowe w górnych warstwach atmosfery nad Antarktyką znacząco zmniejszyły utratę ozonu powodując, że w ostatnim czasie dziura ozonowa była najmniejsza od czasu rozpoczęcia jej obserwowania w roku 1982, poinformowali naukowcy z NOAA i NASA.
      Największą tegoroczną powierzchnię dziura ozonowa osiągnęła 8 września, kiedy to obejmowała 16,4 miliona kilometrów kwadratowych. Później skurczyła się do 10 milionów km2 i tak już pozostało. Zwykle dziura ozonowa rozrasta się do niemal 21 milionów kilometrów kwadratowych i utrzymuje taką wielkość jeszcze na początku października.
      To świetna wiadomość dla ozonu na półkuli południowej. Musimy jednak pamiętać, że to, co obserwujemy, to skutek wyższych temperatur w stratosferze, a nie oznaka szybkiego odradzania się ozonu, mówi Paul Newman z Goddard Space Flight Center.
      Dziura ozonowa formuje się nad Antarktyką późną zimą, gdy wskutek promieniowania słonecznego w atmosferze rozpoczynają się reakcje pozbawiające ją ozonu. W reakcjach tych biorą udział wyemitowane przez człowieka aktywne formy związków chloru i bromu. Reakcja odpowiedzialne za niszczenie ozonu zachodzą na powierzchni chmur tworzących się w zimnych warstwach stratosfery. Gdy jest cieplej, formuje się mniej chmur, które są ponadto nietrwałe, dzięki czemu proces niszczenia ozonu jest mniej intensywny.
      Dziura ozonowa jest monitorowana za pomocą satelitów i balonów stratosferycznych. W tym roku podczas pomiarów ozonu nad Biegunem Południowym nie znaleziono żadnej części atmosfery, która byłaby całkowicie pozbawiona ozonu, mówi Bryan Johnson z Earth System Research Laboratory.
      W bieżącym roku po raz trzeci od niemal 40 lat zdarzyło się tak, że wyższe temperatury w stratosferze ograniczyły rozmiary dziury ozonowej. Dwa podobne takie wydarzenia miały miejsce w roku 1988 i 2002. To rzadki przypadek, który wciąż staramy się zrozumieć. Gdyby nie było tego ocieplenia, prawdopodobnie obserwowalibyśmy typową dziurę ozonową, mówi Susan Strahan z Universities Space Research Association. Naukowcy dotychczas nie znaleźli żadnego związku pomiędzy tymi trzema wydarzeniami, a zmianami klimatu.
      Warstwa ozonowa nad Antarktyką zaczęła powoli zmniejszać się w latach 70., a na początku lat 80. zaczęto rejestrować duże ubytki ozonu. W 1985 roku naukowcy z British Antarctic Survey odkryli dziurę ozonową, którą potwierdził później satelita NASA.
      W 1987 roku podpisano Protokół montrealski, który wszedł w życie w roku 1989. W jego ramach państwa zobowiązały się stopniowo ograniczać, a w końcu zaprzestać produkcji substancji niszczących warstwę ozonową. Protokół ten okazał się najbardziej skuteczną globalną umową w historii. Podpisało go 196 państw oraz Unia Europejska. Szczyt produkcji związków niszczących warstwę ozonową przypadł na rok 2000. Wtedy też dziura ozonowa była największa i sięgnęła niemal 30 milionów km2. Od tamtej pory się zmniejsza. Naukowcy oceniają, że do roku 2070 poziom ozonu nad Antarktyką powinien powrócić do poziomu z roku 1980.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Naukowcy z Centrum Badań Kosmicznych PAN opracowali metodę automatycznego i szybkiego tworzenia szczegółowych map pokrycia terenu w skali całego świata. Prototyp mapy, na razie obejmującej tylko Europę, powstał na zlecenie Europejskiej Agencji Kosmicznej.
      Mapa przedstawia stan pokrycia terenu w Europie w roku 2017 i uwzględnia 13 najistotniejszych klas, w tym obszary rolnicze, lasy (osobno liściaste i iglaste), tereny zbudowane, bagna, torfowiska. Do jej opracowania wykorzystano aż 15 tysięcy zdjęć z satelitów Sentinel-2. Najmniejsze rozróżnialne szczegóły mapy mają rozmiar 10 metrów, co oznacza, że dane są aż 2,5 tysiąca razy bardziej szczegółowe niż najpowszechniej stosowana dotąd mapa tego rodzaju (CORINE). Dzięki zastosowaniu w pełni automatycznych algorytmów produkcja nowej mapy zajęła jedynie 6 tygodni.
      Metodę klasyfikacji pokrycia terenu, która pozwoliła na tak duży postęp, opracowali naukowcy z Zakładu Obserwacji Ziemi w Centrum Badań Kosmicznych PAN. W swojej pracy wykorzystali podejście nazywane „uczeniem maszynowym”: badacze wskazują dane referencyjne dla algorytmu, na podstawie których komputer sam uczy się rozpoznawać zadany typ pokrycia terenu w dowolnym miejscu na świecie. Naukowcy przetestowali swoją metodę w Chinach, Kolumbii, Namibii, Niemczech i Włoszech, po czym użyli jej do wygenerowania nowej mapy pokrycia terenu w Europie.
      Największym wyzwaniem przy opracowaniu algorytmu okazało się znalezienie odpowiednich danych referencyjnych. Z reguły takie dane muszą być równie szczegółowe jak powstająca w oparciu o nie mapa. Tymczasem globalne bazy danych oferowały informacje kilkadziesiąt razy mniej precyzyjne w stosunku do oczekiwań. Aby jak najbardziej zmniejszyć ryzyko stosowania danych o większej niepewności, naukowcy z CBK PAN zaproponowali innowacyjne podejście analityczne, które finalnie pozwoliło osiągnąć dokładność klasyfikacji pokrycia terenu sięgającą aż 86%-89% w skali Europy (93% dla Polski).
      Do sukcesu przedsięwzięcia przyczyniła się także specyfika wykorzystanych danych satelitarnych. Pochodziły one z pary europejskich satelitów Sentinel-2, wystrzelonych w ramach programu Copernicus. Pracując w tandemie, satelity pokrywają swoim zasięgiem obszar Europy co 5 dni (około 70 razy w ciągu roku). Dzięki temu polscy naukowcy mogli klasyfikować pokrycie terenu w dowolnym obszarze kontynentu w oparciu aż o średnio 20 najlepszych zobrazowań z roku. Agregacja takiej serii obserwacji umożliwiła nie tylko realizację celu w postaci wysokiej dokładności końcowej mapy, ale także pomogła uporać się z największym problemem zdjęć optycznych – zachmurzeniem.
      Prace nad mapą i algorytmem klasyfikacji pokrycia terenu prowadzone były w ramach trzyletniego projektu Sentinel-2 Global Land Cover (S2GLC), finansowanego przez Europejską Agencję Kosmiczną (ESA). Centrum Badań Kosmicznych PAN (lider projektu; autor algorytmu i oprogramowania do klasyfikacji danych) współpracowało z partnerami z Niemiec (firmami IABG, EOEXPLOR i Uniwersytetem w Jenie) oraz firmą CloudFerro - operatorem platformy CREODIAS. Infrastruktura informatyczna CREODIAS została wykorzystana do przetworzenia kilkunastu tysięcy zdjęć satelitarnych.
      Cyfrowe, satelitarne mapy pokrycia terenu stanowią nowoczesny odpowiednik papierowych map tematycznych. Dzięki cyfrowej naturze pozwalają w łatwy i szybki sposób dokonywać różnych analiz środowiskowych – CBK PAN współpracuje na tym polu m.in. z Głównym Urzędem Statystycznym. Satelity konstelacji Sentinel są odpowiedzią na potrzebę opracowania m.in. baz danych o pokryciu terenu charakteryzujących się większą dokładnością, większą szczegółowością i częstszą aktualizacją (coroczną). Ze względu na dużą ilość danych konieczne jest tworzenie algorytmów automatyzujących proces przetwarzania informacji satelitarnych. Badania realizowane w CBK PAN wpasowują się w ten globalny trend.

      « powrót do artykułu
×
×
  • Create New...