Zaloguj się, aby obserwować tę zawartość
Obserwujący
0
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Pierwsze wnioski z zaplanowanego na 100 lat projektu badawczego dowodzą, że zalesianie różnymi gatunkami drzew znacznie zwiększa szanse powodzenia wysiłków na rzecz odnowy lasu. W piśmie Restoration Ecology ukazały się wyniki badań prowadzonych od 10 lat w ramach programu BiodiversiTREE. To zaplanowany na 100 lat projekt zalesiania na dużą skalę, w ramach którego bada się wpływ różnych strategii sadzenia drzew na młode drzewa oraz na funkcjonowanie ekosystemu.
Lasy są ekosystemami naturalnie zróżnicowanymi. Rośnie w nich wiele różnych gatunków drzew. Przynosi to lasom i ekosystemowi olbrzymie korzyści. Dzięki różnorodności lasy zyskują odporność na szkodniki i choroby, są bardziej odporne na zmiany klimatu, zapewniają schronienie większej liczbie zwierząt. Jednak to, co często robią zarządcy lasów, jest przeciwieństwem tego, co robi natura. Sadzą olbrzymie monokultury – zwane przez przeciwników takiego postępowania „plantacjami desek” – w których dominuje jeden gatunek. Monokultury takie, nie dość, że nie występują korzyści wynikające ze zróżnicowania, drzewa są słabsze i częściej giną.
W setkach artykułów naukowych możemy przeczytać, że zróżnicowanie drzew poprawia funkcjonowanie ekosystemu, a co za tym idzie, powinno też poprawiać jakość samych drzew i szanse na ich przeżycie. Niewiele jednak prowadzono długoterminowych eksperymentów, by zweryfikować te tezy.
W 2013 roku naukowcy i wspomagający ich ochotnicy rozpoczęli projekt BiodiversiTREE, w ramach którego zasadzili 20 000 drzew na byłym terenie rolniczym w pobliżu Chesapeake Bay. W niektórych miejscach zasadzono drzewa tylko jednego gatunku, a innych zaś 4 lub 12 gatunków. Przez pierwsze trzy lata projektu 8000 z tych drzew było poddanych corocznemu monitoringowi, a od 2016 roku są one monitorowane co 2-3 lata. Po 10 latach badań uczeni zebrali pierwsze wnioski ze swoich badań.
Wynika z nich, że tam, gdzie posadzono więcej niż 1 gatunek drzew, sadzonki lepiej się przyjmowały i lepiej sobie radziły. Nawet zasadzenie 4 gatunków zamiast jednego znacząco zmniejszyło śmiertelność sadzonek, co pokazuje, że już niewielka zmienność gatunkowa ma wielki wpływ na sukces zalesiania, mówi główna autorka badań, Rachel King ze Smithsonian Environmental Research Center.
Już wcześniejsze badania pokazywały, że monokultury są nieprzewidywalne i niestabilne. Mogą dobrze się rozwijać i nagle załamywać. I widać to też w badaniach BiodiversiTREE. O ile bowiem 99% zasadzonych w monokulturze jaworów ma się dobrze, to z monokultury orzesznika przetrwało 21% drzew. Ogólnie rzecz biorąc, monokultury wykazują się dwukrotnie większą zmiennością pod względem szans na przetrwanie niż drzewa sadzone w zróżnicowanym środowisku.
Lasy są domem dla olbrzymiej liczby gatunków zwierząt, zapewniają też byt milionom ludzi. Mogą być również jednym z najważniejszych narzędzi w walce ze zmianami klimatu. W samych Stanach Zjednoczonych tereny, na których można by zasadzić lasy obejmują 60 milionów hektarów. To dwukrotnie więcej niż powierzchnia Polski. Lasy o takiej powierzchni pochłaniałyby rocznie ok. 535 milionów ton CO2, zatem tyle, ile emisja ze 116 milionów samochodów.
Samo sadzenie drzew nie rozwiąże problemu zmian klimatu, ale odpowiednio przeprowadzone może być ważnym naturalnym narzędziem w walce z nimi. Jeśli już chcemy inwestować w zalesianie, ważne jest, by nowe obszary leśne składały się z różnych rodzimych gatunków drzew, mówi Susan Cook-Patton z The Nature Conservancy.
Chesapeake Bay to największe w USA i trzecie największe na świecie estuarium. W przeszłości było jednym z najbardziej produktywnych światowych estuariów. Jednak działalność człowieka, taka jak intensywne nawożenie pól, zagroziła temu obszarowi. Obecnie prowadzi się tam liczne projekty zalesiania, które pomagają chronić i odnawiać wodę i glebę.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Wysiłki zmierzające do odbudowy terenów leśnych skupiają się głównie na jednym elemencie – drzewach. Zalesianie polega głównie na ich sadzeniu. Międzynarodowy zespół naukowy, składający się ze specjalistów z Instytutu Zachowania Zwierząt im. Maxa Plancka, Yale School of the Environment, New York Botanical Garden i Smithsonian Tropical Research Institute informuje, że brak tutaj innego niezwykle istotnego elementu, czyli zwierząt.
Naukowcy przeprowadzili unikatowe badania w Panamie, analizując to, co dzieje się na wylesionych terenach, które zostały następnie przez człowieka porzucone i pozostawione samym sobie. Były to tereny, które porzucono 20-100 lat temu, na których dochodziło do spontanicznego odradzania się lasu. Okazało się, że dzięki obecności zwierząt w ciągu zaledwie 40–70 lat samoistnie dochodziło do odnowienia składu gatunkowego i bioróżnorodności drzew do poziomu sprzed wycięcia lasu.
Zwierzęta są naszymi największymi sprzymierzeńcami w odbudowie lasów. To pokazuje, że zalesianie powinno polegać na czymś więcej niż tylko sadzeniu drzew, mówi Daisy Dent z Instytutu Maxa Plancka. Z badań wynika, że bardzo istotnym elementem udanego odtwarzania lasu jest sadzenie drzew w pobliżu starego już istniejącego lasu i ograniczenie polowań. To zachęca zwierzęta do kolonizacji nowych terenów leśnych, co ułatwia odtworzenie lasu.
Zwierzęta odbudowują las poprzez roznoszenie nasion. Na obszarach tropikalnych to zwierzęta odpowiadają za rozprzestrzenianie się ponad 80% gatunków roślin. Mimo to odtwarzanie lasów polega wyłącznie na sadzeniu drzew, a nie na odtworzeniu prawidłowych interakcji pomiędzy zwierzętami a roślinami. Stwierdzenie, w jaki sposób zwierzęta przyczyniają się do odbudowy lasów jest niezwykle trudne, gdyż trzeba mieć dokładne informacje o diecie zwierząt, mówi Sergio Estrada-Villega z kolumbijskiego Universidad del Rosario.
Unikalną okazję do takich badań stwarza las w Barro Colorado Nature Monument leżący przy Kanale Panamskim. To jeden z najlepiej zbadanych lasów tropikalnych na świecie. Pracowało tam wiele pokoleń specjalistów, którzy dokumentowali interakcje pomiędzy roślinami a zwierzętami.
Teraz międzynarodowy zespół naukowy przeanalizował wszystkie dostępne dane, by określić proporcje różnych roślin rozsiewanych przez cztery grupy zwierząt – nielotne ssaki, małe ptaki, duże ptaki oraz nietoperze – oraz sprawdzić, jak proporcje te zmieniały się na przestrzeni ponad 100 lat. To najszerzej przeprowadzone badania tego typu. Większość takich badań skupia się bowiem na pierwszych 30 latach odradzania się lasu.
Dowiadujemy się zatem, że w regeneracji młodego lasu udział biorą małe ptaki. Ale wraz z upływem czasu rośnie rola dużych ptaków. Jednak przez cały okres wzrostu lasu najważniejszą rolę – i to było dużym zaskoczeniem – odgrywały ssaki nielotne. To coś niezwykłego w lesie odradzającym się po działalności rolniczej. Prawdopodobnie istnienie obok starszego lasu oraz ograniczenie polowań pozwala ssakom na zwiększenie swojej liczebności oraz na przenoszenie nasion pomiędzy starym a nowym lasem, mówi Dent.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Pożar, który objął ponad 100 ha terenu w rejonie Rano Raraku we wschodniej części Wyspy Wielkanocnej (przypomnijmy, że znajdują się tam mokradła i słynne moai), uszkodził część posągów. W niektórych przypadkach szkody są ponoć nienaprawialne. Nie wiadomo, ile moai uległo uszkodzeniu.
Pożar wybuchł w poniedziałek. Rejon został zamknięty dla odwiedzających. Prowadzone jest śledztwo.
Reprezentujący Ma'u Henua Indigenous Community Ariki Tepano opisuje szkody na stanowisku jako nienaprawialne. Moai są całkowicie osmalone. Skutki działania ognia widać na pierwszy rzut oka.
Burmistrz Pedro Edmunds Paoa uważa (zresztą nie tylko on), że pożar nie był wypadkiem.
Bez względu na wielkość nakładów finansowych, pęknięć oryginalnego [...] materiału nie da się naprawić - dodał Edmunds Paoa w wywiadzie dla Radio Pauta.
Na profilu Municipalidad de Rapa Nui na Facebooku podkreślono, że brak wolontariuszy utrudniał uzyskanie kontroli nad ogniem. Zakres szkód będzie dopiero oceniany.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Pożary lasów w USA są czterokrotnie bardziej rozległe i zdarzają się trzykrotnie częściej niż jeszcze w roku 2000, informują specjaliści z Cooperative Institute for Research in Environmental Sciences (CIRES) na University of Colorado Boulder. Wyniki przeprowadzonej przez nich analizy zostały opublikowane na łamach Science Advances. Naukowcy wykazali, że duże pożary nie tylko zdarzają się częściej, ale dochodzi do nich też na nowych obszarach, które wcześniej nie płonęły.
Virginia Iglesias i jej zespół postanowili sprawdzić, jak zmieniły się rozmiar, częstotliwość oraz zasięg pożarów w USA. Przeanalizowali więc dane dotyczące ponad 28 000 pożarów z lat 1984–2018. Informacje czerpali z bazy danych Monitoring Trends in Burn Severity (MTBS), w której gromadzone są zarówno satelitarne zdjęcia pożarów, jak i stanowe oraz federalne informacje na ich temat.
Naukowcy odkryli, że w latach 2005–2018 na całym terytorium kontynentalnych USA doszło do większej liczby pożarów niż w ciągu wcześniejszych dwóch dekad. Na wschodzie i zachodzie liczba pożarów uległa podwojeniu, a na Wielkich Równinach jest ich obecnie 4-krotnie więcej niż wcześniej. Zwiększył się też obszar objęty pożarami. W poprzednich dekadach roczna mediana obszaru objętego pożarami na zachodzie kraju wynosiła 4019 km2, obecnie zaś wzrosła do 14 249 km2. Na Wielkich Równinach zaś odnotowano wzrost z 1204 km2 do 3354 km2.
Naukowcy przyjrzeli się też ekstremom i stwierdzili, że na zachodzie i Wielkich Równinach wzrosła częstotliwość występowania wielkich pożarów oraz ryzyko, że równocześnie będzie dochodziło do więcej niż jednego wielkiego pożaru.
Więcej wielkich pożarów występujących w tym samym czasie już teraz zmienia skład i strukturę pokrywy roślinnej, wpływa na występowanie pokrywy śnieżnej i dostępność wody pitnej. To poważne wyzwanie dla systemu ochrony przeciwpożarowej, które zagraża życiu, zdrowiu i majątkom milionów Amerykanów, mówi Iglesias.
Uczeni zauważyli też, że we wszystkich regionach kraju zwiększył się zasięg występowania pożarów. To oznacza, że odległości pomiędzy pożarami są mniejsze, a także, że pożary zaczęły występować w miejscach, w których wcześniej ich nie było.
Wyniki analizy potwierdzają to, co od pewnego czasu podejrzewały media, opinia publiczna i sami strażacy. Niestety, natura nie powiedziała jeszcze ostatniego słowa. Wraz z ocieplaniem się klimatu rośnie ryzyko występowania coraz większych i coraz częstszych pożarów. Najgorsze jeszcze przed nami, stwierdził współautor badań, William Travis.
« powrót do artykułu -
przez KopalniaWiedzy.pl
W sytuacji, gdy dochodzi do wykrycia uwolnienia substancji niebezpiecznych, najważniejsze jest szybkie i precyzyjne zlokalizowanie źródła uwolnienia oraz przewidzenie kierunku rozchodzenia się substancji. Używane obecnie modele dyspersyjne wymagają bardzo dużych zasobów obliczeniowych. Mogą jednak zostać zastąpione przez modele bazujące na Sztucznych Sieciach Neuronowych, SSN (ang. Artificial Neutral Networks, ANN), co pozwoli na monitorowanie skażenia w czasie rzeczywistym. W badaniu możliwości wykorzystania takich modeli uczestniczą naukowcy z Departamentu Układów Złożonych NCBJ.
Obszar odpowiadający części centralnego Londynu, będący podstawą do przygotowania danych dla SSN, jak również wykorzystany w eksperymencie DAPPLE (skrzyżowanie Marylebone Road i Gloucester Place, 51.5218N 0.1597W)
Od kilku lat w Centrum Analiz Zagrożeń MANHAZ prowadzone są prace nad algorytmami umożliwiającymi lokalizację źródła skażenia, w oparciu o, pochodzące z sieci detektorów, dane na temat stężeń uwolnionej substancji. Głównym zadaniem istniejących we wszystkich miastach grup reagowania kryzysowego, jest szybkie odpowiadanie na wszelkie zagrożenia dla ludzi i środowiska. Podstawowym czynnikiem decydującym o powodzeniu lub niepowodzeniu danego działania jest czas reakcji.
Obecnie różne substancje chemiczne są używane w większości dziedzin przemysłu, co sprawia, że transport i przechowywanie materiałów toksycznych wiąże się z ciągłym ryzykiem uwolnienia ich do atmosfery i do zajścia skażenia. Dużym wyzwaniem są sytuacje, w których czujniki rozmieszczone na terenie miasta zgłaszają niezerowe stężenie niebezpiecznej substancji, której źródło nie jest znane. W takich przypadkach ważne jest, aby system był w stanie w czasie rzeczywistym oszacować najbardziej prawdopodobną lokalizację źródła zanieczyszczenia, wyłącznie w oparciu o dane o stężeniu, pochodzące z sieci czujników.
Algorytmy, które radzą sobie z zadaniem można podzielić na dwie kategorie. Pierwszą są algorytmy opierające się na podejściu wstecznym, czyli analizie problemu zaczynając od jego ostatniego etapu, ale są one dedykowane obszarom otwartym lub problemowi w skali kontynentalnej. Drugą kategorię stanowią algorytmy, które bazują na próbkowaniu parametrów odpowiedniego modelu dyspersji (parametrów takich, jak lokalizacja źródła), aby wybrać ten, który daje najmniejszą różnicę między danymi wyjściowymi, a rzeczywistymi pomiarami stężeń, wykonywanymi przez sieć detektorów. Podejście to sprowadza się do wykorzystania algorytmów próbkowania, w celu znalezienia optymalnych parametrów modelu dyspersji, na podstawie porównania wyników modelu i detekcji zanieczyszczeń.
Ze względu na efektywność zastosowanego algorytmu skanowania parametrów, każda rekonstrukcja wymaga wielokrotnych uruchomień modelu. Rekonstrukcja w terenie zurbanizowanym, która jest głównym przedmiotem zainteresowania badaczy, wymaga zaawansowanych modeli dyspersji, uwzględniających turbulencje pola wiatru wokół budynków. Najbardziej niezawodne i dokładne są modele obliczeniowej dynamiki płynów (ang. Computational Fluid Dynamics, CFD). Stanowią one jednak bardzo wymagające obliczeniowo wyzwanie. Musimy zdawać sobie sprawę z tego, że aby znaleźć najbardziej prawdopodobne źródło skażenia, model dyspersji trzeba uruchomić dziesiątki tysięcy razy. Oznacza to, że użyty model musi być szybki, aby można go było zastosować w systemie awaryjnym, pracującym w czasie rzeczywistym. Zakładając na przykład, że średni czas potrzebny na wykonanie samych obliczeń modelu dyspersji w terenie zurbanizowanym wynosi 10 minut, pełna rekonstrukcja z jego wykorzystaniem będzie trudna do przeprowadzenia w dopuszczalnie krótkim czasie.
Rozwiązaniem tego problemu, nad którym pracuje dr Anna Wawrzyńczak-Szaban z Centrum Analiz Zagrożeń MANHAZ w NCBJ, przy współpracy z Instytutem Informatyki UPH w Siedlcach, jest wykorzystanie w systemie rekonstrukcji sztucznej sieci neuronowej, zamiast modelu dyspersji, w terenie zurbanizowanym. Chodzi o to, by sztuczna sieć neuronowa była skuteczna w symulacji transportu zanieczyszczeń w powietrzu, na terenie zurbanizowanym. Jeśli to się powiedzie, SSN może działać jako model dyspersji w systemie lokalizującym w czasie rzeczywistym źródło skażenia. Podstawową zaletą SSN jest bardzo krótki czas odpowiedzi – opisuje dr Anna Wawrzyńczak-Szaban. Oczywiście SSN musi być wytrenowana w stałej topologii miasta, przy użyciu rzeczywistych warunków meteorologicznych z wykorzystaniem odpowiedniego i zwalidowanego modelu dyspersji. Proces ten wymaga wielu symulacji, służących jako zestawy danych treningowych dla SSN. Proces uczenia sieci SSN jest kosztowny obliczeniowo, ale po przeszkoleniu, metoda byłaby szybkim narzędziem do szacowania stężeń punktowych dla danego źródła zanieczyszczenia.
W pracy opublikowanej przez naukowców1) przedstawiono wyniki trenowania sieci neuronowej w oparciu o dane, uczące rozprzestrzeniania się toksyn w powietrzu w centrum Londynu, wykorzystując domenę testową eksperymentu polowego DAPPLE2). Dane uczące SSN wygenerowano za pomocą modelu dyspersji Quick Urban & Industrial Complex (QUIC). Przetestowaliśmy różne struktury SSN, czyli liczby jej warstw, neuronów i funkcji aktywacji. Wykonane testy potwierdziły, że wyszkolona SSN może w wystarczającym stopniu symulować turbulentny transport toksyn, unoszących się w powietrzu na obszarze silnie zurbanizowanym – objaśnia dr Anna Wawrzyńczak-Szaban. Ponadto pokazaliśmy, że wykorzystując SSN można skrócić czas odpowiedzi systemu rekonstrukcji. Czas wymagany, przez prezentowaną w pracy SSN, do oszacowania trzydziestominutowych stężeń gazu w 196 000 punktów sensorowych wyniósł 3 s W przypadku modelu QUIC, czas został oszacowany jako co najmniej 300 s, co daje nam 100-krotne przyspieszenie obliczeń. Biorąc to pod uwagę, czas rekonstrukcji w rzeczywistej sytuacji awaryjnej może być krótki, co skutkuje szybką lokalizacją źródła zanieczyszczenia.
W trakcie badań okazało się, że zapewnienie trenowanej SSN pełnej informacji prowadzi czasami do pewnych wyzwań obliczeniowych. Na przykład w pojedynczej symulacji rozproszenia toksyn w powietrzu, na obszarze miejskim, nawet 90% odczytów z czujników może mieć wartość zerową. Prowadzi to do sytuacji, w której postać docelowa SSN obejmuje kilka procent wartości dodatnich i większość zer. W efekcie SSN skupia się na tym, czego jest więcej – na zerach, co sprawia, że nie dostosowuje się do szukanych elementów badanego problemu. Uwzględniając zerową wartość koncentracji w danych treningowych, musimy zmierzyć się z kilkoma pytaniami: jak uwzględnić zero? Jak przeskalować dany przedział, aby „ukryć” zera? Czy w ogóle uwzględniać zera? Czy ograniczyć ich liczbę? – podkreśla dr Wawrzyńczak-Szaban.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.