Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Powodzie zagrożą trzykrotnie większej liczbie ludzi, niż sądzono

Recommended Posts

Naukowcy z organizacji Climate Central w Princeton ostrzegają na łamach Nature, że przed rokiem 2050 tereny zamieszkane przez 300 milionów osób będą doświadczały corocznych powodzi, a do końca wieku obszary zamieszane przez 200 milionów osób na stałe znajdą się poniżej linii wysokiego przyboru wody. Swoje wnioski uczeni wyciągnęli na podstawie nowych danych dotyczących wysokości wybrzeży nad poziomem morza.

Nie od dzisiaj wiemy, że w skutek globalnego ocieplenia rośnie poziom oceanów. Szacunki mówią, że – w zależności od rozwoju sytuacji – w XXI wieku globalny poziom oceanów wzrośnie od 0,6 do ponad 2 metrów, a może jeszcze więcej. Wszystko będzie zależało od stabilności pokryw lodowych Arktyki i Antarktyki oraz poziomu emisji gazów cieplarnianych. Wiadomo też, że w związku z tym wzrostem zagrożone będą wybrzeża i mieszkający na nich ludzie.

Naukowcy od dawna szacują ryzyko powodzi związanych z podnoszeniem się poziomu oceanu. Do jego wyliczenia potrzebne są m.in. dotyczące wysokości danego obszaru nad poziomem morza. Problem jednak w tym, że, poza danymi z USA, Australii i części Europy, informacje takie są albo niedostępne, albo ich zdobycie jest niezwykle kosztowne. To zaś znacząco  ogranicza możliwości rzetelnej oceny sytuacji.

Dokładne pomiary wysokości dużych obszarów nad poziomem morza są kosztowne i skomplikowane. W niektórych krajach, jak USA, badania takie prowadzi się za pomocą technologii lidar. To bardzo pracochłonna i kosztowna metoda. Wymaga bowiem, by nad badanym terenem latał samolot, śmigłowiec lub dron, wyposażony w odpowiednie urządzenia laserowe. Stany Zjednoczone mogą sobie pozwolić na przeprowadzenie tego typu badań nad olbrzymimi obszarami

Jednak w większości przypadków naukowcy muszą polegać na danych pochodzących z prowadzonego przez NASA projektu Shuttle Radar Topography Mission (SRTM), która mierzy wysokości za pomocą satelity. Dane SRTM są publicznie dostępne, jednak są mniej dokładne niż dane z lidar. SRTM mierzy bowiem wysokość samego gruntu oraz obiektów wystających ponad grunt. Dane takie są więc zawyżone, szczególnie na obszarach gęsto zurbanizowanych i zalesionych. Wiadomo na przykład, że dla nisko położonych części wybrzeży Australii SRTM zawyża pomiary aż o 2,5 metra. Wydaje się, że średni pomiar za pomocą SRTM odbiega od rzeczywistości o około 2 metry. W przypadku wybrzeży te 2 metry czynią olbrzymią różnicę.

Naukowcy z Climate Central stworzyli cyfrowy model CoastalDEM, który jest znacząco bardziej dokładny niż SRTM, szczególnie w odniesieniu do gęsto zaludnionych obszarów. Wykorzystali przy tym ponad 51 milionów punktów danych. Okazało się, że na gęsto zaludnionych obszarach USA, gdzie zagęszczenie ludności sięga 20 000 osób na km2 – tak jest w częściach Bostonu, Miami czy Nowego Jorku – SRMT przeszacowuje wysokość nad poziomem morza średnio o 4,7 metra, podczas gdy CoastalDEM zmniejsza ten błąd do około 10 centymetrów.

Po połączeniu CoastalDEM z modelami dotyczącymi wzrostu poziomu oceanów oraz modelami powodzi na wybrzeżach okazało się, że znacznie większe obszary niż dotychczas sądzono będą narażone na powodzie związane z rosnącym poziomem wód.
Przy założeniu umiarkowanego ograniczenia emisji gazów cieplarnianych przewidywania oparte na modelu SRTM pokazują, że w roku 2050 na coroczne powodzie narażonych będzie 79 milionów mieszkańców wybrzeży. Takie same założenia przy wykorzystaniu modelu CoastalDEM zwiększają liczbę narażonych do 300 milionów.

Wzrost poziomu oceanów dotknie przede wszystkim mieszkańców Azji. I tak w Chinach, wedle wyliczeń przy uwzględnieniu danych z CoastalDEM, corocznych powodzi na wybrzeżach mogą spodziewać się 93 miliony osób (29 milionów wg SRTM), w Bangladeszu będą to 42 miliony (SRTM: 5 milionów), w Indiach to 36 milionów (SRTM: 5 milionów). Na powodzie powinno też przygotować się 31 milionów mieszkańców Wietnamu (SRTM: 9 milionów), 23 miliony obywateli Indonezji (SRTM: 5 milionów) oraz 12 milionów zamieszkujących Tajlandię (SRTM: 1 milion). W tych sześciu krajach mieszka 75% osób, które będą narażone na coroczne powodzie spowodowane wzrostem poziomu oceanów.

Naukowcy podkreślają, że w swoich badaniach brali pod uwagę zagrożenie powodzią związane z wysokością danego obszaru nad poziomem morza. Nie uwzględniali istniejących i przyszłych działań władz, mających na celu zabezpieczenie zalewanych terenów.

Jako, że poziom oceanów będzie rósł również po roku 2050 uczeni wykonali modelowanie do roku 2100. Z CoastalDEM wynika, że wówczas obszary zamieszkane przez 200 milionów osób mogą na stałe znaleźć się pod wodą. I znowu najbardziej zagrożone będą kraje Azji. W Chinach, Bangladeszu, Indiach, Wietnamie, Indonezji i Tajlandii mieszka 151 milionów ludzi (tylko w Chinach są to 43 miliony), których domy mogą zostać na stałe zatopione. Podobny los może spotkać wielu mieszkańców innych krajów, od Nigerii i Egiptu, poprzez Wielką Brytanię po Brazylię. W tym też czasie doroczne powodzie będą groziły kolejnym 360 milionom osób, co oznacza, że do końca wieku 560 milionów mieszkańców wybrzeży będzie żyło w ciągłym zagrożeniu. I to przy założeniu ograniczonej redukcji emisji. Jeśli zaś emisja będzie wyższa, niż założono, zagrożone będą obszary zamieszkane przez 640 milionów osób.

Skutki gospodarcze takiego rozwoju sytuacji będą trudne do przewidzenia. Dość wspomnieć, że w ostatnich dekadach przybrzeżne prowincje Chin przyciągnęły miliony emigrantów z wnętrza kraju. Podnoszący się poziom oceanów zagrozi globalnym centrom gospodarczym w prowincjach Guangdong czy Jiangsu.

Autorzy badań wymienili ich słabości. Przyznają, że model CoastalDEM jest mniej dokładny niż lidar i zawyża średnią wysokość nad poziomem morza. Ponadto w swoich wyliczeniach wykorzystali dane populacji pochodząc e bazy 2010 LandScan. W ciągu ostatnich lat populacja ludności znacznie wzrosła. Ponadto wciąż nieznany jest wpływ Arktyki i Antarktyki na przyszły wzrost poziomu oceanów. W ostatnim czasie pojawiły się badania sugerujące, że szczególnie lody Antarktyki mogą być mniej stabilne niż sądzono. W analizach wykorzystano ponadto model RCP4.5, który zakłada, że na globalną skalę zostanie wdrożone porozumienie paryskie. Badania nie uwzględniają też infrastruktury chroniącej przed powodziami. Warto jednak wspomnieć, że taka infrastruktura jest kosztowna, wymaga znacznych wysiłków na jej utrzymanie i nawet w USA w 2013 roku oceniano, że jedynie 8% tego typu infrastruktury znajduje się w akceptowalnym stanie.

W sieci dostępna jest też interaktywna mapa, na której można sprawdzić przyszłe ryzyko powodzi.


« powrót do artykułu

Share this post


Link to post
Share on other sites

czyli jedynym ratunkiem będą domy budowane na wyższych terenach N.P.M. Inaczej, jeżeli prognozy się ziszczą będzie krucho

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Sadzenie drzew i zapobieganie pożarom lasów niekoniecznie prowadzi do uwięzienia większej ilości węgla w glebie. Autorzy badań opublikowanych na łamach Nature Geoscience odkryli, że planowane wypalanie sawann, użytków zielonych oraz lasów strefy umiarkowanej może pomóc w ustabilizowaniu węgla uwięzionego w glebie, a nawet zwiększenia jego ilości.
      Kontrolowane wypalanie lasów, którego celem jest zmniejszenie intensywności przyszłych niekontrolowanych pożarów, to dobrze znana strategia. Odkryliśmy, że w takich ekosystemach jak lasy strefy umiarkowanej, sawanny i użytki zielone, ogień może ustabilizować, a nawet zwiększyć ilość węgla uwięzionego w glebie, mówi główny autor badań, doktor Adam Pellegrini z University of Cambridge.
      Wynikiem dużego niekontrolowanego pożaru lasu jest erozja gleby i wypłukiwanie węgla do środowiska. Mogą minąć nawet dziesięciolecia, nim uwolniony w ten sposób węgiel zostanie ponownie uwięziony. Jednak, jak przekonują autorzy najnowszych badań, ogień może również prowadzić do takich zmian w glebie, które równoważą utratę węgla i mogą go ustabilizować.
      Po pierwsze, w wyniku pożaru powstaje węgiel drzewny, który jest bardzo odporny na rozkład. Warstwa węgla zamyka zaś wewnątrz bogatą w węgiel materię organiczną. Ponadto ogień może zwiększyć ilość węgla ściśle powiązanego z minerałami w glebie. Jeśli odpowiednio dobierze się częstotliwość i intensywność pożarów, ekosystem może uwięzić olbrzymie ilości węgla. Chodzi tutaj o zrównoważenie węgla przechodzącego do gleby w postaci martwych roślin i węgla wydostającego się z gleby w procesie rozkładu, erozji i wypłukiwania, wyjaśnia Pellegrini.
      Gdy pożary są częste i intensywne, a tak się dzieje w przypadku gęstych lasów, wypalane są wszystkie martwe rośliny. Ta martwa materia organiczna rozłożyłaby się i węgiel trafiłby do gleby. Tymczasem w wyniku pożaru zostaje on uwolniony do atmosfery. Ponadto bardzo intensywne pożary mogą destabilizować glebę, oddzielając bogatą w węgiel materię organiczną od minerałów i zabijając bakterie oraz grzyby.
      Bez obecności ognia martwa materia organiczna jest rozkładana przez mikroorganizmy i uwalniana w postaci dwutlenku węgla lub metanu. Gdy jednak dochodzi do niezbyt częstych i niezbyt intensywnych pożarów, tworzy się węgiel drzewny oraz dochodzi do związania węgla z minerałami w glebie. A węgiel w obu tych postaciach jest znacznie bardziej odporny na rozkład, a tym samym na uwolnienie do atmosfery.
      Autorzy badań mówią, że odpowiednio zarządzane wypalanie może doprowadzić do zwiększenia ilości węgla uwięzionego w glebie. Gdy rozważamy drogi, jakimi ekosystem przechwytuje węgiel z atmosfery i go więzi, zwykle uważamy pożary za coś niekorzystnego. Mamy jednak nadzieję, że nasze badania pozwolą odpowiednio zarządzać pożarami. Ogień może być czymś dobrym, zarówno z punktu widzenia bioróżnorodności jak i przechowywania węgla, przekonuje Pellegrini.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Z symulacji przeprowadzonych przez naukowców ze Stanford University dowiadujemy się, że globalne ocieplenie wydłuży okresy stagnacji atmosfery. To bardzo niebezpieczne zjawisko dla mieszkańców miast i obszarów uprzemysłowionych.
      Liczne modele, wykorzystane na Stanfordzie, wykazały, że wydłużonych okresów stagnacji doświadczy aż 55% ludzkości. O stagnacji mówi się, gdy masa powietrza pozostaje przez dłuższy czas w jednym miejscu i gdy nie ma opadów.
      Podczas normalnych procesów atmosferycznych powietrze jest oczyszczane przez opady oraz mieszane dzięki wiatrowi. Jednak w czasie stagnacji powietrze nie jest oczyszczane, a nad obszar, który jej doświadczył, nie napływa nowe, czystsze powietrze i nie wypycha stamtąd powietrza zanieczyszczonego. To oznacza, że rośnie poziom koncentracji zanieczyszczeń w powietrzu. Jest to zjawisko szczególnie niebezpieczne na gęsto zaludnionych obszarach.
      Uczeni ze Stanforda uważają, że średnia liczba dni stagnacji w atmosferze wzrośnie o 40 dni rocznie. W ich wyniku będziemy prawdopodobnie mieli ze zwiększoną liczbą zachorowań na choroby płuc i układu krążenia. To z kolei przełoży się na zwiększoną umieralność. Ofiarami tak zmienionego klimatu mogą paść miliony osób rocznie.
      Najbardziej dotkniętymi stagnacją atmosfery obszarami będą Meksyk, Indie i zachodnia część USA. To gęsto zaludnione obszary, więc tam może pojawić się najwięcej problemów.
      Głównym sposobem walki z tak niekorzystnymi zjawiskami powinna być próba uniknięcia wystąpienia takich zjawisk czyli radykalna redukcja emisji gazów cieplarnianych.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Naukowcy z Big Bear Solar Observatory, Instituto de Astrofísica de Canarias oraz New York University poinformowali, że Ziemia pociemniała w wyniku zmian klimatycznych. Główną zaś przyczyną zmniejszonego współczynnika odbicia naszej planety są ogrzewające się oceany. Na potrzeby swoich badań uczeni wykorzystali dane z 20 lat (1998–2017) pomiarów światła popielatego oraz pomiary satelitarne. Okazało się, że w tym czasie doszło do znacznego spadku albedo – stosunku światła padającego do odbitego – Ziemi.
      Światło popielate to światło odbite od Ziemi, które pada na nieoświetloną przez Słońce powierzchnię Srebrnego Globu. Możemy z łatwością zaobserwować je w czasie, gdy Księżyc widoczny jest jako cienki sierp o zmierzchu lub świcie. Widzimy wtedy słabą poświatę na pozostałej części jego tarczy. To właśnie światło popielate, odbite od naszej planety światło słoneczne, które dotarł do Księżyca.
      Obecnie, jak czytamy na łamach pisma Geophysical Research Letters wydawanego przez American Geophysical Union, Ziemia odbija o około 0,5 W na m2 mniej światła niż przed 20 laty, a do największego spadku doszło na przestrzeni 3 ostatnich lat badanego okresu. Taka wartość oznacza, że współczynnik odbicia naszej planety zmniejszył się o około 0,5%. Ziemia odbija około 30% padającego na nią światła słonecznego.
      Taki spadek albedo był dla nas zaskoczeniem, gdyż przez wcześniejszych 17 lat utrzymywało się ono na niemal stałym poziomie, mówi Philip Goode z Big Bear Solar Observatory.
      Na albedo planety wpływają dwa czynniki, jasność jej gwiazdy oraz współczynnik odbicia samej planety. Badania wykazały zaś, że obserwowane zmiany albedo Ziemi nie są skorelowane ze zmianami jasności Słońca, a to oznacza, że przyczyna zmian albedo znajduje się na samej Ziemi.
      Jak wykazały dalsze analizy, satelity pracujące w ramach projektu Clouds and the Earth’s Radiant Energy System (CERES) zarejestrowały spadek pokrywy nisko położonych jasnych chmur tworzących się nad wschodnią częścią Pacyfiku. Do spadku tego doszło u zachodnich wybrzeży obu Ameryk. Z innych zaś badań wiemy, że w tamtym regionie szybko rośnie temperatura wód powierzchniowych oceanu, a zjawisko to spowodowane jest zmianami w dekadowej oscylacji pacyficznej (PDO). Zaś zmiany te są najprawdopodobniej wywołane globalnym ociepleniem.
      Zmniejszenie współczynnika odbicia oznacza również, że w całym ziemskim systemie zostaje uwięzione więcej energii słonecznej niż wcześniej. To może dodatkowo napędzać globalne ocieplenie.
      Specjaliści zauważają, że to niepokojące zjawisko. Jakiś czas temu naukowcy meli nadzieję, że globalne ocieplenie doprowadzi do pojawienia się większej ilości chmur i zwiększenia albedo Ziemi, co złagodzi wpływ człowieka na klimat i go ustabilizuje. Tymczasem okazało się, że chmur tworzy się mniej, przez co albedo spada.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Jedna z najbardziej znanych polskich gór, Szczeliniec Wielki w Górach Stołowych, jest wyższa niż przez lata twierdzono. Pracownicy Instytutu Geodezji i Geoinformatyki Uniwersytetu Przyrodniczego we Wrocławiu wykonali pomiary szczytu, które wykazały, że podawana w podręcznikach wysokość 919 m n.p.m. jest błędna. Szczeliniec jest o 3 metry wyższy.
      Różnica aż 3 metrów wprawiła nas w takie zakłopotanie, że pomiary powtarzaliśmy wielokrotnie, ale każdy kolejny pomiar utwierdzał nas w przekonaniu, że właściwą wysokością Szczelińca jest 922 metry – mówią autorzy badań.
      Za pomiary geodezyjne w Górach Stołowych od 50 lat odpowiada Studenckie Koło Naukowe Geodetów Uniwersytetu Przyrodniczego we Wrocławiu. Jednak zwykle mierzono deformacje góry, które miały określić stabilność i bezpieczeństwo form skalnych, z których znany jest Szczeliniec. Tym razem o pomiar szczytu i opracowanie danych pokusili się profesor Krzysztof Sośnica oraz doktorzy Adrian Kaczmarek i Kamil Kaźmierski.
      Naukowcy wykorzystali metodę niwelacji precyzyjnej, która umożliwia uzyskanie dokładności poniżej 1 milimetra oraz pomiary grawimetryczne przyspieszenia siły ciężkości i Globalne Nawigacyjne Systemy Satelitarne (GNSS). Pomiary wykazały, że wysokość Szczelińca Wielkiego wynosi 921,84 m nad poziomem Morza Bałtyckiego oraz 922,01 m nad poziomem Morza Północnego.
      Różnica w pomiarach wynika z faktu, że w Polsce obowiązują dwa układy wysokościowe. Jeden względem mareografu w Kronsztadzie koło Sankt Petersburga, z którego mamy dane o średniej wysokości poziomu Morza Bałtyckiego, drugi zaś względem mareografu w Amsterdamie, mierzącego średnią wysokość Morza Północnego. Ten holenderski jest nowszy i bardziej precyzyjny. Różnica pomiędzy oboma układami wynosi od 13 do 20 centymetrów w zależności od regionu Polski. Na Szczelińcu różnica ta wynosi 17 cm.
      Oczywiście można się zastanowić, dlaczego nie korzystać obecnie wyłącznie z pomiarów GPS. Otóż pomiary takie opierają się na pomiarach odległości pomiędzy satelitą a odbiornikiem. Nie mają nic wspólnego z przyspieszeniem grawitacyjnym. Tymczasem posługujemy się pojęciem wysokości nad poziomem morza. A wysokość poziomu spokojnego morza – inaczej mówiąc, model geoidy w danym punkcie – jest różna w zależności od gęstości skał w skorupie ziemskiej. Dlatego też pomiary satelitarne trzeba korygować o model geoidy.
      Jednak pomiary w górach napotykają na dodatkową trudność. Otóż model geoidy nie jest tutaj dokładny ze względu na różną gęstość skał w górach oraz niejednorodny poziom morza, które naukowcy „przeciągają” w teren górski. Dlatego też dodatkowo należy stosować niwelację precyzyjną i pomiary przyspieszenia siły ciężkości pola grawitacyjnego. Wrocławscy uczeni mierzyli więc dodatkowo różnice pomiędzy punktem wysokościowym (reperem) w Karłowie u podnóża Szczelińca, a reperami wokół schroniska na szczycie.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Nowy raport IPCC to „czerwony alarm dla ludzkości", stwierdził Sekretarz Generalny ONZ Antonio Guterres. Opublikowana właśnie część raportu to pierwsze od 2013 roku duże opracowanie podsumowujące stan wiedzy na temat zmian klimatycznych. Jeśli połączymy siły, możemy jeszcze uniknąć katastrofy. Ale, jak pokazuje raport, nie ma już czasu na zwłokę, nie ma też wymówek. Raport opublikowano na trzy miesiące przed szczytem klimatycznym w Glasgow.
      Autorzy raportu mówią, że od roku 1970 temperatury na powierzchni Ziemi rosną szybciej niż w jakimkolwiek 50-letnim okresie w ciągu ostatnich 2000 lat. Używając terminologii sportowej, atmosfera jest na dopingu, co oznacza, że coraz częściej obserwujemy ekstremalne zjawiska, mówi Peteri Taalas, sekretarz generalny Światowej Organizacji Meteorologicznej.
      Główne wnioski z raportu to:
      – w dekadzie 2011–2020 średnia globalna temperatura była o 1,09 stopnia Celsjusza wyższa niż w latach 1850–1900, a ostatnich pięć lat było najgorętszych od roku 1850;
      – tempo wzrostu poziomu oceanów jest obecnie niemal trzykrotnie szybsze niż w latach 1901–1971;
      – z 90-procentową pewnością można stwierdzić, że wpływ człowieka jest głównym powodem wycofywania się lodowców i spadku pokrywy lodu morskiego w Arktyce obserwowanych od lat 90. XX w.
      – jest pewne, że gorące ekstrema, w tym fale upałów, stają się od lat 50. XX w. częstsze i bardziej intensywne, a fale mrozów rzadsze i mniej poważne.
      W raporcie czytamy również, że już teraz globalne ocieplenie spowodowało zmiany w wielu systemach podtrzymywania życia na planecie. Systemy te mogą powrócić do stanu sprzed zmian dopiero w perspektywie setek bądź tysięcy lat. Oceany będą się ocieplały i zwiększały kwasowość, a lodowce będą wycofywały się jeszcze przed dekady lub wieki. Autorzy ostrzegają, że każdy dodatkowy ułamek stopnia, o który ogrzejemy planetę, będzie tylko pogarszał sytuację.
      W chwili obecnej nie można też wykluczyć – choć jest to mało prawdopodobne – wzrostu poziomu oceanów o 2 metry do roku 2100 i o 5 metrów do roku 2150. To zaś oznacza, że w najbliższych dekadach miliony osób mieszkających na wybrzeżach będą musiały uciekać przed powodziami i podtopieniami.
      W Porozumieniu Paryskim z 2015 roku założono, że wzrost średnich temperatur na Ziemi zostanie powstrzymany poniżej 2 stopni Celsjusza w porównaniu z epoką przedprzemysłową, a celem jest utrzymanie go na poziomie poniżej 1,5 stopnia. Z najnowszego raportu wynika, że obecnie jedynym sposobem, by dotrzymać tych ustaleń jest szybkie i bardzo poważne zmniejszenie emisji węgla do atmosfery. Wszelkie inne scenariusze rozważane w raporcie nie dają szansy na utrzymanie temperatur w zaplanowanych widełkach. To zaś oznacza, że w krótkim czasie średnie temperatury na powierzchni Ziemi mogą wzrosnąć do takich, jakich planeta nie doświadczyła od setek tysięcy lub nawet milionów lat. To temperatury, z którymi nigdy się nie zetknęliśmy.
      Obecnie ludzkość emituje około 40 miliardów ton CO2 rocznie, tymczasem naukowcy ostrzegają, że jeśli wyemitujemy dodatkowo 500 miliardów ton, to szansa, że globalne ocieplenie zatrzyma się przed poziomem 1,5 stopnia Celsjusza wynosi 50:50.
      W raporcie czytamy, że wzrost temperatur o 1,5 stopnia Celsjusza powyżej epoki przedprzemysłowej nastąpi do roku 2040. Pod warunkiem jednak, że w ciągu najbliższych kilku lat dojdzie do znaczącej redukcji emisji. Jeśli tak się nie stanie, te 1,5 stopnia osiągniemy szybciej.
      Autorzy raportu przygotowali 5 różnych scenariuszy emisji dwutlenku węgla. Tylko 2 z nich dają szansę, na powstrzymanie globalnego ocieplenia przed poziomem 2 stopni Celsjusza. Najbardziej ambitny, który zakłada, że do połowy wieku emisja spadnie do poziomu 0 netto, pozwala przypuszczać, że globalne ocieplenie uda się zatrzymać nieco powyżej poziomu 1,5 stopnia Celsjusza w porównaniu z epoką przedprzemysłową.
      W związku z opublikowaniem raportu Antonio Guterres wezwał wszystkie kraje, by zrezygnowały z planów budowy nowych elektrowni węglowych oraz planów rozwoju i eksploracji paliw kopalnych. Raport ten musi być dzwonem pogrzebowym dla węgla i paliw kopalnych, zanim zniszczą one naszą planetę, stwierdził.
      Dzisiaj zaprezentowano pierwszą część, podsumowanie, raportu. Liczy sobie ono 41 stron. Dostępny jest też cały raport [PDF] o objętości niemal 4000 stron, jednak pozostałe strony oznaczono jako Wersja zaakceptowana. Może zostać poddana ostatecznej edycji.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...