Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Profesor Andy Hopper z Cambridge University uważa, że wielkie centra komputerowe powinny powstawać tam, gdzie dostępna jest tania odnawialna energia. Szybko zwiększająca się liczba centrów bazodanowych i obliczeniowych powoduje gwałtowny wzrost zużycia energii przez komputery, które w coraz większym stopniu przyczyniają się do emisji dwutlenku węgla.

W samej Wielkiej Brytanii przemysł komputerowy jest odpowiedzialny za emisję 2,8 miliona ton CO2 rocznie. Cała brytyjska emisja to nieco ponad 150 milionów ton.

Profesor Hopper zauważa, że dostarczanie energii centrom komputerowym jest czymś innym, niż dostarczanie energii domowi. Centra komputerowe można zbudować praktycznie w dowolnym miejscu na Ziemi. Można postawić je więc tam, gdzie np. jest bardzo łatwy dostęp do energii wiatrowej.

Takie rozwiązanie miałoby sporo zalet. Można wykorzystać energię, która obecnie się marnuje, gdyż jej źródła są zbyt oddalone od ludzkich siedzib. Energia odnawialna może być tańsza od konwencjonalnej i, w końcu, jej wykorzystanie zmniejszy emisję gazu cieplarnianego do atmosfery.

Share this post


Link to post
Share on other sites

Problem w tym, że pociągnięcie światłowodu na takie odludzie niestety sporo by kosztowało. Trzeba by było solidnie przeliczyć, czy opłaca się komukolwiek zaoszczędzić na energii (a gdzie koszt inwestycji w wiatraki?), a w zamian dostać rachunek za wszelkie inne podłączenia. Poza tym energia wiatrowa niestety nie daje gwarancji stabilności zasilania, więc linię energetyczną też trzeba by było pociągnąć - kolejny wielki koszt.

Share this post


Link to post
Share on other sites

Nie koniecznie. Jeśli budowane były by całe "miasteczka komputerowe" prawie na pewno było  by to opłacalne. Ciągneło by się by się jeden światłowód i jedną linię zasilania, a następnie jedynie dostawiało jedne centrum komputerowe obok drugiego. Poza tym ponieważ centrum takie mogło by mieć prawie dowolną lokalizację wydaje mi się że było by to miejsce w którym niekorzystne warunki pogodowe by nie występowały, lub prawie nie występowały (na pewno są takie miejsca). Jeśli chodzi o transfer danych również mam wątpliwości czy jest potrzebny światłowód. Pewnie wiesz, że terminale bardzo często do superkomputerów podłączone są poprzez zwykły ethernet. Chodzi o to, że terminal jedynie otrzymuje wyniki obliczeń od superkomputera i wysyła mu polecenia. Może się mylę, ale wydaje mi się że nie jest do tego celu potrzebne jakieś ogromnie wydajne łącze. Zapewne wystarczyła by satelita, choć może się mylę.

Share this post


Link to post
Share on other sites

Jasne... w obserwatorium w Arecibo jako połączenie ze światem służy... goniec przyjeżdżający po taśmy z zapisanymi danymi... tylko czy o to nam tu chodzi?

Share this post


Link to post
Share on other sites

Jest tak zapewne dlatego, że taki radioteleskop nie przynosi większych korzyści materialnych (o ile nie trzeba do niego dokładać). Natomiast w takim komputerowym miasteczku przynajmniej część inwestycji nastawiona była by na komercyjny zysk i wybudowanie takiego łącza (nawet światłowodu) zapewne szybko by się zwróciło.

Share this post


Link to post
Share on other sites
Guest tymeknafali

Jeśli chodzi o samą energię odnawialną, to powinna być stosowana nie tylko do komputerów. Obecnie jednak nie ma zbyt wydatnej wersji pozyskiwania tego typu energii. Może za kilka lat...

Share this post


Link to post
Share on other sites

Ekonomistą nie jestem, ale wiem, że światłowód to piekielnie droga rzecz (tym bardziej, że żadne szanujące się centrum superkomputerowe nie będzie działało na pojedynczej linii bez backupu). Linia energetyczna ciągnięta na życzenie pojedynczej firmy również tania nie jest. (jak wyżej). Na moje laickie oko taki pomysł z wyprowadzaniem centrów nie wiadomo jak daleko od cywilizacji mógłby nie byc opłacalny. Ale tak jak mówię: ja wykształcenia w tym kierunku nie mam, być może Ty masz i wiesz lepiej. Ja tylko spekuluję.

Share this post


Link to post
Share on other sites
Ekonomistą nie jestem, ale wiem, że światłowód to piekielnie droga rzecz (tym bardziej, że żadne szanujące się centrum superkomputerowe nie będzie działało na pojedynczej linii bez backupu). Linia energetyczna ciągnięta na życzenie pojedynczej firmy również tania nie jest.

 

Jest tylko mała uwaga że dane na przesyle nie tracą a energia tak. 8)

Share this post


Link to post
Share on other sites

Ależ oczywiście, że tracą. Trzeba stawiać wzmacniacze sygnału, które do tanich nie należą.

Share this post


Link to post
Share on other sites
Trzeba stawiać wzmacniacze sygnału, które do tanich nie należą

 

Wzmacniacze światła?? Hm , to ile ich jest na drodze ze śłońca do ziemi?? 8)

Share this post


Link to post
Share on other sites

Wzmacniacze światła?? Hm , to ile ich jest na drodze ze śłońca do ziemi?? 8)

 

;D

 

Ekonomistą nie jestem[...]

 

Nie trzeba być ekonomistą, żeby zauważyć, że jednorazowo poniesione duże koszty, mogą być opłacalne jeśli zagwarantują w przyszłości nie ponoszenie kosztów w ogóle (cały czas zakładam że centra komputerowe nastawione były by na komercyjny zysk). Ale mniejsza z tym. Przyszło mi do głowy coś innego. Skoro zakładasz, że konieczne było by podłączenie linii zasilania, to po cholere budować centrum komputerowe na bezludziu skoro wystarczy z tego bezludzia poprowadzić linie energetyczną do najbliższej siedziby ludzkiej i tam zbudować to centrum? Rozwiązanie to było by i tańsze (nie ma potrzeby rozpinania światłowodu) i wygodniejsze (obsługa na miejscu). W związku z tym uważam że twórcy idei budowania centrów komputerowych na bezludziach nie biorą pod uwagę łączenia ich z siedzibami ludzkimi wspomnianymi przez ciebie mediami.

Share this post


Link to post
Share on other sites
Skoro zakładasz, że konieczne było by podłączenie linii zasilania, to po cholere budować centrum komputerowe na bezludziu skoro wystarczy z tego bezludzia poprowadzić linie energetyczną do najbliższej siedziby ludzkiej i tam zbudować to centrum?

To pytanie nie powinno być skierowane do mnie (o ile było). Zadaj je raczej autorom tej koncepcji.

 

W związku z tym uważam że twórcy idei budowania centrów komputerowych na bezludziach nie biorą pod uwagę łączenia ich z siedzibami ludzkimi wspomnianymi przez ciebie mediami.

Zgadzam się z tym.

Share this post


Link to post
Share on other sites

To pytanie nie powinno być skierowane do mnie (o ile było). Zadaj je raczej autorom tej koncepcji.

 

No właśnie do Ciebie  ;) Pomysł ten opracowali profesorowie z poważanej uczelni, tak? Obaj zgadzamy się że ciąganie kabli do centrów komputerowych położonych na bezludziach jest z gruntu bez sensowne. Więc ci profesorowie też zapewne zdają sobie z tego sprawę, a skoro tak to najwyraźniej da się to zorganizować bez wspomnianych mediów. No chyba że ci naukowcy mają tyle czasu że opóźnienia spowodowane gońcem wysyłanym po taśmy im nie przeszkadzają ;) 

Share this post


Link to post
Share on other sites

Nie chce i nie próbuję podważać autorytetu tego człowieka (nota bene: urodzonego w Warszawie). Po prostu dzielę się swoimi przemyśleniami. Po prostu mam wątpliwości, czy w obecnej sytuacji byłoby to możliwe.

Trzeba by było znaleźć miejsce jednocześnie bliskie cywilizacji (żeby obniżyć koszty dostarczenia mediów) i jednocześnie "wydajne energetycznie", co moim zdaniem mogłoby być bardzo skomplikowane. Moim zdaniem byłoby to na dzień dzisiejszy albo bardzo, bardzo trudne, albo wręcz niemożliwe i nieopłacalne. Fajnie by było, gdyby prof. Hopper poparł swoją opinię konkretnymi liczbami, wtedy byłoby na pewno łatwiej dyskutować.

Share this post


Link to post
Share on other sites

Co do wydajności energetycznej, to przecież można wykorzystywać kilka różnych źródeł, np. elektrownie wiatrowo-słoneczne. Dodatkowo takie miasteczka spowodowałyby rozwój technologii do odzyskiwania ciepła wydzielanego podczas pracy tych urządzeń, a nie tylko zużywanie dodatkowej energii na ich chłodzenie. Jedno co mnie martwi, to to, że w przypadku zcentralizowanego datacenter dla wielu firm, pojedynczy atak terrorystyczny lub katastrofa naturalna mogłyby sparaliżować mnóstwo firm (chyba, że powstałyby firmy specjalizujące się w budowaniu takich miasteczek i replikacji danych). W przypadku miasteczek dla superkomputerów straty nie byłyby aż tak dotkliwe, choć tutaj zapotrzebowanie na energię byłoby o wiele większe.

Share this post


Link to post
Share on other sites

Co do wydajności energetycznej, to przecież można wykorzystywać kilka różnych źródeł, np. elektrownie wiatrowo-słoneczne. Dodatkowo takie miasteczka spowodowałyby rozwój technologii do odzyskiwania ciepła

Tylko tu właśnie jest problem: skoro takie centrum miałoby powstać na korzystnym energetycznie odludziu, to niestety przetransportowanie nośnika ciepła na duża odległość generowałoby ogromne koszty w infrastrukturze, a mimo to wciąż straty przy przesyle byłyby ogromne. Koło się zamyka.

 

Jedno co mnie martwi, to to, że w przypadku zcentralizowanego datacenter dla wielu firm, pojedynczy atak terrorystyczny lub katastrofa naturalna mogłyby sparaliżować mnóstwo firm (chyba, że powstałyby firmy specjalizujące się w budowaniu takich miasteczek i replikacji danych).

Oczywiście, że takie firmy istnieją ;) Złożoność budowy serwerowni i centrów superkomputerowych jest zadziwiająca, więc nic dziwnego, że są firmy specjalizujące się w takiej działalności.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Już wkrótce elektrownia węglowa Dry Fork znajdująca się w pobliżu miasteczka Gillette w stanie Wyoming będzie wykorzystywała dwutlenek węgla do produkcji materiałów budowlanych. W marcu w elektrowni rozpoczyna się program pilotażowy, w ramach którego CO2 będzie zmieniane w betonowe bloczki.
      Eksperyment prowadzony będzie przez naukowców z Uniwersytetu Kalifornijskiego w Los Angeles (UCLA). Przez try miesiące każdego dnia będą oni odzyskiwali 0,5 tony dwutlenku węgla i wytwarzali 10 ton betonu. To pierwszy system tego typu. Chcemy pokazać, że można go skalować, mówi profesor Gaurav Sant, który przewodzi zespołowi badawczemu.
      Carbon Upcycling UCLA to jeden z 10 zespołów biorących udział a ostatnim etapie zawodów NRG COSIA Carbon XPrize. To ogólnoświatowe zawody, których uczestnicy mają za zadanie opracować przełomową technologię pozwalającą na zamianę emitowanego do atmosfery węgla na użyteczny materiał.
      W Wyoming są jeszcze cztery inne zespoły, w tym kanadyjski i szkocki. Pozostałych pięć drużyn pracuje w elektrowni gazowej w Kanadzie. Wszyscy rywalizują o główną nagrodę w wysokości 7,5 miliona dolarów. Zawody zostaną rozstrzygnięte we wrześniu.
      Prace UCLA nad nową technologią rozpoczęto przed około 6laty, gdy naukowcy przyjrzeli się składowi chemicznemu... Wału Hadriana. Ten wybudowany w II wieku naszej ery wał miał bronić Brytanii przed najazdami Piktów.
      Rzymianie budowali mur mieszając tlenek wapnia z wodą, a następnie pozwalając mieszaninie na absorbowanie CO2 z atmosfery. W ten sposób powstawał wapień. Proces taki trwa jednak wiele lat. Zbyt długo, jak na współczesne standardy. Chcieliśmy wiedzieć, czy reakcje te uda się przyspieszyć, mówi Guarav Sant.
      Rozwiązaniem problemu okazał się portlandyt, czyli wodorotlenek wapnia. Łączy się go z kruszywem budowlanym i innymi materiałami, uzyskując wstępny materiał budowlany. Następnie całość trafia do reaktora, gdzie wchodzi w kontakt z gazami z komina elektrowni. W ten sposób szybko powstaje cement. Sant porównuje cały proces do pieczenia ciastek. Mamy oto bowiem mokre „ciasto”, które pod wpływem temperatury i CO2 z gazów kominowych zamienia się w użyteczny produkt.
      Technologia UCLA jest unikatowa na skalę światową, gdyż nie wymaga kosztownego etapu przechwytywania i oczyszczania CO2. To jedyna technologia, która bezpośrednio wykorzystuje gazy z komina.
      Po testach w Wyoming cała instalacja zostanie rozmontowana i przewieziona do National Carbon Capture Center w Alabamie. To instalacja badawcza Departamentu Energii. Tam zostanie poddana kolejnym trzymiesięcznym testom.
      Na całym świecie wiele firm i grup naukowych próbuje przechwytywać CO2 i albo go składować, albo zamieniać w użyteczne produkty. Jak wynika z analizy przeprowadzonej przez organizację Carbon180, potencjalna wartość światowego rynku odpadowego dwutlenku węgla wynosi 5,9 biliona dolarów rocznie, w tym 1,3 biliona to produkty takie jak cementy, asfalty i kruszywa budowlane. Zapotrzebowanie na takie materiały ciągle rośnie, a jednocześnie coraz silniejszy akcent jest kładziony na redukcję ilości węgla trafiającego do atmosfery. To zaś tworzy okazję dla przedsiębiorstw, które mogą zacząć zarabiać na przechwyconym dwutlenku węgla.
      Cement ma szczególnie duży ślad węglowy, gdyż jego produkcja wymaga dużych ilości energii. Każdego roku na świecie produkuje się 4 miliardy ton cementu, a przemysł ten generuje około 8% światowej emisji CO2. Przemysł cementowy jest tym, który szczególnie trudno zdekarbonizować, brak więc obecnie efektywnych rozwiązań pozwalających na zmniejszenie emisji węgla. Technologie wykorzystujące przechwycony CO2 mogą więc wypełnić tę lukę.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W obserwatorium na Mauna Loa zanotowano najwyższe stężenie CO2 w historii pomiarów. W niedzielę rano urządzenia zarejestrowały stężenie dwutlenku węgla w atmosferze rzędu 415,39 ppm (części na milion). To jednocześnie pierwszy raz, gdy dzienne stężenie przekroczyło 415 części na milion. Dokładnie rok wcześniej, 12 maja 2018 roku, urządzenia rejestrowały 411,92 ppm. Niemal równo sześć lat temu, 10 maja 2013 roku, informowaliśmy, że z nocy z 7 na 8 maja koncentracja CO2 po raz pierwszy przekroczyła granicę 400 ppm.
      Ostatni raz koncentracja CO2 powyżej 415 ppm występowała na Ziemi przed około 3 milionami lat. To pokazuje, że nawet nie zaczęliśmy chronić klimatu. Liczby z roku na rok są coraz wyższe, mówi Wolfgang Lucht z Poczdamskiego Instytutu Badań nad Wpływem Klimatu.
      Stacja pomiarowa na Mauna Loa jest najdłużej działającym stałym punktem pomiaru stężenia dwutlenku węgla w atmosferze. Na jej lokalizację wybrano położony na Hawajach szczyt, gdyż jest to najbardziej oddalony od emisji przemysłowej punkt na Ziemi. Jednocześnie, jako że mamy tu do czynienia z czynnym wulkanem, który sam też emituje CO2, pomiary uwzględniają ten fakt i gaz pochodzący z wulkanu nie jest liczony.
      Pomiary z poszczególnych dni mogą różnić się między sobą, gdyż w ich przypadku dużo zależy od warunków atmosferycznych i pory roku. W najbliższym czasie, w związku z tym, że na bardziej uprzemysłowionej półkuli północnej właśnie trwa wiosna, należy spodziewać się spadku stężenia dwutlenku węgla, gdyż będą go pochłaniały rośliny. Jednak widać, że stężenie gazu cieplarnianego ciągle rośnie. Specjaliści przypuszczają, że wzrost rok do roku wyniesie około 3 ppm, podczas gdy średnia z ostatnich lat to 2,5 ppm. Warto też zwrócić uwagę, jak zmieniały się dzienne rekordowe stężenia CO2 dla poszczególnych lat. W roku 2015 dniem, w którym zanotowano największe stężenie dwutlenku węgla był 13 kwietnia, kiedy wyniosło ono 404,84 ppm. W roku 2016 był to 9 kwietnia (409,44 ppm), w 2017 rekord padł 26 kwietnia (412,63 ppm), a w 2018 rekordowy był 14 maja (412,60 ppm). Tegoroczny rekord to 415,39 ppm.
      Pomiary dokonywane są w Mauna Loa Observatory na wysokości około 3400 metrów nad poziomem morza. W stacji badawczej prowadzone są dwa programy pomiarowe. Jeden, z którego dane prezentujemy i który trwa od końca lat 50., to program prowadzony przez Scripps Institute. Drugi, młodszy, to NOAA-ESRL za który odpowiada amerykańska Narodowa Administracja Oceaniczna i Atmosferyczna (NOAA). Ten drugi pokazuje zwykle dane o ułamki punktu (rzędu 0,06–0,15) niższe niż dane Scripps. Różnice wynikają z różnych metod statystycznych używanych przez obie instytucje i dowodzą wysokiej spójności i wiarygodności pomiarów.
      W 2015 roku podpisano Porozumienie Paryskie, którego celem jest niedopuszczenie, by średnie temperatury na Ziemi wzrosły bardziej niż o 2 stopnie powyżej poziomu sprzed rewolucji przemysłowej. Na razie na niewiele się ono zdało, gdyż od tamtej pory wszystkie kolejne lata trafiły do 5 najgorętszych lat w historii pomiarów.
      Przez całą swoją historię ludzkość żyła w chłodniejszym klimacie niż obecnie, mówi Lucht. Za każdym razem gdy uruchamiamy silnik, emitujemy CO2 i ten gaz musi gdzieś trafić. On nie znika w cudowny sposób. Pozostaje w atmosferze. Pomimo podpisania Porozumienia Paryskiego, pomimo tych wszystkich przemów i protestów wciąż nie widać, byśmy doprowadzili do zmiany trendu.
      Jestem na tyle stary, że pamiętam, gdy przekroczenie poziomu 400 ppm było wielkim newsem. Dwa lata temu po raz pierwszy przekroczyliśmy 410 ppm. A teraz mamy 415 ppm. To rośnie w coraz szybszym tempie, stwierdził Gernot Wagner z Uniwersytetu Harvarda.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Naukowcy z Północnowschodniego Instytutu Geografii i Agroekologii Chińskiej Akademii Nauk przeprowadzili badania wpływu dwutlenku węgla na plony i jakość zbóż. Okazuje się, co potwierdzają wcześniejsze badania, że zwiększenie koncentracji CO2 w atmosferze do pewnego stopnia zwiększa plony, jednak prowadzi do spadku ilości składników odżywczych w roślinach.
      Chińczycy podzielili eksperyment na dwie części. W ramach pierwszej z nich uprawiali pszenicę w warunkach zwiększonej ilości dwutlenku węgla w powietrzu. Zebrali pierwszą generację takiej pszenicy i poddali ją badaniom. Okazało się, że więcej CO2 oznaczało wyższe plony. Poza tym, nie zauważono różnic. Później pszenica była znowu wysiewana. Ponownie zbadano ją po kolejnych trzech generacjach.
      Okazało się, że w ciągu czterech generacji w ziarnach spadła zawartość azotu, potasu, wapnia, protein i aminokwasów. To zaś oznacza, że w przyszłości ludzie będą spożywali mniej składników odżywczych, co będzie wiązało się z występowaniem większej liczby problemów zdrowotnych.
      Podobne badania prowadzili przed rokiem naukowcy z Uniwersytetu Harvarda. Ostrzegali wówczas, że utrata składników odżywczych przez rośliny uprawne spowoduje, że niedobory protein pojawią się u dodatkowych 150 milionów ludzi, a niedobory cynku dotkną dodatkowych 150-200 milionów ludzi. Ponadto około 1,4 miliarda kobiet w wieku rozrodczym i dzieci, które już teraz żyją w krajach o wysokim odsetku anemii, utracą ze swojej diety około 3,8% żelaza.
      Autorzy najnowszych badań zauważają, że krótkoterminowe badania nad wpływem zwiększonej ilości dwutlenku węgla na rośliny uprawne nie są w stanie wykazać wszystkich zagrożeń związanych z rosnącą koncentracją tego gazu w atmosferze.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Na australijskim RMIT University powstała technologia pozwalająca na zamianę dwutlenku węgla w węgiel w formie stałej. To przełom, który może zmienić nasze podejście do wychwytywania węgla z atmosfery i jego składowania.
      Obecne technologie wychwytywania węgla polegają na skompresowaniu CO2 do formy ciekłej i wstrzykiwanie pod ziemię. To jednak poważne wyzwanie technologiczne, ekonomiczne i ekologiczne, gdyż istnieje ryzyko wycieków z miejsca przechowywania.
      Doktor Torben Daeneke z RMIT mówi, że zamiana CO2 w ciało stałe może być mniej ryzykowne. Nie możemy cofnąć czasu, ale zamiana dwutlenku węgla w węgiel i jego zakopanie pod ziemią to jakby cofnięcie zegara, stwierdza uczony. Dotychczas CO2 był zamieniany w ciało stałe w bardzo wysokich temperaturach, co czyniło cały proces niepraktycznym na skalę przemysłową. Dzięki wykorzystaniu ciekłych metali w roli katalizatora możemy przeprowadzić cały proces z temperaturze pokojowej i jest on wydajny oraz skalowalny. Potrzeba jeszcze więcej badań, ale poczyniliśmy właśnie kluczowy pierwszy krok, dodaje naukowiec.
      Australijscy naukowcy, pracujący pod kierunkiem doktor Dorny Esrafilzadeh, opracowali katalizator z płynnego metalu o odpowiednio dobranych właściwościach powierzchni, który niezwykle skutecznie przewodzi prąd i aktywuje powierzchnię. Dwutlenek węgla jest rozpuszczany w zlewce wypełnionej elektrolitem i niewielką ilością płynnego metalu, który jest poddawany działaniu prądu elektrycznego. Gaz powoli zamienia się w płatki węgla, które samodzielnie oddzielają się od powierzchni metalu, dzięki czemu proces zachodzi w sposób ciągły.
      Dodatkowym skutkiem ubocznym całego procesu jest fakt, że pozyskany węgiel może przechowywać ładunki elektryczne, stając się superkondensatorem, więc może zostać użyty w samochodach elektrycznych, mówi Esrafilzadeh. Produktem ubocznym jest też syntetyczne paliwo, które można wykorzystać, dodaje.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Nowe badanie wykazało bezpośrednią zależność między ilością CO2 w atmosferze a wyższym ryzykiem ekstremalnych zjawisk pogodowych – bez względu na wartość średniej temperatury globalnej. Samo ograniczenie ocieplenia klimatu do 1,5 st. C. nie wystarczy, by uchronić nas przed rosnącą liczbą groźnych zjawisk meteorologicznych.
      Publikacja na łamach ostatniego Nature Climate Change dostarcza dowodów na to, że osiągnięcie celu porozumienia paryskiego z 2015 roku, czyli zahamowanie globalnego ocieplenia na poziomie 1,5 st. C., nie wystarczy, by ograniczyć szkody powstałe w skutek występowania na całym świecie ekstremalnych zjawisk pogodowych, takich jak susze, fale upałów, gwałtowne burze czy powodzie. Kluczowy jest poziom dwutlenku węgla w atmosferze.
      Zespół naukowców, m.in. z Uniwersytetu Oksfordzkiego i Bristolskiego, przeprowadził symulacje przyszłego klimatu dla różnych wartości koncentracji dwutlenku węgla w atmosferze – ale tylko w zakresie mieszczącym się w scenariuszu 1,5 st. C. globalnego ocieplenia.
      Modele, w których zastosowano najwyższe z uwzględnionych w badaniu poziomy CO2, wykazały bezpośredni wzrost temperatur lata na półkuli północnej, większe obciążenie upałami oraz ekstremalne opady w tropikach. Na półkuli północnej żyje ok. 7,3 mld ludzi, a więc 90 proc. ludzkości.
      Możemy teraz stwierdzić, że akumulacja dwutlenku węgla w atmosferze sama w sobie zwiększa ryzyko niszczycielskich zjawisk pogodowych, niezależnie od tego, jak zachowują się globalne temperatury – mówi główny autor badania, fizyk Hugh Baker z Uniwersytetu Oksfordzkiego. Nawet jeśli uda się zatrzymać wzrost globalnych temperatur na poziomie 1,5 st. C., tłumaczy dalej naukowiec, wyższe ryzyko groźnych zjawisk pogodowych nie zniknie.
      Te wyniki, przekonują badacze, to dowód na to, że w strategii walki ze zmianami klimatu trzeba ustalać nie tylko cele temperaturowe, ale też konkretne limity emisji dwutlenku węgla.
      Coraz częściej pojawiają się opinie, że techniki geoinżynierii pozwalające ograniczyć ilość promieni słonecznych docierających na powierzchnię Ziemi, są sposobem na wypełnienie celów porozumienia paryskiego, bo obniżają globalne temperatury. Nasze badanie pokazuje jednak, że (...) nie wystarczy to, by ograniczyć występowanie ekstremów pogodowych, takich jak fale upałów. Trzeba obniżyć poziom dwutlenku węgla – podkreśla współautor publikacji, dr Dann Mitchell z Uniwersytetu Bristolskiego.
      W grudniu 2015 roku na międzynarodowym szczycie klimatycznym w Paryżu zobowiązano się do dołożenia wszelkich starań, by zatrzymać wzrost średniej globalnej temperatury na poziomie poniżej 2 st. Celsjusza, z wyraźnym dążeniem do zatrzymania go na poziomie 1,5 st. w porównaniu do ery przedindustrialnej.

      « powrót do artykułu
×
×
  • Create New...