Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Profesor Andy Hopper z Cambridge University uważa, że wielkie centra komputerowe powinny powstawać tam, gdzie dostępna jest tania odnawialna energia. Szybko zwiększająca się liczba centrów bazodanowych i obliczeniowych powoduje gwałtowny wzrost zużycia energii przez komputery, które w coraz większym stopniu przyczyniają się do emisji dwutlenku węgla.

W samej Wielkiej Brytanii przemysł komputerowy jest odpowiedzialny za emisję 2,8 miliona ton CO2 rocznie. Cała brytyjska emisja to nieco ponad 150 milionów ton.

Profesor Hopper zauważa, że dostarczanie energii centrom komputerowym jest czymś innym, niż dostarczanie energii domowi. Centra komputerowe można zbudować praktycznie w dowolnym miejscu na Ziemi. Można postawić je więc tam, gdzie np. jest bardzo łatwy dostęp do energii wiatrowej.

Takie rozwiązanie miałoby sporo zalet. Można wykorzystać energię, która obecnie się marnuje, gdyż jej źródła są zbyt oddalone od ludzkich siedzib. Energia odnawialna może być tańsza od konwencjonalnej i, w końcu, jej wykorzystanie zmniejszy emisję gazu cieplarnianego do atmosfery.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Problem w tym, że pociągnięcie światłowodu na takie odludzie niestety sporo by kosztowało. Trzeba by było solidnie przeliczyć, czy opłaca się komukolwiek zaoszczędzić na energii (a gdzie koszt inwestycji w wiatraki?), a w zamian dostać rachunek za wszelkie inne podłączenia. Poza tym energia wiatrowa niestety nie daje gwarancji stabilności zasilania, więc linię energetyczną też trzeba by było pociągnąć - kolejny wielki koszt.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie koniecznie. Jeśli budowane były by całe "miasteczka komputerowe" prawie na pewno było  by to opłacalne. Ciągneło by się by się jeden światłowód i jedną linię zasilania, a następnie jedynie dostawiało jedne centrum komputerowe obok drugiego. Poza tym ponieważ centrum takie mogło by mieć prawie dowolną lokalizację wydaje mi się że było by to miejsce w którym niekorzystne warunki pogodowe by nie występowały, lub prawie nie występowały (na pewno są takie miejsca). Jeśli chodzi o transfer danych również mam wątpliwości czy jest potrzebny światłowód. Pewnie wiesz, że terminale bardzo często do superkomputerów podłączone są poprzez zwykły ethernet. Chodzi o to, że terminal jedynie otrzymuje wyniki obliczeń od superkomputera i wysyła mu polecenia. Może się mylę, ale wydaje mi się że nie jest do tego celu potrzebne jakieś ogromnie wydajne łącze. Zapewne wystarczyła by satelita, choć może się mylę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jasne... w obserwatorium w Arecibo jako połączenie ze światem służy... goniec przyjeżdżający po taśmy z zapisanymi danymi... tylko czy o to nam tu chodzi?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jest tak zapewne dlatego, że taki radioteleskop nie przynosi większych korzyści materialnych (o ile nie trzeba do niego dokładać). Natomiast w takim komputerowym miasteczku przynajmniej część inwestycji nastawiona była by na komercyjny zysk i wybudowanie takiego łącza (nawet światłowodu) zapewne szybko by się zwróciło.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość tymeknafali

Jeśli chodzi o samą energię odnawialną, to powinna być stosowana nie tylko do komputerów. Obecnie jednak nie ma zbyt wydatnej wersji pozyskiwania tego typu energii. Może za kilka lat...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ekonomistą nie jestem, ale wiem, że światłowód to piekielnie droga rzecz (tym bardziej, że żadne szanujące się centrum superkomputerowe nie będzie działało na pojedynczej linii bez backupu). Linia energetyczna ciągnięta na życzenie pojedynczej firmy również tania nie jest. (jak wyżej). Na moje laickie oko taki pomysł z wyprowadzaniem centrów nie wiadomo jak daleko od cywilizacji mógłby nie byc opłacalny. Ale tak jak mówię: ja wykształcenia w tym kierunku nie mam, być może Ty masz i wiesz lepiej. Ja tylko spekuluję.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Ekonomistą nie jestem, ale wiem, że światłowód to piekielnie droga rzecz (tym bardziej, że żadne szanujące się centrum superkomputerowe nie będzie działało na pojedynczej linii bez backupu). Linia energetyczna ciągnięta na życzenie pojedynczej firmy również tania nie jest.

 

Jest tylko mała uwaga że dane na przesyle nie tracą a energia tak. 8)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ależ oczywiście, że tracą. Trzeba stawiać wzmacniacze sygnału, które do tanich nie należą.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Trzeba stawiać wzmacniacze sygnału, które do tanich nie należą

 

Wzmacniacze światła?? Hm , to ile ich jest na drodze ze śłońca do ziemi?? 8)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nawet nie skomentuję. Klawiatury szkoda.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wzmacniacze światła?? Hm , to ile ich jest na drodze ze śłońca do ziemi?? 8)

 

;D

 

Ekonomistą nie jestem[...]

 

Nie trzeba być ekonomistą, żeby zauważyć, że jednorazowo poniesione duże koszty, mogą być opłacalne jeśli zagwarantują w przyszłości nie ponoszenie kosztów w ogóle (cały czas zakładam że centra komputerowe nastawione były by na komercyjny zysk). Ale mniejsza z tym. Przyszło mi do głowy coś innego. Skoro zakładasz, że konieczne było by podłączenie linii zasilania, to po cholere budować centrum komputerowe na bezludziu skoro wystarczy z tego bezludzia poprowadzić linie energetyczną do najbliższej siedziby ludzkiej i tam zbudować to centrum? Rozwiązanie to było by i tańsze (nie ma potrzeby rozpinania światłowodu) i wygodniejsze (obsługa na miejscu). W związku z tym uważam że twórcy idei budowania centrów komputerowych na bezludziach nie biorą pod uwagę łączenia ich z siedzibami ludzkimi wspomnianymi przez ciebie mediami.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Skoro zakładasz, że konieczne było by podłączenie linii zasilania, to po cholere budować centrum komputerowe na bezludziu skoro wystarczy z tego bezludzia poprowadzić linie energetyczną do najbliższej siedziby ludzkiej i tam zbudować to centrum?

To pytanie nie powinno być skierowane do mnie (o ile było). Zadaj je raczej autorom tej koncepcji.

 

W związku z tym uważam że twórcy idei budowania centrów komputerowych na bezludziach nie biorą pod uwagę łączenia ich z siedzibami ludzkimi wspomnianymi przez ciebie mediami.

Zgadzam się z tym.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To pytanie nie powinno być skierowane do mnie (o ile było). Zadaj je raczej autorom tej koncepcji.

 

No właśnie do Ciebie  ;) Pomysł ten opracowali profesorowie z poważanej uczelni, tak? Obaj zgadzamy się że ciąganie kabli do centrów komputerowych położonych na bezludziach jest z gruntu bez sensowne. Więc ci profesorowie też zapewne zdają sobie z tego sprawę, a skoro tak to najwyraźniej da się to zorganizować bez wspomnianych mediów. No chyba że ci naukowcy mają tyle czasu że opóźnienia spowodowane gońcem wysyłanym po taśmy im nie przeszkadzają ;) 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie chce i nie próbuję podważać autorytetu tego człowieka (nota bene: urodzonego w Warszawie). Po prostu dzielę się swoimi przemyśleniami. Po prostu mam wątpliwości, czy w obecnej sytuacji byłoby to możliwe.

Trzeba by było znaleźć miejsce jednocześnie bliskie cywilizacji (żeby obniżyć koszty dostarczenia mediów) i jednocześnie "wydajne energetycznie", co moim zdaniem mogłoby być bardzo skomplikowane. Moim zdaniem byłoby to na dzień dzisiejszy albo bardzo, bardzo trudne, albo wręcz niemożliwe i nieopłacalne. Fajnie by było, gdyby prof. Hopper poparł swoją opinię konkretnymi liczbami, wtedy byłoby na pewno łatwiej dyskutować.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Co do wydajności energetycznej, to przecież można wykorzystywać kilka różnych źródeł, np. elektrownie wiatrowo-słoneczne. Dodatkowo takie miasteczka spowodowałyby rozwój technologii do odzyskiwania ciepła wydzielanego podczas pracy tych urządzeń, a nie tylko zużywanie dodatkowej energii na ich chłodzenie. Jedno co mnie martwi, to to, że w przypadku zcentralizowanego datacenter dla wielu firm, pojedynczy atak terrorystyczny lub katastrofa naturalna mogłyby sparaliżować mnóstwo firm (chyba, że powstałyby firmy specjalizujące się w budowaniu takich miasteczek i replikacji danych). W przypadku miasteczek dla superkomputerów straty nie byłyby aż tak dotkliwe, choć tutaj zapotrzebowanie na energię byłoby o wiele większe.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Co do wydajności energetycznej, to przecież można wykorzystywać kilka różnych źródeł, np. elektrownie wiatrowo-słoneczne. Dodatkowo takie miasteczka spowodowałyby rozwój technologii do odzyskiwania ciepła

Tylko tu właśnie jest problem: skoro takie centrum miałoby powstać na korzystnym energetycznie odludziu, to niestety przetransportowanie nośnika ciepła na duża odległość generowałoby ogromne koszty w infrastrukturze, a mimo to wciąż straty przy przesyle byłyby ogromne. Koło się zamyka.

 

Jedno co mnie martwi, to to, że w przypadku zcentralizowanego datacenter dla wielu firm, pojedynczy atak terrorystyczny lub katastrofa naturalna mogłyby sparaliżować mnóstwo firm (chyba, że powstałyby firmy specjalizujące się w budowaniu takich miasteczek i replikacji danych).

Oczywiście, że takie firmy istnieją ;) Złożoność budowy serwerowni i centrów superkomputerowych jest zadziwiająca, więc nic dziwnego, że są firmy specjalizujące się w takiej działalności.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Sprawdzają się przewidywania naukowców, który prognozują, że już w roku 2016 średnia roczna koncentracja CO2 przekroczy 400 części na milion (ppm). W ubiegłym roku, w nocy z 7 na 8 maja, po raz pierwszy zanotowano, że średnia godzinowa koncentracja dwutlenku węgla przekroczyła 400 ppm. Tak dużo CO2 nie było w atmosferze od 800 000 – 15 000 000 lat.
      W bieżącym roku możemy zapomnieć już o średniej godzinowej i znacznie wydłużyć skalę czasową. Czerwiec był trzecim z kolei miesiącem, w którym średnia miesięczna koncentracja była wyższa niż 400 części na milion.
      Granica 400 ppm została wyznaczona symbolicznie. Ma nam jednak uświadomić, jak wiele węgla wprowadziliśmy do atmosfery. Z badań rdzeni lodowych wynika, że w epoce preindustrialnej średnia koncentracja dwutlenku węgla w atmosferze wynosiła 280 części na milion. W roku 1958, gdy Charles Keeling rozpoczynał pomiary na Mauna Loa w powietrzu znajdowało się 316 ppm. Wraz ze wzrostem stężenia CO2 rośnie też średnia temperatura globu. Naukowcy nie są zgodni co do tego, jak bardzo możemy ogrzać planetę bez narażania siebie i środowiska naturalnego na zbytnie niebezpieczeństwo. Zgadzają się zaś co do tego, że już teraz należy podjąć radykalne kroki w celu redukcji emisji gazów cieplarnianych. Paliwa niezawierające węgla muszą szybko stać się naszym podstawowym źródłem energii - mówi Pieter Tans z Narodowej Administracji Oceanicznej i Atmosferycznej.
      Kwiecień 2014 roku był pierwszym, w którym przekroczono średnią 400 ppm dla całego miesiąca. Od maja, w związku z rozpoczęciem się najintensywniejszego okresu fotosyntezy na półkuli północnej, rozpoczął się powolny spadek koncentracji CO2, która w szczytowym momencie osiągnęła 402 ppm. Jednak przez cały maj i czerwiec średnia dzienna, a zatem i średnia miesięczna, nie spadły poniżej 400 części CO2 na milion. Eksperci uważają, że w trzecim tygodniu lipca koncentracja dwutlenku węgla spadnie poniżej 400 ppm. Do ponownego wzrostu dojdzie zimą i wzrost ten utrzyma się do maja.
      Rośliny nie są jednak w stanie pochłonąć całego antropogenicznego dwutlenku węgla i wraz z każdym sezonem pozostawiają go w atmosferze coraz więcej. Dlatego też Pieter Tans przypuszcza, że w przyszłym roku pierwszym miesiącem, dla którego średnia koncentracja tego gazu przekroczy 400 ppm będzie już luty, a tak wysoki poziom CO2 utrzyma się do końca lipca, czyli przez sześć pełnych miesięcy. Od roku 2016 poziom 400 ppm będzie stale przekroczony.
      Dopóki ludzie będą emitowali CO2 ze spalanego paliwa, dopóty poziom tego gazu w oceanach i atmosferze będzie się zwiększał - mówi Tans.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Już wkrótce elektrownia węglowa Dry Fork znajdująca się w pobliżu miasteczka Gillette w stanie Wyoming będzie wykorzystywała dwutlenek węgla do produkcji materiałów budowlanych. W marcu w elektrowni rozpoczyna się program pilotażowy, w ramach którego CO2 będzie zmieniane w betonowe bloczki.
      Eksperyment prowadzony będzie przez naukowców z Uniwersytetu Kalifornijskiego w Los Angeles (UCLA). Przez try miesiące każdego dnia będą oni odzyskiwali 0,5 tony dwutlenku węgla i wytwarzali 10 ton betonu. To pierwszy system tego typu. Chcemy pokazać, że można go skalować, mówi profesor Gaurav Sant, który przewodzi zespołowi badawczemu.
      Carbon Upcycling UCLA to jeden z 10 zespołów biorących udział a ostatnim etapie zawodów NRG COSIA Carbon XPrize. To ogólnoświatowe zawody, których uczestnicy mają za zadanie opracować przełomową technologię pozwalającą na zamianę emitowanego do atmosfery węgla na użyteczny materiał.
      W Wyoming są jeszcze cztery inne zespoły, w tym kanadyjski i szkocki. Pozostałych pięć drużyn pracuje w elektrowni gazowej w Kanadzie. Wszyscy rywalizują o główną nagrodę w wysokości 7,5 miliona dolarów. Zawody zostaną rozstrzygnięte we wrześniu.
      Prace UCLA nad nową technologią rozpoczęto przed około 6laty, gdy naukowcy przyjrzeli się składowi chemicznemu... Wału Hadriana. Ten wybudowany w II wieku naszej ery wał miał bronić Brytanii przed najazdami Piktów.
      Rzymianie budowali mur mieszając tlenek wapnia z wodą, a następnie pozwalając mieszaninie na absorbowanie CO2 z atmosfery. W ten sposób powstawał wapień. Proces taki trwa jednak wiele lat. Zbyt długo, jak na współczesne standardy. Chcieliśmy wiedzieć, czy reakcje te uda się przyspieszyć, mówi Guarav Sant.
      Rozwiązaniem problemu okazał się portlandyt, czyli wodorotlenek wapnia. Łączy się go z kruszywem budowlanym i innymi materiałami, uzyskując wstępny materiał budowlany. Następnie całość trafia do reaktora, gdzie wchodzi w kontakt z gazami z komina elektrowni. W ten sposób szybko powstaje cement. Sant porównuje cały proces do pieczenia ciastek. Mamy oto bowiem mokre „ciasto”, które pod wpływem temperatury i CO2 z gazów kominowych zamienia się w użyteczny produkt.
      Technologia UCLA jest unikatowa na skalę światową, gdyż nie wymaga kosztownego etapu przechwytywania i oczyszczania CO2. To jedyna technologia, która bezpośrednio wykorzystuje gazy z komina.
      Po testach w Wyoming cała instalacja zostanie rozmontowana i przewieziona do National Carbon Capture Center w Alabamie. To instalacja badawcza Departamentu Energii. Tam zostanie poddana kolejnym trzymiesięcznym testom.
      Na całym świecie wiele firm i grup naukowych próbuje przechwytywać CO2 i albo go składować, albo zamieniać w użyteczne produkty. Jak wynika z analizy przeprowadzonej przez organizację Carbon180, potencjalna wartość światowego rynku odpadowego dwutlenku węgla wynosi 5,9 biliona dolarów rocznie, w tym 1,3 biliona to produkty takie jak cementy, asfalty i kruszywa budowlane. Zapotrzebowanie na takie materiały ciągle rośnie, a jednocześnie coraz silniejszy akcent jest kładziony na redukcję ilości węgla trafiającego do atmosfery. To zaś tworzy okazję dla przedsiębiorstw, które mogą zacząć zarabiać na przechwyconym dwutlenku węgla.
      Cement ma szczególnie duży ślad węglowy, gdyż jego produkcja wymaga dużych ilości energii. Każdego roku na świecie produkuje się 4 miliardy ton cementu, a przemysł ten generuje około 8% światowej emisji CO2. Przemysł cementowy jest tym, który szczególnie trudno zdekarbonizować, brak więc obecnie efektywnych rozwiązań pozwalających na zmniejszenie emisji węgla. Technologie wykorzystujące przechwycony CO2 mogą więc wypełnić tę lukę.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W obserwatorium na Mauna Loa zanotowano najwyższe stężenie CO2 w historii pomiarów. W niedzielę rano urządzenia zarejestrowały stężenie dwutlenku węgla w atmosferze rzędu 415,39 ppm (części na milion). To jednocześnie pierwszy raz, gdy dzienne stężenie przekroczyło 415 części na milion. Dokładnie rok wcześniej, 12 maja 2018 roku, urządzenia rejestrowały 411,92 ppm. Niemal równo sześć lat temu, 10 maja 2013 roku, informowaliśmy, że z nocy z 7 na 8 maja koncentracja CO2 po raz pierwszy przekroczyła granicę 400 ppm.
      Ostatni raz koncentracja CO2 powyżej 415 ppm występowała na Ziemi przed około 3 milionami lat. To pokazuje, że nawet nie zaczęliśmy chronić klimatu. Liczby z roku na rok są coraz wyższe, mówi Wolfgang Lucht z Poczdamskiego Instytutu Badań nad Wpływem Klimatu.
      Stacja pomiarowa na Mauna Loa jest najdłużej działającym stałym punktem pomiaru stężenia dwutlenku węgla w atmosferze. Na jej lokalizację wybrano położony na Hawajach szczyt, gdyż jest to najbardziej oddalony od emisji przemysłowej punkt na Ziemi. Jednocześnie, jako że mamy tu do czynienia z czynnym wulkanem, który sam też emituje CO2, pomiary uwzględniają ten fakt i gaz pochodzący z wulkanu nie jest liczony.
      Pomiary z poszczególnych dni mogą różnić się między sobą, gdyż w ich przypadku dużo zależy od warunków atmosferycznych i pory roku. W najbliższym czasie, w związku z tym, że na bardziej uprzemysłowionej półkuli północnej właśnie trwa wiosna, należy spodziewać się spadku stężenia dwutlenku węgla, gdyż będą go pochłaniały rośliny. Jednak widać, że stężenie gazu cieplarnianego ciągle rośnie. Specjaliści przypuszczają, że wzrost rok do roku wyniesie około 3 ppm, podczas gdy średnia z ostatnich lat to 2,5 ppm. Warto też zwrócić uwagę, jak zmieniały się dzienne rekordowe stężenia CO2 dla poszczególnych lat. W roku 2015 dniem, w którym zanotowano największe stężenie dwutlenku węgla był 13 kwietnia, kiedy wyniosło ono 404,84 ppm. W roku 2016 był to 9 kwietnia (409,44 ppm), w 2017 rekord padł 26 kwietnia (412,63 ppm), a w 2018 rekordowy był 14 maja (412,60 ppm). Tegoroczny rekord to 415,39 ppm.
      Pomiary dokonywane są w Mauna Loa Observatory na wysokości około 3400 metrów nad poziomem morza. W stacji badawczej prowadzone są dwa programy pomiarowe. Jeden, z którego dane prezentujemy i który trwa od końca lat 50., to program prowadzony przez Scripps Institute. Drugi, młodszy, to NOAA-ESRL za który odpowiada amerykańska Narodowa Administracja Oceaniczna i Atmosferyczna (NOAA). Ten drugi pokazuje zwykle dane o ułamki punktu (rzędu 0,06–0,15) niższe niż dane Scripps. Różnice wynikają z różnych metod statystycznych używanych przez obie instytucje i dowodzą wysokiej spójności i wiarygodności pomiarów.
      W 2015 roku podpisano Porozumienie Paryskie, którego celem jest niedopuszczenie, by średnie temperatury na Ziemi wzrosły bardziej niż o 2 stopnie powyżej poziomu sprzed rewolucji przemysłowej. Na razie na niewiele się ono zdało, gdyż od tamtej pory wszystkie kolejne lata trafiły do 5 najgorętszych lat w historii pomiarów.
      Przez całą swoją historię ludzkość żyła w chłodniejszym klimacie niż obecnie, mówi Lucht. Za każdym razem gdy uruchamiamy silnik, emitujemy CO2 i ten gaz musi gdzieś trafić. On nie znika w cudowny sposób. Pozostaje w atmosferze. Pomimo podpisania Porozumienia Paryskiego, pomimo tych wszystkich przemów i protestów wciąż nie widać, byśmy doprowadzili do zmiany trendu.
      Jestem na tyle stary, że pamiętam, gdy przekroczenie poziomu 400 ppm było wielkim newsem. Dwa lata temu po raz pierwszy przekroczyliśmy 410 ppm. A teraz mamy 415 ppm. To rośnie w coraz szybszym tempie, stwierdził Gernot Wagner z Uniwersytetu Harvarda.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Naukowcy z Północnowschodniego Instytutu Geografii i Agroekologii Chińskiej Akademii Nauk przeprowadzili badania wpływu dwutlenku węgla na plony i jakość zbóż. Okazuje się, co potwierdzają wcześniejsze badania, że zwiększenie koncentracji CO2 w atmosferze do pewnego stopnia zwiększa plony, jednak prowadzi do spadku ilości składników odżywczych w roślinach.
      Chińczycy podzielili eksperyment na dwie części. W ramach pierwszej z nich uprawiali pszenicę w warunkach zwiększonej ilości dwutlenku węgla w powietrzu. Zebrali pierwszą generację takiej pszenicy i poddali ją badaniom. Okazało się, że więcej CO2 oznaczało wyższe plony. Poza tym, nie zauważono różnic. Później pszenica była znowu wysiewana. Ponownie zbadano ją po kolejnych trzech generacjach.
      Okazało się, że w ciągu czterech generacji w ziarnach spadła zawartość azotu, potasu, wapnia, protein i aminokwasów. To zaś oznacza, że w przyszłości ludzie będą spożywali mniej składników odżywczych, co będzie wiązało się z występowaniem większej liczby problemów zdrowotnych.
      Podobne badania prowadzili przed rokiem naukowcy z Uniwersytetu Harvarda. Ostrzegali wówczas, że utrata składników odżywczych przez rośliny uprawne spowoduje, że niedobory protein pojawią się u dodatkowych 150 milionów ludzi, a niedobory cynku dotkną dodatkowych 150-200 milionów ludzi. Ponadto około 1,4 miliarda kobiet w wieku rozrodczym i dzieci, które już teraz żyją w krajach o wysokim odsetku anemii, utracą ze swojej diety około 3,8% żelaza.
      Autorzy najnowszych badań zauważają, że krótkoterminowe badania nad wpływem zwiększonej ilości dwutlenku węgla na rośliny uprawne nie są w stanie wykazać wszystkich zagrożeń związanych z rosnącą koncentracją tego gazu w atmosferze.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Na australijskim RMIT University powstała technologia pozwalająca na zamianę dwutlenku węgla w węgiel w formie stałej. To przełom, który może zmienić nasze podejście do wychwytywania węgla z atmosfery i jego składowania.
      Obecne technologie wychwytywania węgla polegają na skompresowaniu CO2 do formy ciekłej i wstrzykiwanie pod ziemię. To jednak poważne wyzwanie technologiczne, ekonomiczne i ekologiczne, gdyż istnieje ryzyko wycieków z miejsca przechowywania.
      Doktor Torben Daeneke z RMIT mówi, że zamiana CO2 w ciało stałe może być mniej ryzykowne. Nie możemy cofnąć czasu, ale zamiana dwutlenku węgla w węgiel i jego zakopanie pod ziemią to jakby cofnięcie zegara, stwierdza uczony. Dotychczas CO2 był zamieniany w ciało stałe w bardzo wysokich temperaturach, co czyniło cały proces niepraktycznym na skalę przemysłową. Dzięki wykorzystaniu ciekłych metali w roli katalizatora możemy przeprowadzić cały proces z temperaturze pokojowej i jest on wydajny oraz skalowalny. Potrzeba jeszcze więcej badań, ale poczyniliśmy właśnie kluczowy pierwszy krok, dodaje naukowiec.
      Australijscy naukowcy, pracujący pod kierunkiem doktor Dorny Esrafilzadeh, opracowali katalizator z płynnego metalu o odpowiednio dobranych właściwościach powierzchni, który niezwykle skutecznie przewodzi prąd i aktywuje powierzchnię. Dwutlenek węgla jest rozpuszczany w zlewce wypełnionej elektrolitem i niewielką ilością płynnego metalu, który jest poddawany działaniu prądu elektrycznego. Gaz powoli zamienia się w płatki węgla, które samodzielnie oddzielają się od powierzchni metalu, dzięki czemu proces zachodzi w sposób ciągły.
      Dodatkowym skutkiem ubocznym całego procesu jest fakt, że pozyskany węgiel może przechowywać ładunki elektryczne, stając się superkondensatorem, więc może zostać użyty w samochodach elektrycznych, mówi Esrafilzadeh. Produktem ubocznym jest też syntetyczne paliwo, które można wykorzystać, dodaje.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...