Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Specjaliści głowią się nad tym, co zrobić z nadmiarem dwutlenku węgla i zyskać kontrolę nad zmianami klimatycznymi. Jedno z najnowszych rozwiązań zakłada wprowadzenie nanocząstek do podziemnych zbiorników jeszcze przed ich wypełnieniem. Nanocząstki połączyłyby się z gazem w stanie nadkrytycznym (fluidem), tworząc lepką pianę, która zapobiegałaby powstawaniu wycieków.

Stan nadkrytyczny to stan danej substancji, w którym ciśnienie i temperatura są wyższe od ciśnienia i temperatury punktu krytycznego (jest to wymuszony stan między cieczą a gazem). Analizując dostępne teorie, Steven Bryant z Uniwersytetu Teksańskiego w Austin doszedł do wniosku, że pokryte poli(tlenkiem etylenu) nanocząstki dwutlenku krzemu zwiążą się z kroplami dwutlenku węgla. Należało to jednak potwierdzić.

Podczas testów Amerykanie posłużyli się n-oktanem, cieczą zachowującą się jak CO2 w stanie nadkrytycznym. Rzeczywiście utworzyła się piana, która zaczopowała wszystkie pęknięcia w skale. Po pierwszych sukcesach zespół Bryanta planuje kolejny etap eksperymentu z wykorzystaniem nadkrytycznego dwutlenku węgla.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Sprawdzają się przewidywania naukowców, który prognozują, że już w roku 2016 średnia roczna koncentracja CO2 przekroczy 400 części na milion (ppm). W ubiegłym roku, w nocy z 7 na 8 maja, po raz pierwszy zanotowano, że średnia godzinowa koncentracja dwutlenku węgla przekroczyła 400 ppm. Tak dużo CO2 nie było w atmosferze od 800 000 – 15 000 000 lat.
      W bieżącym roku możemy zapomnieć już o średniej godzinowej i znacznie wydłużyć skalę czasową. Czerwiec był trzecim z kolei miesiącem, w którym średnia miesięczna koncentracja była wyższa niż 400 części na milion.
      Granica 400 ppm została wyznaczona symbolicznie. Ma nam jednak uświadomić, jak wiele węgla wprowadziliśmy do atmosfery. Z badań rdzeni lodowych wynika, że w epoce preindustrialnej średnia koncentracja dwutlenku węgla w atmosferze wynosiła 280 części na milion. W roku 1958, gdy Charles Keeling rozpoczynał pomiary na Mauna Loa w powietrzu znajdowało się 316 ppm. Wraz ze wzrostem stężenia CO2 rośnie też średnia temperatura globu. Naukowcy nie są zgodni co do tego, jak bardzo możemy ogrzać planetę bez narażania siebie i środowiska naturalnego na zbytnie niebezpieczeństwo. Zgadzają się zaś co do tego, że już teraz należy podjąć radykalne kroki w celu redukcji emisji gazów cieplarnianych. Paliwa niezawierające węgla muszą szybko stać się naszym podstawowym źródłem energii - mówi Pieter Tans z Narodowej Administracji Oceanicznej i Atmosferycznej.
      Kwiecień 2014 roku był pierwszym, w którym przekroczono średnią 400 ppm dla całego miesiąca. Od maja, w związku z rozpoczęciem się najintensywniejszego okresu fotosyntezy na półkuli północnej, rozpoczął się powolny spadek koncentracji CO2, która w szczytowym momencie osiągnęła 402 ppm. Jednak przez cały maj i czerwiec średnia dzienna, a zatem i średnia miesięczna, nie spadły poniżej 400 części CO2 na milion. Eksperci uważają, że w trzecim tygodniu lipca koncentracja dwutlenku węgla spadnie poniżej 400 ppm. Do ponownego wzrostu dojdzie zimą i wzrost ten utrzyma się do maja.
      Rośliny nie są jednak w stanie pochłonąć całego antropogenicznego dwutlenku węgla i wraz z każdym sezonem pozostawiają go w atmosferze coraz więcej. Dlatego też Pieter Tans przypuszcza, że w przyszłym roku pierwszym miesiącem, dla którego średnia koncentracja tego gazu przekroczy 400 ppm będzie już luty, a tak wysoki poziom CO2 utrzyma się do końca lipca, czyli przez sześć pełnych miesięcy. Od roku 2016 poziom 400 ppm będzie stale przekroczony.
      Dopóki ludzie będą emitowali CO2 ze spalanego paliwa, dopóty poziom tego gazu w oceanach i atmosferze będzie się zwiększał - mówi Tans.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Już wkrótce elektrownia węglowa Dry Fork znajdująca się w pobliżu miasteczka Gillette w stanie Wyoming będzie wykorzystywała dwutlenek węgla do produkcji materiałów budowlanych. W marcu w elektrowni rozpoczyna się program pilotażowy, w ramach którego CO2 będzie zmieniane w betonowe bloczki.
      Eksperyment prowadzony będzie przez naukowców z Uniwersytetu Kalifornijskiego w Los Angeles (UCLA). Przez try miesiące każdego dnia będą oni odzyskiwali 0,5 tony dwutlenku węgla i wytwarzali 10 ton betonu. To pierwszy system tego typu. Chcemy pokazać, że można go skalować, mówi profesor Gaurav Sant, który przewodzi zespołowi badawczemu.
      Carbon Upcycling UCLA to jeden z 10 zespołów biorących udział a ostatnim etapie zawodów NRG COSIA Carbon XPrize. To ogólnoświatowe zawody, których uczestnicy mają za zadanie opracować przełomową technologię pozwalającą na zamianę emitowanego do atmosfery węgla na użyteczny materiał.
      W Wyoming są jeszcze cztery inne zespoły, w tym kanadyjski i szkocki. Pozostałych pięć drużyn pracuje w elektrowni gazowej w Kanadzie. Wszyscy rywalizują o główną nagrodę w wysokości 7,5 miliona dolarów. Zawody zostaną rozstrzygnięte we wrześniu.
      Prace UCLA nad nową technologią rozpoczęto przed około 6laty, gdy naukowcy przyjrzeli się składowi chemicznemu... Wału Hadriana. Ten wybudowany w II wieku naszej ery wał miał bronić Brytanii przed najazdami Piktów.
      Rzymianie budowali mur mieszając tlenek wapnia z wodą, a następnie pozwalając mieszaninie na absorbowanie CO2 z atmosfery. W ten sposób powstawał wapień. Proces taki trwa jednak wiele lat. Zbyt długo, jak na współczesne standardy. Chcieliśmy wiedzieć, czy reakcje te uda się przyspieszyć, mówi Guarav Sant.
      Rozwiązaniem problemu okazał się portlandyt, czyli wodorotlenek wapnia. Łączy się go z kruszywem budowlanym i innymi materiałami, uzyskując wstępny materiał budowlany. Następnie całość trafia do reaktora, gdzie wchodzi w kontakt z gazami z komina elektrowni. W ten sposób szybko powstaje cement. Sant porównuje cały proces do pieczenia ciastek. Mamy oto bowiem mokre „ciasto”, które pod wpływem temperatury i CO2 z gazów kominowych zamienia się w użyteczny produkt.
      Technologia UCLA jest unikatowa na skalę światową, gdyż nie wymaga kosztownego etapu przechwytywania i oczyszczania CO2. To jedyna technologia, która bezpośrednio wykorzystuje gazy z komina.
      Po testach w Wyoming cała instalacja zostanie rozmontowana i przewieziona do National Carbon Capture Center w Alabamie. To instalacja badawcza Departamentu Energii. Tam zostanie poddana kolejnym trzymiesięcznym testom.
      Na całym świecie wiele firm i grup naukowych próbuje przechwytywać CO2 i albo go składować, albo zamieniać w użyteczne produkty. Jak wynika z analizy przeprowadzonej przez organizację Carbon180, potencjalna wartość światowego rynku odpadowego dwutlenku węgla wynosi 5,9 biliona dolarów rocznie, w tym 1,3 biliona to produkty takie jak cementy, asfalty i kruszywa budowlane. Zapotrzebowanie na takie materiały ciągle rośnie, a jednocześnie coraz silniejszy akcent jest kładziony na redukcję ilości węgla trafiającego do atmosfery. To zaś tworzy okazję dla przedsiębiorstw, które mogą zacząć zarabiać na przechwyconym dwutlenku węgla.
      Cement ma szczególnie duży ślad węglowy, gdyż jego produkcja wymaga dużych ilości energii. Każdego roku na świecie produkuje się 4 miliardy ton cementu, a przemysł ten generuje około 8% światowej emisji CO2. Przemysł cementowy jest tym, który szczególnie trudno zdekarbonizować, brak więc obecnie efektywnych rozwiązań pozwalających na zmniejszenie emisji węgla. Technologie wykorzystujące przechwycony CO2 mogą więc wypełnić tę lukę.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Inżynierowie z NASA celowo doprowadzili do uszkodzenia zbiornika paliwa ciekłego wodoru Space Launch System. Test miał wykazać, gdzie w rzeczywistości znajduje się granica jego wytrzymałości.
      Zbiornik przez 5 godzin wytrzymał 260% przewidywalnego maksymalnego obciążenia zanim wykryto w nim pierwsze wyboczenie, które następnie pękło. Celowo wystawiliśmy zbiornik na maksymalne obciążenie i zniszczyliśmy go, gdyż doprowadzenie do takiej sytacji pozwala nam na zebranie kolejnych danych umożliwiających projektowanie lepszych rakiet, mówi Neil Otte, główny inżynier z SLS Stages Office w Marshall Space Flight Center. SLS będzie wykorzystywany przez dekady, a kontrolowane zniszczenie zbiornika pozwoli nam bezpiecznie i wydajnie dostosowywać SLS do naszych potrzeb.
      Testowy zbiornik, który właśnie zniszczono, był już wcześniej poddawany wielu próbom obciążenia spodziewanego podczas lotu na Księżyc. Nie doszło wówczas do żadnych uszkodzeń. To był największy w historii NASA destrukcyjny test rakietowego zbiornika pod ciśnieniem. Uzyskane dane przydadzą się wszystkim firmom projektującym takie zbiorniki, wyjaśnia Mike Nichols, główny inżynier odpowiedzialny za testowanie zbiorników.
      Podczas testów wykorzystano azot w formie gazowej, który symulował ciśnienie wewnątrz zbiornika oraz siłowniki hydrauliczne ściskające, rozciągające i wyginające zbiornik. Całość otoczono tysiącami czujników mierzących ciśnienie, temperaturę i naprężenia oraz licznymi kamerami i mikrofonami rejestrującymi wszystko, co się dzieje.
      Pierwsze wyboczenie pojawiło się w miejscu przewidzianym przez analityków Boeinga przy obciążeniu, którego wartość nie odbiegała o więcej niż 3% wartości przewidzianej dla tego typu sytuacji. Dokładność tych przewidywań daje nam dużą pewność co do jakości projektu zbiornika, mówi Luke Denney menedżer zespołu testów i oceny Boeinga.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Terapia przeciwnowotworowa, której celem było usunięcie guza bez potrzeby odwoływania się do radio- i chemioterapii czy chirurgii, pomyślnie przeszła kolejny etap badań klinicznych. Rok po leczeniu u 13 z 15 pacjentów cierpiących wcześniej na nowotwór prostaty, nie wykryto śladów choroby.
      Terapia, opracowana na Rice University, jest prawdopodobnie pierwszą fototermalną terapią przeciwnowotworową, której pozytywne wyniki zostały opublikowane w piśmie recenzowanym. Jej opis ukazał się na łamach PNAS.
      W badaniach wzięło udział 16 mężczyzn w wieku 58–79 lat ze zlokalizowanym rakiem prostaty stwarzającym niskie i średnie ryzyko wzrostu i przerzutowania. Terapia polegała na zlokalizowanej ablacji za pomocą nanocząstek złota. Piętnastu pacjentom pierwszego dnia dożylnie podano nanocząstki złota, a drugiego dnia przeprowadzono zabieg ablacji. Wszyscy tego samego dnia wrócili do domu. Po 3, 6 i 12 miesiącach po zabiegu przeprowadzono badania pod kątem występowania u nich nowotworu. Jedynie u 2 z 15 mężczyzn wykryto guza.
      Wstrzyknięcie nanosfer ze złota i krzemu pozwoliło na precyzyjne usunięcie guza i oszczędzenie reszty prostaty. W ten sposób uniknęliśmy niekorzystnych skutków ubocznych i poprawiliśmy komfort życia pacjentów, którzy po tradycyjnych zabiegach mogliby mieć m.in. problemy z erekcją czy utrzymaniem moczu, powiedział główny autor badań, profesor Ardeshir Rastinehad.
      Badania kliniczne wciąż trwają i dotychczas wzięło w nich udział 44 pacjentów leczonych Nowym Jorku, Teksasie i Michigan.
      Autorkami nowej terapii są inżynier Naomi Halas i bionżynier Jennifer West. Przed około 20 laty postanowiły one skupić się na terapii bazującej na nanocząstkach i od około roku 2000 nad takim rozwiązaniem pracowały.
      Same nanocząstki, krzemowe sfery pokryte złotem, zostały stworzone przez Halas w 1997 roku. Uczona wykazała, że zmieniając grubość warstwy złota można spowodować, że nanocząstki będą reagowały na światło o różnej długości fali. Około 2000 roku wraz z West opracowała sposób niszczenia komórek nowotworowych poprzez podgrzanie nanocząstek za pomocą lasera o niskiej mocy pracującego w bliskiej podczerwieni. Ten zakres fali światła penetruje tkanki nie czyniąc im krzywdy. Panie zyskały rozgłos i założyły firmę Nanospectra Biosciences, której celem było przystosowanie nowej terapii do zastosowań klinicznych. W tym samym czasie ojciec pani Halas zachorował na nowotwór prostaty i widząc, jak cierpi w wyniku skutków ubocznych leczenia, uczona zdecydowała, że będzie prowadziła badania nanocząstek pod kątem opracowania terapii bez skutków ubocznych.
      Prace trwały tak długo m.in. z tego powodu, że West i Halas stworzyły zupełnie nową technologię i Agencja ds. Żywności i Leków (FDA) nie wiedziała, jak się do niej odnieść. To były pierwsze nanocząstki, które rzeczywiście nadawały się do wprowadzenia do ludzkiego organizmu. Miałyśmy coś, co wyglądało jak kroplówka. FDA nie wiedziała, czy traktować je jak lek czy jako urządzenie. W pewnym momencie w FDA zastanawiano się nawet nad stworzeniem osobnego wydziału zajmującego się nanoterapiami, wspomina West.
      W końcu agencja zdecydowała się na regulowanie nowej terapii i uznanie jej za leczenie urządzeniem. Przed około 10 lat rozpoczęły się pierwsze testy kliniczne, których celem była ocena bezpieczeństwa terapii. Testy prowadzono na pacjentach z najbardziej zaawansowanymi stadiami rozwoju nowotworów głowy i szyi. W 2015 roku do obu pań dołączył doktor Rastinehad, który był jednym z autorów nowej techniki precyzyjnego obrazowania nowotworów prostaty. To on zaproponował wykorzystanie tej techniki – łączącej rezonans magnetyczny i ultradźwięki – jako platformy do minimalnie inwazyjnego precyzyjnego leczenia guzów prostaty za pomocą nanocząstek Halas i West.
      Ta praca pokazuje, jakie możliwości stoją za połączonymi siłami inżynierii i medycyny. Pozwalają one na praktyczne zastosowanie nowych technologii w medycynie klinicznej i poprawienie komfortu życia pacjentów, mówi West.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W obserwatorium na Mauna Loa zanotowano najwyższe stężenie CO2 w historii pomiarów. W niedzielę rano urządzenia zarejestrowały stężenie dwutlenku węgla w atmosferze rzędu 415,39 ppm (części na milion). To jednocześnie pierwszy raz, gdy dzienne stężenie przekroczyło 415 części na milion. Dokładnie rok wcześniej, 12 maja 2018 roku, urządzenia rejestrowały 411,92 ppm. Niemal równo sześć lat temu, 10 maja 2013 roku, informowaliśmy, że z nocy z 7 na 8 maja koncentracja CO2 po raz pierwszy przekroczyła granicę 400 ppm.
      Ostatni raz koncentracja CO2 powyżej 415 ppm występowała na Ziemi przed około 3 milionami lat. To pokazuje, że nawet nie zaczęliśmy chronić klimatu. Liczby z roku na rok są coraz wyższe, mówi Wolfgang Lucht z Poczdamskiego Instytutu Badań nad Wpływem Klimatu.
      Stacja pomiarowa na Mauna Loa jest najdłużej działającym stałym punktem pomiaru stężenia dwutlenku węgla w atmosferze. Na jej lokalizację wybrano położony na Hawajach szczyt, gdyż jest to najbardziej oddalony od emisji przemysłowej punkt na Ziemi. Jednocześnie, jako że mamy tu do czynienia z czynnym wulkanem, który sam też emituje CO2, pomiary uwzględniają ten fakt i gaz pochodzący z wulkanu nie jest liczony.
      Pomiary z poszczególnych dni mogą różnić się między sobą, gdyż w ich przypadku dużo zależy od warunków atmosferycznych i pory roku. W najbliższym czasie, w związku z tym, że na bardziej uprzemysłowionej półkuli północnej właśnie trwa wiosna, należy spodziewać się spadku stężenia dwutlenku węgla, gdyż będą go pochłaniały rośliny. Jednak widać, że stężenie gazu cieplarnianego ciągle rośnie. Specjaliści przypuszczają, że wzrost rok do roku wyniesie około 3 ppm, podczas gdy średnia z ostatnich lat to 2,5 ppm. Warto też zwrócić uwagę, jak zmieniały się dzienne rekordowe stężenia CO2 dla poszczególnych lat. W roku 2015 dniem, w którym zanotowano największe stężenie dwutlenku węgla był 13 kwietnia, kiedy wyniosło ono 404,84 ppm. W roku 2016 był to 9 kwietnia (409,44 ppm), w 2017 rekord padł 26 kwietnia (412,63 ppm), a w 2018 rekordowy był 14 maja (412,60 ppm). Tegoroczny rekord to 415,39 ppm.
      Pomiary dokonywane są w Mauna Loa Observatory na wysokości około 3400 metrów nad poziomem morza. W stacji badawczej prowadzone są dwa programy pomiarowe. Jeden, z którego dane prezentujemy i który trwa od końca lat 50., to program prowadzony przez Scripps Institute. Drugi, młodszy, to NOAA-ESRL za który odpowiada amerykańska Narodowa Administracja Oceaniczna i Atmosferyczna (NOAA). Ten drugi pokazuje zwykle dane o ułamki punktu (rzędu 0,06–0,15) niższe niż dane Scripps. Różnice wynikają z różnych metod statystycznych używanych przez obie instytucje i dowodzą wysokiej spójności i wiarygodności pomiarów.
      W 2015 roku podpisano Porozumienie Paryskie, którego celem jest niedopuszczenie, by średnie temperatury na Ziemi wzrosły bardziej niż o 2 stopnie powyżej poziomu sprzed rewolucji przemysłowej. Na razie na niewiele się ono zdało, gdyż od tamtej pory wszystkie kolejne lata trafiły do 5 najgorętszych lat w historii pomiarów.
      Przez całą swoją historię ludzkość żyła w chłodniejszym klimacie niż obecnie, mówi Lucht. Za każdym razem gdy uruchamiamy silnik, emitujemy CO2 i ten gaz musi gdzieś trafić. On nie znika w cudowny sposób. Pozostaje w atmosferze. Pomimo podpisania Porozumienia Paryskiego, pomimo tych wszystkich przemów i protestów wciąż nie widać, byśmy doprowadzili do zmiany trendu.
      Jestem na tyle stary, że pamiętam, gdy przekroczenie poziomu 400 ppm było wielkim newsem. Dwa lata temu po raz pierwszy przekroczyliśmy 410 ppm. A teraz mamy 415 ppm. To rośnie w coraz szybszym tempie, stwierdził Gernot Wagner z Uniwersytetu Harvarda.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...