Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Podczas dyskusji na temat różnych metod produkcji energii najczęściej bierze się pod uwagę koszty finansowe oraz środowiskowe. Tymczasem naukowcy ze szwajcarskiego Instytutu Paula Scherrera postanowili zbadać, która z metod produkcji energii pociąga za sobą najwięcej ofiar w ludziach wskutek poważnych wypadków.

Pod uwagę wzięli 1800 wypadków, które wydarzyły się w ciągu ostatnich 30 lat w krajach OECD. Brano pod uwagę tylko takie wydarzenia, w których straciło życie co najmniej 5 osób. Nie policzono awarii elektrowni atomowej w Czernobylu ani ostatniej w Fukushimie.

Warto przy okazji zauważyć, że dla różnych form produkcji energii różnie rozkłada się ryzyko. W przypadku spalania węgla najbardziej ryzykowane jest jego wydobycie, w przypadku elektrowni atomowych do wypadków dochodzi przede wszystkim w samych elektrowniach. Z kolei w przemyśle naftowym i gazowym najwięcej ofiar śmiertelnych pociąga dystrybucja.

Niewątpliwie najbardziej bezpieczną metodą pozyskiwania energii jest energetyka słoneczna (0,02 przypadków śmierci na 100 gigawatów energii/rok), następnie energetyka geotermalna (0,17 śmierci na 100 gigawatów) i energetyka wiatrowa (0,19 śmierci). Te sposoby produkcji energii są jednak na tyle mało rozpowszechnione, że trudno było zebrać dane opisujące, w którym miejscu łańcucha produkcji i dystrybucji dochodzi do wypadków.

Najmniej „śmiercionośnym" spośród rozpowszechnionych rodzajów produkcji energii jest energetyka wodna. Na sto gigawatów energii wygenerowanej w roku dochodzi tam do 0,27 wypadku śmiertelnego. Wszystkie lub prawie wszystkie (od 61 do 100 procent przypadków) mają miejsce w momencie generowania energii.

Niemal trzykrotnie bardziej ryzykowna (0,73 wypadku śmiertelnego na 100 gigawatów/rok) jest energetyka jądrowa. Także i tutaj od 61 do 100 procent wypadków śmiertelnych zdarza się podczas produkcji energii.

Korzystanie z naturalnego gazu to już utrata 7,19 żyć ludzkich na 100 gigawatów/rok energii. Od 6 do 15 procent wypadków śmiertelnych ma miejsce podczas wydobycia, kolejne 6-15% to wypadki, do których dochodzi w czasie długodystansowego transportu. Największe śmiertelne żniwo (31-60%) zbiera dystrybucja gazu na szczeblu lokalnym. Ryzykowane jest też (16-30%) generowanie energii z gazu.

Kolejna na niechlubnej liście jest ropa naftowa. W przemyśle tym na każde 100 gigawatów energii życie traci 9,37 osób. Największym ryzykiem obarczone są (po 16-30%) transport na dalekie odległości oraz dystrybucja na szczeblu lokalnym. Mniej ryzykowne (6-15%) jest wydobycie.

Za najwięcej ofiar śmiertelnych odpowiedzialne jest spalanie węgla, gdzie na każde 100 gigawatów energii życie traci 12 osób. Jak łatwo się domyślić giną one przede wszystkim (61-100%) w kopalniach.

Najmniej ryzykowne, we wszystkich rodzajach produkcji energii - chociaż nie we wszystkich po równo - są przetwarzanie i składowanie paliwa oraz przechowywanie odpadów. Te elementy procesu produkcji przyczyniają się od 0 do 5% przypadków śmiertelnych.

Musimy przy tym pamiętać, że powyższe dane  pochodzą z krajów rozwiniętych. W krajach rozwijających się liczba wypadków jest znacznie wyższa. Więcej prac jest tam bowiem wykonywanych ręcznie, istniejące maszyny są w gorszym stanie, a obowiązujące przepisy i metody pracy niosą ze sobą większe ryzyko. Trudno jednak podać dane z takich krajów, gdyż tamtejsze statystyki są często niepełne lub celowo fałszowane.

Należy jednak zwrócić uwagę, że największe koszty i ofiary generuje nie sam proces produkcji energii, ale zanieczyszczenia wywoływane spalaniem paliw kopalnych. Z badań przeprowadzonych przez Pascale Scapecchiego na zlecenie OECD wynika, że z powodu zanieczyszczenia pyłem corocznie w Polsce umiera co roku 32 850 osób powyżej 30. roku życia oraz 94 niemowlęta. U 14 680 osób powyżej 27. roku życia rozwija się chroniczne zapalenie oskrzeli, 6110 osób zgłasza się od szpitali z powodu problemów z układem oddechowym, a 3770 jest przyjmowanych z powodu problemów z układem krążenia. Oszacowano też, że wiąże się to w sumie z niemal 35 milionami dni o obniżonej aktywności. Bardziej szczegółowe dane, pochodzące z USA, pokazują, że w 2000 roku wskutek emisji przez elektrownie pyłów utracono ponad 5 milionów dni roboczych, a obniżenie aktywności dotyczyło ponad 26 milionów dni.

Z kolei dwóch hiszpańskich naukowców, Monzon i Guerrero, oszacowali społeczne i zdrowotne koszty jakie poniesiono w samym tylko Madrycie w 1996 roku w związku z zanieczyszczeniami powietrza emitowanymi przez transport. Biorąc pod uwagę koszty związane z przypadkami śmierci, przyjęciami do szpitali, utratą produktywności oraz cierpieniem całość strat oszacowano na ponad 682,5 miliona dolarów. O tym, że nie są to przesadzone kwoty mogą świadczyć wyliczenia dokonane przez Ontario Medical Association. Kanadyjczycy, chcąc obliczyć straty związane z zanieczyszczeniem powietrza stwierdzili, że stracony czas, koszty opieki zdrowotnej, przedwczesnych zgonów oraz cierpienia wyniosły w 2005 roku w Kanadzie 6 miliardów 430 milionów USD.

Jak zatem widzimy, największe straty przynoszą długofalowe skutki wykorzystywania technologii zanieczyszczających środowisko naturalne.

Share this post


Link to post
Share on other sites

Brano pod uwagę tylko takie wydarzenia, w których straciło życie co najmniej 5 osób. Nie policzono awarii elektrowni atomowej w Czernobylu ani ostatniej w Fukushimie.

 

I tyle jeśli chodzi o rzetelność tego zestawienia. DNO.

Share this post


Link to post
Share on other sites

Czyli w Polsce ok 10% zgonów powoduje zanieczyszczenie środowiska. Wśród zgonów niemowląt to ponad 5%. Dorośli sami sobie winni. Ale za co mordujemy dzieci? Gdyby w Szwecji zamordowano prawie setkę młodzieży to podniósł się szum i wielkie oburzenie. W Polsce co roku zabijamy setkę noworodków.

Share this post


Link to post
Share on other sites

... rzetelność tego zestawienia. DNO.

Wystarczy przy odrobina osobistego wysiłku matematycznego, wstawić ogólnie dostępne dane o ilości ofiar Czernobyla i Fukushimy i dopiero  tę analizę dyskredytować.

        W proporcjach NIC się nie zmieni !!!

Share this post


Link to post
Share on other sites

@ TrzyGrosze - zgadzam się, chociaż nie zmienia to faktu, że tak dokonana selekcja materiału rodzi pytania o rzetelność całej analizy.

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites

Błędem badaczy jest że nie umotywowali braku Czernobyla i Fukushimy. Pewnie chodzi o kontrowersyjność (rozbieżność) danych o ilości ofiar.

Share this post


Link to post
Share on other sites

Bardziej szczegółowe dane, pochodzące z USA, pokazują, że w 2000 roku wskutek emisji przez elektrownie pyłów utracono ponad 5 milionów dni roboczych, a obniżenie aktywności dotyczyło ponad 26 milionów dni.

 

nie kumam, co to za bzdury?

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites

Co do Czernobyla i Fukushimy... brano pod uwagę wypadki, w których życie straciło co najmniej 5 osób. W przypadku obu elektrowni bezpośrednio wskutek wypadku życia nie straciło chyba więcej niż 5 osób. Skutki długofalowe to już insza inszość. Moim zdaniem powinno być one liczone nie do ofiar wypadków, a do ofiar zanieczyszczeń.

 

@cyberant: utrata dni roboczych wskutek braku aktywności zawodowej (choroba, przedwczesna śmierć), dni obniżonej aktywności - czyli ktoś np. choruje, nie na tyle poważnie by nie iść do pracy czy nie wykonywać codziennych czynności, jednak wskutek choroby (np. astmy) aktywność człowieka jest obniżona.

Share this post


Link to post
Share on other sites

Dokładność tych wyliczanek jest wątpliwa, w wytworzeniu energii z gazu biorą udział cywile (kuchenki, piecyki gazowe - wybuchy) z węgla zaczadzenia z różnej maści pieców i kotłowni domowych.

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites
Dokładność tych wyliczanek jest wątpliwa, w wytworzeniu energii z gazu biorą udział cywile (kuchenki, piecyki gazowe - wybuchy) z węgla zaczadzenia z różnej maści pieców i kotłowni domowych.

Zgadza się. W mało którym wypadku tego typu ginie więcej niż 5 osób, ale w skali roku śmiertelność z powodu wybuchu kuchenek albo zaczadzenia w samej Polsce będzie to pewnie kilkadziesiąt osób. A idąc jeszcze dalej, mnóstwo osób ginie z powodu wojen, w których tak naprawdę chodzi o źródła energii (na czele z ropą).

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites

Dlaczego piszecie Czernobyl, a nie Czarnobyl?

A ja wcale nie uważam, żeby energia jądrowa była taka zła. Sami się o to prosiliśmy. Jeśli nie będziemy się rozwijać, zaczniemy się cofać. Musimy się nauczyć skutecznie okiełznać i poprawić sposób pozyskiwania tej energii.

Poza tym - czego tu się bać? Dookoła większość sąsiadów ma elektrownie - jak nas zmiotnie, to równo i będzie wielkie g...no(przepraszam za wyrażenie). Europa w panice i kolejne fale kryzysów i jakiś stanów (nad)wyjątkowych. I co z tego, że np. taka Dania nie ma elektrowni? To kraj wyspiarski, wykorzystują skutecznie inne formy pozyskiwania energii, choćby wiatraki. Włochy to obszar aktywny sejsmicznie, kraje byłej Jugosławii należą do tych "biedniejszych"...

W Polsce trzęsień takich jak w Japonii nie ma, a Czarnobyl to kompletna pomyłka, takich elektrowni powinno nie być. Jak coś wybudujemy teraz, to będzie już elektrownia nowszej generacji i bezpieczniejsza niż te ukraińskie, po sąsiedzku.

I niech żadne Niemcy się nie ośmieszają zabranianiem nam budowania elektrowni, sami gorsze mają (niż te, które wybudujemy, jeżeli zaczniemy coś budować).

No, Antyszwed, pogadajmy.  :)

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites

no ja właśnie nie widzę rozsądnych argumentów przeciwko energetyce jądrowej, dlatego jestem ciekawy czy ktoś ma lepszy pomysł (na samym procesie się nie znam-słucham co mówią eksperci,a mówią że to najefektywniejszy i jeden z bezpieczniejszych sposobów tworzenia prądu, mniej szkodliwy dla środowiska od węglowych)

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites

Są przeciwko - nie każdy kraj może sobie pozwolić na elektrownię atomową, nie wszędzie można je budować (jak teraz się okazało). Jak coś się zepsuje, to nie wiadomo za bardzo, co robić... i jakie będą tego skutki.

A promieniowaniem nie trzeba się przejmować. Tor wzięliśmy z ziemi, odpadki wrócą do ziemi. Można powiedzieć, że w skałach jest porównywalnie tyle promieniotwórczych pierwiastków, co w tych odpadach (jakby to liczyć w jednostkach masy -kg skał, kg odpadów, coś takiego było w... focusie?). Może to też zależy od rodzaju skał... no, na tym się już nie znam.

Share this post


Link to post
Share on other sites

A te antyneutrina, czy neutrina to nie są ze Słońca? Przenikliwość na pewno mają diablelną (a większą niż gamma?), więc i jądro rozwalą, ale czy znowu aż tak dużo ich się robi przez reaktory?

Share this post


Link to post
Share on other sites

A te antyneutrina, czy neutrina to nie są ze Słońca? Przenikliwość na pewno mają diablelną (a większą niż gamma?), więc i jądro rozwalą, ale czy znowu aż tak dużo ich się robi przez reaktory?

 

 

 

Tak się składa, że neutrina baaaardzo nikle oddziałują z materią, gdyż przekrój czynny na oddziaływanie neutrina elektronowego z protonem wynosi zaledwie ok. 1e-19 (0.0000000000000000001 barna).

Zatem interakcja neutrin z ludzkim ciałem zachodzi bardzo, bardzo, bardzo, rzadko... (jeśli wogóle). Dlatego też więc detektory neutrin to z reguły ogromne konstrukcje: przykładowo japoński Super-Kamionkande, to ogromny cylinder o średnicy i wysokości ok. 40 metrów i zawierający aż 50000 ton wody i mrowie rejestratorów Efektu Czerenkowa, powstającego w wyniku stosunkowo rzadkiej interakcji neutrin z materią cieczy wewnątrz detektora.

 

 

Związane jest to z tym, że materia w warunkach ma niską gęstość, rzędu max. 22 g/cm³ (Osm) — a dopiero w materii o gęstości CO NAJMNIEJ ~1e+12g/cm³ (~1000000000000 g/cm³), dochodzić może dopiero do częstego oddziaływania neutrin z materią. Takie ultra-wielkie gęstości materii występują we wnętrzu większych od Słońca gwiazd — i to dopiero w chwili wybuchu Supernowych!

 

 

 

 

 

 

SZACUNKOWA LICZBA NEUTRIN Z REAKTORóW NA SEKUNDĘ

 

Jeśli chodzi o ilość neutrin (ściślej: głównie antyneutrin elektronowych) powstających w reaktorach jądrowych, to można oszacować z grubsza ile w danym momencie wszystkie komercyjne Elektrownie Jądrowe świata rozszczepiają w danym momencie paliwa jądrowego, z którego powstają często wysokoaktywne tzw. produkty rozszczepienia — a to one w wyniku zachodzących w nich rozpadach promieniotwórczych β.

 

Moc elektryczna działających obecnie 435. reaktorów energetycznych na świecie wynosi sumarycznie, nieco ponad: Σ372 GWe (dane: WNA), czyli przyjmując umownie że mają sprawność η=33%, to ich moc termiczna wynosi około 3× mocy elektrycznej, tj. Σ1116 GWth. Do tego można doliczyć moc wszystkich działających dziś 230. reaktorów badawczych, nieco ponad Σ2.3 GWth (dane: IAEA) — czyli daje to RAZEM: Σ1119 GWth.

Ponieważ 1 rozszczepienie jądra paliwa jądrowego, wyzwala 200 MeV = 3.2e-11 J energii, czyli tym samym rozszczepiając ok. 31 mld jąder uzyska się 1 J energii — jeżeli tyle zostanie rozszczepionych w ciągu sekundy, będzie to oczywiście 1 W (J/s).

 

Interpolując zależność: 1119 GJ/sek = 3.5e+22 rozszczepień/sek. na całym świecie!

 

 

Ważne: o tym jak ogromne ilości energii da się uzyskać z energii jądrowej, świadczy to, że rozszczepieniu 3.5e+22 jąder odpowiada fizycznej ilości... niecałych 14 gram uranu-235!

(gdyż w 1 gramie uranu jest 6.022e+23 : 235 = ~2.56e+21 jąder)

 

 

Ponieważ po rozszczepieniu jądro dzieli się najczęściej na 2 fragmenty, więc powstaje tym samym w ciągu sekundy na świecie około 14 gram/sek. = 7e+22 jąder produktów rozszczepienia/sek. (różne izotopy pierwiastków takich, jak np: krypton, ksenon, jod, cez... itp.).

I to one przekształcają się stopniowo izotopy STABILNE, emitując cząstki β–, fotony γ oraz νe — z których jedynie te ostatnie wydostają się poza reaktor i wylatują w przestrzeń kosmiczną...

 

Ponieważ dane jądro będące produktem rozszczepienia uranu, ma zwykle nadmiar neutronów nad neutronami, więc przechodzi zwykle od 1. do kilku kolejnych przemian promieniotwórczych, za każdym razem emitując m.in. neutrino. Do przemian tych dochodzi po różnych okresach czasu, ze względu na daną wartość okresu połowicznego rozpadu (T "½") kolejnego izotopu w w szeregu promieniotwórczych przemian — przyjmuje się, że średnio następują 3. rozpady, zanim powstanie STABILNY izotop.

 

 

Zatem można przyjąć, że ludzie "produkują" z grubsza 2.1e+23 antyneutrin elektronowych/sek. — dzięki reaktorom.

 

 

 

 

 

SZACUNKOWA LICZBA NEUTRIN ZE SŁOŃCA NA SEKUNDĘ

 

 

Wewnątrz Słońca co sekundę około 600 mln ton wodoru przekształca się w około 596 mln ton helu, zaś ok. 4 mln ton materii przekształca się w energię = "bagatela" ~3.8e+26 W (J/s).

 

Ważne: o można sprawdzić, że skoro Słońca świeci już 4.6 mld lat i będzie świecić drugie tyle czasu — to w ciągu całego życia "spalając" 4 mln ton materii/sek — "schudnie" o ok. 0.00057 = 1/1760 swojej całkowitej masy...

(tj. mniej niż margines błędu: ±0.0012 — z jakim znamy masę Słońca = 1.98e+27 ton)

 

 

Wracając do neutrin Słonecznych... 1 gram wodoru, to ok. 6e+23 protonów, zatem 600 mln ton wodoru, to 3.6e+38 protonów. Zderzanie się ich par w jądrze Słońca i przekształcanie się na deuter, pozytony i neutrina elektronowe, powoduje więc powstawania SZACUNKOWO aż 1.8e+38 neutrin elektronowych ze Słońca/sek.!!!

 

Oznacza to tym samym, że przez nas oraz każdy cm² Ziemi dniem i nocą przelatuje jakieś 60 mld neutrin/sek. ze Słońca!!!

  • Upvote (+1) 2

Share this post


Link to post
Share on other sites

A ja bym nawiązał do tematu "Ludzkich kosztów", badania które wybierają przypadki powyżej 5 ofiar, są całkowicie nierzetelne, gdyby uwzględnić każdy jeden wypadek wyszłoby że najbardziej zabójcze są technologie solarne a później wiatrowe. Solarne - bo ludzie często spadają z dachów i drabin. Wiatrowe - całkiem podobnie, budowa i transport, a także trzeba by doliczyć do nich ofiary z elektrowni gazowych które muszą uzupełniać prąd z wiatraków i baterii słonecznych.

Badając w tak wybiórczy sposób można zmanipulować każde fakty, robiąc pożywkę dla ekoterrorystów.

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites
Oznacza to tym samym, że przez nas oraz każdy cm² Ziemi dniem i nocą przelatuje jakieś 60 mld neutrin/sek. ze Słońca!!!

 

Panie Andrzeju ale z reaktorów wylatują antyneutrina które ze słońca nie lecą , do tego odległość od źródła powoduje docieranie wiązki równoległej a w przypadku reaktorów dostajemy gęsto ze wszystkich stron i to antyneutrinami (na neutrina ze słońca jesteśmy ewolucyjnie przygotowani na antyneutrina nie).

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Oceany są tak czułe na poziom dwutlenku węgla w atmosferze, że zmniejszenie jego emisji szybko prowadzi do mniejszego pochłaniania go przez wodę. Autorzy najnowszych studiów uważają, że w bieżącym roku oceany pochłoną mniej CO2, gdyż w związku z epidemią COVID-19 ludzkość mniej go wyemitowała.
      Galen McKinley z należącego do Columbia University Lamont-Doherty Earth Observatory uważa, że w bieżącym roku oceany nie będą kontynuowały obserwowanego od wielu lat trendu, zgodnie z którym każdego roku pochłaniają więcej węgla niż roku poprzedniego. Nie zdawaliśmy sobie sprawy z tego zjawiska, dopóki nie przeprowadziliśmy badań na temat wymuszania zewnętrznego. Sprawdzaliśmy w ich ramach, jak zmiany wzrostu koncentracji atmosferycznego dwutlenku węgla wpływają na zmiany jego pochłaniania przez ocean. Uzyskane wyniki nas zaskoczyły. Gdy zmniejszyliśmy emisję i tempo wzrostu koncentracji CO2, oceany wolniej go pochłaniały.
      Autorzy raportu, którego wyniki opublikowano właśnie w AGU Advances, chcieli sprawdzić, co powoduje, że w ciągu ostatnich 30 lat oceany pochłaniały różną ilość dwutlenku węgla. Takie badania pozwalają lepiej przewidywać zmiany klimatyczne i reakcję oceanów na nie.
      Oceany są tym środowiskiem, które absorbuje największą ilość CO2 z atmosfery. Odgrywają więc kluczową rolę w ochronie planety przed ociepleniem spowodowanym antropogeniczną emisją dwutlenku węgla. Szacuje się, że oceany pochłonęły niemal 40% całego CO2 wyemitowanego przez ludzkość od początku epoki przemysłowej. Naukowcy nie rozumieją jednak, skąd bierze się zmienne tempo pochłaniania węgla. Od dawna zastanawiają się np., dlaczego na początku lat 90. przez krótki czas pochłaniały więcej CO2, a później tempo pochłaniania zwolniało do roku 2001.
      McKinley i jej koledzy wykorzystali różne modele za pomocą których sprawdzali i analizowali różne scenariusza pochłaniania dwutlenku węgla i porównywali je z tym, co działo się w latach 1980–2017. Okazało się, że zmniejszenie pochłaniania dwutlenku węgla w latach 90. najlepiej można wyjaśnić przez zmniejszenie jego emisji. W tym bowiem czasie z jednej strony poprawiono wydajność procesów przemysłowych i doszło do upadku ZSRR, a gospodarki jego byłych satelitów przeżywały poważny kryzys. Stąd spowolnienie pochłaniania w latach 90. Skąd zaś wzięło się krótkotrwałe przyspieszenie tego procesu na początku lat 90? Przyczyną była wielka erupcja wulkanu Pinatubo na Filipinach z roku 1991.
      Jednym z kluczowych odkryć było stwierdzenie, że takie wydarzenia jak erupcja wulkanu Pinatubo mogą odgrywać ważną rolę w zmianach reakcji oceanów na obecność węgla w atmosferze, wyjaśnia współautor badań Yassir Eddebbar ze Scripps Institution of Oceanography.
      Erupcja Pinatubo była drugą największą erupcją wulkaniczną w XX wieku. Szacuje się, że wulkan wyrzucił 20 milionów ton gazów i popiołów. Naukowcy odkryli, że z tego powodu w latach 1992–1993 oceany pochłaniały więcej dwutlenku węgla. Później ta ilość zaczęła spadać i spadała do roku 2001, kiedy to ludzkość zwiększyła emisję, co pociągnęło za sobą też zwiększenie pochłaniania przez oceany.
      McKinley i jej zespół chcą teraz bardziej szczegółowo zbadać wpływ Pinatubo na światowy klimat i na oceany oraz przekonać się, czy rzeczywiście, zgodnie z ich przewidywaniami, zmniejszenie emisji z powodu COVID-19 będzie skutkowało zmniejszeniem pochłaniania CO2.
      Uczona zauważa, że z powyższych badań wynika jeszcze jeden, zaskakujący wniosek. Gdy obniżymy antropogeniczną emisję dwutlenku węgla, oceany będą mniej go wchłaniały, więc nie będą kompensowały emisji w tak dużym stopniu jak w przeszłości. Ten dodatkowy, niepochłonięty przez oceany, węgiel pozostanie w atmosferze i przyczyni się do dodatkowego ocieplenia.
      Musimy przedyskutować ten mechanizm. Ludzie muszą rozumieć, że po obniżeniu emisji nastąpi okres, gdy i ocean obniży swoją efektywność jako miejsce pochłaniania węgla, mówi McKinley.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Dzięki „szczęśliwemu wypadkowi” naukowcy z University of Massachusetts w Lowell otrzymali nową stabilną formę węgla. Wydaje się mieć ona wyjątkowe właściwości: jest twardsza od stali, równie dobrze przewodzi prąd, a jej powierzchnia jest połyskliwa jak polerowanego aluminium. Najbardziej zaś zaskakujący jest fakt, iż nowa forma wydaje się ferromagnetykiem i utrzymuje tę właściwość w temperaturach dochodzących do 125 stopni Celsjusza. O odkryciu poinformował fizyk Joel Therrien podczas International Symposium on Clusters and Nanomaterials.
      Słuchający jego wystąpienia specjaliści byli podekscytowani, ale i ostrożnie podeszli do tych rewelacji. Qian Wang, fizyk z Uniwersytetu Pekińskiego, stwierdziła: gdy opublikują wyniki swoich badań i zostaną one potwierdzone przez innych, spotka się to z olbrzymim zainteresowaniem. Jeśli materiał ten wykazuje właściwości magnetyczne, to może być bardzo użyteczny przy budowie bioczujników czy nośników leków. Uczona zwraca uwagę, że węgiel jest lżejszy niż inne ferromagnetyki, a ponadto nie jest toksyczny.
      Robert Whetten, materiałoznawca z Northern Arizona University, stwierdził, że on dał się przekonać Therrienowi. Przypomina, że gdy w połowie lat 80. ogłaszano odkrycie kulistego fullerenu C60, to spotkało się to z równie dużym sceptycyzmem. Przypomina jednak, że już wcześniej pojawiły się twierdzenia o odkryciu magnetyzmu w czystym węglu, a później okazywało się, iż próbki były zanieczyszczone.
      Na razie naukowcom udało się uzyskać jedynie cienkie warstwy nowego materiału, które badali za pomocą mikroskopów elektronowych i spektrometrów rentgenowskich. Wszyscy zwracają uwagę, że potrzebne są kolejne badania.
      Sumio Iijima, ekspert od nanomateriałów z Meijo University, który w 1991 roku odkrył węglowe nanorurki mówi, że zaprezentowane dane „nie są wystarczająco dobre”, by przekonać go, iż Amerykanie odkryli nowy alotrop węgla. Chce, by na większej próbce przeprowadzono badania metodą krystalografii rentgenowskiej. Dopiero to pozwoli na określenie struktury materiału.
      Therrien mówi, że nowy materiał uzyskano podczas nieudanych próby syntezy pentagrafenu. To teoretycznie przewidywana forma węgla, w której atomy są połączone w kształt pierścieni składających się z pięciu elementów. Dotychczas nikt jej nie uzyskał. Uczony chciał wykorzystać technikę pozwalającą na wymuszenie nietypowej struktury atomowej. Do komory służącej do chemicznego osadzania z fazy gazowej włożył folię miedzianą spełniającą formę katalizatora i podgrzał ją do temperatury około 800 stopni Celsjusza. Zamiast jednak wpompować do środka prosty gaz, jak metan, użył bardziej złożonego 2,2 dimetylbutanu.
      Po skończeniu zajęć ze studentami Therrien wrócił do laboratorium i poczuł zapach smoły. Wnętrze komory było pokryte czarnym osadem, jednak na miedzianej folii pojawiła się jasna, błyszcząca warstwa.
      Po dwóch latach eksperymentów z różnymi heksanami jego zespół nauczył się odtwarzać uzyskaną substancję na podłożach o grubości do 1 mikrometra i długości kilku centymetrów. Naukowcy twierdzą, że otrzymują w ten sposób pofałdowane warstwy węgla złożone pierścieni, na których składa się 6 lub 12 atomów połączonych wiązaniami kowalencyjnymi.
      Podczas wspomnianego sympozjum pokazano film, na którym widać, że zawieszone w kroplach wody kawałki nowego materiału reagują na magnes, a najbardziej sensacyjnym jest stwierdzenie, iż właściwości magnetyczne występują w temperaturze d0 125 stopni, czyli w takim zakresie, w jakim pracują silniki czy komputery. Therrien mówi, że próbowano zarysować nowy materiał za pomocą stali i się nie udało. Zarysowuje go diament. Inną niezwykłą właściwością jest wysoki połysk. Dotychczasowe pomiary wykazały, że materiał odbija ponad 90% światła w zakresach od dalekiego ultrafioletu po połowę podczerwieni.
      Nowy materiał przewodzi ładunki elektryczne niemal równie dobrze jak stal, a po poddaniu go powolnemu wyżarzaniu do temperatury 1000 stopni Celsjusza, pojawia się w nim pasmo zabronione, staje się więc półprzewodnikiem.
      Naukowcy nie nadali mu jeszcze nazwy.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Na University of Texas w San Antonio (UTSA) dokonano przełomowego odkrycia, które będzie miało olbrzymie znaczenie dla prac nad nowymi lekami. Odkrycie ma związek z fluorem, który tworzy najsilniejsze, po krzemie, wiązania atomowe z węglem.
      Fluor, w postaci fluorków, używany jest zarówno do uzdatniania wody pitnej i w pastach do zębów, jak i szeroko stosowany w chemii medycznej do leczenia nowotworów, w antybiotykach, antydepresantach, sterydach i innych lekach. Fluor stosuje się w lekach, gdyż je stabilizuje i zwiększa ich aktywność biologiczną.
      Przez wiele lat naukowcy z UTSA badali tiole, organiczne związki chemiczne, odpowiedniki alkoholi. W organizmach ssaków tiole mają wpływ na wiele funkcji biologicznych, jak równowaga energetyczna, przesyłanie sygnałów między komórkami, zdrowie serca, stan układu immunologicznego i neurologicznego. Gdy poziomy tioli są stabilne, jesteśmy generalnie w dobrym stanie zdrowia. Gdy rosną i przez dłuższy czas utrzymują się na podwyższonym poziomie, mogą pojawić się takie choroby jak reumatoidalne zapalenie stawów, nowotwory piersi, choroby Alzheimera i Parkinsona.
      Za regulację poziomu tioli odpowiadają dioksygenaza cysteinowa (CDO) i dioksygenaza cystaminowa (ADO). Gdy poziom tioli rośnie, CDO i ADO tworzą wzmacniacze katalizy, które szybko usuwają nadmiar tioli z organizmu. Jako, że nie wiadomo dokładnie, w jaki sposób te wzmacniacze są tworzone, uczeni z UTSA postanowili to zbadać. I wówczas dokonali ważnego odkrycia.
      Na potrzeby swoich badań stworzyli nową formę CDO z wyjątkowo silnymi wiązaniami węgiel-fluor. Sądzili, że enzymy nie będą w stanie rozerwać tych wiązań i nie powstanie wzmacniacz. Okazało się jednak, że zmodyfikowane CDO nadal było w stanie rozerwać wiązania i stworzyć katalizator. W ten sposób po raz pierwszy wykazano, że wiązania węgiel-fluor mogą być rozrywane w proteinach na drodze utleniania. To zaś oznacza, że w organizmie człowieka również może zachodzić taki proces.
      To bardzo ważne odkrycie. Ponad 20% leków zawiera fluor. Wiązania węgiel-fluor są odporne na procesy metaboliczne w organizmie, przez co zawierający je lek może dłużej w nim przebywać. Fluorek pomaga też lekom na przenikanie przez ściany komórkowe. Od dawna sądzono, że wiązania węgiel-fluor są odporne na zrywanie. Najnowsze odkrycie pokazuje, że tak nie jest, mówi Michael Doyle, dziekan wydziału Chemii Medycznej na UTSA.
      Okazuje się zatem, i jest to odkrycie niezwykle ważne dla rozwoju leków, że wiązania C-F mogą być w organizmie mniej trwałe niż sądzono, a tym samym słabiej chronią substancje lecznicze przed procesami metabolicznymi organizmu.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Działalność człowieka zaczęła zmieniać cykl obiegu wody i energii w Amazonii. Artykuł opublikowany w najnowszym Nature pokazuje, że istnieje związek pomiędzy wycinką lasów, pożarami a zmianami klimatycznymi, a całość tych zjawisk może wpłynąć na obieg węgla, opady oraz poziom wody w rzekach.
      Badania prowadzone były pod kierownictwem specjalistów z Woods Hole Research Center przez 13 brazylijskich i amerykańskich uczelni, agend rządowych i organizacji pozarządowych. W ramach programu Large-Scale Biosphere-Atmosphere Experiment in Amazon (LBA) badany jest związek pomiędzy zmianami klimatu, zwiększaniem areałów ziemi uprawnej, wycinką drzew a ryzykiem wystąpienia pożarów.
      Jednym z bardzo ważnych wskaźników poważnego zachwiania równowagi jest duża liczba wielkich pożarów, które są produktem ubocznym celowego wypalania lasu. Takie pożary występują niezwykle często, co kilka lat, podczas gdy w przeszłości zdarzały się raz na kilkaset lat - mówi Jennifer K. Balch, współautorka badań.
      W ostatnich dziesięcioleciach aktywność człowieka w basenie Amazonki gwałtownie się zwiększa, a wskutek działalności Homo sapiens zaczyna dochodzić do zachwiania równowagi ekosystemu. Jego zniszczenie może mieć katastrofalne skutki dla całej planety, gdyż z Amazonii pochodzi około 20% światowych zasobów słodkiej wody, a w tamtejszych lasach uwięzione jest około 100 miliardów ton węgla.
      Tymczasem naukowcy dowodzą, że już w tej chwili można zauważyć zmiany w przepływie rzek, tworzeniu się osadów i przedłużaniu okresu suchego w południowych i wschodnich częściach basenu Amazonki. To czy zmiany takie wystąpią też w innych jego częściach będzie zależało od decyzji, które ludzie podejmą w najbliższych latach oraz od zmian klimatycznych - mówi Eric Davidson z Woods Hole.
      Badania wykazały też, że Amazonia jest odporna na coroczne zmiany klimatyczne, jednak nie radzi sobie z przedłużającymi się lub szczególnie ciężkimi suszami.
      Brazylia odniosła już pewne sukcesy w walce o zachowanie Amazonii. Przed ośmioma laty corocznie wycinano niemal 28 000 kilometrów kwadratowych lasu. W 2010 roku liczba ta spadła do 7000 km2. Niestety, w tym samym czasie nie zmniejszyła się liczba wielkich pożarów, które prowadzą do dalszej degradacji lasu.
    • By KopalniaWiedzy.pl
      Na Northwestern University powstała nowa anoda dla akumulatorów litowo-jonowych. Umożliwia ona przechowywanie 10-krotnie więcej ładunku niż obecne elektrody, a sam akumulator można załadować 10-krotnie szybciej.
      Odkryliśmy sposób na dziesięciokrotne wydłużenie życia baterii litowo-jonowej. Nawet po 150 cyklach ładowania/rozładowywania, co zajmie rok lub więcej, nasz akumulator będzie pięciokrotnie bardziej wydajny niż współcześnie stosowane rozwiązania - mówi profesor Harold H. Kung.
      Współczesne baterie litowo-jonowe działają dzięki przesyłaniu jonów litu pomiędzy dwoma elektrodami - anodą i katodą. Gdy używamy energii, jony litu przemieszczają się z anody, przez elektrolit, do katody. Gdy ładujemy akumulator, podróż odbywa się w odwrotną stronę.
      Obecnie wydajność akumulatorów Li-Ion jest ograniczona dwoma czynnikami. Ich pojemność zależy od tego, jak wiele jonów litu może przechować anoda lub katoda. Z kolei prędkość rozładowywania, a zatem dostarczania energii, zależy od prędkości przemieszczana się jonów pomiędzy elektrolitem a anodą.
      We współczesnych akumulatorach anoda wykonana jest z węgla i na każde 6 jego atomów przechowuje jeden atom litu. Eksperymentowano z zastąpieniem węgla krzemem, który ma większą pojemność, gdyż przechowuje atom litu na każde 4 atomy krzemu. Jednak podczas pracy krzem znacznie zmienia swoje rozmiary, co prowadzi do uszkodzenia elektrody i spadku pojemności baterii.
      Ponadto poszczególne warstwy węgla w elektrodzie są bardzo cienkie, jednak długie. Podczas procesu ładowania każdy jon musi przebyć całą drogę od krawędzi by dotrzeć do kolejnych warstw. To zajmuje sporo czasu, a ponadto powoduje, że na krawędziach powstaje „korek" z jonów oczekujących na możliwość wyruszenia w drogę.
      Zespół Kunga postanowił za jednym zamachem rozwiązać oba problemy. Po pierwsze warstwy krzemu poprzedzielał warstwami węgla. Mamy dzięki temu znacznie większą pojemność energii, gdyż wykorzystaliśmy krzem, a jego poprzedzielanie zmniejszyło straty pojemności spowodowane rozszerzaniem się i kurczeniem krzemu - wyjaśnia Kung. Uczeni wykorzystali też proces utleniania do uzyskania niewielkich (10x20 nanometrów) dziur w warstwach węgla. Dziury te tworzą skróty, dzięki którym jony litu nie muszą podróżować przez całą warstwę. Pozwoliło to na 10-krotne skrócenie czasu ładowania baterii.
      Po udoskonaleniu anody uczeni chcą zająć się pracami nad katodą. Mają też zamiar opracować nowy elektrolit, który będzie powodował, że w wysokich temperaturach akumulator automatycznie przerwie pracę, dzięki czemu będzie bezpieczniejszy w użytkowaniu.
      Technologia Kunga i jego zespołu powinna trafić na rynek w ciągu 3-5 lat.
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...