Jump to content
Forum Kopalni Wiedzy

Search the Community

Showing results for tags ' energia'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Found 29 results

  1. Inżynierowie z University of Massachusetts Amherst wykazali, że z niemal każdego materiału można stworzyć urządzenie pobierające energię elektryczną z pary wodnej zawartej w powietrzu. Wystarczy utworzyć w tym materiale nanopory o średnicy mniejszej niż 100 nanometrów. To niezwykle ekscytujące. Otworzyliśmy drogę do wytwarzania czystej energii z powietrza, cieszy się główny autor artykułu opisującego badania, świeżo upieczony inżynier Xiaomeng Liu. Powietrze zawiera olbrzymie ilości energii elektrycznej. Weźmy na przykład chmurę, która jest niczym innym jak masą kropelek wody. Każda z tych kropelek zawiera ładunek elektryczny i w odpowiednich warunkach dochodzi do wyładowania. Nie potrafimy jednak pozyskiwać energii z tych wyładowań. Natomiast my stworzyliśmy niewielką chmurę, która wytwarza energię w sposób przewidywalny, możemy więc ją zbierać, dodaje profesor Jun Yao. U podstaw najnowszego odkrycia znajduje się praca Yao i Dereka Levleya, którzy w 2020 roku wykazali, że możliwe jest nieprzerwane pozyskiwanie energii elektrycznej z powietrza za pomocą specjalnego materiału złożonego z nanokabli zbudowanych z białek bakterii Geobacter sulfureducens. Po tym, jak dokonaliśmy tego odkrycia zauważyliśmy, że tak naprawdę zdolność pozyskiwania energii z powietrza jest wbudowana w każdy materiał, który posiada pewne właściwości, mówi Yao. Wystarczy, by materiał ten zawierał pory o średnicy mniejszej niż 100 nanometrów, czyli ok. 1000-krotnie mniejszej niż średnica ludzkiego włosa. Dzieje się tak dzięki parametrowi znanemu jako średnia droga swobodna. Jest to średnia odległość, jaką przebywa cząsteczka przed zderzeniem z inną cząsteczką. W tym wypadku mowa o cząsteczce wody w powietrzu. Średnia droga swobodna wynosi dla niej około 100 nanometrów. Yao i jego zespół zdali sobie sprawę, że mogą wykorzystać ten fakt do pozyskiwania energii elektrycznej. Jeśli ich urządzenie będzie składało się z bardzo cienkiej warstwy dowolnego materiału pełnego porów o średnicy mniejszej niż 100 nanometrów, wówczas molekuły wody będą wędrowały z górnej do dolnej części takiego urządzenia. Po drodze będą uderzały w krawędzie porów. Górna część urządzenia będzie bombardowana większą liczbą cząstek wody, niż dolna. Pojawi się w ten sposób nierównowaga ładunków jak w chmurze, której górna część jest bardziej naładowana niż dolna. W ten sposób powstanie bateria, która będzie działała dopóty, dopóki w powietrzu jest wilgoć. To bardzo prosty pomysł, ale nikt wcześniej na niego nie wpadł. Otwiera to wiele nowych możliwości, mówi Yao. Jako, że tego typu urządzenie można zbudować praktycznie z każdego materiału, można je umieścić w różnych środowiskach. Możemy wybrazić sobie takie baterie z jednego materiału działające w środowisku wilgotnym, a z innego – w suchym. A że wilgoć w powietrzu jest zawsze, to urządzenie będzie działało przez całą dobę, niezależnie od pory dnia i roku. Poza tym, jako że powietrze rozprzestrzenia się w trzech wymiarach, a my potrzebujemy bardzo cienkiego urządzenia, cały system bardzo łatwo można skalować, zwiększając jego wydajność i pozyskując nawet kilowaty mocy. « powrót do artykułu
  2. Co łączy uniwersyteckie laboratorium w Chicago, gdzie naukowcy schładzają atomy do temperatury bliskiej zeru absolutnemu, uzyskując egzotyczny stan materii, z widocznymi przez okna drzewami uzyskującymi energię z fotosyntezy? Pozornie nic, ale najnowsze badania prowadzone na University of Chicago sugerują, że to, co robią naukowcy i to, co robią drzewa, może być bardziej podobne, niż nam się wydaje. Uczeni poinformowali właśnie na łamach PRX Energy, że znaleźli podobieństwa na poziomie atomowym pomiędzy fotosyntezą a kondensatami ekscytonowymi, niezwykłym stanem materii, który pozwala na bezstratne przesyłanie energii przez materiał. Odkrycie to może prowadzić do znacznego udoskonalenia elektroniki. O ile nam wiadomo, nikt wcześniej nie zauważył tych podobieństw, a to, co odkryliśmy jest niezwykle ekscytujące, mówi współautor badań, profesor David Mazziotti. Laboratorium Mazziottiego specjalizuje się w modelowaniu niezwykle złożonych interakcji pomiędzy atomami i molekułami. Przed trzema laty wykazano tam na przykład, że możliwe jest istnienie podwójnego kondensatu fermionów i ekscytonów, a spostrzeżenie to może zrewolucjonizować obrazowanie medyczne. W ostatnim czasie Mazziotti oraz Anna Schouten i LeeAnn Sager-Smith modelowali zjawisko fotosyntezy na poziomie molekularnym. Gdy foton ze Słońca uderza w liść, dochodzi do wyładowania w specjalnej molekule. Energia tego wyładowania uwalnia elektron. Następnie elektron ten, wraz z dziurą, w której był, wędrują przez liść, przenosząc energię do miejsca, w którym rozpoczyna ona reakcję chemiczną wytwarzającą cukry odżywiające roślinę. Ta wędrująca para elektron-dziura zwana jest ekscytonem. Gdy naukowcy stworzyli model przemieszczania się wielu takich ekscytonów, zauważyli znany sobie wzorzec. Okazało się, że ekscytony w liściu czasem zachowują się bardzo podobnie do kondensatu Bosego-Einsteina, zwanego czasem piątym stanem materii. W kondensacie Bosego-Einsteina cząstki zachowują się jak jedna cząstka. Dzięki temu w materiale takim energia może być przemieszczana bez strat. Zaobserwowanie takiego stanu materii podczas fotosyntezy to olbrzymie zaskoczenie, gdyż dotychczas kondensat Bosego-Einsteina obserwowano w bardzo niskich temperaturach. Naukowcy mówią, że to tak, jakbyśmy obserwowali kostki lodu tworzące się w filiżance gorącej kawy. Fotosynteza zachodzi w systemach w temperaturze pokojowej. Co więcej, struktura takich systemów jest nieuporządkowana. To warunki całkowicie odmienne od dziewiczych krystalicznych materiałów i niskich temperatur, w jakich uzyskuje się kondensaty elektronowe, mówi Schouten. Zaobserwowane zjawisko nie obejmuje całego systemu, w którym dochodzi do fotosyntezy. Bardziej przypomina pojawiające się „wyspy” kondensatu. To jednak wystarczy, by zwiększyć transfer energii w systemie, wyjaśnia Sager-Smith. Z modelu wynika, że te „wyspy” podwajają wydajność całego procesu. Profesor Mazziotti jest zadowolony z odkrycia i mówi, że otwiera ono nowe możliwości w dziedzinie syntezy materiałów na potrzeby technologii przyszłości. Idealny kondensat ekscytonowy to stan bardzo wrażliwy i wiele warunków musi być spełnionych, by zaistniał. Ale jeśli myślimy o praktycznych zastosowaniach, to nie potrzebujemy ideału. To ekscytujące obserwować zjawisko, które zwiększa wydajność transferu energii, ale zachodzi w temperaturze pokojowej, cieszy się uczony. Naukowiec zauważa jeszcze jedną ważną rzecz. Zachodzące w procesie fotosyntezy interakcje pomiędzy atomami a molekułami są tak złożone, że z ich symulowaniem nie radzą sobie nawet najpotężniejsze superkomputery. Dlatego też podczas badania tych zjawisk dokonuje się uproszczeń. Najnowsze odkrycie pokazuje, że niektórych elementów upraszczać nie należy. Sądzimy, że lokalne korelacje elektronów muszą pozostać, byśmy mogli badać, jak działa natura. « powrót do artykułu
  3. Przed dziewięciu laty profesor Chris Greening i jego koledzy z Monash University zainteresowali się Mycobacterium smegmatis. Ta niezwykła bakteria może przetrwać wiele lat bez dostępu do organicznych źródeł pożywienia. Ku zdumieniu australijskich naukowców okazało się, że M. smegmatis pobiera wodór z atmosfery i wykorzystuje go produkcji energii. Teraz naukowcom udało się wyekstrahować enzym odpowiedzialny za cały proces. Mają nadzieję, że uda się go wykorzystać do produkcji tanich wydajnych ogniw paliwowych. Enzym hydrogenazy, zwany Huc, ma tak wysokie powinowactwo do wodoru, że utlenia wodór atmosferyczny, mówi Greening. Huc jest niezwykle wydajny. W przeciwieństwie do innych znanych enzymów i katalizatorów korzysta z wodoru poniżej poziomu atmosferycznego, który stanowi 0,00005% powietrza, którym oddychamy – dodaje uczony. Od pewnego czasu wiedzieliśmy, że bakterie mogą wykorzystywać wodór atmosferyczny jako źródło energii. Jednak do teraz nie wiedzieliśmy, jak to robią – stwierdza. Bliższe badania ujawniły, że Huc niezwykle wydajnie zmienia minimalne ilości H2 w prąd elektryczny, jednocześnie zaś jest niewrażliwy na oddziaływanie tlenu, który jest zwykle bardzo szkodliwy dla katalizatorów. Co więcej Huc jest odporny na wysokie temperatury. Nawet w temperaturze 80 stopni Celsjusza zachowuje swoje właściwości. Bakterie wytwarzające Huc powszechnie występują w środowisku naturalnym. Odkryliśmy mechanizm, który pozwala bakteriom „żywić się powietrzem”. To niezwykle ważny proces, gdyż w ten sposób bakterie regulują poziom wodoru w atmosferze, pomagają utrzymać żyzność i zróżnicowanie gleb oraz oceanów, dodaje Greening. Obecnie naukowcy pracują nad skalowaniem produkcji Huc. Chcą uzyskać większe ilości enzymu, by go lepiej przebadać, zrozumieć oraz opracować metody jego wykorzystania w procesach przemysłowych. « powrót do artykułu
  4. Na MIT powstały ogniwa fotowoltaiczne cieńsze od ludzkiego włosa, które na kilogram własnej masy wytwarzają 18-krotnie więcej energii niż ogniwa ze szkła i krzemu. Jeśli uda się skalować tę technologię, może mieć do olbrzymi wpływ produkcję energii w wielu krajach. Jak zwraca uwagę profesor Vladimir Bulivić z MIT, w USA są setki tysięcy magazynów o olbrzymiej powierzchni dachów, jednak to lekkie konstrukcje, które nie wytrzymałyby obciążenia współczesnymi ogniwami. Jeśli będziemy mieli lekkie ogniwa, te dachy można by bardzo szybko wykorzystać do produkcji energii, mówi uczony. Jego zdaniem, pewnego dnia będzie można kupić ogniwa w rolce i rozwinąć je na dachu jak dywan. Cienkimi ogniwami fotowoltaicznymi można by również pokrywać żagle jednostek pływających, namioty, skrzydła dronów. Będą one szczególnie przydatne w oddalonych od ludzkich siedzib terenach oraz podczas akcji ratunkowych. To właśnie duża masa jest jedną z przyczyn ograniczających zastosowanie ogniw fotowoltaicznych. Obecnie istnieją cienkie ogniwa, ale muszą być one montowane na szkle. Dlatego wielu naukowców pracuje nad cienkimi, lekkimi i elastycznymi ogniwami, które można będzie nanosić na dowolną powierzchnię. Naukowcy z MIT pokryli plastik warstwą parylenu. To izolujący polimer, chroniący przed wilgocią i korozją chemiczną. Na wierzchu za pomocą tuszów o różnym składzie nałożyli warstwy ogniw słonecznych i grubości 2-3 mikrometrów. W warstwie konwertującej światło w elektryczność wykorzystali organiczny półprzewodnik. Elektrody zbudowali ze srebrnych nanokabli i przewodzącego polimeru. Profesor Bulović mówi, że można by użyć perowskitów, które zapewniają większą wydajność ogniwa, ale ulegają degradacji pod wpływem wilgoci i tlenu. Następnie krawędzie tak przygotowanego ogniwa pomarowano klejem i nałożono na komercyjnie dostępną wytrzymałą tkaninę. Następnie plastik oderwano od tkaniny, a na tkaninie pozostały naniesione ogniwa. Całość waży 0,1 kg/m2, a gęstość mocy tak przygotowanego ogniwa wynosi 370 W/kg. Profesor Bulović zapewnia, że proces produkcji można z łatwością skalować. Teraz naukowcy z MIT planują przeprowadzenie intensywnych testów oraz opracowanie warstwy ochronnej, która zapewni pracę ogniw przez lata. Zdaniem uczonego już w tej chwili takie ogniwo mogłoby pracować co najmniej 1 lub 2 lata. Po zastosowaniu warstwy ochronnej wytrzyma 5 do 10 lat. « powrót do artykułu
  5. W ostatnich dniach media informowały o przełomie w dziedzinie fuzji jądrowej. W National Ignition Facility (NIF) przeprowadzono fuzję jądrową (reakcję termojądrową), podczas której uzyskano więcej energii niż jej wprowadzono do kapsułki z paliwem. To ważne osiągnięcie naukowe, jednak nie oznacza, że w najbliższym czasie będziemy masowo produkowali energię tą metodą. Ilość pozyskanej energii jest bowiem co najmniej 100-krotnie mniejsza niż ilość energii użytej. Cały proces w NIF rozpoczyna się od wygenerowania 1 słabej wiązki lasera, która jest wielokrotnie rozszczepiania i wzmacniana. Po przebyciu 1500 metrów, w cel – kapsułkę z paliwem o średnicy 2-3 milimetrów – trafiają 192 potężne wiązki. Niedawno, 5 grudnia, dostarczyły one do kapsułki 2,05 megadżuli (MJ) energii inicjując reakcję, w wyniku której uwolniło się 3,15 MJ energii. Jednak cały proces generowania wiązek pochłonął... 322 MJ. Jak więc widzimy, tak naprawdę odzyskano około 1% energii, wprowadzonej do paliwa w celu uzyskania zapłonu. A mowa tutaj tylko o energii zużytej przez lasery. Co więcej, jeśli chcielibyśmy taką reakcję wykorzystać w praktyce, musielibyśmy jeszcze energię cieplną zamienić na energię elektryczną, np. za pomocą turbiny parowej. Taka zamiana nie jest darmowa i znaczna część energii cieplnej nie ulega zamianie na energię elektryczną. Straty mogą sięgać 50%. A to oznacza, że uzyskalibyśmy 200-krotnie mniej energii, niż włożyliśmy. Musimy pamiętać, że NIF to infrastruktura badawcza, a nie komercyjna. Nie projektowano jej pod kątem wydajności, ale z myślą o uzyskaniu najpotężniejszych wiązek laserowych. Instalacja służy trzem celom: badaniom nad kontrolowaną fuzją jądrową, badaniom procesów zachodzących we wnętrzach gwiazd oraz stanowi część programu utrzymania, konserwacji i zapewnienia bezpieczeństwa broni atomowej, bez konieczności przeprowadzania testów nuklearnych. Osiągnięcie z 5 grudnia jest istotne z naukowego punktu widzenia. Przede wszystkim udowodniono, że za pomocą inercyjnego uwięzienia plazmy możliwe jest zainicjowanie fuzji jądrowej, w wyniku której uzyskuje się więcej energii niż ta potrzebna do rozpoczęcia reakcji. Udany eksperyment pokazuje też, że NIF pozwoli naukowcom na badanie zjawisk zachodzących podczas eksplozji jądrowych. Wielu ekspertów wątpi, czy technologia wykorzystywana przez NIF pozwoli kiedykolwiek na komercyjną produkcję energii. Żeby w ogóle o tym myśleć stosunek energii pozyskanej do energii włożonej musiałby zwiększy się o co najmniej 2 rzędy wielkości. A to tylko jeden z wielu problemów naukowych i technologicznych, jakie należy rozwiązać. Wykorzystywane w NIF inercyjne uwięzienie plazmy to technologia inna niż magnetyczne uwięzienie plazmy, którą rozwijają naukowcy pracujący przy tokamakach czy stellaratorach. Każda z nich zmaga się ze swoimi problemami. Jednak wszystkie zapewne odniosą olbrzymie korzyści z osiągnięć specjalistów z National Ignition Facility. Osiągnięcie bowiem tak ważnego punktu w pracach nad fuzją termojądrową zwiększy zainteresowanie tymi technologiami, co powinno przełożyć się na większe inwestycje w ich rozwój. Musimy bowiem pamiętać, że świat potrzebuje nowych źródeł energii. Uranu do elektrowni atomowych wystarczy jeszcze na od 90 (według World Nuclear Association) do ponad 135 lat (wg. Agencji Energii Atomowej). Fuzja jądrowa napędzana jest trytem i deuterem, które można pozyskiwać z wody i litu. Dostępne na Ziemi zasoby wystarczą na miliony lat. Fuzja jądrowa – czyli reakcja termojądrowa – to obiecujące źródło energii. Polega ona na łączeniu się atomów lżejszych pierwiastków w cięższe i uwalnianiu energii. To proces, który zasila gwiazdy. Taki sposób produkcji energii na bardzo wiele zalet. Nie dochodzi tutaj do uwalniania gazów cieplarnianych. Jest ona niezwykle wydajna. Proces łączenia atomów może zapewnić nawet 4 miliony razy więcej energii niż reakcje chemiczne, takie jak spalanie węgla czy gazu i cztery razy więcej energii niż wykorzystywane w elektrowniach atomowych procesy rozpadu atomów. Co ważne, w wyniku fuzji jądrowej nie powstają długotrwałe wysoko radioaktywne odpady. Te, które powstają są na tyle mało radioaktywne, że można by je ponownie wykorzystać lub poddać recyklingowi po nie więcej niż 100 latach. Nie istnieje też ryzyko proliferacji broni jądrowej, gdyż w procesie fuzji nie używa się materiałów rozszczepialnych, a radioaktywny tryt nie nadaje się do produkcji broni. W końcu, nie ma też ryzyka wystąpienia podobnych awarii jak w Czernobylu czy Fukushimie. « powrót do artykułu
  6. CERN poinformował, że w przyszłym roku przeprowadzi o 20% mniej eksperymentów, a w roku bieżącym akcelerator zostanie wyłączony 28 listopada, 2 tygodnie wcześniej, niż planowano. Zmiany mają związek z niedoborami energii i rosnącymi jej kosztami. W ten sposób CERN chce pomóc Francji w poradzeniu sobie z problemami z dostępnością energii. CERN kupuje 70–75% energii z Francji. Gdy wszystkie akceleratory w laboratorium pracują, zużycie energii wynosi aż 185 MW. Sama infrastruktura Wielkiego Zderzacza Hadronów potrzebuje do pracy 100 MW. W związku ze zbliżającą się zimą we Francji wprowadzono plan zredukowania zużycia energii o 10%. Ma to pomóc w uniknięciu wyłączeń prądu. Stąd też pomysł kierownictwa CERN, by pomóc w realizacji tego planu. Ponadto rozpoczęto też prace nad zmniejszeniem zapotrzebowania laboratorium na energię. Podjęto decyzję m.in. o wyłączaniu na noc oświetlenia ulicznego, rozpoczęcia sezonu grzewczego o tydzień później niż zwykle oraz zoptymalizowania ogrzewania pomieszczeń przez całą zimę. Działania na rzecz oszczędności energii nie są w CERN niczym niezwykłym. Laboratorium od wielu lat pracuje nad zmniejszeniem swojego zapotrzebowania i w ciągu ostatniej dekady konsumpcję energii udało się ograniczyć o 10%. Było to możliwe między innymi dzięki zoptymalizowaniu systemów chłodzenia w centrum bazodanowym, zoptymalizowaniu pracy akceleratorów, w tym zmniejszenie w nich strat energii. W CERN budowane jest właśnie nowe centrum bazodanowe, które ma ruszyć pod koniec przyszłego roku. Od początku zostało ono zaprojektowane z myślą o oszczędności energii. Znajdą się tam m.in. systemy odzyskiwania ciepła generowanego przez serwery. Będzie ono wykorzystywane do ogrzewania innych budynków laboratorium. Zresztą już teraz ciepło generowane w jednym z laboratoriów CERN jest używane do ogrzewania budynków w pobliskiej miejscowości Ferney-Voltaire. Trwają też prace nad optymalizacją systemu klimatyzacji i wentylacji oraz nad wykorzystaniem energii fotowoltaicznej. « powrót do artykułu
  7. W chińskim Dalian przyłączono do sieci najpotężniejszy na świecie akumulator przepływowy. Urządzenie Dalian Flow Battery Energy Storage Peak-shaving Power Station rozpocznie pracę w połowie października. System został zaprojektowany przez Instytut Chemii Fizycznej Chińskiej Akademii Nauk w Dalian, a wykonała go firma Rongke Power Co. Początkowo urządzenie będzie pracowało z mocą 100 MW, a jego pojemność wyniesie 400 MWh. Z czasem wydajność wanadowego akumulatora osiągnie 200 MW/800 MWh. Biorąc pod uwagę średnie chińskie zużycie prądu wynoszące dziennie 2 kWh/osobę, akumulator dostarczy energię dla 200 000 mieszkańców, zmniejszając tym samym obciążenie systemów produkcji energii w szczycie i zapewniając lepszą stabilność dostaw w południowym regionie Dailan. Potężny system przechowywania energii pomoże ustabilizować sieć, co jest szczególnie ważne w kraju takim jak Chiny, który bardzo intensywnie przyłącza instalacje produkujące energię ze źródeł odnawialnych. Dalian Flow Battery Energy Storage Peak-shaving Power Station będzie działała jak olbrzymi „power bank” miasta, ułatwiając korzystanie z energii odnawialnej. W okresach niskiego zapotrzebowania na prąd energia ze źródeł odnawialnych będzie kierowana do akumulatora i tam zostanie zamieniona na energię chemiczną. W tej postaci będzie przechowywana. W okresach szczytowego zapotrzebowania, energia chemiczna będzie zamieniana na elektryczną i wysyłana do użytkowników. Wanadowe akumulatory przepływowe to obiecująca technologia dla wielkoskalowych systemów przechowywania energii. Cechuje jest wysokie bezpieczeństwa, dobra stabilność pracy, możliwość skalowania, duża pojemność, duża żywotność dobry stosunek kosztów do wydajności. Mogą one współpracować z wieloma różnymi źródłami energii, magazynując energię w czasie, gdy jej podaż jest większa niż popyt i dostarczając ją do sieci, gdy produkcja nie nadąża za popytem. « powrót do artykułu
  8. Dzisiaj, po trzech latach przerwy, Wielki Zderzacz Hadronów (LHC) ponownie podejmuje badania naukowe. Największy na świecie akcelerator cząstek będzie zderzał protony przy rekordowo wysokiej energii wynoszącej 13,6 teraelektronowoltów (TeV). To trzecia kampania naukowa od czasu uruchomienia LHC. Przez trzy ostatnie lata akcelerator był wyłączony. Trwały w nim prace konserwatorskie i rozbudowywano jego możliwości. Od kwietnia w akceleratorze znowu krążą strumienie cząstek, a naukowcy przez ostatnich kilka tygodni sprawdzali i dostrajali sprzęt. Teraz uznali, że wszystko działa, jak należy, uzyskano stabilne strumienie i uznali, że LHC może rozpocząć badania naukowe. W ramach rozpoczynającej się właśnie trzeciej kampanii naukowej LHC będzie pracował bez przerwy przez cztery lata. Rekordowo wysoka energia strumieni cząstek pozwoli na uzyskanie bardziej precyzyjnych danych i daje szanse na dokonanie nowych odkryć. Szerokość wiązek protonów w miejscu ich kolizji będzie mniejsza niż 10 mikrometrów, co zwiększy liczbę zderzeń, mówi dyrektor akceleratorów i technologii w CERN, Mike Lamont. Uczony przypomina, że gdy podczas 1. kampanii naukowej odkryto bozon Higgsa, LHC pracował przy 12 odwrotnych femtobarnach. Teraz naukowcy chcą osiągnąć 280 odwrotnych femtobarnów. Odwrotny femtobarn to miara liczby zderzeń cząstek, odpowiadająca około 100 bilionom zderzeń proton-proton. W czasie przestoju wszystkie cztery główne urządzenia LHC poddano gruntowym remontom oraz udoskonaleniom ich systemów rejestracji i gromadzeniach danych. Dzięki temu mogą obecnie zebrać więcej informacji o wyższej jakości. Dzięki temu ATLAS i CMS powinny zarejestrować w obecnej kampanii więcej kolizji niż podczas dwóch poprzednich kampanii łącznie. Całkowicie przebudowany LHCb będzie zbierał dane 10-krotnie szybciej niż wcześniej, a możliwości gromadzenia danych przez ALICE zwiększono aż 55-krotnie. Dzięki tym wszystkim udoskonaleniom można będzie zwiększyć zakres badań prowadzonych za pomocą LHC. Naukowcy będą mogli badać bozon Higgsa z niedostępną wcześniej precyzją, mogą zaobserwować procesy, których wcześniej nie obserwowano, poprawią precyzję pomiarów wielu procesów, które mają fundamentalne znaczenie dla zrozumienia fizyki, asymetrii materii i antymaterii. Można będzie badać właściwości materii w ekstremalnych warunkach temperatury i gęstości, eksperci zyskają nowe możliwości poszukiwania ciemnej materii. Fizycy z niecierpliwością czekają na rozpoczęcie badań nad różnicami pomiędzy elektronami a mionami. Z kolei program zderzeń ciężkich jonów pozwoli na precyzyjne badanie plazmy kwarkowo-gluonowej, stanu materii, który istniał przez pierwszych 10 mikrosekund po Wielkim Wybuchu. Będziemy mogli przejść z obserwacji interesujących właściwości plazmy kwarkowo-gluonowej do fazy precyzyjnego opisu tych właściwości i powiązania ich z dynamiką ich części składowych, mówi Luciano Musa, rzecznik prasowy eksperymentu ALICE. Udoskonalono nie tylko cztery zasadnicze elementy LHC. Również mniejsze eksperymenty – TOTEM, LHCf, MoEDAL czy niedawno zainstalowane FASER i SND@LHC – pozwolą na badanie zjawisk opisywanych przez Model Standardowy oraz wykraczających poza niego, takich jak monopole magnetyczne, neutrina czy promieniowanie kosmiczne. « powrót do artykułu
  9. Wiele ludzkich działań niesie ze sobą zewnętrzne koszty społeczne, środowiskowe czy zdrowotne. Gdy np. jedziemy samochodem, musimy zapłacić za paliwo, jednak cena paliwa nie uwzględnia kosztu zanieczyszczenia środowiska czy negatywnego wpływu spalin na ludzkie zdrowie. Naukowcy z brytyjskiego University of Sussex i koreańskiego Hanyang University podjęli się globalnego oszacowania kosztów zewnętrznych związanych z działalnością sektora transportowego i energetycznego. Okazało się, że koszty te wynoszą ponad 1/4 światowego produktu brutto. Z analizy przeprowadzonej przez profesorów Benjamina K. Sovacoola i Jinsoo Kima, wynika, że zewnętrzne koszty społeczne, zdrowotne i środowiskowe obu wspomnianych sektorów to 24,662 biliony USD, czyli około 29% światowego produktu brutto. Badania opublikowane na łamach pisma Energy Research & Social Science wykazały, że gdyby uwzględnić wszystkie koszty powodowane przez wykorzystywanie węgla – takie jak zmiana klimatu, zanieczyszczenie powietrza czy degradacja gleb – to cena węgla powinna być ponaddwukrotnie wyższa, niż jest obecnie. Autorzy badań podkreślają, że obecny system energetyczny nie sprawdza się pod względem rynkowym. Gdyby bowiem uwzględnić rzeczywiste koszty produkcji energii, to okazałoby się, że nieuwzględniane koszty są niemal równe obecnym kosztom produkcji, przez co wiele elektrowni węglowych i atomowych byłoby nieopłacalnych. Naukowcy przypominają przy tym, że również systemy produkcji energii odnawialnej niosą ze sobą koszty zewnętrzne. Podczas badań zidentyfikowaliśmy olbrzymie koszty zewnętrzne, które niemal nigdy nie są uwzględniane w rzeczywistych wydatkach związanych z jazdą samochodem czy użytkowaniem elektrowni węglowej. Uwzględnienie tych kosztów doprowadziłoby do radykalnej zmiany szacunków ekonomicznych i portfolio zasobów, na których polegają dostawcy energii, mówi profesor Sovacool. To nie jest tak, że społeczeństwo nie płaci tych kosztów. Po prostu koszty te nie są uwzględniane w cenie energii. I, niestety, te koszty zewnętrzne nie są ponoszone ani równo, ani uczciwie. Najbardziej poszkodowani są ci najsłabiej reprezentowani na rynku. To na przykład ludzie żyjący na obszarach o najbardziej zanieczyszczonym powietrzu, glebie i wodzie, których nie stać na przeprowadzkę w inne regiony czy mieszkańcy wysp ledwie wystających nad poziom morza, jak Vanuatu czy Malediwy, którzy już teraz są zagrożeni przez wzrost poziomu wód oceanicznych. Profesor Jinsoo Kim dodaje, że badania jasno pokazują, iż ropa naftowa, węgiel i związane z nimi odpady generują znacznie więcej kosztów w portfolio firm energetycznych niż inne metody produkcji energii. Gdyby prawdziwe koszty wykorzystywania paliw kopalnych były uwzględniane, to wielkie ponadnarodowe koncerny energetyczne, które dominują na światowym rynku, przynosiłyby olbrzymie straty. Jednak zamiast tego rachunek wystawiany jest społeczeństwom, które ponoszą te koszty. Na potrzeby swoich badań uczeni wykonali metaanalizę i syntezę 139 badań naukowych, w których dokonano w sumie 704 szacunków kosztów zewnętrznych. Były to 83 badania dotyczące dostarczania energii, 13 badań nad efektywnością energetyczną i 43 badania nad transportem. Z przeprowadzonej analizy wynika, że największe koszty zewnętrzne niesie ze sobą produkcja energii z węgla. Wynoszą one aż 14,5 centa na kWh, podczas gdy średni koszt produkcji energii z węgla w czasie całego okres działania elektrowni węglowej wynosi od 6,6 do 15,2 centa/kWh. Drugim pod względem wysokości kosztów zewnętrznych rodzajem pozyskiwania energii jest jej produkcja z gazu ziemnego. Tam koszty zewnętrzne to 3,5 centa/kWh, przy koszcie produkcji wynoszącym 4,4–6,8 centa/kWh. To poważne wyzwanie dla polityków, urzędników i planistów, by spowodować, żeby rynki transportowy i energetyczny funkcjonowały ja należy i uwzględniały w cenach swoich produktów biliony dolarów kosztów zewnętrznych, które obecnie przerzucają na społeczeństwo. Obecnie konsumenci są odseparowani od rzeczywistych kosztów pozyskiwania, transportu i przetwarzania surowców energetycznych oraz pozyskiwania z nich energii. A to oznacza, że kolosalny koszt społeczny i ekologiczny takich działań jest trudniej zauważyć. Zasadnicze pytanie brzmi, czy chcemy globalnych rynków, które manipulują kosztami zewnętrznymi dla własnych korzyści, czy też wolimy politykę, która wymusi na nich zinternalizowanie tych kosztów – stwierdza Sovacool. Autorzy badań zwracają uwagę, że w wielu pakietach pomocowych, które mają rozruszać gospodarkę po pandemii uwzględniono olbrzymie kwoty dla przemysłu paliw kopalnych, motoryzacyjnego czy lotniczego. Jednak długotrwałe ożywienie gospodarcze może się nie udać, jeśli sektory te nie będą ponosiły całości kosztów, jakie są związane z ich działalnością, dodaje profesor Kim. « powrót do artykułu
  10. Zespół europejskich, w tym polskich, fizyków poinformował o ustanowieniu rekordu energetycznego z syntezy termojądrowej. Specjaliści pracujący przy tokamaku Joint European Torus (JET) w Wielkiej Brytanii uzyskali 59 megadżuli trwałej energii z fuzji jądrowej. Wyniki są zgodne z oczekiwaniami, potwierdzają słuszność decyzji o budowie reaktora ITER i dowodzą, że fuzja może być wydajnym, bezpiecznym i niskoemisyjnym źródłem energii. Osiągnięcie to jest wynikiem wieloletnich przygotowań zespołu naukowców EUROfusion z całej Europy. Sam rekord, a co ważniejsze, to czego nauczyliśmy się o fuzji w tych warunkach i jak to całkowicie potwierdza nasze przewidywania, pokazuje, że obraliśmy właściwą drogę, by ziścił się świat funkcjonujący w oparciu o energię z syntezy jądrowej. Jeśli jesteśmy w stanie kontrolować fuzję przez pięć sekund, możemy to robić przez pięć minut, a następnie przez pięć dni, w miarę zwiększania skali funkcjonowania urządzeń w przyszłości, powiedział Tony Donné, menedżer programu EUROfusion, w którego pracach udział bierze 4800 ekspertów i studentów z całego świata. A Bernard Bigot, dyrektor ITER, dodał, że stabilne wyładowanie deuteru z trytem na tym poziomie energetycznym, prawie na skalę przemysłową, potwierdza sens działania wszystkich zaangażowanych w fuzję na świecie. W przypadku projektu ITER wyniki JET pozwalają nam zakładać, że jesteśmy na dobrej drodze do zademonstrowania mocy syntezy jądrowej. JET znajduje się w Culham w Wielkiej Brytanii. Został uruchomiony w 1977 roku jako przedsięwzięcie Wspólnoty Europejskiej. Prowadzone w nim badania są niezbędne do rozwoju ITER i innych elektrowni termojądrowych. JET to jedyny tokamak na świecie, w którym można zastosować taką samą mieszankę deutery i trytu (D-T), jaka będzie stosowana w ITER i elektrowniach przyszłości. Temperatura osiągana w JET jest 10-krotnie wyższa niż wewnątrz Słońca. Teraz udało się tam uzyskać również olbrzymią ilość energii. Podczas 5-sekundowego wyładowania plazmy uwolniło się 59 megadżuli energii w postaci ciepła. Tym samym JET utrzymał moc wyjściową nieco ponad 11 MW ciepła uśrednioną w ciągu pięciu sekund. Poprzedni rekord, 22 megadżule energii całkowitej, oznaczał 4,4 MW uśrednione w ciągu pięciu sekund. Reaktory fuzyjne wytwarzają energię metodą fuzji jądrowej, w czasie której lżejsze pierwiastki łączą się w cięższe. Taki proces zachodzi na Słońcu. Fuzja to pod wieloma względami najdoskonalsze źródło czystej energii. Ilość energii, jaką może dostarczyć zupełnie zmieni reguły gry. Paliwo do fuzji jądrowej można uzyskać z wody, a Ziemia jest pełna wody. To niemal niewyczerpane źródło energii. Musimy tylko dowiedzieć się, jak go używać, mówiła w ubiegłym roku profesor Maria Zuber, wiceprezydent MIT ds. badawczych. Badania nad fuzją jądrową prowadzone są na całym świecie i przywiązuje się do nich coraz większą wagę. W bieżącym roku w Wielkiej Brytanii zostanie wybrana lokalizacja dla przyszłej prototypowej elektrowni fuzyjnej, Chińczycy poinformowali o pobiciu rekordu utrzymania wysokotemperaturowej plazmy w tokamaku, prestiżowy MIT twierdzi, że już za 4 lata może powstać pierwszy reaktor fuzyjny z zyskiem energetycznym netto, a z niedawno opublikowanego raportu dowiadujemy się, że na świecie istnieje co najmniej 35 przedsiębiorstw pracujących nad fuzją jądrową. Mimo tego perspektywa powstania pierwsze komercyjnej elektrowni fuzyjnej wydaje się bardzo odległa. To raczej perspektywa dekad niż lat. « powrót do artykułu
  11. Autorzy artykułu opublikowanego w Americal Journal of Clinical Nutrition podważają powszechnie panujące przekonanie, że to nadmierna ilość spożywanego jedzenia prowadzi do otyłości. Ich zdaniem model bilansu energetycznego, zgodnie z którym nadwaga i otyłość pojawiają się, gdy pobieramy więcej energii niż wydatkujemy, zawiera liczne błędy. Proponują stosowanie modelu węglowodanowo-insulinowego, zgodnie z którym nadwagę i otyłość powoduje to, co jemy, a nie ile jemy. Zgodnie ze stosowanym obecnie modelem bilansu energetycznego zachęca się do spożywania mniejszych ilości pokarmów i większej aktywności fizycznej. Jednak działania takie nie przynoszą skutku, a osób z nadwagą i otyłych jest coraz więcej. Jak mówią autorzy wspomnianego artykułu, model bilansu energetycznego bierze pod uwagę podstawy fizyki, bez uwzględniania biologicznych mechanizmów prowadzących do przybierania na wadze. Dlatego też zaproponowali model węglowodanowo-insulinowy, zgodnie z którym ważniejsze jest to co jemy, a nie ile jemy. Ich zdaniem bowiem epidemia otyłości spowodowana jest częściowo przez hormonalną reakcję na zmianę jakości pożywienia, a w szczególności na obecność w dużych ilości cukru i wysoki indeks glikemiczny pokarmów, co prowadzi do zmian w metabolizmie. Wszędzie otacza nas wysoko przetworzona, smaczna żywność, która jest do tego intensywnie reklamowana. W tej sytuacji łatwo przyjmować więcej kalorii niż się potrzebuje, a na nierównowagę energetyczną wpływ ma też siedzący tryb życia. Zgodnie z tą filozofią przyjmowanie zbyt dużych ilości pożywienia w połączeniu z brakiem aktywności fizycznej prowadzi do nadwagi. Problem jednak w tym, że pomimo kampanii informacyjnych zachęcających do jedzenia mniej i ćwiczenia więcej, epidemia otyłości zatacza coraz szersze kręgi. Główny autor artykułu The Carbohydrate-Insulin Model: A Physiological Perspective on the Obesity Pandemic doktor David Ludwig z Boston Children's Hospital i Harvard Medical School mówi, że model bilansu energetycznego nie uwzględnia biologicznych przyczyn przybierania na wadze. Weźmy na przykład pod uwagę okres szybkiego wzrostu nastolatków. W tym czasie młodzi ludzie mogą zwiększyć spożywaną liczbę kalorii o 1000 dziennie. Ale czy to ta zwiększona ilość kalorii powoduje, że rosną czy też nagły wzrost powoduje, że są głodni i się przejadają?, zwraca uwagę Ludwig. Model węglowodanowo-insulinowy zakłada, że przyczyną nadwagi jest to co jemy, a nie ile jemy. Zgodnie z nim przyczyną współczesnej epidemii otyłości są współczesne nawyki żywieniowe, które powodują, że jemy bardzo dużo pokarmów o wysokim indeksie glikemicznym, szczególnie zaś wysoko przetworzonych, łatwych do strawienia węglowodanów. Taka żywność prowadzi do zmian w naszym metabolizmie, których wynikiem jest odkładanie się tłuszczu i przybieranie na wadze. Gdy spożywamy wysoko przetworzone węglowodany nasz organizm zwiększa wydzielanie insuliny, a zmniejsza wydzielanie glukagonu. To zaś powoduje, że komórki tłuszczowe dostają polecenie przechowywania większej ilości kalorii. A skoro więcej energii jest odkładane, to mięśnie i inne aktywne tkanki otrzymują mniej kalorii. Mózg zauważa więc, że ciało nie dostaje wystarczającej ilości energii i generuje sygnały, przez które czujemy się głodni. Jakby jeszcze tego było mało, gdy organizm próbuje przechowywać energię, metabolizm może zwalniać. W ten sposób możemy czuć się głodni, mimo że w naszym organizmie ciągle odkłada się tłuszcz. Dlatego też powinniśmy brać pod uwagę nie tylko to, ile jemy, ale również co jemy oraz jak żywność wpływa na hormony i metabolizm. Zdaniem Ludwiga, poważny błąd modelu bilansu energetycznego polega na tym, że traktuje on wszystkie kalorie tak samo, niezależnie od źródła, z jakiego je przyjmujemy. Model węglowodanowo-insulinowy jest znany nauce od 100 lat. Artykuł opublikowany na łamach The American Journal of Clinical Nutrition jest jego najbardziej wszechstronną analizą. W jej opracowaniu wzięło udział 17 ekspertów z USA, Danii oraz Kanady. Podsumowali oni dziesiątków prac naukowych wspierających model węglowodanowo-insulinowy. Na tej podstawie uważają, że w ramach polityki prozdrowotnej należy zwracać uwagę przede wszystkim na to, co jemy. Zmniejszenie ilości łatwych do strawienia węglowodanów, które zalały sieci spożywcze w obecnej epoce mody na dietę niskotłuszczową, pozytywnie wpłynie na biologiczne mechanizmy gromadzenia się tłuszczu w organizmie. Dzięki temu ludzie mogą tracić na wadze czując się przy tym mniej głodni, a chudnięcie będzie dla nich łatwiejsze, stwierdza Ludwig. « powrót do artykułu
  12. Jednym z największych problemów, z jakim stykają się specjaliści pracujący przy fuzji jądrowej, są swobodnie przyspieszające elektrony, które w końcu osiągają prędkości bliskie prędkości światła czyli stają się cząstkami relatywistycznymi. Tak szybkie elektrony uszkadzają tokamak, w których przeprowadzana jest reakcja termojądrowa. Naukowcy z Princeton Plasma Physics Laboratory (PPPL) wykorzystali nowatorskie narzędzia diagnostyczne, dzięki którym są w stanie zarejestrować narodziny takich elektronów oraz liniowy i wykładniczy wzrost ich energii. Musimy być w stanie zarejestrować te elektrony przy ich początkowym poziomie energii, a nie dopiero wówczas, gdy mają maksymalną energię i przemieszczają się niemal z prędkością światła, wyjaśnia fizyk Luis Delgado-Aparicio, który stał na czele zespołu badawczego pracującego przy Madison Symmetric Torus (MST) na University of Wisconsin-Madison. Następnym krokiem będzie zoptymalizowanie sposobów na powstrzymanie tych elektronów, zanim ich liczba zacznie się lawinowo zwiększać, dodaje uczony. Reakcja termojądrowa czyli fuzja jądrowa, zachodzi m.in. w gwiazdach. Gdyby udało się ją opanować, mielibyśmy dostęp do niemal niewyczerpanego źródła czystej i bezpiecznej energii. Zanim jednak to się stanie, konieczne jest pokonanie kilku poważnych przeszkód. Dlatego też PPPL we współpracy z University of Wisconsin zainstalowało w MST specjalną kamerę, która już wcześniej sprawdziła się w tokamaku Alcator C-Mod w Massachusetts Institute of Technology. Kamera ta rejestruje nie tylko właściwości plazmy, ale również dystrybucję energii w czasie i przestrzeni. To pozwala uczonym obserwować m.in. wspomniane elektrony, które powstają przy niskich energiach. Badania nad superszybkimi elektronami prowadzone są w MST, gdyż urządzenie to skonstruowane jest tak, że elektrony te nie zagrażają jego pracy. Możliwości, jakimi dysponuje Luis, odnośnie zlokalizowania miejsca narodzin i początkowego liniowego wzrostu energii tych elektronów, a następnie ich śledzenia, są fascynujące. Następnym etapem będzie porównanie uzyskanych wyników z modelami komputerowymi. To pozwoli nam na lepsze zrozumienie tego zjawiska i może prowadzić w przyszłości do opracowania metod zapobiegających tworzeniu się takich elektronów, mówi profesor Carey Forest z University of Wisconsin. Chciałbym zebrać wszystkie doświadczenia, jakich nabyliśmy podczas pracy z MST i zastosować je w dużym tokamaku, stwierdza Delgado-Aparicio. Niewykluczone, że już wkrótce dwaj doktorzy, których mentorem jest Delgado-Aparicio, będą mogli wykorzystać te doświadczenia w Tungsten Einvironment in Steady-state Tokamak (WEST) we Francji. Chcę razem z nimi wykorzystać kamery do rejestrowania wielu różnych rzeczy, takich jak transport cząstek, ogrzewanie falami radiowymi, badanie szybkich elektronów. Chcemy dowiedzieć się, jak spowodować, by elektrony te stały się mniej szkodliwe. A to może być bardzo bezpieczny sposób pracy z nimi. Z Delgado-Aparicio współpracuje kilkudziesięciu specjalistów, w tym naukowcy Uniwersytetu Tokijskiego, japońskich Narodowych Instytutów Badań i Technologii Kwantowych i Radiologicznych czy eksperci ze szwajcarskiej firmy Dectris, która wytwarza różnego typu czujniki. « powrót do artykułu
  13. Zapotrzebowanie na energię elektryczną rośnie z roku na rok. Dlatego też pojawia się coraz więcej rozwiązań tego problemu, a jednym z nich jest produkcja energii ze związków chemicznych z minimalnym wpływem na środowisko naturalne. Przykładem może być nadtlenek wodoru (H2O2). Choć produkowany jest od XIX wieku, nadal przykuwa uwagę świata nauki. Ostatnio, zespół naukowców  Instytutu Chemii Fizycznej Polskiej Akademii Nauk kierowany przez prof. Marcina Opałło zaprezentował wyniki badań reakcji generowania nadtlenku wodoru na granicy faz niemieszających się rozpuszczalników, takich jak  woda i olej. Zgłębili oni wpływ różnych parametrów na wydajność reakcji redukcji tlenu do nadtlenku wodoru. Rosnące w zawrotnym tempie zapotrzebowanie na energię, ograniczone zasoby paliw kopalnych i zanieczyszczenia spowodowane przez przemysł energetyczny stawiają naukowcom wyzwania takie jak poszukiwanie nowych, opłacalnych i ekologicznych rozwiązań do produkcji energii. Spośród różnych metod produkcji energii, wykorzystanie elektrochemicznych metod wytwarzania związków chemicznych na pierwszy rzut oka nie wydaje się mieć ogromnego potencjału do zastosowania w sektorze energetycznym. Jednym z obiecujących związków jest cząsteczka nadtlenku wodoru (H2O2) o silnych właściwościach utleniających i wybielających. Dostępna niemal wszędzie w stosunkowo niskich stężeniach np. 3-6% H2O2 była wykorzystywana jest głównie do zastosowań antyseptycznych takich jak dezynfekcja skóry, aby zapobiec infekcji podczas drobnych skaleczeń. Natomiast nadal jest szeroko stosowana w przemyśle celulozowym, papierniczym i tekstylnym jako środek utleniający oraz jako bezzapachowy substytut chloru w oczyszczaniu ścieków i wody pitnej. Pomimo, że obecnie nie zaleca się używania H2O2 do przemywania skaleczeń, związek cieszy się ogromną popularnością i jest stosowany nawet jako jedno z paliw napędzających rakiety, satelity i torpedy. Może być również wykorzystany jako paliwo lub utleniacz do ogniw paliwowych, chociaż jego masowa produkcja jest daleka od zrównoważonej i ekologicznej. Wymaga ona wielu chemikaliów szkodliwych dla zdrowia i środowiska naturalnego. Dlatego też poszukuje się nowych metod wytwarzania H2O2 . Ostatnio, naukowcy z Instytutu Chemii Fizycznej Polskiej Akademii Nauk pod kierunkiem prof. Marcina Opałło we współpracy z prof. Hubertem H. Girault z Politechniki w Lozannie Ecole Polytechnique Federale de Lausanne przedstawili szczegółowe badania nad wytwarzaniem nadtlenku wodoru poprzez redukcję ditlenu na granicy dwóch niemieszających się cieczy, takich jak woda i olej. Pierwsza z nich to wodny roztwór kwasu, a druga to niemieszająca się z wodą ciecz składająca się wyłącznie z jonów, tzw. ciecz jonowa. Badacze porównali swoje dane z tymi uzyskanymi na granicy faz z rozpuszczalnikami molekularnymi o znacznie mniejszej lepkości, a uzyskane wyniki stanowią znaczącą część pracy doktorskiej pierwszej autorki publikacji, obecnie dr Justyny Kalisz. Naukowcy wskazali, ze badanie  wpływu rozpuszczalnika, na wydajność reakcji może pomóc w lepszym poznaniu mechanizmu wytwarzania H2O2. Porównując dane dla granic faz ciecz-ciecz wytworzonych z udziałem trzynastu cieczy jonowych i trzech rozpuszczalników molekularnych o lepkości różniącej się o trzy rzędy wielkości doszli do wniosku, że to nie transport reagentów, ale kinetyka redukcji ditlenu limituje szybkość reakcji. Odkryli również, że kierunek międzyfazowego ruchu jonów towarzyszącego przeniesieniu elektronów z donora rozpuszczonego w fazie olejowej jest inny w przypadku cieczy jonowych i rozpuszczalników molekularnych. W tej pracy wykazaliśmy, że rodzaj cieczy jonowej wpływa na szybkość redukcji O2 do H2O2 na granicy faz olej-woda. Wytwarzanie H2O2 jest bardziej wydajne, gdy ciecz jonowa zawiera mniej hydrofobowe kationy – twierdzi prof. Opałło. Pokazaliśmy również, że zastosowanie pasty przygotowanej z proszku węglowego i cieczy jonowej jako fazy olejowej pozwala na elektrochemiczną regenerację donora elektronów co zwiększa wydajność reakcji międzyfazowej. Generowanie nadtlenku wodoru badano za pomocą skaningowej mikroskopii elektrochemicznej (SECM). Technika ta pozwala na określenie lokalnego stężenia produktu elektroaktywnego reakcji zachodzącej na granicy faz, w tym przypadku H2O2. W tej metodzie rejestrowany jest prąd elektroutleniania H2O2 na elektrodzie o średnicy dziesiątek mikronów poruszającej się prostopadle do granicy faz. Wydajność reakcji szacowano na podstawie zależności prądu od odległości od granicy faz ciecz-ciecz. Prof. Opałło zauważa: „Na podstawie danych SECM stwierdziliśmy, że proces jest kontrolowany przez kinetykę reakcji redukcji tlenu. Co ważne, duża lepkość cieczy jonowych pozwala na zastosowanie pasty przygotowanej z proszku węglowego i cieczy jonowej jako fazy olejowej do elektrochemicznej regeneracji donora elektronów w celu zwiększenia wydajności reakcji międzyfazowej. Pod tym względem badany układ można uznać za przykład homogennej katalizy redoks.” Badanie opisane w czasopiśmie ChemPhysChem ujawnia złożoność reakcji na granicy faz ciecz-ciecz. W przeciwieństwie do granicy faz elektroda-roztwór badany układ jest samoregenerujący i trudno go zanieczyścić. Choć do zastosowania granicy faz ciecz-ciecz do wytwarzania chemikaliów jest wciąż w daleka od komercyjnego zastosowania, to może mieć świetlaną przyszłość. Oprócz nadtlenku wodoru, innym przykładem reakcji możliwych do przeprowadzenia w podobny sposób jest wytwarzanie wodoru, głównie stymulowane światłem, ale to już inna historia. « powrót do artykułu
  14. Szwajcarscy naukowcy zauważyli, że w drewnie zainfekowanym rozkładającymi je grzybami dochodzi do 55-krotnego zwiększenia produkcji energii. Po 10 tygodniach od zainfekowania drewno wytwarzało tyle energii, że wystarczało to do zasilenia LED-ów. Uczeni twierdzą, że podłoga z drewna potraktowanego grzybem mogłaby wytwarzać odnawialną energię elektryczną, która powstawałaby wskutek chodzenia ludzi po takiej podłodze. Już przed wieloma dziesięcioleciami zauważono, że pod wpływem nacisku w drewnie powstają ładunki elektryczne. Ten efekt piezoelektryczny to wynik deformacji krystalicznej celulozy. Jednak jest on bardzo słaby, około 20-krotnie słabszy niż analogiczny efekt w kryształach kwarcu. Ponadto drewno nie jest łatwo zdeformować. Niektórzy naukowcy interesują się efektem piezoelektrycznym w materiałach budowlanych. Dość wspomnieć, że budynki są odpowiedzialne za 40% konsumpcji energii oraz 25% emisji gazów cieplarnianych. Gdyby udało się wykorzystać efekt piezoelektryczny z materiałów budowlanych można by produkować, w skali globalnej, olbrzymie ilości czystej odnawialnej energii. Ingo Burgert i jego koledzy ze Szwajcarskiego Instytutu Technologicznego w Zurichu (ETH Zurich) odkryli, że potraktowanie drewna mieszaniną nadtlenku wodoru i kwasu octowego prowadzi do 85-krotnego zwiększenia produkcji energii w drewnie w wyniku efektu piezoelektrycznego. Mieszanina taka rozpuszcza ligninę, pozostawiając celulozę, która staje się bardziej elastyczna. Z 1,5 centymetra sześciennego takiego drewna można uzyskać 0,69 V, czyli 85-krotnie więcej niż ze zwykłego drewna. Co więcej, wydajność taka utrzymuje się przez 600 cykli ściskania. Oddziałując na takie drewno można zasilać LED-y czy prosty wyświetlacz ciekłokrystaliczny. Jednak uczeni chcieli odwołać się do bardziej naturalnego procesu, bez potrzeby używania szkodliwych środków chemicznych. A naturalnym procesem zmieniającym strukturę drewna jest jego rozkład przez grzyby. W ramach eksperymentów zainfekowali drewno grzybem Ganoderma applanatum. Po 10 tygodniach drewno straciło 45% wagi i w tym momencie jego podatność na nacisk była najlepsza, a jednocześnie wracało ono do swojego oryginalnego kształtu po ustąpieniu nacisku. Analizy wykazały, że 1,5 cm2 takiego drewna poddane naciskowi 45 kPa generuje 0,87 V, podczas gdy to samo drewno niezainfekowane grzybem generuje 0,015 V. Co więcej pod naciskiem 100 kPa z drewna uzyskiwano 1,32 V. Analizy wykazały, że grzyby zmieniają strukturę i skład chemiczny ścian komórkowych drewna, zwiększając naturalne właściwości piezoelektryczne tego materiału. "Pracujemy obecnie nad stworzeniem instalacji pokazowej, która ma udowodnić, że można w ten sposób zasilać czujniki zintegrowane w drewnianej podłodze", mówi Burgert. Badania były prowadzone na drewnie balsy, gdyż grzyb szybko rozkłada w nim ligninę. Naukowcy chcą wykorzystać tę samą technikę na rodzimych gatunkach. « powrót do artykułu
  15. Naukowcy z University of Massachusetts Amhers odkryli, w jaki sposób spowodować, by przedmioty poruszały się, korzystając wyłącznie z przepływu energii w otoczeniu. Ich badania mogą przydać się w licznych zastosowaniach – od produkcji zabawek po przemysł wojskowy. Wszędzie tam, gdzie potrzebne jest zapewnienie źródła napędu. Ponadto pozwolą nam w przyszłości więcej dowiedzieć się o tym, jak natura napędza niektóre rodzaje ruchu. Profesor Al Crosby, student Yongjin Kim oraz Jay Van den Berg z Uniwersytetu Technologicznego w Delft (Holandia) prowadzili bardzo nudny eksperyment. Jego częścią było obserwowanie, jak wysycha kawałek żelu. Naukowcy zauważyli, że gdy długi pasek żelu schnie, tracąc wilgoć wskutek parowania, zaczyna się poruszać. Większość tych ruchów była powolna, jednak od czasu do czasu żel przyspieszał. Te przyspieszenia miały związek z nierównomiernym wysychaniem. Dodatkowe badania ujawniły, że znaczenie ma tutaj kształt i że żelowe paski mogą „zresetować się”, by kontynuować ruch. Wiele zwierząt i roślin, szczególnie tych małych, korzysta ze specjalnych elementów działających jak sprężyny i zatrzaski, co pozwala im bardzo szybko się poruszać, znacznie szybciej niż zwierzęta korzystające wyłącznie z mięśni. Dobrym przykładem takiego ruchu są takie rośliny jak muchołówki, a w świecie zwierzęcym są to koniki polne i mrówki z rodzaju Odontomachus. Niestabilność to jedna z metod, którą natura wykorzystuje do stworzenia mechanizmu sprężyny i zatrzasku. Coraz częściej wykorzystuje się taki mechanizm by umożliwić szybki ruch małym robotom i innym urządzeniom. Jednak większość z tych mechanizmów potrzebuje silnika lub pomocy ludzkich rąk, by móc kontynuować ruch. Nasze odkrycie pozwala na stworzenie mechanizmów, które nie będą potrzebowały źródła zasilania czy silnika, mówi Crosby. Naukowcy wyjaśniają, że po zaobserwowaniu poruszających się pasków i zbadaniu podstaw fizyki wysychania żelu, rozpoczęli eksperymenty w celu określenia takich kształtów, które z największym prawdopodobieństwem spowodują, że przedmiot będzie reagował tak, jak się spodziewamy i że będzie poruszał się bez pomocy silnika czy ludzkich dłoni przeprowadzających jakiś rodzaj resetu. To pokazuje, że różne materiały mogą generować ruch wyłącznie dzięki interakcji z otoczeniem, np. poprzez parowanie. Materiały te mogą być przydatne w tworzeniu nowych robotów, szczególnie małych, w których trudno jest zmieścić silniki, akumulatory czy inne źródła energii, stwierdza profesor Crosby. Ta praca to część większego multidyscyplinarnego projektu, w ramach którego próbujemy zrozumieć naturalne i sztuczne systemy, pozwalające na stworzenie w przyszłości skalowalnych metod generowania energii na potrzeby ruchu mechanicznego. Szukamy też materiałów i struktur do przechowywania energii. Odkrycie może znaleźć wiele różnych zastosowań w Armii i Departamencie Obrony, mówi doktor Ralph Anthenien, jeden z dyrektorów Army Research Office. Badania Crosby'ego są finansowane przez U.S. Army Combat Capabilities Development Command. Więcej na ten temat przeczytamy w artykule Autonomous snapping and jumping polymer gels. « powrót do artykułu
  16. U.S. Nuclear Regulatory Commission (NRC) zatwierdziła projekt małego reaktora modułowego (SMR) firmy NuScale Power. To wielka chwila nie tylko dla NuScale, ale dla całego amerykańskiego sektora energetyki jądrowej, mówi dyrektor wykonawczy NuScale John Hopkins. Zwolennicy SMR od dawna mówią, że mogą stać się one realną alternatywą dla wielkich kosztownych elektrowni atomowych. Tym bardziej w czasach, gdy amerykańska energetyka jądrowa przeżywa kryzys spowodowany konkurencją ze strony gazu oraz energetyki odnawialnej. Zatwierdzenie projektu oraz związany z tym finalny raport oceny bezpieczeństwa (FSER) nie oznacza jeszcze, że NuScale może rozpocząć budowę małych reaktorów. Jednak pozwala to przedsiębiorstwom produkującym energię na składanie do NRC wniosków o pozwolenie na budowę i uruchomienie reaktora wykonanego według projektu NuScale. Co prawda USA pozostają największym na świecie producentem energii elektrycznej z elektrowni atomowych, jednak nowe reaktory powstałe po 1990 można policzyć na palcach jednej ręki. Obecnie trwa budowa 2 nowych reaktorów, budowę 2 innych wstrzymano. Jednocześnie na terenie USA są obecnie 23 wyłączone reaktory podlegające nadzorowi NRC, które znajdują się na różnych etapach likwidacji. W tej sytuacji pojawienie się małych reaktorów modułowych może ożywić ten rynek. NuScale rozwijało swój projekt dzięki pomocy Departamentu Energii, który sfinansował prace kwotą niemal 300 milionów USD. Reaktor ma moc 50 MW. To znacznie mniej niż obecnie stosowane duże reaktory, których może przekraczać 1000 MW. Reaktory NuScale można łączyć w grupy do 12 sztuk, co pozwala na osiągnięcie mocy do 600 MW, a to wystarczy do zasilenia miasta średniej wielkości. Ponadto sama NRC spodziewa się, że w roku 2022 NuScale poprosi o zatwierdzenie projektu 60-megawatowego reaktora. Przemysł jądrowy mówi, że SMR można budować szybciej i taniej niż standardowe reaktory. Główną zaletą małych reaktorów modułowych jest fakt, że można jest produkować w fabrykach i dostarczać na miejsce przeznaczenia. Standardowe reaktory budowane są na miejscu. Rozwiązanie takie jest bardziej elastyczne, gdyż odbiorca może zamawiać i łączyć ze sobą różną liczbę takich jednostek, w zależności od lokalnego zapotrzebowania. Zwolennicy SMR mówią, że to najlepsza możliwość szybkiego zbudowania infrastruktury potrzebnej do produkcji dużej ilości bezemisyjnej energii. Jej przeciwnicy zauważają, że wciąż pozostaje nierozwiązany problem radzenia sobie z odpadami, ponadto każda technologia wykorzystania energii jądrowej jest droga, a jej wdrożenie wymaga dużo czasu w porównaniu z energetyką odnawialną. NuScale wierzy jednak, że uda się jej uniknąć drożyzny i wieloletnich opóźnień, czyli problemów trapiących sektor tradycyjnej energetyki atomowej. Diana Hughes, wiceprezes firmy ds. marketingu twierdzi, że w latach 2023–2042 uda się sprzedać od 574 do 1682 SMR. Sprzedaż niemal 1700 reaktorów oznaczałaby, że uzyskiwano by z nich 80 GW, a to już blisko do obecnych 98 GW wytwarzanych przez amerykańską energetykę jądrową. Firma NuScale podpisała już umowy o możliwym rozpoczęciu współpracy z wieloma potencjalnymi partnerami z USA i zagranicy. Pierwszym projektem, który ma zostać zrealizowany jest umowa z Utah Associated Municipal Power Systems (UAMPS), organizacją, która dostarcza energię do niewielkich operatorów w kilku stanach. Pierwszy reaktor ma trafić do UAMPS w 2027, które realizuje zlecenie Idaho National Laboratory. Reaktor ma rozpocząć pracę w 2029 roku. Z kolei do roku 2030 ma zostać uruchomionych 11 połączonych ze sobą reaktorów, które będą wchodziły w skład 720-megawatowego projektu. Część energii z nich będzie kupował Departament Energii, reszta trafi do komercyjnych klientów UAMPS. Niektóre samorządy terytorialne, w obawie o wysokie koszty, wycofały się z tego projektu. Eksperci wyrażają powątpiewanie odnośnie bezpieczeństwa i kosztów NuScale SMR. Jednym z takich krytyków jest profesor M. V. Ramana, ekspert ds. energetyki atomowej z University of British Columbia. To, co oni planują jest ryzykowne i kosztowne, mówi uczony. Zauważa, że w ciągu ostatnich 5 lat szacunkowe koszty projektu realizowanego przez UAMPS wzrosły z około 3 do ponad 6 miliardów USD. Przypomina też, że początkowe plany NuScale mówiły, iż pierwszy SMR rozpocznie pracę w 2016 roku. Już w tej chwili wiemy, że opóźnienie przekroczy dekadę. Dobrze oddaje to problemy, z jakimi boryka się energetyka jądrowa. Ramana mówi, że cena energii produkowanej przez SMR może być dla konsumentów znacznie wyższa niż energii ze Słońca, wiatru czy innych źródeł odnawialnych. Pozostają też kwestie bezpieczeństwa. Jak przypomina Edwin Lyman z Union of Concerned Scientist, NuScale złożyło raport o bezpieczeństwie mimo zastrzeżeń wnoszonych zarówno przez ekspertów NRC jak i zewnętrznej komisji doradczej. W lipcu 2020 roku Shanlai Lu z NRC złożył raport, w którym opisywał problem znany jako rozcieńczenie boru, co może spowodować problemy z paliwem i doprowadzić do pojawienia się niebezpiecznej sytuacji. W jej wyniku, nawet jeśli zabezpieczenia zadziałają i reaktor zostanie wyłączony, reakcja może samodzielnie się rozpocząć i dojdzie do niebezpiecznego wzrostu mocy. W innym raporcie NRC’s Advisory Committee on Reactor Safeguards wspomina o innych ryzykach, ale rekomenduje NRC wydanie dokumentu o bezpieczeństwie. NRC zastrzega jednak, że te nierozwiązane kwestie będą podlegały ocenie na etapie wydawania zgody na budowę reaktorów w konkretnych miejscach. Pani Hughes zapewnia, że NRC i NuScale przyjrzały się problemowi rozcieńczania boru i uznały, iż projekt reaktora jest bezpieczny. NRC ponownie przyjrzy się projektowi, gdy NuScale złoży wniosek o zatwierdzenie 60-megawatowego reaktora. « powrót do artykułu
  17. Dzięki wykryciu neutrin pochodzących z jądra Słońca fizycy byli w stanie potwierdzić ostatni brakujący element opisu fuzji zachodzącej wewnątrz naszej gwiazdy. Potwierdzili tym samym obowiązujący od dziesięcioleci model teoretyczny przewidujący, że część energii słonecznej pochodzi z łańcucha reakcji, w którym udział mają atomy węgla i azotu. W procesie tym cztery protony łączą się w jądro helu. Dochodzi do uwolnienia dwóch neutrin, innych cząstek subatomowych i olbrzymich ilości energii. Ten cykl węglowo-azotowo-tlenowy (CNO) nie odgrywa większej roli w Słońcu, gdzie dzięki niemu powstaje mniej niż 1% energii. Uważa się jednak, że gdy gwiazda się starzeje, zużywa wodór i staje się czerwonym olbrzymem, wówczas rola cyklu CNO znacząco rośnie. O odkryciu poinformowali naukowcy pracujący przy włoskim eksperymencie Borexino. To wspaniałe, że udało się potwierdzić jedno z podstawowych założeń teorii dotyczącej gwiazd, mówi Marc Pinsonnealut z Ohio State University. Borexino już wcześniej jako pierwszy wykrył neutrina pochodzące z trzech różnych etapów reakcji zachodzącej w Słońcu, która odpowiada za produkcję większości energii naszej gwiazdy. Dzięki obecnemu odkryciu Borexino w pełni opisał dwa procesy zasilające Słońce, mówi rzecznik eksperymentu Gioacchino Branucci z Uniwersytetu w Mediolanie. Kończymy wielkim bum!, dodał Marco Pallavicini z Uniwersytetu w Genui. Może to być bowiem ostatnie odkrycie Borexino, któremu grozi zamknięcie z powodu ryzyka dla źródła wody pitnej. Odkrycie neutrin pochodzących z cyklu węglowo-azotowo-tlenowego nie tylko potwierdza teoretyczne modele procesów zachodzących w Słońcu, ale rzuca też światło na strukturę jego jądra, szczególnie zaś na koncentrację w nim metali. Tutaj trzeba podkreślić, że astrofizycy pod pojęciem „metal” rozumieją wszelkie pierwiastki o masie większej od wodoru i helu. Liczba neutrin zarejestrowanych przez Borexino wydaje się zgodna ze standardowym modelem przewidującym, że metaliczność jądra jest podobna do metaliczności powierzchni. To ważne spostrzeżenie, gdyż w ostatnim czasie pojawiało się coraz więcej badań kwestionujących taki model. Badania te sugerowały, że metaliczność jądra jest niższa niż powierzchni. A jako, że to skład pierwiastków decyduje o tempie przepływu energii z jądra, badania te sugerowały jednocześnie, że jądro jest nieco chłodniejsze niż sądzono. Jako, że proces, w którym powstają neutrina jest niezwykle wrażliwy na temperaturę, dane zarejestrowane przez Borexino wskazują raczej na starsze wartości temperatury, nie na te sugerowane przez nowe badania. « powrót do artykułu
  18. US Air Force zapowiedziały kolejną misję tajemniczego mini wahadłowca X-37B. Pojazd wystartuje 16 maja. Będzie to już jego szósty pobyt w przestrzeni kosmicznej. O wcześniejszych misjach nie wiemy praktycznie niczego, poza tym, że przeprowadzano podczas nich tajne testy. Tym razem Amerykanie uchylili jednak rąbka tajemnicy. Wiemy, że USA posiadają dwa mini-wahadłowce tego typu. Długość każdego z nich to 8,8 metra, a rozpiętość skrzydeł wynosi 4,6 metra. Duże wahadłowce miały długość 37 metrów, przy rozpiętości skrzydeł 24 metrów. Pierwszy start X-37B odbył się w kwietniu 2010 roku, a pojazd wrócił na Ziemię po 224 dniach. Kolejne misje były coraz dłuższe. Ostatnia, najdłuższa, odbyła się pomiędzy 7 września 2017 a 27 października 2019 roku. Trwała więc 779 dni. W czasie pierwszych czterech pojazd był wynoszony przez rakietę Atlas V, podczas ostatniej wykorzystano Falcona 9. Najbliższa misja, OTV-6, wystartuje na pokładzie Atlasa V. W ramach tej ważnej misji przeprowadzili więcej badań niż podczas którejkolwiek z wcześniejszych. Znajdą się wśród nich dwa eksperymenty NASA, poinformowała sekretarz US Air Force, Barbara Barrett. Wyjaśniła, że jeden z eksperymentów dla NASA będzie badał wpływ promieniowania kosmicznego na nasiona, a podczas drugiego zostanie sprawdzone zachowanie się różnych materiałów w przestrzeni kosmicznej. Znacznie bardziej interesująco wygląda inny eksperyment, który zostanie przeprowadzony na zlecenie U.S. Naval Research Laboratory. W jego ramach badana będzie technologia zamiany energii słonecznej na energię mikrofalową i jej transfer na Ziemię. Nie zdradzono przy tym żadnych szczegółów, jednak z wcześniejszych informacji napływających z Naval Research Laboratory wiemy, że z technologią taką wiązane są duże nadzieje,  Dzięki niej Amerykanie mogliby stworzyć drony pozostające w powietrzu przez bardzo długi czas, może nawet bezterminowo, gdyż otrzymywałyby energię z satelitów. Ponadto satelity byłyby zdolne do przekazywania energii w dowolne miejsce na Ziemi, ewentualnie do pojazdów kosmicznych czy innych satelitów. Dzięki takiej technologii jednostki wojskowe czy zespoły naukowe działające w odległych miejscach globu nie musiałyby polegać na mało wydajnej technologii fotowoltaicznej czy na ciężkich, hałaśliwych zużywających sporo paliwa generatorach. Wystarczyłoby urządzenie z anteną odbierającą mikrofale. Ta sama technologia przydałaby się w regionach katastrof, gdzie zapewniłaby energię na długo zanim możliwe byłoby odbudowanie infrastruktury. Przypomnijmy, że po powrocie (maj 2017) X-37B z misji OTV-4 przyznano, że w czasie misji testowano zaawansowane systemy nawigacyjne, kontrolne, napędowe, ochrony termicznej oraz systemy lotu autonomicznego, lądowania i wejścia w atmosferę. Zauważono też wówczas, że X-37B latał niezwykle nisko. Pojawiły się sugestie, że USA testują technologie pozwalające satelitom szpiegowskim na latanie nisko nad Ziemią. To pozwoliłoby na wykonywanie bardziej dokładnych zdjęć, ale wymagałoby znacznie więcej paliwa. Wiemy też, że w ramach OTV-6 z pokładu mini wahadłowca zostanie wypuszczony niewielki satelita FalconSat-8, który przeprowadzi pięć eksperymentów na potrzeby U.S. Air Force Academy. Nie wiemy za to, jak długo potrwa misja OTV-6. « powrót do artykułu
  19. Do fotosyntezy potrzebne jest nie tylko światło, ale i ciepło - dowodzą naukowcy z Lublina. Rośliny odzyskują część ciepła, które powstaje w fotosyntezie, i używają go ponownie do zasilania reakcji napędzanych światłem, w tym – do produkcji tlenu – tłumaczy prof. Wiesław Gruszecki. Naukowcy mają nadzieję, że wiedzę dotyczącą gospodarowania strumieniami energii w aparacie fotosyntetycznym roślin uda się wykorzystać np. w rolnictwie, by zwiększyć plony. Energia niezbędna do podtrzymywania życia na Ziemi pochodzi z promieniowania słonecznego. Wykorzystanie tej energii możliwe jest dzięki fotosyntezie. W ramach fotosyntezy dochodzi do przetwarzania energii światła na energię wiązań chemicznych, która może być wykorzystana w reakcjach biochemicznych. W procesie tym rośliny rozkładają też wodę, wydzielając do atmosfery tlen, potrzebny nam do oddychania. Do tej pory sądzono, że w fotosyntezie rośliny korzystają tylko z kwantów światła. Zespół z Uniwersytetu Marii Curie-Skłodowskiej i Instytutu Agrofizyki PAN w Lublinie wskazał jednak dodatkowy mechanizm: do fotosyntezy potrzebna jest również energia cieplna, która - jak się wydawało - powstaje w tym procesie jako nieistotny skutek uboczny. Tymczasem z badań wynika, że ten „recykling energii” jest niezbędny w procesie wydajnego rozkładania wody do tlenu. Wyniki ukazały się w renomowanym czasopiśmie Journal of Physical Chemistry Letters. Wydajność energetyczna fotosyntezy jest niewielka – mówi w rozmowie z PAP prof. Wiesław Gruszecki z UMCS. Wyjaśnia, że roślina zamienia w biomasę najwyżej 6 proc. energii słonecznej, którą pobiera. Natomiast około 90 proc. energii pochłanianej ze światła jest oddawana do środowiska w postaci ciepła. Dotąd uważaliśmy, że frakcja oddawana do środowiska w postaci ciepła, z punktu widzenia wydajności energetycznej tego procesu, jest nieodwracalnie stracona. Ku naszemu zaskoczeniu okazało się jednak, że aparat fotosyntetyczny w roślinach jest na tyle sprytny, że potrafi jeszcze wykorzystywać część energii rozproszonej na ciepło – mówi. Naukowiec podkreśla, że są to badania podstawowe. Jego zdaniem mają one jednak szansę znaleźć zastosowanie choćby w rolnictwie. Jeśli procesy produkcji żywności się nie zmienią, to w połowie XXI wieku, kiedy Ziemię może zamieszkiwać nawet ponad 9 mld ludzi, nie starczy dla wszystkich jedzenia, tym bardziej przy niepokojących zmianach klimatycznych – alarmuje naukowiec. Badania jego zespołu są częścią międzynarodowych działań naukowców. Badają oni, co reguluje przepływy i wiązanie energii w procesie fotosyntezy. W powszechnym przekonaniu wiedza ta umożliwi inżynierię bądź selekcję gatunków roślin, które dawać będą większe plony. Gdyby produkować rośliny, w których ścieżka odzyskiwania energii cieplnej będzie jeszcze sprawniejsza – uważa badacz – to fotosynteza przebiegać będzie efektywniej, a roślina produkować będzie więcej biomasy. To zaś przekłada się bezpośrednio na większe plony. Zdaniem prof. Gruszeckiego kolejnym miejscem, gdzie można zastosować nową wiedzę, jest produkcja urządzeń do sztucznej fotosyntezy. Prace nad nimi trwają już w różnych miejscach na Ziemi, również w Polsce. Naukowiec wyjaśnia, na czym polegało odkrycie jego zespołu. Z badań wynika, że wśród struktur w chloroplastach, w których zachodzi fotosynteza, znajdują się kompleksy barwnikowo-białkowe. Pełnią one funkcję anten zbierających światło. Okazuje się, że kompleksy te grupują się spontanicznie w struktury zdolne do recyklingu energii rozproszonej w postaci ciepła. Anteny te przekazują również energię wzbudzenia uzyskaną z ciepła do centrów fotosyntetycznych, w których zachodzą reakcje rozszczepienia ładunku elektrycznego (w szczególności do Fotosystemu II). Proces ten wpływa na wzrost wydajności energetycznej fotosyntezy. I umożliwia wykorzystanie w tym procesie promieniowania o niższej energii (również z obszaru bliskiej podczerwieni). Wydaje się mieć to szczególne znaczenie w warunkach niskiej intensywności światła słonecznego. « powrót do artykułu
  20. Tibet AS-gamma Experiment zarejestrował najbardziej intensywne promieniowanie pochodzące ze źródła astrofizycznego. Energia fotonów pochodzących z Mgławicy Kraba wynosiła ponad 100 teraelektronowoltów (TEV), to około 10-krotnie więcej niże maksymalna energia uzyskiwana w Wielkim Zderzaczu Hadronów. Naukowcy spekulują, że źródłem tak intensywnego promieniowania jest pulsar ukryty głęboko we wnętrzu Mgławicy. Pojawienie się Mgławicy Kraba zostało zauważone na Ziemi w 1054 roku. Wydarzenie to odnotowały źródła historyczne. Jako, że Mgławica położona jest w odległości ponad 6500 lat świetlnych od Ziemi wiemy, że eksplozja, w wyniku której powstała, miała miejsce około 7500 lat temu. Nowa gwiazda została po raz pierwszy zaobserwowana 4 lipca 1054 roku. Jej pojawienie się odnotowały chińskie źródła. W ciągu kilku tygodni przygasła, a dwa lata po pojawieniu się zniknęła zupełnie. Obecnie wiemy, że jej pojawienie się odnotowano też w XIII-wiecznym japońskim dokumencie oraz w źródłach arabskich. Niewykluczone też, że jest wspominana w źródłach europejskich. Mgławica Kraba została po raz pierwszy odkryta w 1731 roku przez Johna Bevisa. Następnie obserwowali ją inni astronomowie. Nazwę nadal jej William Parsons w 1844 roku. W latach 20. XX wieku ostatecznie stwierdzono, że Mgławica Kraba to pozostałość supernowej z 1054 roku. Tym samym stała się ona pierwszym obiektem astronomicznym powiązanym z eksplozją supernowej. Mgławica Kraba emituje promieniowanie niemal w każdym zakresie fal. Wysyła zarówno niskoenergetyczne fale radiowe, wysokoenergetyczne promieniowanie gamma i rentgenowskie, emituje też światło widzialne. Jednak zarejestrowanie ultraenergetycznego promieniowania to coś nowego. Wysokoenergetyczne fotony, takie jak promieniowanie gamma, z trudnością przedziera się przez ziemską atmosferę. Gdy promienie gamma trafią na atomy w atmosferze, powstaje cały deszcz innych cząstek. Jednak astronomowie nauczyli się rejestrować te cząstki. Najlepiej zrobić to za pomocą narzędzi o dużej powierzchni. Takich jak Tibet AS-gamma, który składa się z 597 detektorów rozrzuconych na przestrzeni niemal 66 000 metrów kwadratowych. A kilka metrów pod detektorami znajdują się 64 betonowe zbiorniki wypełnione wodą, która służy jako dodatkowy wykrywacz. Dzięki rozłożeniu detektorów na dużej powierzchni można śledzić kierunek i energię wysokoenergetycznych wydarzeń, a woda pozwala na rejestrowanie specyficznych sygnatur takich zjawisk. Dzięki temu specjaliści potrafią odróżnić promieniowanie gamma od promieniowania kosmicznego. Dane zebrane pomiędzy lutym 2014 roku a majem roku 2017 ujawniły istnienie 24 wydarzeń o energiach przekraczających 100 TeV pochodzących z Mgławicy Kraba. Niektóre z docierających do nas promieni miały energię dochodzącą do 450 TeV. Obecnie nie jest jasne, w jaki sposób powstają fotony o tak wysokich energiach, ani czy istnieje jakaś granica intensywności promieniowania. Specjaliści pracujący przy Tibet AS-gamma wyznaczyli sobie ambitny cel – zarejestrowanie fotonów o energiach liczonych w petaelektronowoltach, czyli przekraczających 1000 TeV. Biorąc pod uwagę, że analizy takich zjawisk trwają całymi latami, nie można wykluczyć, iż tego typu fotony już zostały przez Tibet AS-gamma zarejestrowane. Teraz wystarczy je tylko zidentyfikować w danych. « powrót do artykułu
  21. Chińskie konsorcjum zdobyło zamówienie na budowę TAC-1, głównego elementu tokamaka ITER. Wspomniane konsorcjum tworzą Instytut Fizyki Plazmy, Instytuty Hefei Nauk Fizycznych, Chińska Inżynieria Energetyki Jądrowej, China Nuclear Industry 23 Construction, Południowozachodni Instytut Fizyki oraz Framatom. Na jego czele stoi Luo Delong, dyrektor generalny Centrum Wykonawczego Chińskiego Międzynarodowego Programu Energii Fuzyjnej. ITER (International Thermonuclear Experimental Reactor Project) to jeden z najbardziej ambitnych projektów mających na celu stworzenie reaktora fuzyjnego. Jego głównym zadaniem jest budowa wielkiego tokamaka, w którym będą zachodziły procesy podobne do tych, jakie zachodzą na Słońcu. Ma być to szansa na stworzenie niewyczerpanego źródła czystej energii. W prace nad ITER zaangażowanych jest 35 krajów, a siedmiu członków tworzących ITER to Chiny, UE, Indie, Japonia, Korea Południowa, Rosja i USA. TAC-1, na wykonanie którego kontrakt zdobyli Chińczycy to główna część tokamaka. Składa się ona z siedmiu innych części, w tym systemów magnesów, układów diagnostycznych czy osłony. Chiński Instytut Fizyki Plazmy (ASIPP) posiada już własny niewielki tokamak, który służy badaniom nad fuzją jądrową. Doświadczenie zdobyte przez chińskich naukowców i inżynierów zapewniło im przewagę nad konkurencją i było jedym z czynników, które zdecydowały o przyznaniu im kontraktu na TAC-1. Przedstawiciele ASIPP przyznają, że to największy kontrakt w historii ich instytucji. Wcześniej prowadzili prace m.in. w rosyjskim tokamaku NICA (Nuclotron-based Ion Collider Facility), niemieckim ASDEX Upgrade (Axially Symmetric Divertor Experimebnt) oraz francuskim WEST (W Environment in Steady-state Tokamak). « powrót do artykułu
  22. Jeszcze w bieżącym miesiącu urzędnicy w Los Angeles mają zatwierdzić projekt, który dostarczy miastu energię taniej, niż jakiekolwiek paliwa kopalne. W jego ramach ma powstać potężna instalacja fotowoltaiczna wyposażona w jedne z największych akumulatorów. W roku 2023 farma ma dostarczać 7% energii zużywanej przez Los Angeles, a koszt jej wytworzenia ma wynieść 1,997 centa za kilowatogodzinę (to cena paneli) oraz 1,3 centa za kWh (cena akumulatorów). W sumie więc koszt produkcji kilowatogodziny to niecałe 3,3 centa. Ze względu na efekt skali, ceny urządzeń do energetyki odnawialnej i ceny akumulatorów ciągle spadają, mówi Mark Jacobson z Uniwersytetu Stanforda. W przeszłości przeprowadził on badania, w których stwierdził, że większość państw może przejść na energię odnawialną. Nowa instalacja słoneczna ma powstać w hrabstwie Kern w Kalifornii i zostanie wybudowana przez firmę 8minute Solar Energy. Jej moc wyniesie 400 MW, co zapewni energię dla 65 000 gospodarstw domowych. Z instalacją zostaną połączone akumulatory o pojemności 800 MWh, dzięki którym po zmierzchu zmniejszy się zużycie gazu. Szybki spadek cen energii odnawialnej oraz akumulatorów pomaga w coraz większym rozprzestrzenianiu się nowej technologii. W marcu Bloomberg New Energy Finance przeprowadził analizę ponad 7000 projektów, w których zakłada się przechowywanie energii i stwierdził, że od roku 2012 koszt przemysłowych akumulatorów litowo-jonowych zmniejszył się o 76%. W ciągu ostatnich 18 miesięcy spadł on o 35% do poziomu 187 USD za MWh. Z kolei firma analityczna Navigant przewiduje, że do roku 2030 koszty takich urządzeń spadną o kolejnych 50%, znacznie poniżej kwot obiecywanych przez 8minute. Inżynier Jane Long, ekspertka ds. polityki energetycznej z Lawrence Livermore National Laboratory mówi, że akumulatory litowo-jonowe to tylko część rozwiązania problemu. Zapewniają one bowiem energię jedynie przez kilka godzin. Potrzebujemy bardziej długoterminowego rozwiązania, stwierdza. Zainteresowanie energetyką odnawialną napędzają też władze lokalne, które coraz częściej mówią o całkowitym porzuceniu nieodnawialnych źródeł. Jak informuje Jacobson, już 54 hrabstwa i 8 stanów wyraziło chęć przejścia w 100% na energetykę odnawialną. W 2010 roku Kalifornia przyjęła przepisy, zgodnie z którymi do roku 2024 dostawcy energii muszą zainstalować systemy pozwalające na przechowanie 2% szczytowego zużycia energii przez stan. « powrót do artykułu
  23. Badania podjęte przez naukowców z Northumbria University wskazują na istnienie nieznanej dotychczas stałej podstawowej Słońca. W artykule, który został opublikowany w Nature Astronomy, czytamy, że fale magnetyczne naszej gwiazdy zachowują się inaczej niż dotychczas sądzono. Po przeanalizowaniu danych z okresu 10 lat naukowcy doszli do wniosku, że fale magnetyczne w koronie Słońca reagują na dźwięk wydobywający się z wnętrza gwiazdy. Fale te, zwane falami Alfvena, odgrywają kluczową rolę w transporcie energii wokół Słońca i w Układzie Słonecznym. Dotychczas sądzono, że ich źródłem jest powierzchnia gwiazdy. Teraz okazuje się, że fale te są wzbudzone w wyższych partiach atmosfery Słońca przez fale dźwiękowe z jego wnętrza. Brytyjscy naukowcy odkryli, że fale dźwiękowe pozostawiają w falach magnetycznych unikatowy ślad. Cała korona słoneczna, reagując na wspomniane fale dźwiękowe, wibruje w określonych częstotliwościach. Nowo odkryte zjawisko występowało stale przez cały badany 10-letni okres, co wskazuje, że mamy do czynienia z fundamentalną stałą Słońca i prawdopodobnie innych gwiazd. Odkrycie to będzie miało olbrzymie znaczenie dla naszego rozumienia transportu energii w atmosferze Słońca. Odkrycie tak specyficznego śladu, który potencjalnie może być nową stałą Słońca, jest niezwykle ekscytujące. Wcześniej sądziliśmy, że fale magnetyczne są wzbudzane przez wodór na powierzchni gwiazdy, a teraz wiemy, że są wzbudzane przez fale dźwiękowe. Być może powstanie nowy sposób na badanie i klasyfikowanie gwiazd pod kątem tej unikatowej sygnatury. Skoro wiemy, że ona istnieje, możemy poszukać jej w innych gwiazdach, mówi główny autor badań, doktor Richard Morton. Korona Słońca jest ponad 100-krotnie cieplejsza niż jego powierzchnia, a odpowiada za to energia z fal Alfvena, która podgrzewa koronę do temperatury około miliona stopni. Fale Alfvena są też odpowiedzialne za podgrzewanie i przyspieszanie wiatru słonecznego. « powrót do artykułu
  24. Świat potrzebuje nowych źródeł energii. Musimy odejść od energetyki opartej na węglu, jednocześnie jednak coraz większym miastom energii nie zapewnią elektrownie wiatrowe czy słoneczne. Energetyka atomowa wciąż zaś budzi liczne obawy. Potrzebne jest czyste, bezpieczne, pewne, efektywne źródło, z którego można produkować duże ilości energii, a które nie będzie zajmowało tak olbrzymich obszarów, jak farmy wiatrowe czy słoneczne. Takim źródłem może być reaktor fuzyjny. Kanadyjscy eksperci twierdzą, że dzięki ostatnim postępom technologicznym oraz prywatnym inwestycjom pierwsze komercyjne reaktory produkujące energię z fuzji jądrowej mogą pojawić się już za 10–15 lat. Fuzja jądrowa polega na łączeniu lekkich jąder w jądro cięższe. Jest to więc inne zjawisko niż to, które zachodzi w reaktorach atomowych, gdzie cięższe jądra są rozszczepiane. Wiąże się to z uwolnieniem energii i niebezpiecznego promieniowania. Koszty awarii i wypadków w elektrowniach atomowych są niezwykle wysokie. Konieczność zapewnienia bezpieczeństwa powoduje, że koszty budowy elektrowni atomowych stały się zbyt wysokie. W ubiegłym tygodniu firma Hitachi zrezygnowała z budowy elektrowni w Wielkiej Brytanii, odpisując na poczet strat 3 miliardy dolarów. Dlatego też elektrownie atomowe są obecnie budowane w głównej mierze z pieniędzy podatników lub też przez nie gwarantowane. A koszty budowy, użytkowania i składowania odpadów z takich elektrowni ciągle rosną. Jednocześnie zaś ciągle spadają koszty pozyskiwania energii ze źródeł odnawialnych. Elektrownie atomowe stały się więc nieopłacalne, a źródła odnawialne nie zapewniają wystarczającej ilości energii. Problemem jest bowiem gęstość energii. Rozrastające się miasta, których mieszkańcy używają coraz więcej urządzeń wymagających energii elektrycznej i których przyszłością są samochody elektryczne potrzebują skoncentrowanych źródeł energii. Jeśli spróbujemy przestawić się na energię odnawialną, to gęstość źródeł energii spadnie, gdy tymczasem potrzebujemy jej wzrostu. Przejście na energetykę odnawialną wymaga też całkowitego przeprogramowania i przebudowy systemów energetycznych. Proces ten właśnie trwa w wielu miejscach na świecie. Jednak może go zatrzymać szybkie pojawienie się energii z fuzji jądrowej. Skomercjalizowanie tego typu systemu produkcji energii zaważyłoby nie tylko na losach energetyki opartej na węglu, ale również tej opartej na słońcu i wietrze. Mike Delage, prezes ds. technologicznych firmy General Fusion twierdzi, że komercyjna fuzja jądrowa może zadebiutować na rynku już za 10 lat. Jednym z powodów, dla których tak twierdzi, jest rosnące zainteresowanie tym rynkiem ze strony prywatnego biznesu. Piętnaście lat temu na tym rynku działało General Fusion i jedna lub dwie inne firmy. Teraz wiemy o istnieniu ponad 20 firm, mówi Delage. Jedną z nowych firm jest Commonwealth Fusion Systems z MIT, który został dofinansowany kwotą 50 milionów USD przez włoskiego giganta energetycznego ENI. Wielu ekspertów twierdzi jednak, że na komercyjne reaktory fuzyjne będziemy musieli poczekać do około 2050 roku. Niezależnie jednak od tego, czy energię z fuzji opanujemy za 10 czy za 30 lat, jej pojawienie się doprowadzi do marginalizacji dotychczasowych metod produkcji energii, zauważa fizyk Allan Offenberger, który pracował jako doradca wielu rządów na całym świecie. Jednak, jak dodaje uczony, tak perspektywa 10, jak i 30 lat to zbyt długo, by czekać. Należy przestawiać gospodarkę na energię odnawialną, energetyka oparta na węglu, chociaż będzie odgrywała coraz mniejsze znaczenie, wciąż będzie potrzebna, a kluczową rolę w okresie przejściowym odegra energia atomowa. Reaktory fuzyjne nie pojawią się na tyle szybko, byśmy mogli błyskawicznie przerwać emisję gazów cieplarnianych. Potrzebujemy okresu przejściowego, po którym fuzja jądrowa będzie głównym źródłem energii. To jednak potrwa. Można tylko powiedzieć, że stanie się to w obecnym wieku, dodaje Offenberger. « powrót do artykułu
  25. Na łamach Cell Reports czytamy, że połączenie leku przeciwcukrzycowego i leku przeciwnadciśnieniowego prowadzi do śmierci komórek nowotworowych poprzez odcięcie im dostaw energii. Przed dwoma laty naukowcy z Biocentrum Uniwersytetu w Bazylei odkryli, że powszechnie stosowany lek, metformina, wykazuje właściwości przeciwnowotworowe. Jednak w dawkach, zażywanych przez diabetyków, są one zbyt słabe by powstrzymać rozwój guzów nowotworowych. Uczeni, pracujący pod kierunkiem profesora Halla, zauważyli, że syrosyngopina, lek na nadciśnienie, wzmacnia przeciwnowotworowe działanie metforminy. Po dwóch latach badań szwajcarscy naukowcy wyjaśnili ten fenomen. Okazało się, że wspólne działanie obu leków prowadzi do zablokowania ważnego etapu produkcji energii, wywołując apoptozę komórek. Komórki nowotworowe mają wysokie zapotrzebowanie na energię. Czynnikiem limitującym dostawy energii jest molekuła NAD+, która odgrywa kluczową rolę w zamianie składników odżywczych w energię. Żeby maszyneria produkująca energię działała, NAD+ musi być wciąż produkowane z NADH. Okazuje się, że zarówno metformina jak i syrosingopina hamują regenerację NAD+, ale czynią to na różne sposoby, wyjaśnia główny autor badań, Don Benjamin. Metabolizm wielu komórek nowotworowych wykorzystuje proces glikolizy, co oznacza, że pozyskują energię głównie poprzez zamianę glukozy w mleczany. Jako, że akumulacja mleczanów blokuje szlak glikolizowy, komórki nowotworowe usuwają mleczany za pomocą specjalnych transporterów. Odkryliśmy, że syrosingopina blokuje dwa najważniejsze transportery mleczanów, uniemożliwiając ich usunięcie z komórki. A wysoka koncentracja mleczanów uniemożliwia zamianę NADH w NAD+, dodaje Benjamin. Jako, że metformina blokuje drugi szlak wytwarzania NAD+, połączenie metforminy i syrosingopiny oznacza, że komórki nowotworowe tracą zdolność do wytwarzania NAD+. Przez to nie są w stanie wytworzyć odpowiedniej ilości energii, co prowadzi do ich śmierci. Syrosingopina to lek, który został wynaleziony przed 60 laty przez szwajcarską firmę Ciba. Teraz okazuje się, że stary środek na nadciśnienie może przeżywać drugą młodość jako lek przeciwnowotworowy. « powrót do artykułu
×
×
  • Create New...