Jump to content
Forum Kopalni Wiedzy

Search the Community

Showing results for tags ' energia'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Found 13 results

  1. Dzięki wykryciu neutrin pochodzących z jądra Słońca fizycy byli w stanie potwierdzić ostatni brakujący element opisu fuzji zachodzącej wewnątrz naszej gwiazdy. Potwierdzili tym samym obowiązujący od dziesięcioleci model teoretyczny przewidujący, że część energii słonecznej pochodzi z łańcucha reakcji, w którym udział mają atomy węgla i azotu. W procesie tym cztery protony łączą się w jądro helu. Dochodzi do uwolnienia dwóch neutrin, innych cząstek subatomowych i olbrzymich ilości energii. Ten cykl węglowo-azotowo-tlenowy (CNO) nie odgrywa większej roli w Słońcu, gdzie dzięki niemu powstaje mniej niż 1% energii. Uważa się jednak, że gdy gwiazda się starzeje, zużywa wodór i staje się czerwonym olbrzymem, wówczas rola cyklu CNO znacząco rośnie. O odkryciu poinformowali naukowcy pracujący przy włoskim eksperymencie Borexino. To wspaniałe, że udało się potwierdzić jedno z podstawowych założeń teorii dotyczącej gwiazd, mówi Marc Pinsonnealut z Ohio State University. Borexino już wcześniej jako pierwszy wykrył neutrina pochodzące z trzech różnych etapów reakcji zachodzącej w Słońcu, która odpowiada za produkcję większości energii naszej gwiazdy. Dzięki obecnemu odkryciu Borexino w pełni opisał dwa procesy zasilające Słońce, mówi rzecznik eksperymentu Gioacchino Branucci z Uniwersytetu w Mediolanie. Kończymy wielkim bum!, dodał Marco Pallavicini z Uniwersytetu w Genui. Może to być bowiem ostatnie odkrycie Borexino, któremu grozi zamknięcie z powodu ryzyka dla źródła wody pitnej. Odkrycie neutrin pochodzących z cyklu węglowo-azotowo-tlenowego nie tylko potwierdza teoretyczne modele procesów zachodzących w Słońcu, ale rzuca też światło na strukturę jego jądra, szczególnie zaś na koncentrację w nim metali. Tutaj trzeba podkreślić, że astrofizycy pod pojęciem „metal” rozumieją wszelkie pierwiastki o masie większej od wodoru i helu. Liczba neutrin zarejestrowanych przez Borexino wydaje się zgodna ze standardowym modelem przewidującym, że metaliczność jądra jest podobna do metaliczności powierzchni. To ważne spostrzeżenie, gdyż w ostatnim czasie pojawiało się coraz więcej badań kwestionujących taki model. Badania te sugerowały, że metaliczność jądra jest niższa niż powierzchni. A jako, że to skład pierwiastków decyduje o tempie przepływu energii z jądra, badania te sugerowały jednocześnie, że jądro jest nieco chłodniejsze niż sądzono. Jako, że proces, w którym powstają neutrina jest niezwykle wrażliwy na temperaturę, dane zarejestrowane przez Borexino wskazują raczej na starsze wartości temperatury, nie na te sugerowane przez nowe badania. « powrót do artykułu
  2. US Air Force zapowiedziały kolejną misję tajemniczego mini wahadłowca X-37B. Pojazd wystartuje 16 maja. Będzie to już jego szósty pobyt w przestrzeni kosmicznej. O wcześniejszych misjach nie wiemy praktycznie niczego, poza tym, że przeprowadzano podczas nich tajne testy. Tym razem Amerykanie uchylili jednak rąbka tajemnicy. Wiemy, że USA posiadają dwa mini-wahadłowce tego typu. Długość każdego z nich to 8,8 metra, a rozpiętość skrzydeł wynosi 4,6 metra. Duże wahadłowce miały długość 37 metrów, przy rozpiętości skrzydeł 24 metrów. Pierwszy start X-37B odbył się w kwietniu 2010 roku, a pojazd wrócił na Ziemię po 224 dniach. Kolejne misje były coraz dłuższe. Ostatnia, najdłuższa, odbyła się pomiędzy 7 września 2017 a 27 października 2019 roku. Trwała więc 779 dni. W czasie pierwszych czterech pojazd był wynoszony przez rakietę Atlas V, podczas ostatniej wykorzystano Falcona 9. Najbliższa misja, OTV-6, wystartuje na pokładzie Atlasa V. W ramach tej ważnej misji przeprowadzili więcej badań niż podczas którejkolwiek z wcześniejszych. Znajdą się wśród nich dwa eksperymenty NASA, poinformowała sekretarz US Air Force, Barbara Barrett. Wyjaśniła, że jeden z eksperymentów dla NASA będzie badał wpływ promieniowania kosmicznego na nasiona, a podczas drugiego zostanie sprawdzone zachowanie się różnych materiałów w przestrzeni kosmicznej. Znacznie bardziej interesująco wygląda inny eksperyment, który zostanie przeprowadzony na zlecenie U.S. Naval Research Laboratory. W jego ramach badana będzie technologia zamiany energii słonecznej na energię mikrofalową i jej transfer na Ziemię. Nie zdradzono przy tym żadnych szczegółów, jednak z wcześniejszych informacji napływających z Naval Research Laboratory wiemy, że z technologią taką wiązane są duże nadzieje,  Dzięki niej Amerykanie mogliby stworzyć drony pozostające w powietrzu przez bardzo długi czas, może nawet bezterminowo, gdyż otrzymywałyby energię z satelitów. Ponadto satelity byłyby zdolne do przekazywania energii w dowolne miejsce na Ziemi, ewentualnie do pojazdów kosmicznych czy innych satelitów. Dzięki takiej technologii jednostki wojskowe czy zespoły naukowe działające w odległych miejscach globu nie musiałyby polegać na mało wydajnej technologii fotowoltaicznej czy na ciężkich, hałaśliwych zużywających sporo paliwa generatorach. Wystarczyłoby urządzenie z anteną odbierającą mikrofale. Ta sama technologia przydałaby się w regionach katastrof, gdzie zapewniłaby energię na długo zanim możliwe byłoby odbudowanie infrastruktury. Przypomnijmy, że po powrocie (maj 2017) X-37B z misji OTV-4 przyznano, że w czasie misji testowano zaawansowane systemy nawigacyjne, kontrolne, napędowe, ochrony termicznej oraz systemy lotu autonomicznego, lądowania i wejścia w atmosferę. Zauważono też wówczas, że X-37B latał niezwykle nisko. Pojawiły się sugestie, że USA testują technologie pozwalające satelitom szpiegowskim na latanie nisko nad Ziemią. To pozwoliłoby na wykonywanie bardziej dokładnych zdjęć, ale wymagałoby znacznie więcej paliwa. Wiemy też, że w ramach OTV-6 z pokładu mini wahadłowca zostanie wypuszczony niewielki satelita FalconSat-8, który przeprowadzi pięć eksperymentów na potrzeby U.S. Air Force Academy. Nie wiemy za to, jak długo potrwa misja OTV-6. « powrót do artykułu
  3. Do fotosyntezy potrzebne jest nie tylko światło, ale i ciepło - dowodzą naukowcy z Lublina. Rośliny odzyskują część ciepła, które powstaje w fotosyntezie, i używają go ponownie do zasilania reakcji napędzanych światłem, w tym – do produkcji tlenu – tłumaczy prof. Wiesław Gruszecki. Naukowcy mają nadzieję, że wiedzę dotyczącą gospodarowania strumieniami energii w aparacie fotosyntetycznym roślin uda się wykorzystać np. w rolnictwie, by zwiększyć plony. Energia niezbędna do podtrzymywania życia na Ziemi pochodzi z promieniowania słonecznego. Wykorzystanie tej energii możliwe jest dzięki fotosyntezie. W ramach fotosyntezy dochodzi do przetwarzania energii światła na energię wiązań chemicznych, która może być wykorzystana w reakcjach biochemicznych. W procesie tym rośliny rozkładają też wodę, wydzielając do atmosfery tlen, potrzebny nam do oddychania. Do tej pory sądzono, że w fotosyntezie rośliny korzystają tylko z kwantów światła. Zespół z Uniwersytetu Marii Curie-Skłodowskiej i Instytutu Agrofizyki PAN w Lublinie wskazał jednak dodatkowy mechanizm: do fotosyntezy potrzebna jest również energia cieplna, która - jak się wydawało - powstaje w tym procesie jako nieistotny skutek uboczny. Tymczasem z badań wynika, że ten „recykling energii” jest niezbędny w procesie wydajnego rozkładania wody do tlenu. Wyniki ukazały się w renomowanym czasopiśmie Journal of Physical Chemistry Letters. Wydajność energetyczna fotosyntezy jest niewielka – mówi w rozmowie z PAP prof. Wiesław Gruszecki z UMCS. Wyjaśnia, że roślina zamienia w biomasę najwyżej 6 proc. energii słonecznej, którą pobiera. Natomiast około 90 proc. energii pochłanianej ze światła jest oddawana do środowiska w postaci ciepła. Dotąd uważaliśmy, że frakcja oddawana do środowiska w postaci ciepła, z punktu widzenia wydajności energetycznej tego procesu, jest nieodwracalnie stracona. Ku naszemu zaskoczeniu okazało się jednak, że aparat fotosyntetyczny w roślinach jest na tyle sprytny, że potrafi jeszcze wykorzystywać część energii rozproszonej na ciepło – mówi. Naukowiec podkreśla, że są to badania podstawowe. Jego zdaniem mają one jednak szansę znaleźć zastosowanie choćby w rolnictwie. Jeśli procesy produkcji żywności się nie zmienią, to w połowie XXI wieku, kiedy Ziemię może zamieszkiwać nawet ponad 9 mld ludzi, nie starczy dla wszystkich jedzenia, tym bardziej przy niepokojących zmianach klimatycznych – alarmuje naukowiec. Badania jego zespołu są częścią międzynarodowych działań naukowców. Badają oni, co reguluje przepływy i wiązanie energii w procesie fotosyntezy. W powszechnym przekonaniu wiedza ta umożliwi inżynierię bądź selekcję gatunków roślin, które dawać będą większe plony. Gdyby produkować rośliny, w których ścieżka odzyskiwania energii cieplnej będzie jeszcze sprawniejsza – uważa badacz – to fotosynteza przebiegać będzie efektywniej, a roślina produkować będzie więcej biomasy. To zaś przekłada się bezpośrednio na większe plony. Zdaniem prof. Gruszeckiego kolejnym miejscem, gdzie można zastosować nową wiedzę, jest produkcja urządzeń do sztucznej fotosyntezy. Prace nad nimi trwają już w różnych miejscach na Ziemi, również w Polsce. Naukowiec wyjaśnia, na czym polegało odkrycie jego zespołu. Z badań wynika, że wśród struktur w chloroplastach, w których zachodzi fotosynteza, znajdują się kompleksy barwnikowo-białkowe. Pełnią one funkcję anten zbierających światło. Okazuje się, że kompleksy te grupują się spontanicznie w struktury zdolne do recyklingu energii rozproszonej w postaci ciepła. Anteny te przekazują również energię wzbudzenia uzyskaną z ciepła do centrów fotosyntetycznych, w których zachodzą reakcje rozszczepienia ładunku elektrycznego (w szczególności do Fotosystemu II). Proces ten wpływa na wzrost wydajności energetycznej fotosyntezy. I umożliwia wykorzystanie w tym procesie promieniowania o niższej energii (również z obszaru bliskiej podczerwieni). Wydaje się mieć to szczególne znaczenie w warunkach niskiej intensywności światła słonecznego. « powrót do artykułu
  4. Tibet AS-gamma Experiment zarejestrował najbardziej intensywne promieniowanie pochodzące ze źródła astrofizycznego. Energia fotonów pochodzących z Mgławicy Kraba wynosiła ponad 100 teraelektronowoltów (TEV), to około 10-krotnie więcej niże maksymalna energia uzyskiwana w Wielkim Zderzaczu Hadronów. Naukowcy spekulują, że źródłem tak intensywnego promieniowania jest pulsar ukryty głęboko we wnętrzu Mgławicy. Pojawienie się Mgławicy Kraba zostało zauważone na Ziemi w 1054 roku. Wydarzenie to odnotowały źródła historyczne. Jako, że Mgławica położona jest w odległości ponad 6500 lat świetlnych od Ziemi wiemy, że eksplozja, w wyniku której powstała, miała miejsce około 7500 lat temu. Nowa gwiazda została po raz pierwszy zaobserwowana 4 lipca 1054 roku. Jej pojawienie się odnotowały chińskie źródła. W ciągu kilku tygodni przygasła, a dwa lata po pojawieniu się zniknęła zupełnie. Obecnie wiemy, że jej pojawienie się odnotowano też w XIII-wiecznym japońskim dokumencie oraz w źródłach arabskich. Niewykluczone też, że jest wspominana w źródłach europejskich. Mgławica Kraba została po raz pierwszy odkryta w 1731 roku przez Johna Bevisa. Następnie obserwowali ją inni astronomowie. Nazwę nadal jej William Parsons w 1844 roku. W latach 20. XX wieku ostatecznie stwierdzono, że Mgławica Kraba to pozostałość supernowej z 1054 roku. Tym samym stała się ona pierwszym obiektem astronomicznym powiązanym z eksplozją supernowej. Mgławica Kraba emituje promieniowanie niemal w każdym zakresie fal. Wysyła zarówno niskoenergetyczne fale radiowe, wysokoenergetyczne promieniowanie gamma i rentgenowskie, emituje też światło widzialne. Jednak zarejestrowanie ultraenergetycznego promieniowania to coś nowego. Wysokoenergetyczne fotony, takie jak promieniowanie gamma, z trudnością przedziera się przez ziemską atmosferę. Gdy promienie gamma trafią na atomy w atmosferze, powstaje cały deszcz innych cząstek. Jednak astronomowie nauczyli się rejestrować te cząstki. Najlepiej zrobić to za pomocą narzędzi o dużej powierzchni. Takich jak Tibet AS-gamma, który składa się z 597 detektorów rozrzuconych na przestrzeni niemal 66 000 metrów kwadratowych. A kilka metrów pod detektorami znajdują się 64 betonowe zbiorniki wypełnione wodą, która służy jako dodatkowy wykrywacz. Dzięki rozłożeniu detektorów na dużej powierzchni można śledzić kierunek i energię wysokoenergetycznych wydarzeń, a woda pozwala na rejestrowanie specyficznych sygnatur takich zjawisk. Dzięki temu specjaliści potrafią odróżnić promieniowanie gamma od promieniowania kosmicznego. Dane zebrane pomiędzy lutym 2014 roku a majem roku 2017 ujawniły istnienie 24 wydarzeń o energiach przekraczających 100 TeV pochodzących z Mgławicy Kraba. Niektóre z docierających do nas promieni miały energię dochodzącą do 450 TeV. Obecnie nie jest jasne, w jaki sposób powstają fotony o tak wysokich energiach, ani czy istnieje jakaś granica intensywności promieniowania. Specjaliści pracujący przy Tibet AS-gamma wyznaczyli sobie ambitny cel – zarejestrowanie fotonów o energiach liczonych w petaelektronowoltach, czyli przekraczających 1000 TeV. Biorąc pod uwagę, że analizy takich zjawisk trwają całymi latami, nie można wykluczyć, iż tego typu fotony już zostały przez Tibet AS-gamma zarejestrowane. Teraz wystarczy je tylko zidentyfikować w danych. « powrót do artykułu
  5. Chińskie konsorcjum zdobyło zamówienie na budowę TAC-1, głównego elementu tokamaka ITER. Wspomniane konsorcjum tworzą Instytut Fizyki Plazmy, Instytuty Hefei Nauk Fizycznych, Chińska Inżynieria Energetyki Jądrowej, China Nuclear Industry 23 Construction, Południowozachodni Instytut Fizyki oraz Framatom. Na jego czele stoi Luo Delong, dyrektor generalny Centrum Wykonawczego Chińskiego Międzynarodowego Programu Energii Fuzyjnej. ITER (International Thermonuclear Experimental Reactor Project) to jeden z najbardziej ambitnych projektów mających na celu stworzenie reaktora fuzyjnego. Jego głównym zadaniem jest budowa wielkiego tokamaka, w którym będą zachodziły procesy podobne do tych, jakie zachodzą na Słońcu. Ma być to szansa na stworzenie niewyczerpanego źródła czystej energii. W prace nad ITER zaangażowanych jest 35 krajów, a siedmiu członków tworzących ITER to Chiny, UE, Indie, Japonia, Korea Południowa, Rosja i USA. TAC-1, na wykonanie którego kontrakt zdobyli Chińczycy to główna część tokamaka. Składa się ona z siedmiu innych części, w tym systemów magnesów, układów diagnostycznych czy osłony. Chiński Instytut Fizyki Plazmy (ASIPP) posiada już własny niewielki tokamak, który służy badaniom nad fuzją jądrową. Doświadczenie zdobyte przez chińskich naukowców i inżynierów zapewniło im przewagę nad konkurencją i było jedym z czynników, które zdecydowały o przyznaniu im kontraktu na TAC-1. Przedstawiciele ASIPP przyznają, że to największy kontrakt w historii ich instytucji. Wcześniej prowadzili prace m.in. w rosyjskim tokamaku NICA (Nuclotron-based Ion Collider Facility), niemieckim ASDEX Upgrade (Axially Symmetric Divertor Experimebnt) oraz francuskim WEST (W Environment in Steady-state Tokamak). « powrót do artykułu
  6. Jeszcze w bieżącym miesiącu urzędnicy w Los Angeles mają zatwierdzić projekt, który dostarczy miastu energię taniej, niż jakiekolwiek paliwa kopalne. W jego ramach ma powstać potężna instalacja fotowoltaiczna wyposażona w jedne z największych akumulatorów. W roku 2023 farma ma dostarczać 7% energii zużywanej przez Los Angeles, a koszt jej wytworzenia ma wynieść 1,997 centa za kilowatogodzinę (to cena paneli) oraz 1,3 centa za kWh (cena akumulatorów). W sumie więc koszt produkcji kilowatogodziny to niecałe 3,3 centa. Ze względu na efekt skali, ceny urządzeń do energetyki odnawialnej i ceny akumulatorów ciągle spadają, mówi Mark Jacobson z Uniwersytetu Stanforda. W przeszłości przeprowadził on badania, w których stwierdził, że większość państw może przejść na energię odnawialną. Nowa instalacja słoneczna ma powstać w hrabstwie Kern w Kalifornii i zostanie wybudowana przez firmę 8minute Solar Energy. Jej moc wyniesie 400 MW, co zapewni energię dla 65 000 gospodarstw domowych. Z instalacją zostaną połączone akumulatory o pojemności 800 MWh, dzięki którym po zmierzchu zmniejszy się zużycie gazu. Szybki spadek cen energii odnawialnej oraz akumulatorów pomaga w coraz większym rozprzestrzenianiu się nowej technologii. W marcu Bloomberg New Energy Finance przeprowadził analizę ponad 7000 projektów, w których zakłada się przechowywanie energii i stwierdził, że od roku 2012 koszt przemysłowych akumulatorów litowo-jonowych zmniejszył się o 76%. W ciągu ostatnich 18 miesięcy spadł on o 35% do poziomu 187 USD za MWh. Z kolei firma analityczna Navigant przewiduje, że do roku 2030 koszty takich urządzeń spadną o kolejnych 50%, znacznie poniżej kwot obiecywanych przez 8minute. Inżynier Jane Long, ekspertka ds. polityki energetycznej z Lawrence Livermore National Laboratory mówi, że akumulatory litowo-jonowe to tylko część rozwiązania problemu. Zapewniają one bowiem energię jedynie przez kilka godzin. Potrzebujemy bardziej długoterminowego rozwiązania, stwierdza. Zainteresowanie energetyką odnawialną napędzają też władze lokalne, które coraz częściej mówią o całkowitym porzuceniu nieodnawialnych źródeł. Jak informuje Jacobson, już 54 hrabstwa i 8 stanów wyraziło chęć przejścia w 100% na energetykę odnawialną. W 2010 roku Kalifornia przyjęła przepisy, zgodnie z którymi do roku 2024 dostawcy energii muszą zainstalować systemy pozwalające na przechowanie 2% szczytowego zużycia energii przez stan. « powrót do artykułu
  7. Badania podjęte przez naukowców z Northumbria University wskazują na istnienie nieznanej dotychczas stałej podstawowej Słońca. W artykule, który został opublikowany w Nature Astronomy, czytamy, że fale magnetyczne naszej gwiazdy zachowują się inaczej niż dotychczas sądzono. Po przeanalizowaniu danych z okresu 10 lat naukowcy doszli do wniosku, że fale magnetyczne w koronie Słońca reagują na dźwięk wydobywający się z wnętrza gwiazdy. Fale te, zwane falami Alfvena, odgrywają kluczową rolę w transporcie energii wokół Słońca i w Układzie Słonecznym. Dotychczas sądzono, że ich źródłem jest powierzchnia gwiazdy. Teraz okazuje się, że fale te są wzbudzone w wyższych partiach atmosfery Słońca przez fale dźwiękowe z jego wnętrza. Brytyjscy naukowcy odkryli, że fale dźwiękowe pozostawiają w falach magnetycznych unikatowy ślad. Cała korona słoneczna, reagując na wspomniane fale dźwiękowe, wibruje w określonych częstotliwościach. Nowo odkryte zjawisko występowało stale przez cały badany 10-letni okres, co wskazuje, że mamy do czynienia z fundamentalną stałą Słońca i prawdopodobnie innych gwiazd. Odkrycie to będzie miało olbrzymie znaczenie dla naszego rozumienia transportu energii w atmosferze Słońca. Odkrycie tak specyficznego śladu, który potencjalnie może być nową stałą Słońca, jest niezwykle ekscytujące. Wcześniej sądziliśmy, że fale magnetyczne są wzbudzane przez wodór na powierzchni gwiazdy, a teraz wiemy, że są wzbudzane przez fale dźwiękowe. Być może powstanie nowy sposób na badanie i klasyfikowanie gwiazd pod kątem tej unikatowej sygnatury. Skoro wiemy, że ona istnieje, możemy poszukać jej w innych gwiazdach, mówi główny autor badań, doktor Richard Morton. Korona Słońca jest ponad 100-krotnie cieplejsza niż jego powierzchnia, a odpowiada za to energia z fal Alfvena, która podgrzewa koronę do temperatury około miliona stopni. Fale Alfvena są też odpowiedzialne za podgrzewanie i przyspieszanie wiatru słonecznego. « powrót do artykułu
  8. Świat potrzebuje nowych źródeł energii. Musimy odejść od energetyki opartej na węglu, jednocześnie jednak coraz większym miastom energii nie zapewnią elektrownie wiatrowe czy słoneczne. Energetyka atomowa wciąż zaś budzi liczne obawy. Potrzebne jest czyste, bezpieczne, pewne, efektywne źródło, z którego można produkować duże ilości energii, a które nie będzie zajmowało tak olbrzymich obszarów, jak farmy wiatrowe czy słoneczne. Takim źródłem może być reaktor fuzyjny. Kanadyjscy eksperci twierdzą, że dzięki ostatnim postępom technologicznym oraz prywatnym inwestycjom pierwsze komercyjne reaktory produkujące energię z fuzji jądrowej mogą pojawić się już za 10–15 lat. Fuzja jądrowa polega na łączeniu lekkich jąder w jądro cięższe. Jest to więc inne zjawisko niż to, które zachodzi w reaktorach atomowych, gdzie cięższe jądra są rozszczepiane. Wiąże się to z uwolnieniem energii i niebezpiecznego promieniowania. Koszty awarii i wypadków w elektrowniach atomowych są niezwykle wysokie. Konieczność zapewnienia bezpieczeństwa powoduje, że koszty budowy elektrowni atomowych stały się zbyt wysokie. W ubiegłym tygodniu firma Hitachi zrezygnowała z budowy elektrowni w Wielkiej Brytanii, odpisując na poczet strat 3 miliardy dolarów. Dlatego też elektrownie atomowe są obecnie budowane w głównej mierze z pieniędzy podatników lub też przez nie gwarantowane. A koszty budowy, użytkowania i składowania odpadów z takich elektrowni ciągle rosną. Jednocześnie zaś ciągle spadają koszty pozyskiwania energii ze źródeł odnawialnych. Elektrownie atomowe stały się więc nieopłacalne, a źródła odnawialne nie zapewniają wystarczającej ilości energii. Problemem jest bowiem gęstość energii. Rozrastające się miasta, których mieszkańcy używają coraz więcej urządzeń wymagających energii elektrycznej i których przyszłością są samochody elektryczne potrzebują skoncentrowanych źródeł energii. Jeśli spróbujemy przestawić się na energię odnawialną, to gęstość źródeł energii spadnie, gdy tymczasem potrzebujemy jej wzrostu. Przejście na energetykę odnawialną wymaga też całkowitego przeprogramowania i przebudowy systemów energetycznych. Proces ten właśnie trwa w wielu miejscach na świecie. Jednak może go zatrzymać szybkie pojawienie się energii z fuzji jądrowej. Skomercjalizowanie tego typu systemu produkcji energii zaważyłoby nie tylko na losach energetyki opartej na węglu, ale również tej opartej na słońcu i wietrze. Mike Delage, prezes ds. technologicznych firmy General Fusion twierdzi, że komercyjna fuzja jądrowa może zadebiutować na rynku już za 10 lat. Jednym z powodów, dla których tak twierdzi, jest rosnące zainteresowanie tym rynkiem ze strony prywatnego biznesu. Piętnaście lat temu na tym rynku działało General Fusion i jedna lub dwie inne firmy. Teraz wiemy o istnieniu ponad 20 firm, mówi Delage. Jedną z nowych firm jest Commonwealth Fusion Systems z MIT, który został dofinansowany kwotą 50 milionów USD przez włoskiego giganta energetycznego ENI. Wielu ekspertów twierdzi jednak, że na komercyjne reaktory fuzyjne będziemy musieli poczekać do około 2050 roku. Niezależnie jednak od tego, czy energię z fuzji opanujemy za 10 czy za 30 lat, jej pojawienie się doprowadzi do marginalizacji dotychczasowych metod produkcji energii, zauważa fizyk Allan Offenberger, który pracował jako doradca wielu rządów na całym świecie. Jednak, jak dodaje uczony, tak perspektywa 10, jak i 30 lat to zbyt długo, by czekać. Należy przestawiać gospodarkę na energię odnawialną, energetyka oparta na węglu, chociaż będzie odgrywała coraz mniejsze znaczenie, wciąż będzie potrzebna, a kluczową rolę w okresie przejściowym odegra energia atomowa. Reaktory fuzyjne nie pojawią się na tyle szybko, byśmy mogli błyskawicznie przerwać emisję gazów cieplarnianych. Potrzebujemy okresu przejściowego, po którym fuzja jądrowa będzie głównym źródłem energii. To jednak potrwa. Można tylko powiedzieć, że stanie się to w obecnym wieku, dodaje Offenberger. « powrót do artykułu
  9. Na łamach Cell Reports czytamy, że połączenie leku przeciwcukrzycowego i leku przeciwnadciśnieniowego prowadzi do śmierci komórek nowotworowych poprzez odcięcie im dostaw energii. Przed dwoma laty naukowcy z Biocentrum Uniwersytetu w Bazylei odkryli, że powszechnie stosowany lek, metformina, wykazuje właściwości przeciwnowotworowe. Jednak w dawkach, zażywanych przez diabetyków, są one zbyt słabe by powstrzymać rozwój guzów nowotworowych. Uczeni, pracujący pod kierunkiem profesora Halla, zauważyli, że syrosyngopina, lek na nadciśnienie, wzmacnia przeciwnowotworowe działanie metforminy. Po dwóch latach badań szwajcarscy naukowcy wyjaśnili ten fenomen. Okazało się, że wspólne działanie obu leków prowadzi do zablokowania ważnego etapu produkcji energii, wywołując apoptozę komórek. Komórki nowotworowe mają wysokie zapotrzebowanie na energię. Czynnikiem limitującym dostawy energii jest molekuła NAD+, która odgrywa kluczową rolę w zamianie składników odżywczych w energię. Żeby maszyneria produkująca energię działała, NAD+ musi być wciąż produkowane z NADH. Okazuje się, że zarówno metformina jak i syrosingopina hamują regenerację NAD+, ale czynią to na różne sposoby, wyjaśnia główny autor badań, Don Benjamin. Metabolizm wielu komórek nowotworowych wykorzystuje proces glikolizy, co oznacza, że pozyskują energię głównie poprzez zamianę glukozy w mleczany. Jako, że akumulacja mleczanów blokuje szlak glikolizowy, komórki nowotworowe usuwają mleczany za pomocą specjalnych transporterów. Odkryliśmy, że syrosingopina blokuje dwa najważniejsze transportery mleczanów, uniemożliwiając ich usunięcie z komórki. A wysoka koncentracja mleczanów uniemożliwia zamianę NADH w NAD+, dodaje Benjamin. Jako, że metformina blokuje drugi szlak wytwarzania NAD+, połączenie metforminy i syrosingopiny oznacza, że komórki nowotworowe tracą zdolność do wytwarzania NAD+. Przez to nie są w stanie wytworzyć odpowiedniej ilości energii, co prowadzi do ich śmierci. Syrosingopina to lek, który został wynaleziony przed 60 laty przez szwajcarską firmę Ciba. Teraz okazuje się, że stary środek na nadciśnienie może przeżywać drugą młodość jako lek przeciwnowotworowy. « powrót do artykułu
  10. Ostatnie wydarzenia wskazują, że przyszłość amerykańskiego górnictwa węgla wygląda gorzej, niż dotychczas sądzono. W ostatni poniedziałek producent energii elektrycznej, PacifiCorp, jeden z największych amerykańskich konsumentów węgla poinformował, że większość z jego 22 elektrowni jest nierentowna. Z kolei wczoraj US Energy Information Administration opublikowała raport, z którego dowiadujemy się, że w bieżącym roku zapotrzebowanie na węgiel będzie najniższe od 1979 roku. Spadek konsumpcji węgla zbiegł się z niemal rekordową liczbą zamykanych elektrowni węglowych. W bieżącym roku w USA zostaną zamknięte elektrownie o łącznej mocy niemal 14 gigawatów. To ponaddwukrotnie większa moc niż moc elektrowni zamkniętych w roku 2017. Inny duży amerykański producent energii, firma Xcel Energy, która jest właścicielem m.in. 13 elektrowni węglowych, oświadczył, że do roku 2030 zmniejszy emisję o 80%, a do roku 2050 będzie produkował energię wyłącznie ze źródeł niezawierających węgla. Przyspieszamy proces rezygnacji z węgla, gdyż zachęcają nas do tego zarówno nowe możliwości technologiczne, konsumenci, którzy chcą kupować czystą energię, jak i partnerzy, którzy nam w tym procesie pomagają, stwierdził dyrektor Xcel Ben Fowke. Jeszcze w 2017 roku Xcel wyemitował do atmosfery 55 milionów ton węgla. Firma należy do jednej z najszybciej redukujących emisję w USA. Przed kilkoma miesiącami odpowiednie urzędy w stanie Kolorado zgodziły się na wcześniejsze niż planowane wyłączenie dwóch elektrowni węglowych Xcel i zastąpienie ich odnawialnymi źródłami energii. Wspomniana na wstępie PacifiCorp również chce wcześniej niż planowała wyłączyć 16 z 22 swoich elektrowni. Przedsiębiorstwo obliczyło, że ich wyłączenie będzie tańsze dla klientów, niż ich dalsze utrzymywane. Podczas naszych wyliczeń porównaliśmy koszty obsługi tych elektrowni w kosztami alternatywnych metod pozyskiwania energii (ze źródeł odnawialnych, gazu, zakupu od innych producentów itp.). Wnioski, do jakich doszliśmy, są zgodne ze skutkami,  jakie na ceny energii z węgla mają działania regulatorów oraz siły rynkowe, oświadczył rzecznik prasowy firmy. Do roku 2022 firma chce wyłączyć cztery elektrownie, dzięki czemu jej klienci zaoszczędzą 317 milionów dolarów. Ostateczna decyzja zapadnie w przyszłym roku, gdyż na wcześniejsze wyłączenie muszą zgodzić się władze stanów, do których elektrownie te dostarczają energię. PacifiCorp musi przedstawić im plan niezakłóconych dostaw energii po ewentualnym wyłączeniu elektrowni. PacifiCorp ma zamiar do 2020 roku wybudować farmy wiatrowe zdolne do obsłużenia 400 000 gospodarstw domowych. O tym, w jakiej sytuacji znalazła się energetyka oparta na węglu, dobrze świadczą słowa Jeremy'ego Fischera, doradcy technicznego i strategicznego organizacji Sierra Club. PacifiCorp, ze wszystkich producentów energii, ma najbliżej do jednego z największych w kraju regionów wydobycia węgla. Skoro zaś elektrownie węglowe znajdujące się blisko tego regionu są nieopłacalne, to można sobie wyobrazić, jak to wygląda w innych częściach kraju. Z raportu US Energy Information Administration dowiadujemy się, że w bieżącym roku amerykańska konsumpcja węgla spadnie do 691 milionów ton. To o 4% mniej niż w roku ubiegłym. W przyszłym zaś roku spodziewany jest spadek o kolejne 8%. Od roku 2007 w USA wyłączono elektrownie węglowe o łącznej mocy 55 GW. To więcej niż łączna moc wszystkich polskich elektrowni, która wynosi 43 GW. « powrót do artykułu
  11. Przez ostatnie ćwierć wieku każdego roku światowe oceany pochłaniały 150-krotnie więcej energii niż ludzkość produkuje w formie energii elektrycznej. Badania przeprowadzone przez naukowców z Princeton University i Scripps Institution of Oceanography na Uniwersytecie Kalifornijskim w San Diego wskazują, że oceany bardzo mocno się ogrzały, to zaś sugeruje, że Ziemia jest bardziej wrażliwa na emisję gazów cieplarnianych niż dotychczas sądzono. Na łamach Nature czytamy, że w latach 1991–2016 oceany wchłaniały każdego roku 13 zettadżuli (1021) energii. Jak mówi profesor Laure Resplandy, to o ponad 60% więcej niż szacunki przeprowadzone w 2014 roku przez IPCC. Wyobraźmy sobie, że oceany mają głębokość jedynie 10 metrów. W takiej sytuacji od 1991 roku ogrzewałyby się w każdej dekadzie o 6,5 stopnia Celsjusza. Tymczasem wedle szacunków IPCC byłoby to 4 stopnie Celsjusza co dekadę, wyjaśnia Resplandy. Oceany pochłaniają około 90% nadmiarowej energii pojawiającej się na Ziemi, zatem jeśli chcemy dokładnie szacować ich przyszłe tempo ogrzewania się, musimy jak najdokładniej znać ilość energii, którą pochłaniają. Uzyskane tutaj wyniki zwiększają dokładność naszych przewidywań dotyczących ogrzewania się oceanów, a tym samym pomagają zmniejszyć stopień niepewności modeli klimatycznych, mówi geofizyk i współautor badań Ralph Keeling. Lepsze modele klimatyczne pozwalają zaś na lepszą ocenę wpływu różnych źródeł emisji gazów cieplarnianych na klimat i umożliwiają opracowanie lepszej strategii walki ze zmianami klimatycznymi. Najnowsze wyliczenie pokazują też, że jeśli chcemy utrzymać globalne ocieplenie na poziomie poniżej 2 stopni Celsjusza w porównaniu z epoką preindustrialną, to musimy zredukować emisję o 25% bardziej niż dotychczas sądzono. Najnowsze badania to wynik zastosowania nowej techniki, niezależnej od dotychczas stosowanych. Dotychczas bowiem wykorzystywano dane z milionów punktów, w których mierzono temperaturę wód i na tej podstawie oceniano całkowitą ilość ciepła wchłoniętą przez oceany. Wykorzystuje się przy tym Argo, sieć automatycznych czujników umieszczonych w oceanach. Działa ona jednak dopiero od 2007 roku i mierzy tylko górną warstwę oceanu. Resplandy i jej zespół wykorzystali precyzyjne pomiary tlenu i dwutlenku węgla w powietrzu, co pozwala na ocenę ilości ciepła przechowywanych w oceanach. Łączną ilość tych gazów naukowcy nazwali „potencjalnym tlenem atmosferycznym” (APO). Metoda wykorzystuje fakt, że zarówno tlen, jak i dwutlenek węgla słabiej rozpuszczają się w cieplejszych wodach. W miarę ogrzewania się oceanów gazy te są z nich uwalniane, więc rośnie ich koncentracja w powietrzu nad oceanami. Na poziom APO wpływ ma również spalanie paliw kopalnych oraz proces, w wyniku którego oceany pochłaniają nadmiarowy dwutlenek węgla. Porównując mierzalne zmiany w poziomie APO ze zmianami, jakich należałoby się spodziewać ze spalania paliw kopalnych i wchłaniania CO2 przez oceany, naukowcy są w stanie precyzyjnie obliczyć, ile APO wydostało się z oceanów. Ilość ta jest wprost zależna od zawartości energii w oceanach. « powrót do artykułu
  12. Syntetyczny drobnocząsteczkowy związek KHS101 zaburza metabolizm komórek glejaka wielopostaciowego i doprowadza do ich autofagii. Glejak wielopostaciowy to najczęściej występujący pierwotny guz ośrodkowego układu nerwowego. Wskaźnik 5-letniego przeżycia wynosi poniżej 5%. Kiedy zaczęliśmy badania, sądziliśmy, że KHS101 może spowolnić wzrost glejaka. Byliśmy [więc] zaskoczeni, gdy stwierdziliśmy, że po wystawieniu na jego działanie komórki guza zasadniczo podlegają autodestrukcji - opowiada dr Heiko Wurdak z Uniwersytetu w Leeds. Naukowcy z międzynarodowego zespołu mają nadzieję, że ich ustalenia utorują drogę nowym lekom, które pewnego dnia pomogą wydłużyć życie pacjentów. Badania pokazały, że KHS101 zaburza mitochondria i metabolizm komórek nowotworu. Tym samym wyłącza dostawy energii i prowadzi do ich autodestrukcji. Eksperymenty zademonstrowały, że u myszy z przeszczepionymi od ludzi komórkami glejaka KHS101 pokonuje barierę krew-mózg (BKM) i o ok. 50% zmniejsza wzrost guza, co prowadzi do wzrostu przeżywalności (porównań dokonywano do gryzoni, którym podawano placebo). Co ważne, terapia nie szkodziła zdrowym komórkom. Efekt cytotoksyczny jest wywierany przez zaburzenie mitochondrialnego białka opiekuńczego HSPD1 (ang. heat shock protein family D member 1). Zaobserwowano, że w komórkach glejaka KHS101 sprzyja agregacji białek regulujących integralność mitochondriów i metabolizm energii. Autorzy raportu z pisma Science Translational Medicine oceniali także skuteczność KHS101 w odniesieniu do różnych profili genetycznych komórek w obrębie guza i guzów różnych pacjentów. Okazało się, że wszystkie linie komórek glejaka reagowały na leczenie. « powrót do artykułu
  13. Międzynarodowa Agencja Energetyczna (MAE) przestrzegła we wtorek przed niebezpieczeństwem powszechnego stosowania na świecie klimatyzacji i zaleciła stosowanie mniej energochłonnych urządzeń. Jeśli nie dojdzie do interwencji, zapotrzebowanie na energię zużywaną przez klimatyzację wzrośnie ponad trzykrotnie do 2050 roku i wyniesie tyle samo, co obecne zapotrzebowanie Chin – podkreślił Fatih Birol, dyrektor wykonawczy MAE we wstępie do raportu na ten temat. Liczba klimatyzatorów może osiągnąć 5,6 mld w 2050 roku w porównaniu z 1,6 mld obecnie użytkowanych. Oznacza to, że w najbliższych 30 latach co sekundę będzie kupowanych dziesięć takich urządzeń. Według ekspertów MAE klimatyzatory i wentylatory już zużywają około 20 proc. energii wykorzystywanej obecnie w budynkach na świecie. Duże zużycie energii elektrycznej przez klimatyzatory i wentylatory dotyczy zwłaszcza Stanów Zjednoczonych, Japonii i coraz bardziej Chin, ale wraz z rozwojem gospodarczym i demograficznym będzie rosło także w ciepłych krajach takich jak Indie. Upowszechnienie dostępu do umiarkowanej temperatury otoczenia będzie mieć znaczący wpływ na globalne zapotrzebowanie energetyczne zainteresowanych tym krajów, wywierając presję na sieci energetyczne i zwiększając lokalnie i globalnie emisje (gazów cieplarnianych) – ostrzega raport. Według MAE środkiem najpilniejszym i najłatwiejszym do wdrożenia jest zapewnienie, by wszystkie nowe klimatyzatory były o wiele bardziej energooszczędne. Mogłoby to zmniejszyć o połowę wzrost zapotrzebowania na energię elektryczną związany z klimatyzacją. Nie wszystkie urządzenia są takie same: sprzedawane w Japonii i Unii Europejskiej są obecnie o 25 proc. bardziej wydajne niż sprzedawane w Stanach Zjednoczonych i Chinach. Zapotrzebowanie na energię do klimatyzacji może nawet pozostać niezmienione, jeśli podjęte zostaną również działania mające na celu poprawę efektywności energetycznej budynków – ocenia Międzynarodowa Agencja Energetyczna « powrót do artykułu
×
×
  • Create New...