Polscy naukowcy twierdzą, że lepiej ładować rzadko i więcej, niż często i mniej
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Prezydent Biden zatwierdził przeznaczenie 900 milionów dolarów na budowę stacji ładowania samochodów elektrycznych. Podczas North American International Auto Show w Detroit prezydent stwierdził, że niezależnie od tego czy będziecie jechali wybrzeżem autostradą I-10 [prowadzi z Kalifornii na Florydę - red.] czy I-75 [wiedzie z Michigan na Florydę] stacje do ładowania będą wszędzie i można je będzie znaleźć równie łatwo jak stacje benzynowe.
Wspomniane 900 milionów USD będą pochodziły z zatwierdzonego w ubiegłym roku planu infrastrukturalnego na który przewidziano bilion dolarów, z czego 550 miliardów na transport czy internet szerokopasmowy i infrastrukturę taką jak np. sieci wodociągowe.
W 2020 roku amerykański transport odpowiadał za 27% amerykańskiej emisji gazów cieplarnianych. To najwięcej ze wszystkich działów gospodarki. Władze Stanów Zjednoczonych chcą, by do roku 2030 samochody elektryczne stanowiły połowę całej sprzedaży pojazdów w USA. Poszczególne stany podejmują własne, bardziej ambitne inicjatywy. Na przykład Kalifornia przyjęła przepisy zgodnie z którymi od 2035 roku zakaże sprzedaży samochodów z silnikami benzynowymi.
Obecnie pojazdy elektryczne stanowią jedynie 6% sprzedaży samochodów w USA. Jedną z najważniejszych przyczyn, dla których Amerykanie nie chcą kupować pojazdów z silnikiem elektrycznym jest obawa o łatwy dostęp do punktów ładowania. Obecnie w całym kraju takich punktów jest poniżej 47 000. Biden chce, by do roku 2030 ich liczba wzrosła do 500 000.
W dokumencie zatwierdzającym wspomniane 900 milionów USD znalazła się też propozycja, by narzucić stanom obowiązek zakładania stacji ładowania pojazdów elektrycznych do 50 mil na głównych drogach stanowych i autostradach. Stany o dużym odsetku społeczności wiejskich już wyraziły obawę, że z takim obowiązkiem sobie nie poradzą. Dlatego też dla takich stanów oraz na potrzeby centrów miejskich i ubogich społeczności przygotowano program grantowy o łącznej wartości 2,5 miliarda USD.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Eksperci z Rocky Mountain Institute opublikowali raport, z którego dowiadujemy się, że koszty produkcji energii z węgla osiągnęły punkt zwrotny i obecnie energia ta na większości rynków przegrywa konkurencję cenową z energią ze źródeł odnawialnych. Z analiz wynika, że już w tej chwili koszty operacyjne około 39% wszystkich światowych elektrowni węglowych są wyższe niż koszty wybudowania od podstaw nowych źródeł energii odnawialnej.
Sytuacja ekonomiczna węgla będzie błyskawicznie się pogarszała. Do roku 2025 już 73% elektrowni węglowych będzie droższych w utrzymaniu niż budowa zastępujących je odnawialnych źródeł energii. Autorzy raportu wyliczają, że gdyby nagle cały świat podjął decyzję o wyłączeniu wszystkich elektrowni węglowych i wybudowaniu w ich miejsce odnawialnych źródeł energii, to przeprowadzenie takiej operacji stanie się opłacalne już za dwa lata.
Szybsze przejście od węgla do czystej energii jest w zasięgu ręki. W naszym raporcie pokazujemy, jak przeprowadzić taką zmianę, by z jednej strony odbiorcy energii zaoszczędzili pieniądze, a z drugiej strony, by pracownicy i społeczności żyjące obecnie z energii węglowej mogli czerpać korzyści z energetyki odnawialnej, mówi Paul Bodnar, dyrektor Rocky Mountain Institute.
Autorzy raportu przeanalizowali sytuację ekonomiczną 2472 elektrowni węglowych na całym świecie. Wzięli też pod uwagę koszty wytwarzania energii ze źródeł odnawialnych oraz jej przechowywania. Na podstawie tych danych byli w stanie ocenić opłacalność energetyki węglowej w 37 krajach na świecie, w których zainstalowane jest 95% całej światowej produkcji energii z węgla. Oszacowali też koszty zastąpienia zarówno nieopłacalnej obecnie, jak o opłacalnej, energetyki węglowej przez źródła odnawialne.
Z raportu dowiadujmy się, że gdyby na skalę światową zastąpić nieopłacalne źródła energii z węgla źródłami odnawialnymi, to w bieżącym roku klienci na całym świecie zaoszczędziliby 39 miliardów USD, w 2022 roczne oszczędności sięgnęłyby 86 miliardów, a w roku 2025 wzrosłyby do 141 miliardów. Gdyby jednak do szacunków włączyć również opłacalne obecnie elektrownie węglowe, innymi słowy, gdybyśmy chcieli już teraz całkowicie zrezygnować z węgla, to tegoroczny koszt netto takiej operacji wyniósłby 116 miliardów USD. Tyle musiałby obecnie świat zapłacić, by już teraz zrezygnować z generowania energii elektrycznej z węgla. Jednak koszt ten błyskawicznie by się obniżał. W roku 2022 zmiana taka nic by nie kosztowała (to znaczy koszty i oszczędności by się zrównoważyły), a w roku 2025 odnieślibyśmy korzyści finansowe przekraczające 100 miliardów dolarów w skali globu.
W Unii Europejskiej już w tej chwili nieopłacalnych jest 81% elektrowni węglowych. Innymi słowy, elektrownie te przeżywałyby kłopoty finansowe, gdyby nie otrzymywały dotacji z budżetu. Do roku 2025 wszystkie europejskie elektrownie węglowe będą przynosiły straty. W Chinach nieopłacalnych jest 43% elektrowni węglowych, a w ciągu najbliższych 5 lat nieopłacalnych będzie 94% elektrowni węglowych. W Indiach zaś trzeba dopłacać obecnie do 17% elektrowni, a w roku 2025 nieopłacalnych będzie 85% elektrowni.
Co ważne, w swoich wyliczeniach dotyczących opłacalności elektrowni węglowych analitycy nie brali pod uwagę zdrowotnych i środowiskowych kosztów spalania węgla.
Energia węglowa szybko staje się nieopłacalna i to nie uwzględniając kosztów związanych z prawem do emisji i regulacjami odnośnie zanieczyszczeń powietrza. Zamknięcie elektrowni węglowych i zastąpienie ich tańszymi alternatywami nie tylko pozwoli zaoszczędzić pieniądze konsumentów i podatników, ale może też odegrać znaczną rolę w wychodzeniu gospodarki z kryzysu po pandemii, mówi Matt Gray stojący na czele Carbon Tracker Initiative.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Na Uniwersytecie w Glasgow po raz pierwszy eksperymentalnie potwierdzono teorię dotyczącą pozyskiwania energii z czarnych dziur. W 1969 roku wybitny fizyk Roger Penrose stwierdził, że można wygenerować energię opuszczając obiekt do ergosfery czarnej dziury. Ergosfera to zewnętrzna część horyzontu zdarzeń. Znajdujący się tam obiekt musiałby poruszać się szybciej od prędkości światła, by utrzymać się w miejscu.
Penrose przewidywał, że w tym niezwykłym miejscu w przestrzeni obiekt nabyłby ujemną energię. Zrzucając tam obiekt i dzieląc go na dwie części tak, że jedna z nich wpadnie do czarnej dziury, a druga zostanie odzyskana, spowodujemy odrzut, który będzie mierzony wielkością utraconej energii negatywnej, a to oznacza, że odzyskana część przedmiotu zyska energię pobraną z obrotu czarnej dziury. Jak przewidywał Penrose, trudności inżynieryjne związane z przeprowadzeniem tego procesu są tak wielkie, że mogłaby tego dokonać jedynie bardzo zaawansowana obca cywilizacja.
Dwa lata później znany radziecki fizyk Jakow Zeldowicz uznał, że teorię tę można przetestować w prostszy, dostępny na Ziemi sposób. Stwierdził, że „skręcone” fale światła uderzające o powierzchnię obracającego się z odpowiednią prędkością cylindra zostaną odbite i przejmą od cylindra dodatkową energię. Jednak przeprowadzenie takiego eksperymentu było, i ciągle jest, niemożliwe ze względów inżynieryjnych. Zeldowicz obliczał bowiem, że cylinder musiałby poruszać się z prędkością co najmniej miliarda obrotów na sekundę.
Teraz naukowcy z Wydziału Fizyki i Astronomii University of Glasgow opracowali sposób na sprawdzenie teorii Penrose'a. Wykorzystali przy tym zmodyfikowany pomysł Zeldowicza i zamiast "skręconych" fal światła użyli dźwięku, źródła o znacznie niższej częstotliwości, i łatwiejszego do użycia w laboratorium.
Na łamach Nature Physics Brytyjczycy opisali, jak wykorzystali zestaw głośników do uzyskania fal dźwiękowych, skręconych na podobieństwo fal świetlnych w pomyśle Zeldowicza. Dźwięk został skierowany w stronę obracającego się piankowego dysku, który go absorbował. Za dyskiem umieszczono zestaw mikrofonów, które rejestrowały dźwięk przechodzący przez dysk, którego prędkość obrotowa była stopniowo zwiększana.
Naukowcy stwierdzili, że jeśli teoria Penrose'a jest prawdziwa, to powinni odnotować znaczącą zmianę w częstotliwości i amplitudzie dźwięku przechodzącego przez dysk. Zmiana taka powinna zajść w wyniku efektu Dopplera.
Z liniową wersją efektu Dopplera wszyscy się zetknęli słysząc syrenę karetki pogotowia, której ton wydaje się rosnąć w miarę zbliżania się pojazdu i obniżać, gdy się on oddala. Jest to spowodowane faktem, że gdy pojazd się zbliża, fale dźwiękowe docierają do nas coraz częściej, a gdy się oddala, słyszymy je coraz rzadziej. Obrotowy efekt Dopplera działa podobnie, jednak jest on ograniczony do okrągłej przestrzeni. Skręcone fale dźwiękowe zmieniają ton gdy są mierzone z punktu widzenia obracającej się powierzchni. Gdy powierzchnia ta obraca się odpowiednio szybko z częstotliwością dźwięku dzieje się coś dziwnego – przechodzi z częstotliwości dodatniej do ujemnej, a czyniąc to pobiera nieco energii z obrotu powierzchni, wyjaśnia doktorantka Marion Cromb, główna autorka artykułu.
W miarę jak rosła prędkość obrotowa obracającego się dysku, ton dźwięku stawał się coraz niższy, aż w końcu nie było go słychać. Później znowu zaczął rosnąć, aż do momentu, gdy miał tę samą wysokość co wcześniej, ale był głośniejszy. Jego amplituda była o nawet 30% większa niż amplituda dźwięku wydobywającego się z głośników.
To co usłyszeliśmy podczas naszych eksperymentów było niesamowite. Najpierw, w wyniku działania efektu Dopplera częstotliwość fal dźwiękowych zmniejszała się w miarę zwiększania prędkości obrotowej dysku i spadła do zera. Później znowu pojawił się dźwięk. Stało się tak, gdyż doszło do zmiany częstotliwości fal z dodatniej na ujemną. Te fale o ujemnej częstotliwości były w stanie pozyskać część energii z obracającego się dysku i stały się głośniejsze. Zaszło zjawisko, które Zeldowicz przewidział w 1971 roku, dodaje Cromb.
Współautor badań, profesor Daniele Faccio, stwierdza: jesteśmy niesamowicie podekscytowani faktem, że mogliśmy eksperymentalnie potwierdzić jedną z najdziwniejszych hipotez fizycznych pół wieku po jej ogłoszeniu. I że mogliśmy potwierdzić teorię dotyczącą kosmosu w naszym laboratorium w zachodniej Szkocji. Sądzimy, że otwiera to drogę do kolejnych badań. W przyszłości chcielibyśmy badać ten efekt za pomocą różnych źródeł fal elektromagnetycznych.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Producenci akumulatorów od lat próbują zastąpić grafitową anodę w akumulatorach litowo-jonowych jej krzemową wersją. Powinno to zwiększyć zasięg samochodów elektrycznych wyposażonych w takie akumulatory. Próby są prowadzone zwykle z użyciem tlenku krzemu lub połączenia krzemu i węgla. Jednak kalifornijska firma Enevate ma nieco inny pomysł – wykorzystuje cienkie porowate warstwy czystego krzemu.
Właściciel i główny technolog firmy, Benjamin Park, który od ponad 10 lat pracuje nad nowymi akumulatorami, twierdzi, że taki materiał jest nie tylko tani, ale pozwala na zwieszenie o 30% zasięgu samochodów elektrycznych wyposażonych w tego typu akumulatory. Co więcej, przedstawiciele Enevate uważają, że w niedalekiej przyszłości tego typu akumulatory po 5-minutowym ładowaniu zapewnią samochodowi 400 kilometrów zasięgu.
Podczas ładowania akumulatorów litowo-jonowych jony litu przemieszczają się z katody do anody. Im więcej jonów jest w stanie przyjąć anoda, tym większa pojemność akumulatora. Krzem może przechowywać nawet 10-krotnie więcej energii niż grafit. Jednak w trakcie pracy akumulatora znacznie się on rozszerza i kurczy, powstają pęknięcia i materiał kruszy się po kilku cyklach ładowania.
Producenci akumulatorów, chcąc obejść ten problem, dodają nieco krzemu do proszku grafitowego. Całość mieszana jest z tworzywem sztucznym działającym jak spoiwo i nakładana na cienką warstwę miedzi. W ten sposób powstaje anoda. Jednak, jak wyjaśnia Park, jony litu najpierw wchodzą w interakcje z krzemem, później z grafitem. Krzem wciąż się nieco rozszerza, a spoiwo jest dość słabe. Tak zbudowana anoda ulega tym szybszej degradacji, im więcej krzemu się w niej znajduje.
Enevate nie używa spoiwa. Firma opracowała własny sposób na bezpośrednie nakładanie na miedź porowatych warstw krzemu o grubości od 10 do 60 mikrometrów. Na wierzch stosuje się dodatkową warstwę, która chroni krzem przed kontaktem z elektrolitem.
Cały proces nie wymaga używania krzemu o wysokiej jakości, więc tego typu anoda kosztuje mniej niż anoda grafitowa o identycznej pojemności. Zaś dzięki temu, że stosowany jest krzem, jony litu mogą bardzo szybko się przemieszczać. W ciągu 5 minut można naładować akumulator do 75% pojemności, nie powodując przy tym zbytniego rozszerzania się krzemu.
Wszystko co potrzebne do wyprodukowania anody można wytwarzać standardowymi metodami przemysłowymi z rolki. Zatem cały proces łatwo jest skalować. Dzięki połączeniu nowej anody z konwencjonalnymi katodami stworzono akumulatory o pojemności do 350 Wh/kg. To o około 30% więcej niż współczesne akumulatory litowo-jonowe.
Enevate już współpracuje z koncernami motoryzacyjnymi. Jej nowe akumulatory powinny trafić do samochodów elektrycznych w sezonie 2024/2025.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Nowa elektroda, opracowana na MIT, pozwoli na zbudowanie akumulatorów, które przechowują więcej energii i pracują dłużej. Litowa anoda to efekt współpracy naukowców z MIT ze specjalistami z Hongkongu, Florydy i Teksasu.
Jednym z największych problemów ze współczesnymi akumulatorami wynika z faktu, że w miarę ładowania akumulatora lit się rozszerza, a podczas rozładowywania kurczy się. Te ciągłe zmiany rozmiarów prowadzą do pękania lub odłączania się elektrolitu. Inny problem stanowi fakt, że żaden z używanych stałych elektrolitów nie jest tak naprawdę chemicznie stabilny w kontakcie z wysoko reaktywnym litem, ulega więc degradacji.
Większość badań, mających na celu rozwiązanie tych problemów, poszukuje stabilnego elektrolitu. To jednak jest trudne.
Naukowcy z MIT podeszli do problemu inaczej. Wykorzystali dwa dodatkowe materiały. Jeden nazwali „zmieszanymi przewodnikami jonowo-elektronicznymi” (MIEC), a drugi to „izolatory elektronu i jonu litowego” (ELI).
Uczeni stworzyli trójwymiarową nanostrukturę przypominająca plaster miodu. Została ona zbudowana z heksagonalnych rurek MIEC częściowo wypełnionych litem. W każdej z rurek pozostawiono nieco wolnego miejsca. Gdy lit się rozszerza podczas ładowania, wypełnia puste miejsca w rurkach, poruszając się jak ciecz, mimo że zachowuje przy tym krystaliczną strukturę ciala stałego. Przepływ ten łagodzi naprężenia powstające podczas rozszerzania się litu, ale jednocześnie nie powoduje ani zmiany zewnętrznych rozmiarów elektrody, ani zmiany jej styku z elektrolitem. Drugi zaś ze wspomnianych materiałów, ELI, jest kluczowym mechanicznym łączem pomiędzy ściankami MIEC a stałym elektrolitem.
Rozszerzający się i kurczący lit przemieszcza się tak, że nie wywiera nacisku na elektrolit, więc go nie niszczy. Twórcy anody porównują to do tłoków poruszających się w cylindrach. Jako, że całość jest jest zbudowana w skali nano, a każda z rurek ma średnicę 100-300 nanometrów, całość jest jak silnik z 10 miliardami tłoków, mówi główny autor badań, profesor Ju Li.
Jako, że ścianki całej struktury wykonano z chemicznie stabilnego MIEC, lit nigdy nie traci kontaktu z materiałem. Cały akumulator pozostaje więc mechanicznie i chemiczne stabilny, dodaje Li. Naukowcy przetestowali swoją anodę podczas 100 cykli ładowania/rozładowywania i wykazali, że w elektrolicie nie powstały żadne pęknięcia.
Naukowcy twierdzą, że ich projekt pozwoli na stworzenie akumulatorów litowych, w których anoda będzie 4-krotnie lżejsza na jednostkę pojemności niż obecnie. Jeśli dodamy do tego nowe pomysły na lżejszą katodę, całość może prowadzić do znaczącego obniżenia wagi akumulatora. Dzięki nowemu akumulatorowi nowoczesne smartfony można by ładować raz na 3 dni.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.