Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Polscy naukowcy twierdzą, że lepiej ładować rzadko i więcej, niż często i mniej

Recommended Posts

Często i mało, czy rzadko, ale do syta? Gdyby chodziło o dietę, większość specjalistów postawiłaby na odpowiedź 1, ale w przypadku magazynowania energii jest odwrotnie. Okazuje się, że więcej można jej zmieścić ładując rzadko, ale do pełna.Taki przynajmniej wniosek płynie z badań przeprowadzonych przez zespół naukowców IChF PAN.

Doświadczenia dotyczyły co prawda wyidealizowanych, dwuwymiarowych układów sieciowych, ale w końcu zasada to zasada. Dr Anna Maciołek, jedna z autorów pracy opublikowanej w Physical Review opisuje ją tak: Chcieliśmy zbadać, jak zmienia się sposób magazynowania energii w układzie,  gdy  pompujemy  do  niego  energię  w  postaci  ciepła,  innymi  słowy – lokalnie  go podgrzewamy.

Wiadomo,  że ciepło  w  układach  się  rozprzestrzenia, dyfunduje.  Ale czy na gromadzenie energii ma wpływ sposób jej dostarczania; fachowo mówiąc „geometria podawania”? Czy ma znaczenie, że podajemy dużo energii w krótkim czasie i potem długo nic, i znowu dużo energii, czy też gdy podajemy malutkie porcje  tej energii, ale za to jedna po drugiej, niemal bez przerw?

Cykliczne podawanie energii jest bardzo powszechne w naturze. Sami dostarczamy jej sobie w ten sposób, jedząc. Tę samą liczbę kalorii można dostarczyć w jednej lub dwóch dużych porcjach zjadanych w ciągu doby, albo rozbić ją na 5-7 mniejszych posiłków, między którymi są krótsze przerwy. Naukowcy wciąż się spierają, który  sposób jest dla organizmu lepszy. Jeśli jednak  chodzi o dwuwymiarowe układy sieciowe, to już wiadomo, że pod względem efektywności magazynowania wygrywa metoda „rzadko a dużo”.

Zauważyliśmy, że w zależności od tego, w jakich porcjach i jak często podajemy energię, ilość, jaką układ potrafi zmagazynować, zmienia się. Największa jest wtedy, gdy porcje energii są duże, ale odstępy czasowe między ich podaniem też są długie, wyjaśnia Yirui Zhang, doktorantka w IChF PAN. Co ciekawe, okazuje się, że gdy taki układ magazynujący podzielimy wewnętrznie na swego rodzaju przedziały, czy też komory, to ilość energii możliwej do zmagazynowania w takim podzielonym ‘akumulatorze’ – o ile bylibyśmy go w stanie skonstruować – wzrośnie. Innymi słowy, trzy małe baterie zmagazynują więcej energii niż jedna duża, precyzuje badaczka. Wszystko to przy założeniu, że całkowita ilość wkładanej do układu energii jest taka sama, zmienia się tylko sposób jej dostarczania.

Choć badania prowadzone przez zespół IChF PAN należą do podstawowych i ukazują po prostu fundamentalną  zasadę  rządzącą magazynowaniem energii w magnetykach, ich potencjalne zastosowania  są  nie do  przecenienia.  Wyobraźmy  sobie  np.  możliwość  ładowania  baterii elektrycznego samochodu nie w kilka godzin, lecz w kilkanaście minut albo znaczące zwiększenie pojemności  takich  akumulatorów  bez  zmiany  ich  objętości,  czyli  wydłużenie  zasięgu  auta  na jednym ładowaniu.  Nowe  odkrycie  może  też  w  przyszłości  zmienić  sposoby  ładowania  baterii różnego typu poprzez ustalenie optymalnej periodyczności dostarczania do nich energii


« powrót do artykułu

Share this post


Link to post
Share on other sites

"Doświadczenia dotyczyły co prawda wyidealizowanych, dwuwymiarowych układów sieciowych, ale w końcu zasada to zasada."

To były to doświadczenia czy jednak tylko rozważania teoretyczne?

Coraz więcej badań prowadzi sie jako symulacje (to czasem rzeczywisćie działa), coraz więcej jest chaotycznych przekrojówek, a niestety coraz mniej badań fizycznych.

Każdy informatyk WIE, że bubblesort jest najwolniejszy, a quicksort najszybszy. Oczywiście na papierze (ale o tym się studentów nie informuje). Gdy byłem studentem, to udowodniłem organoleptycznie, że bubblesort potrafi być o kilkadziesiąt procent szybszy od quicksortu i to wcale na niespecjalnie złożonych danych.

Niestety, ale różnica między fizykiem teoretykiem, a praktykiem jest jak róznica między kuszą, a czołgiem. 

 

"fachowo mówiąc „geometria podawania”?"    Geometria zdaje się kluczować wiele rzeczy.

Share this post


Link to post
Share on other sites
1 godzinę temu, KopalniaWiedzy.pl napisał:

ale w przypadku magazynowania energii jest odwrotnie. Okazuje się, że więcej można jej zmieścić ładując rzadko, ale do pełna

ale jaki to ma sens? zyskać kilka % pojemności a stracić dziesiątki czy setki % czasu. % pojemności można zrekompensować dokładając ogniw, a czas jest tracony bezpowrotnie(przynajmniej ten dostępny dla człowieka). Jaka jest krzywa ładowania każdej baterii łatwo sprawdzić.

Więc ładując samochód w trasie zawsze będzie lepiej i szybciej ładować pusty akumulator do 50-60%(mimo większej ilości postojów) niż czekać wieki na nabicie ogniw do 100%.

 

 

 

 

Share this post


Link to post
Share on other sites
2 godziny temu, Jarosław Bakalarz napisał:

Gdy byłem studentem, to udowodniłem organoleptycznie, że bubblesort potrafi być o kilkadziesiąt procent szybszy od quicksortu i to wcale na niespecjalnie złożonych danych.

Oj, ale wiesz, że tu jest kupa ludu, która się na tym zna? To zdanie uniosło niejedną brew. To że sortowanie jest wrażliwe na dane to truizm.

1 godzinę temu, tempik napisał:

ale jaki to ma sens? zyskać kilka % pojemności a stracić dziesiątki czy setki % czasu. %

W przypadku akumulatorów znaczenie ma liczba cykli. Ja telefon rozładowuję do 30-20%, zwykle to wystarcza by dotrwał do wymiany z innych powodów, niż utrata pojemności.

 

Share this post


Link to post
Share on other sites
18 minutes ago, Jajcenty said:

Oj, ale wiesz, że tu jest kupa ludu, która się na tym zna? To zdanie uniosło niejedną brew. To że sortowanie jest wrażliwe na dane to truizm.

To zdanie to jedynie malutki przykład, że teoretyzowanie a praktyka są oddzielone rowem mariańskim. Nic więcej.

PS a czy się zna, tego nie wiem. Dana nieweryfikowalna. 

Share this post


Link to post
Share on other sites
Posted (edited)
Godzinę temu, Jarosław Bakalarz napisał:

To zdanie to jedynie malutki przykład, że teoretyzowanie a praktyka są oddzielone rowem mariańskim.

Wybacz, dla mnie to zdanie to klasyczny bezmyślny gminny banał, w dodatku krzywdząco nieprawdziwy. Możemy zacząć od Einsteina, Pauliego -  o swoim asystencie powiedział: taki młody a już nieznany - Hawkinga i całego mnóstwa innych.  Praktyka lepsza od teorii jest tak samo prawdziwe jak to, że górne zęby są lepsze od dolnych. 

Edited by Jajcenty

Share this post


Link to post
Share on other sites

Chlubne wyjątki nie czynią reguły. Krzywdy tez nie ma, bo nie nazwałem teoretyków debilami. Wskazałem jednak, że modelowanie na dość absurdalnym poziomie uproszczenia niewiele znaczy. Co innego modelowanie na modelu złożonym.

W dodatku moglibyśmy rozważać na ile np Einstein był teoretykiem - np dla mnie jego prace mają wysoki wymiar praktyczny, tyle że były modelowane  w głowie, bo miał bardzo dużą wyobraźnię. Pamiętam tez wypowiedź Einsteina, że wszystkie jego odkrycia mu sie przyśniły w wizjach. Wynikałoby z tego, że wpierw coś zobaczył w łepetynie, a potem latami to szlifował matematycznie (a żona pucowała na gładko).

Share this post


Link to post
Share on other sites
8 godzin temu, Jarosław Bakalarz napisał:

Gdy byłem studentem, to udowodniłem organoleptycznie, że bubblesort potrafi być o kilkadziesiąt procent szybszy od quicksortu i to wcale na niespecjalnie złożonych danych.

(Brzmi jak abstrakt nigeryjskiej pracy magisterskiej z informatyki ;), ten kto się zetknął z tematem wie o co chodzi) 

Manipulując danymi mogę uzyskać prawie każdą wartość speedup z zakresu (10^-20,20)x. Czego to dowodzi?
W praktyce bubblesort może być szybszy dla kilkudziesięciu inwersji tak długo, jak sortowana sekwencja mieści się w cache. Bez tego będzie wielokrotnie wolniejszy.
Zastąpienie "gałązkowych" wywołań quicksortu algorytmem z gorszym O(n) i lepszym C (wygrywa wstawianie) to standardowa procedura. Dla prostych danych typu liczby daje przyspieszenie 30%.

8 godzin temu, Jarosław Bakalarz napisał:

Oczywiście na papierze (ale o tym się studentów nie informuje)

Zgadza się. Wykładowcy zamiast tego używają zakamuflowanych wyrażeń jak złożoność asymptotyczna, stała C i tym podobnych ;)

8 godzin temu, Jarosław Bakalarz napisał:

różnica między fizykiem teoretykiem, a praktykiem jest jak róznica między kuszą, a czołgiem. 

Proponuję przeczytać sobie "Twardy pancerz" Bieszanowa, jest ładnie opisane jaki wpływ pozbycie się "teoretyków" i zastąpienie ich "praktykami" miało na produkcję czołgów :P

 

  • Haha 1

Share this post


Link to post
Share on other sites
1 hour ago, peceed said:

[...coby nie kopiować bez potrzeby...]

Dobrze mówisz choć poważnie upraszczasz. Na bardzo dużych zbiorach (niekaszowalnych) i o dużej złożoności, i całkowicie bez użycia QS można wycisnąć naprawdę wiele.

Mnie nie chodzi o ten konkretny przykład, a o "zadęcie" teoretyków do posiadania racji (bo matematyka jest nieomylna). Ta racja w praktyce często zawodzi.

...i obaj wiemy jak bolszewiki zastąpili inżynierów "praktykami" - takimi w walonkach. To i efekty były walonkowe. :-)

Share this post


Link to post
Share on other sites
Posted (edited)
2 hours ago, peceed said:

Brzmi jak abstrakt nigeryjskiej pracy magisterskiej z informatyki

Brzmi jak z generatora questów do cyberpunkowych gier planszowych :)

Quote

An anonymous cyberterrorist needs a team to smuggle encrypted floppy disk containing highly optimized variant of bubble sort algorithm into an air-gapped industrial site on the outskirts of Paris. Their electronics fail at a critical moment, when team attempts to breach security perimeter.

 

Co do bubble sorta, pierwszy z brzegu benchmark na danych losowych:

// data
var input = [];
for (var i = 0; i < 1000; i++) {
  input[i] = Math.round(Math.random() * 1000000);
}
Test case name	Result

Built-in Sort		Built-in Sort x 3,581 ops/sec ±0.61% (23 runs sampled)
Naive Quicksort		Naive Quicksort x 535 ops/sec ±0.66% (63 runs sampled)
Inplace Quicksort	Inplace Quicksort x 8,959 ops/sec ±0.45% (66 runs sampled)
Heap Sort		Heap Sort x 7,333 ops/sec ±0.32% (41 runs sampled)
Merge Sort		Merge Sort x 587 ops/sec ±0.56% (64 runs sampled)
Shell Sort		Shell Sort x 6,143 ops/sec ±0.50% (66 runs sampled)
Comb Sort		Comb Sort x 5,849 ops/sec ±0.31% (66 runs sampled)
Insertion Sort		Insertion Sort x 2,432 ops/sec ±0.46% (66 runs sampled)
Fast QuickSort		Fast QuickSort x 9,156 ops/sec ±0.49% (65 runs sampled)
mSort			mSort x 622 ops/sec ±0.57% (64 runs sampled)
Radix Bucket Sort	Radix Bucket Sort x 3,280 ops/sec ±0.81% (64 runs sampled)
Bubble Sort		Bubble Sort x 551 ops/sec ±0.33% (64 runs sampled)

Fastest: Fast QuickSort
Slowest: Naive Quicksort

 

Edited by cyjanobakteria
  • Upvote (+1) 1

Share this post


Link to post
Share on other sites
26 minut temu, Jarosław Bakalarz napisał:

Na bardzo dużych zbiorach (niekaszowalnych) i o dużej złożoności, i całkowicie bez użycia QS można wycisnąć naprawdę wiele.

Tylko dla mocno uporządkowanych danych, to naprawdę nie ma większego znaczenia. Jest piękna teoria która opisuje minimalną ilość operacji i złożoność sortowania sekwencji o różnym stopniu nieporządku, n*log(n) to tylko górne ograniczenie.

P.S. Gdybym to ja ustalał terminologię, to mielibyśmy pazuchę i dane pazuchowalne ;)

 

Share this post


Link to post
Share on other sites
29 minutes ago, cyjanobakteria said:

Co do bubble sorta, pierwszy z brzegu benchmark na danych losowych:

Zrób mi przysługę, biednemu nigeryjczykowi, i wyjaśnij jak krowie na rowie ten benchmark. Tak łopatologicznie, jakbyś blondynce wyjaśniał.

 

4 minutes ago, peceed said:

Jest piękna teoria która opisuje minimalną ilość operacji i złożoność sortowania sekwencji o różnym stopniu nieporządku, n*log(n) to tylko górne ograniczenie.

Taaa, wiesz prof Sędziwy wykładał nam to ograniczenie i to, że QS prawie dobija do granicy efektywności :-)  A ja Ci dalej mówię, że granica efektywności odnosi się do obliczenia modelowego, a nie do rzeczywistego sortowania danych wysoce złożonych, w wielkich zbiorach.

ale może wystarczy. Każdy z nas ma na swój sposób rację.

Share this post


Link to post
Share on other sites
15 minutes ago, Jarosław Bakalarz said:

Zrób mi przysługę, biednemu nigeryjczykowi, i wyjaśnij jak krowie na rowie ten benchmark. Tak łopatologicznie, jakbyś blondynce wyjaśniał.

Nic nie zamierzam Ci wyjaśniać, bo dobrze to rozumiesz. Po za tym myślałem, że nie lubisz teoretyzować, a praktyków mało interesuje to, że bubble sort jest szybszy niż quick sort na niektórych danych wejściowych.

Share this post


Link to post
Share on other sites
10 hours ago, cyjanobakteria said:

 a praktyków mało interesuje to, że bubble sort jest szybszy niż quick sort na niektórych danych wejściowych.

Właśnie praktykow to interesuje, bo choć cache są coraz większe, to przyrosty danych i obliczeniowe są jeszcze szybsze. Dlatego mechanizm procka, algorytm wypełniania cachea, delaye na ścieżkach i DNSach, algorytm zdejmowania danych z pamięci masowej ma KLUCZOWE znaczenie w praktyce.  Okazuje się , że moment w którym przerwiesz dany loop i zmienisz np metode sortowania daje niebagatelne oszczędności.

I niestety na kazdej maszynie i w stosunku do każdych danych trzeba wykonać próbę, by znależć minimum czasowe, bo teoretycznie tego nie warto obliczać. To oczywiście może stac się nieprawdą, gdy do liczenia użyjemy AI.

konczmy Waść. :-)

Share this post


Link to post
Share on other sites
39 minut temu, Jarosław Bakalarz napisał:

Właśnie praktykow to interesuje, bo choć cache są coraz większe, to przyrosty danych i obliczeniowe są jeszcze szybsze. Dlatego mechanizm procka, algorytm wypełniania cachea, delaye na ścieżkach i DNSach, algorytm zdejmowania danych z pamięci masowej ma KLUCZOWE znaczenie w praktyce. 

Nie wiem co robisz w praktyce, ale mniej więcej od 20 lat w przemyśle króluje paradygmat 'wydajność to problem sprzętowy' . Ze względu na stawki godzinowe w IT nikt nie pozwoli, żeby programista sobie testował najlepsze podejście. Użycie wzorców projektowych to maks na co można sobie pozwolić, a i to tylko w nadziei, że oszczędzi się później na utrzymaniu. Optymalizacja? Jak jest problem to się wynajmuje więcej rdzeni, więcej ramu. Mam wrażenie że dyskutujecie zagadnienia, którymi zajmuje się mniej niż 1000 osób w świecie.

Share this post


Link to post
Share on other sites
1 hour ago, Jajcenty said:

 Mam wrażenie że dyskutujecie zagadnienia, którymi zajmuje się mniej niż 1000 osób w świecie.

Bo my takie wyjontkowe som :-)  A serio: kiedyś specjalizowałem się w obróbce danych masowych i bezpieczeństwie. Sprzedawałem też megarozwiązania archiwizacyjne od największych, do największych. 

Poprzednio nadmieniłem zresztą, że tego nie warto robić jak się pisze algorytm dla pojedynczych zastosowań lub małych danych. To staje się kluczowe, gdy mielisz dane na okrągło (wtedy minuty kumulują się do lat)  lub liczą się ułamki sekund (np analiza porównawcza wgranej mapy 3D a skan terenu z radaru w lecącym pocisku ziemia-ziemia).

Problem tak naprawdę istnieje i zepchnięcie go na bok nie zawsze da się nadrobić dokupieniem mocy.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Eksperci z Rocky Mountain Institute opublikowali raport, z którego dowiadujemy się, że koszty produkcji energii z węgla osiągnęły punkt zwrotny i obecnie energia ta na większości rynków przegrywa konkurencję cenową z energią ze źródeł odnawialnych. Z analiz wynika, że już w tej chwili koszty operacyjne około 39% wszystkich światowych elektrowni węglowych są wyższe niż koszty wybudowania od podstaw nowych źródeł energii odnawialnej.
      Sytuacja ekonomiczna węgla będzie błyskawicznie się pogarszała. Do roku 2025 już 73% elektrowni węglowych będzie droższych w utrzymaniu niż budowa zastępujących je odnawialnych źródeł energii. Autorzy raportu wyliczają, że gdyby nagle cały świat podjął decyzję o wyłączeniu wszystkich elektrowni węglowych i wybudowaniu w ich miejsce odnawialnych źródeł energii, to przeprowadzenie takiej operacji stanie się opłacalne już za dwa lata.
      Szybsze przejście od węgla do czystej energii jest w zasięgu ręki. W naszym raporcie pokazujemy, jak przeprowadzić taką zmianę, by z jednej strony odbiorcy energii zaoszczędzili pieniądze, a z drugiej strony, by pracownicy i społeczności żyjące obecnie z energii węglowej mogli czerpać korzyści z energetyki odnawialnej, mówi Paul Bodnar, dyrektor Rocky Mountain Institute.
      Autorzy raportu przeanalizowali sytuację ekonomiczną 2472 elektrowni węglowych na całym świecie. Wzięli też pod uwagę koszty wytwarzania energii ze źródeł odnawialnych oraz jej przechowywania. Na podstawie tych danych byli w stanie ocenić opłacalność energetyki węglowej w 37 krajach na świecie, w których zainstalowane jest 95% całej światowej produkcji energii z węgla. Oszacowali też koszty zastąpienia zarówno nieopłacalnej obecnie, jak o opłacalnej, energetyki węglowej przez źródła odnawialne.
      Z raportu dowiadujmy się, że gdyby na skalę światową zastąpić nieopłacalne źródła energii z węgla źródłami odnawialnymi, to w bieżącym roku klienci na całym świecie zaoszczędziliby 39 miliardów USD, w 2022 roczne oszczędności sięgnęłyby 86 miliardów, a w roku 2025 wzrosłyby do 141 miliardów. Gdyby jednak do szacunków włączyć również opłacalne obecnie elektrownie węglowe, innymi słowy, gdybyśmy chcieli już teraz całkowicie zrezygnować z węgla, to tegoroczny koszt netto takiej operacji wyniósłby 116 miliardów USD. Tyle musiałby obecnie świat zapłacić, by już teraz zrezygnować z generowania energii elektrycznej z węgla. Jednak koszt ten błyskawicznie by się obniżał. W roku 2022 zmiana taka nic by nie kosztowała (to znaczy koszty i oszczędności by się zrównoważyły), a w roku 2025 odnieślibyśmy korzyści finansowe przekraczające 100 miliardów dolarów w skali globu.
      W Unii Europejskiej już w tej chwili nieopłacalnych jest 81% elektrowni węglowych. Innymi słowy, elektrownie te przeżywałyby kłopoty finansowe, gdyby nie otrzymywały dotacji z budżetu. Do roku 2025 wszystkie europejskie elektrownie węglowe będą przynosiły straty. W Chinach nieopłacalnych jest 43% elektrowni węglowych, a w ciągu najbliższych 5 lat nieopłacalnych będzie 94% elektrowni węglowych. W Indiach zaś trzeba dopłacać obecnie do 17% elektrowni, a w roku 2025 nieopłacalnych będzie 85% elektrowni.
      Co ważne, w swoich wyliczeniach dotyczących opłacalności elektrowni węglowych analitycy nie brali pod uwagę zdrowotnych i środowiskowych kosztów spalania węgla.
      Energia węglowa szybko staje się nieopłacalna i to nie uwzględniając kosztów związanych z prawem do emisji i regulacjami odnośnie zanieczyszczeń powietrza. Zamknięcie elektrowni węglowych i zastąpienie ich tańszymi alternatywami nie tylko pozwoli zaoszczędzić pieniądze konsumentów i podatników, ale może też odegrać znaczną rolę w wychodzeniu gospodarki z kryzysu po pandemii, mówi Matt Gray stojący na czele Carbon Tracker Initiative.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Na Uniwersytecie w Glasgow po raz pierwszy eksperymentalnie potwierdzono teorię dotyczącą pozyskiwania energii z czarnych dziur. W 1969 roku wybitny fizyk Roger Penrose stwierdził, że można wygenerować energię opuszczając obiekt do ergosfery czarnej dziury. Ergosfera to zewnętrzna część horyzontu zdarzeń. Znajdujący się tam obiekt musiałby poruszać się szybciej od prędkości światła, by utrzymać się w miejscu.
      Penrose przewidywał, że w tym niezwykłym miejscu w przestrzeni obiekt nabyłby ujemną energię. Zrzucając tam obiekt i dzieląc go na dwie części tak, że jedna z nich wpadnie do czarnej dziury, a druga zostanie odzyskana, spowodujemy odrzut, który będzie mierzony wielkością utraconej energii negatywnej, a to oznacza, że odzyskana część przedmiotu zyska energię pobraną z obrotu czarnej dziury. Jak przewidywał Penrose, trudności inżynieryjne związane z przeprowadzeniem tego procesu są tak wielkie, że mogłaby tego dokonać jedynie bardzo zaawansowana obca cywilizacja.
      Dwa lata później znany radziecki fizyk Jakow Zeldowicz uznał, że teorię tę można przetestować w prostszy, dostępny na Ziemi sposób. Stwierdził, że „skręcone” fale światła uderzające o powierzchnię obracającego się z odpowiednią prędkością cylindra zostaną odbite i przejmą od cylindra dodatkową energię. Jednak przeprowadzenie takiego eksperymentu było, i ciągle jest, niemożliwe ze względów inżynieryjnych. Zeldowicz obliczał bowiem, że cylinder musiałby poruszać się z prędkością co najmniej miliarda obrotów na sekundę.
      Teraz naukowcy z Wydziału Fizyki i Astronomii University of Glasgow opracowali sposób na sprawdzenie teorii Penrose'a. Wykorzystali przy tym zmodyfikowany pomysł Zeldowicza i zamiast "skręconych" fal światła użyli dźwięku, źródła o znacznie niższej częstotliwości, i łatwiejszego do użycia w laboratorium.
      Na łamach Nature Physics Brytyjczycy opisali, jak wykorzystali zestaw głośników do uzyskania fal dźwiękowych, skręconych na podobieństwo fal świetlnych w pomyśle Zeldowicza. Dźwięk został skierowany w stronę obracającego się piankowego dysku, który go absorbował. Za dyskiem umieszczono zestaw mikrofonów, które rejestrowały dźwięk przechodzący przez dysk, którego prędkość obrotowa była stopniowo zwiększana.
      Naukowcy stwierdzili, że jeśli teoria Penrose'a jest prawdziwa, to powinni odnotować znaczącą zmianę w częstotliwości i amplitudzie dźwięku przechodzącego przez dysk. Zmiana taka powinna zajść w wyniku efektu Dopplera.
      Z liniową wersją efektu Dopplera wszyscy się zetknęli słysząc syrenę karetki pogotowia, której ton wydaje się rosnąć w miarę zbliżania się pojazdu i obniżać, gdy się on oddala. Jest to spowodowane faktem, że gdy pojazd się zbliża, fale dźwiękowe docierają do nas coraz częściej, a gdy się oddala, słyszymy je coraz rzadziej. Obrotowy efekt Dopplera działa podobnie, jednak jest on ograniczony do okrągłej przestrzeni. Skręcone fale dźwiękowe zmieniają ton gdy są mierzone z punktu widzenia obracającej się powierzchni. Gdy powierzchnia ta obraca się odpowiednio szybko z częstotliwością dźwięku dzieje się coś dziwnego – przechodzi z częstotliwości dodatniej do ujemnej, a czyniąc to pobiera nieco energii z obrotu powierzchni, wyjaśnia doktorantka Marion Cromb, główna autorka artykułu.
      W miarę jak rosła prędkość obrotowa obracającego się dysku, ton dźwięku stawał się coraz niższy, aż w końcu nie było go słychać. Później znowu zaczął rosnąć, aż do momentu, gdy miał tę samą wysokość co wcześniej, ale był głośniejszy. Jego amplituda była o nawet 30% większa niż amplituda dźwięku wydobywającego się z głośników.
      To co usłyszeliśmy podczas naszych eksperymentów było niesamowite. Najpierw, w wyniku działania efektu Dopplera częstotliwość fal dźwiękowych zmniejszała się w miarę zwiększania prędkości obrotowej dysku i spadła do zera. Później znowu pojawił się dźwięk. Stało się tak, gdyż doszło do zmiany częstotliwości fal z dodatniej na ujemną. Te fale o ujemnej częstotliwości były w stanie pozyskać część energii z obracającego się dysku i stały się głośniejsze. Zaszło zjawisko, które Zeldowicz przewidział w 1971 roku, dodaje Cromb.
      Współautor badań, profesor Daniele Faccio, stwierdza: jesteśmy niesamowicie podekscytowani faktem, że mogliśmy eksperymentalnie potwierdzić jedną z najdziwniejszych hipotez fizycznych pół wieku po jej ogłoszeniu. I że mogliśmy potwierdzić teorię dotyczącą kosmosu w naszym laboratorium w zachodniej Szkocji. Sądzimy, że otwiera to drogę do kolejnych badań. W przyszłości chcielibyśmy badać ten efekt za pomocą różnych źródeł fal elektromagnetycznych.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Producenci akumulatorów od lat próbują zastąpić grafitową anodę w akumulatorach litowo-jonowych jej krzemową wersją. Powinno to zwiększyć zasięg samochodów elektrycznych wyposażonych w takie akumulatory. Próby są prowadzone zwykle z użyciem tlenku krzemu lub połączenia krzemu i węgla. Jednak kalifornijska firma Enevate ma nieco inny pomysł – wykorzystuje cienkie porowate warstwy czystego krzemu.
      Właściciel i główny technolog firmy, Benjamin Park, który od ponad 10 lat pracuje nad nowymi akumulatorami, twierdzi, że taki materiał jest nie tylko tani, ale pozwala na zwieszenie o 30% zasięgu samochodów elektrycznych wyposażonych w tego typu akumulatory. Co więcej, przedstawiciele Enevate uważają, że w niedalekiej przyszłości tego typu akumulatory po 5-minutowym ładowaniu zapewnią samochodowi 400 kilometrów zasięgu.
      Podczas ładowania akumulatorów litowo-jonowych jony litu przemieszczają się z katody do anody. Im więcej jonów jest w stanie przyjąć anoda, tym większa pojemność akumulatora. Krzem może przechowywać nawet 10-krotnie więcej energii niż grafit. Jednak w trakcie pracy akumulatora znacznie się on rozszerza i kurczy, powstają pęknięcia i materiał kruszy się po kilku cyklach ładowania.
      Producenci akumulatorów, chcąc obejść ten problem, dodają nieco krzemu do proszku grafitowego. Całość mieszana jest z tworzywem sztucznym działającym jak spoiwo i nakładana na cienką warstwę miedzi. W ten sposób powstaje anoda. Jednak, jak wyjaśnia Park, jony litu najpierw wchodzą w interakcje z krzemem, później z grafitem. Krzem wciąż się nieco rozszerza, a spoiwo jest dość słabe. Tak zbudowana anoda ulega tym szybszej degradacji, im więcej krzemu się w niej znajduje.
      Enevate nie używa spoiwa. Firma opracowała własny sposób na bezpośrednie nakładanie na miedź porowatych warstw krzemu o grubości od 10 do 60 mikrometrów. Na wierzch stosuje się dodatkową warstwę, która chroni krzem przed kontaktem z elektrolitem.
      Cały proces nie wymaga używania krzemu o wysokiej jakości, więc tego typu anoda kosztuje mniej niż anoda grafitowa o identycznej pojemności. Zaś dzięki temu, że stosowany jest krzem, jony litu mogą bardzo szybko się przemieszczać. W ciągu 5 minut można naładować akumulator do 75% pojemności, nie powodując przy tym zbytniego rozszerzania się krzemu.
      Wszystko co potrzebne do wyprodukowania anody można wytwarzać standardowymi metodami przemysłowymi z rolki. Zatem cały proces łatwo jest skalować. Dzięki połączeniu nowej anody z konwencjonalnymi katodami stworzono akumulatory o pojemności do 350 Wh/kg. To o około 30% więcej niż współczesne akumulatory litowo-jonowe.
      Enevate już współpracuje z koncernami motoryzacyjnymi. Jej nowe akumulatory powinny trafić do samochodów elektrycznych w sezonie 2024/2025.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Nowa elektroda, opracowana na MIT, pozwoli na zbudowanie akumulatorów, które przechowują więcej energii i pracują dłużej. Litowa anoda to efekt współpracy naukowców z MIT ze specjalistami z Hongkongu, Florydy i Teksasu.
      Jednym z największych problemów ze współczesnymi akumulatorami wynika z faktu, że w miarę ładowania akumulatora lit się rozszerza, a podczas rozładowywania kurczy się. Te ciągłe zmiany rozmiarów prowadzą do pękania lub odłączania się elektrolitu. Inny problem stanowi fakt, że żaden z używanych stałych elektrolitów nie jest tak naprawdę chemicznie stabilny w kontakcie z wysoko reaktywnym litem, ulega więc degradacji.
      Większość badań, mających na celu rozwiązanie tych problemów, poszukuje stabilnego elektrolitu. To jednak jest trudne.
      Naukowcy z MIT podeszli do problemu inaczej. Wykorzystali dwa dodatkowe materiały. Jeden nazwali „zmieszanymi przewodnikami jonowo-elektronicznymi” (MIEC), a drugi to „izolatory elektronu i jonu litowego” (ELI).
      Uczeni stworzyli trójwymiarową nanostrukturę przypominająca plaster miodu. Została ona zbudowana z heksagonalnych rurek MIEC częściowo wypełnionych litem. W każdej z rurek pozostawiono nieco wolnego miejsca. Gdy lit się rozszerza podczas ładowania, wypełnia puste miejsca w rurkach, poruszając się jak ciecz, mimo że zachowuje przy tym krystaliczną strukturę ciala stałego. Przepływ ten łagodzi naprężenia powstające podczas rozszerzania się litu, ale jednocześnie nie powoduje ani zmiany zewnętrznych rozmiarów elektrody, ani zmiany jej styku z elektrolitem. Drugi zaś ze wspomnianych materiałów, ELI, jest kluczowym mechanicznym łączem pomiędzy ściankami MIEC a stałym elektrolitem.
      Rozszerzający się i kurczący lit przemieszcza się tak, że nie wywiera nacisku na elektrolit, więc go nie niszczy. Twórcy anody porównują to do tłoków poruszających się w cylindrach. Jako, że całość jest jest zbudowana w skali nano, a każda z rurek ma średnicę 100-300 nanometrów, całość jest jak silnik z 10 miliardami tłoków, mówi główny autor badań, profesor Ju Li.
      Jako, że ścianki całej struktury wykonano z chemicznie stabilnego MIEC, lit nigdy nie traci kontaktu z materiałem. Cały akumulator pozostaje więc mechanicznie i chemiczne stabilny, dodaje Li. Naukowcy przetestowali swoją anodę podczas 100 cykli ładowania/rozładowywania i wykazali, że w elektrolicie nie powstały żadne pęknięcia.
      Naukowcy twierdzą, że ich projekt pozwoli na stworzenie akumulatorów litowych, w których anoda będzie 4-krotnie lżejsza na jednostkę pojemności niż obecnie. Jeśli dodamy do tego nowe pomysły na lżejszą katodę, całość może prowadzić do znaczącego obniżenia wagi akumulatora. Dzięki nowemu akumulatorowi nowoczesne smartfony można by ładować raz na 3 dni.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Jednym ze sposobów na pozyskiwanie odnawialnej energii jest wykorzystanie różnicy chemicznych pomiędzy słodką i słoną wodą. Jeśli naukowcom uda się opracować metodę skalowania stworzonej przez siebie technologii, będą mogli dostarczyć olbrzymią ilość energii milionom ludzi mieszkających w okolica ujścia rzek do mórz i oceanów.
      Każdego roku rzeki na całym świecie zrzucają do oceanów około 37 000 km3 wody. Teoretycznie można tutaj pozyskać 2,6 terawata, czyli mniej więcej tyle, ile wynosi produkcja 2000 elektrowni atomowych.
      Istnieje kilka metod generowania energii z różnicy pomiędzy słodką a słoną wodą. Wszystkie one korzystają z faktu, że sole złożone są z jonów. W ciałach stałych ładunki dodatnie i ujemne przyciągają się i łączą. Na przykład sól stołowa złożona jest z dodatnio naładowanych jonów sodu połączonych z ujemnie naładowanymi jonami chloru. W wodzie jony takie mogą się od siebie odłączać i poruszać niezależnie.
      Jeśli po dwóch stronach półprzepuszczalnej membrany umieścimy wodę z dodatnio i ujemnie naładowanymi jonami, elektrony będą przemieszczały się od części ujemnie naładowanej do części ze znakiem dodatnim. Uzyskamy w ten sposób prąd.
      W 2013 roku francuscy naukowcy wykorzystali ceramiczną błonę z azotku krzemu, w którym nawiercili otwór, a w jego wnętrzu umieścili nanorurkę borowo-azotkową (BNNT). Nanorurki te mają silny ujemny ładunek, dlatego też Francuzi sądzili, że ujemnie naładowane jony nie przenikną przez otwór. Mieli rację. Gdy po obu stronach błony umieszczono słoną i słodką wodę, przez otwór przemieszczały się niemal wyłącznie jony dodatnie.
      Nierównowaga ładunków po obu stronach membrany była tak duża, że naukowcy obliczyli, iż jeden metr kwadratowy membrany, zawierający miliony otworów na cm2 wygeneruje 30 MWh/rok. To wystarczy, by zasilić nawet 12 polskich gospodarstw domowych.
      Problem jednak w tym, że wówczas stworzenie nawet niewielkiej membrany tego typu było niemożliwe. Nikt bowiem nie wiedział, w jaki sposób ułożyć długie nanorurki borowo-azotkowe prostopadle do membrany.
      Przed kilkoma dniami, podczas spotkania Materials Research Society wystąpił Semih Cetindag, doktorant w laboratorium Jerry'ego Wei-Jena na Rutgers University i poinformował, że jego zespołowi udało się opracować odpowiednią technologię. Nanorurki można kupić na rynku. Następnie naukowcy dodają je do polimerowego prekursora, który jest nanoszony na membranę o grubości 6,5 mikrometrów. Naukowcy chcieli wykorzystać pole magnetyczne do odpowiedniego ustawienia nanorurek, jednak BNNT nie mają właściwości magnetycznych.
      Cetindag i jego zespół pokryli więc ujemnie naładowane nanorurki powłoką o ładunku dodatnim. Wykorzystane w tym celu molekuły są zbyt duże, by zmieścić się wewnątrz nanorurek, zatem BNNT pozostają otwarte. Następnie do całości dodano ujemnie naładowane cząstki tlenku żelaza, które przyczepiły się do pokrycia nanorurek. Gdy w obecności tak przygotowanych BNNT włączono pole magnetyczne, można było manewrować nanorurkami znajdującymi się w polimerowym prekursorze nałożonym na membranę.  Później za pomocą światła UV polimer został utwardzony. Na koniec za pomocą strumienia plazmy zdjęto z obu stron membrany cienką warstwę, by upewnić się, że nanorurki są z obu końców otwarte. W ten sposób uzyskano membranę z 10 milionami BNNT na każdy centymetr kwadratowy.
      Gdy taką membranę umieszczono następnie pomiędzy słoną a słodką wodą, uzyskano 8000 razy więcej mocy na daną powierzchnię niż podczas eksperymentów prowadzonych przez Francuzów. Shan mówi, że tak wielki przyrost mocy może wynikać z faktu, że jego zespół wykorzystał węższe nanorurki, zatem mogły one lepiej segregować ujemnie naładowane jony.
      Co więcej, uczeni sądzą, że membrana może działać jeszcze lepiej. Nie wykorzystaliśmy jej pełnego potencjału. W rzeczywistości tylko 2% BNNT jest otwartych z obu stron, mówi Cetindag. Naukowcy pracują teraz nad zwiększeniem odsetka nanorurek otwartych z obu stron membrany.

      « powrót do artykułu
×
×
  • Create New...