Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Tani szybko ładujący się akumulator bez metali ciężkich? To możliwe, twierdzi IBM

Recommended Posts

Używamy coraz więcej smartfonów, samochodów elektrycznych i innych urządzeń, wymagających stosowania akumulatorów. To jednak oznacza coraz większe zapotrzebowanie na metale ciężkie, które stanowią olbrzymie zagrożenie zarówno dla ludzkiego zdrowia, jak i środowiska naturalnego. Szczególne kontrowersje budzi wykorzystywanie kobaltu, pozyskiwanego głównie w centralnej Afryce. Z jego wydobyciem wiąże się olbrzymie niszczenie środowiska naturalnego, niewolnictwo, morderstwa i gwałty.

Naukowcy z IBM Research wykorzystali trzy opracowane przez siebie materiały, które nigdy nie były jeszcze używane w akumulatorach i stworzyli w ten sposób urządzenie, które nie wykorzystuje ani metali ciężkich, ani innych materiałów, z wydobyciem których wiąże się popełnianie przestępstw na ludziach czy środowisku naturalnym.

Wspomniane materiały można pozyskać z wody morskiej, co jest metodą mniej szkodliwą dla środowiska niż wydobywanie metali z ziemi. Podczas wstępnych testów nowego akumulatora stwierdzono, że można go zoptymalizować tak, by przewyższał akumulatory litowo-jonowe w wielu kategoriach, takich jak – niższa cena, krótszy czas ładowania, wyższa moc i gęstość energetyczna, lepsza wydajność energetyczna oraz mniejsza palność.

Opracowana przez Battery Lab katoda nie potrzebuje kobaltu i niklu, a akumulator zawiera bezpieczny elektrolit o wysokiej temperaturze zapłonu. Ponadto podczas testów okazało się, że w czasie ładowania nie powstają dendryty, które są poważnym problemem w akumulatorach litowo-jonowych, gdyż mogą doprowadzić do spięcia i pożaru.

Dotychczas przeprowadzone testy pokazują, że odpowiednio skonfigurowany nowy akumulator można naładować do 80% w czasie krótszym niż 5 minut. W połączeniu ze stosunkowo niskim kosztem pozyskania materiałów, możemy mieć do czynienia z tanim akumulatorem, który można szybko naładować. Inżynierowie IBM-a obliczają, że w szczególnie wymagających zastosowaniach, jak na przykład lotnictwo, akumulator można skonfigurować tak, by jego gęstość energetyczna była większa niż 10 000 W/L. Ponadto akumulator wytrzymuje wiele cykli ładowania/rozładowania, dzięki czemu może być wykorzystywany w sieciach energetycznych, gdzie wymagana jest długa i stabilna praca.

Podsumowując, początkowe prace pokazały, że IBM Research opracował tani akumulator, w którym nie są wykorzystywane kobalt, nikiel i inne metale ciężkie, który można naładować do 80% w czasie krótszym niż 5 minut, którego gęstość mocy może przekraczać 10 000 W/L, a gęstość energii jest wyższa od 800 Wh/L, którego wydajność energetyczna przekracza 90% i którego elektrolit jest mniej palny.

Teraz IBM Research wspólnie z Mercedes-Benz Research, Central Glass i Sidusem prowadzi badania, które mają na celu dalsze rozwijanie tej technologii, opracowanie infrastruktury potrzebnej do produkcji nowych akumulatorów i ich komercjalizacji.


« powrót do artykułu

Share this post


Link to post
Share on other sites

W tej dziedzinie to już chyba tradycja.

Kolejny news mówiący o tym że rewolucja już się dokonała a za kilka miesięcy będziemy jeździć,latać i nosić w kieszeni tanie,ekologiczne i niezwykle wydajne akumulatory.

sytuacja trochę przypomina króla który naciska na alchemika żeby w końcu wyprodukował to złoto bo brakuje kasy na wojnę. a alchemik chcąc nosić dalej głowę na karku daje mu próbkę 1g złota przetopionego z pierścionka i uspokaja że technologia jest, produkcja ruszyła i jak zoptymalizuje linię produkcyjną to niebawem tony złota dziennie będą produkowane.

 

 

  • Haha 1

Share this post


Link to post
Share on other sites
8 godzin temu, tempik napisał:

Kolejny news mówiący o tym że rewolucja już się dokonała a za kilka miesięcy będziemy jeździć,latać i nosić w kieszeni tanie,ekologiczne i niezwykle wydajne akumulatory.

Warto dodać Tempik, że kolejny od jakichś już 30 lat.
"Aboi durzej", czyli sukcesy na tym polu są niezaprzeczalnie ogromne (gdyby tak wszystkie te zapowiedzi ustawić jedna na drugiej, to już dawno mielibyśmy windę kosmiczną).

P.S. Kilka swoich zabawek pędzę akumulatorami, które liczą więcej niż 20 lat. Można, ale nie oczekuję od nich, że naładują się w 5 minut. ;)

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Dotychczas słyszeliśmy, że „kiedyś” powstanie pełnowymiarowy komputer kwantowy, zdolny do przeprowadzania obliczeń różnego typu, który będzie bardziej wydajny od komputerów klasycznych. Teraz IBM zapowiedział coś bardziej konkretnego i interesującego. Firma publicznie poinformowała, że do końca roku 2023 wybuduje komputer kwantowy korzystający z 1000 kubitów. Obecnie najpotężniejsza kwantowa maszyna IBM-a używa 65 kubitów.
      Plan IBM-a zakłada, że wcześniej powstaną dwie maszyny pozwalające dojść do zamierzonego celu. W przyszłym roku ma powstać 127-kubitowy komputer, a w roku 2022 IBM zbuduje maszynę operującą na 433 kubitach. Rok później ma zaprezentować 1000-kubitowy komputer kwantowy. A „kiedyś” pojawi się komputer o milionie kubitów. Dario Gil, dyrektor IBM-a ds. badawczych mówi, że jest przekonany, iż firma dotrzyma zarysowanych tutaj planów. To coś więcej niż plan i prezentacja w PowerPoincie. To cel, który realizujemy, mówi.
      IBM nie jest jedyną firmą, która pracuje nad komputerem kwantowym. Przed rokiem głośno było o Google'u, który ogłosił, że jego 53-kubitowy komputer kwantowy rozwiązał pewien abstrakcyjny problem osiągając przy tym „kwantową supremację”, a więc rozwiązując go znacznie szybciej, niż potrafi to uczynić jakakolwiek maszyna klasyczna. Stwierdzenie to zostało jednak podane w wątpliwość przez IBM-a, a niedługo później firma Honeywell ogłosiła, że ma najpotężniejszy komputer kwantowy na świecie.
      Google zapowiada, że w ciągu 10 lat zbuduje kwantową maszynę wykorzystującą milion kubitów. Tak przynajmniej zapowiedział Hartmut Neven, odpowiedzialny w Google'u za prace nad kwantową maszyną, który jednak nie podał żadnych konkretnych terminów dochodzenia do celu.
      IBM zadeklarował konkretne daty po to, by jego klienci i współpracownicy wiedzieli, czego można się spodziewać. Obecnie dziesiątki firm kwantowe używają maszyn kwantowych IBM-a,by rozwijać własne technologie kwantowe. Poznanie planów Błękitnego Giganta i śledzenie jego postępów, pozwoli im lepiej planować własne działania, mówi Gil.
      Jednym z partnerów IBM-a jest firma Q-CTRL, rozwija oprogramowanie do optymalizacji kontroli i wydajności poszczególnych kubitów. Jak zauważa jej założyciel i dyrektor, Michael Biercuk, podanie konkretnych terminów przez IBM-a może zachęcić fundusze inwestycyjne do zainteresowania tym rynkiem. Fakt, że wielki producent sprzętu wkłada dużo wysiłku i przeznacza spore zasoby może przekonać inwestorów, mówi.
      Zdaniem Bierucka 1000-kubitowa maszyna będzie niezwykle ważnym krokiem milowym w rozwoju komputerów kwantowych. Co prawda będzie 1000-krotnie zbyt mało wydajna, by w pełni wykorzystać potencjał technologii, ale przy tej liczbie kubitów możliwe już będą wykrywanie i korekta błędów, które trapią obecnie komputery kwantowe.
      Jako, że stany kwantowe są bardzo delikatne i trudne do utrzymania, badacze opracowali protokoły korekcji błędów, pozwalające na przekazanie informacji z jednego fizycznego kubita do wielu innych. Powstaje w ten sposób „kubit logiczny”, którego stan można utrzymać dowolnie długo.
      Dzięki 1121-kubitowej maszynie IBM będzie mógł stworzyć kilka kubitów logicznych i doprowadzić do interakcji pomiędzy nimi. Taka maszyna będzie punktem zwrotnym w pracach nad komputerami kwantowymi. Specjaliści będą mogli skupić się nie na walce z błędami w indywidualnych kubitach, a na wysiłkach w celu udoskonalenia architektury i wydajności całej maszyny.
      IBM już w tej chwili buduje olbrzymi chłodzony helem kriostat, który ma w przyszłości chłodzić komputer kwantowy z milionem kubitów.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Wzrost popularności samochodów elektrycznych wiąże się ze zwiększonym zapotrzebowaniem na lit, wykorzystywany do produkcji akumulatorów. Co prawda jest on dość szeroko rozpowszechniony w skorupie ziemskiej, jednak tylko w niewielu miejscach występuje w takiej ilości i stężeniach, że opłaca się go pozyskiwać. Naukowcy z Uniwersytetu Stanforda dokonali właśnie znacznego kroku na drodze do pozyskiwania litu z niemal niewyczerpanego źródła – wody morskiej.
      Obecnie każdego roku przemysł wykorzystuje ponad 160 000 ton litu. W następnej dekadzie zapotrzebowanie na ten pierwiastek będzie 10-krotnie wyższe niż obecnie. Tymczasem w niewielu krajach na świecie opłaca się go pozyskiwać. Największym światowym rezerwuarem litu jest boliwijski Salar de Uyuni, gdzie występuje ponad 5 milionów ton litu. Prawdopodobnie największe zasoby tego pierwiastka posiadają Chile (7,5 miliona ton), Chiny (3,5 miliona ton) oraz Australia (1,5 miliona ton).
      Kolosalne zasoby litu – szacowane na 180 miliardów ton – znajdują się w wodzie morskiej. Występują tam jednak w niezwykle małym stężeniu wynoszącym 0,2 części na milion. Dla porównania, w Salar de Uyuni koncentracja litu sięga nawet 280 ppm, jest więc 1400-krotnie większa niż w wodzie morskiej.
      Dotychczas naukowcy opracowali wiele filtrów i membran, za pomocą których próbują pozyskiwać lit z wody morskiej. Jednak techniki te bazują na odparowywaniu wody w celu zwiększenia koncentracji litu, a to z kolei wymaga czasu i olbrzymich powierzchni.
      Z kolei Jang Wook Choi, inżynier z Seulskiego Uniwersytetu Narodowego próbował wraz z zespołem pozyskiwać lit za pomocą akumulatorów litowych. Ich pomysł polegał na zanurzeniu elektrod w wodzie, co prowadziło do przyciągnięcia jonów litu do elektrody. Problem jednak w tym, że przyciągany był również sód, którego w wodzie morskiej jest 100 000 razy więcej niż litu. To zaś prowadziło do całkowitego zagłuszenia litu przez sód.
      Teraz Yi Cui i jego zespól z Uniwersytetu Stanforda postanowili spowodować, by materiał wykorzystany do elektrod bardziej selektywnie przyciągał pierwiastki. Najpierw pokryli elektrodę cienką warstwą dwutenku tytanu. Jako, że jony litu są mniejsze od jonów sodu, łatwiej im przedostać się przez taką barierę. Ponadto naukowcy zmienili sposób podawania napięcia do elektrody. Zamiast podawać do elektrody stałe napięcie ujemne, jak to robili inni, zmieniali je. Najpierw podawali napięcie ujemne, później na chwilę wyłączali elektrodę, następnie podawali napięcie dodatnie, wyłączali i powtarzali cały cykl.
      Jak wyjaśnia Cui, takie manipulacje napięciem powodowały, że jony sodu i litu poruszały się do elektrody, zatrzymywały się i poruszały się od elektrody. Jednak, jako że materiał elektrody miał nieco większe powinowactwo do litu, jony litu były tymi, które pierwsze do elektrody trafiały i ostatnie ją opuszczały. Po 10 takich cyklach, które w sumie trwały kilka minut, stosunek jonów litu do sodu wynosił 1:1. To znaczący postęp, przyznaje Choi.
      Nowa technologia wciąż prawdopodobnie nie jest konkurencyjna ekonomicznie w porównaniu z obecnie stosowanymi metodami. Jednak Chong Liu z University of Chicago, która w przeszłości współpracowała z Cui, zapowiada, że spróbuje wykorzystać inny typ elektrod i być może uda się osiągnąć lepsze wyniki. Z kolei Choi dodaje, że nowa technologia może przydać się przy odzyskiwaniu litu ze zużytych akumulatorów.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Zwierzęta morskie utrzymują równowagę wśród wirusów zamieszkujących wodę. Biolog morski Jennifer Welsh będzie w najbliższy poniedziałek broniła – oczywiście online – pracy doktorskiej na Wolnym Uniwersytecie w Amsterdamie. Jej temat brzmi Marine virus predation by non-host organism.
      Wirusy to najbardziej rozpowszechnione cząstki biologiczne w środowisku morskim. Niewiele jednak wiadomo o potencjalnych skutkach ekologicznych procesu usuwania wirusów przez organizmy nie będące ich gospodarzami, czytamy w artykule, który Welsh opublikowała na łamach Nature. Wiemy, że wirusy, poprzez uśmiercanie czy skracanie życia w inny sposób, regulują populację organizmów będących ich gospodarzami. Pani Welsh chciała się dowiedzieć, jak populacja wirusów jest regulowana przez organizmy nie będące ich gospodarzami.
      Wirusy mogą być pożywieniem dla wielu organizmów. Na przykład ostryżyca japońska filtruje wodę, by pobierać z niej tlen, glony i bakterie. Przy okazji pochłania jednak wirusy. Podczas naszych eksperymentów nie podawaliśmy ostryżycom żadnego pożywienia. Filtrowały wodę tylko po to, by pobrać z niej tlen. Okazało się, że usunęły z wody 12% wirusów, mówi Welsh.
      Jednak to nie ostryżyce najbardziej efektywnie usuwały wirusy. Uplasowały się dopiero na 4. pozycji wśród zwierząt badanych przez Welsh. Z organizmów, które testowaliśmy, najlepiej sprawowały się gąbki, kraby i sercówki. Podczas naszych eksperymentów w ciągu trzech godzin gąbki usunęły z wody aż 94% wirusów. Nawet, gdy co 20 minut dostarczaliśmy do wody kolejny zestaw wirusów gąbki niezwykle efektywnie je usuwały, mówi uczona.
      Welsh dodaje, że uzyskanych przez nią wyników nie można przekładać wprost na środowisko naturalne. Tam sytuacja jest znacznie bardziej złożona. Obecnych jest bowiem wiele innych gatunków, które wpływają na siebie nawzajem. Na przykład, gdy ostryżyca filtruje wodę i w pobliżu znajdzie się krab, ostryżyca zamyka skorupę i przestaje filtrować. Ponadto na zwierzęta mają wpływ ruchy wody, temperatura, promieniowanie ultrafioletowe, wyjaśnia.
      Badania Welsh przydadzą się w akwakulturze. Ryby hoduje się tam w zamknięciu w wodach oceanicznych. W takich farmach słonej wody olbrzyma liczba zwierząt z jednego gatunku jest trzymana w monokulturze. Jeśli w takich hodowli wybuchnie epidemia, istnieje wysokie ryzyko, że patogen rozprzestrzeni się na żyjące w oceanie dzikie populacje. Jeśli do takiej hodowli dodamy wystarczającą liczbę gąbek, możemy zapobiec rozprzestrzenianiu się epidemii.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Popularna od kilku lat i polecana przez celebrytów dieta paleo ma przypominać sposób odżywiania się ludzi, którzy nie korzystali z osiągnięć rolnictwa. Jednak, jak dowiadujemy się z badań norweskich uczonych, rzeczywista dieta paleo, spożywana przynajmniej przez niektóre grupy naszych przodków, mogła nie tylko być niezdrowa, ale i toksyczna. Okazuje się, że w niektórych przypadkach ich pożywienie zawierało 20-krotnie więcej metali ciężkich niż zalecają normy.
      Naukowcy z Uniwersytetu Arktycznego postanowili zbadać dietę osób zamieszkujących Półwysep Varanger w norweskiej Arktyce. Wybrali 8 stanowisk archeologicznych datowanych od 3000 do 6300 lat temu. Badali na nich nie szczątki ludzkie, ale pozostałości po tym, co ludzie jedli. Uczeni przeanalizowali ości dorszy oraz kości fok grenlandzkich znalezione na paleolitycznych wysypiskach odpadków. Nacięcia na większości szczątków wskazywały, że zwierzęta zabito dla mięsa, a nie jedynie dla skór. Można to było stwierdzić z tym większą pewnością, że już z wcześniejszych badań wiemy, iż gatunki te były częścią diety mieszkańców półwyspu w tamtych czasach.
      Okazało się, że ości dorsza zawierały 20-krotnie więcej kadmu i 4-krotnie więcej ołowiu niż bezpieczne poziomy określone przez European Food Safety Authority. Kadm może prowadzić do chorób wątroby, nerek i płuc, a ołów ma negatywny wpływ na mózg i układ nerwowy. Z kolei w kościach fok bezpieczny poziom kadmu był przekroczony 15-krotnie, a ołowiu 4-krotnie.
      U obu gatunków zarejestrowano też wysoki poziom rtęci, która uszkadza mózg, nerki i układ odpornościowy.
      Naukowcy uważają, że metale ciężkie trafiły do ciał zwierząt z zanieczyszczonego łańcucha pokarmowego, a tam z kolei znalazły się w wyniku wzrostu poziomu oceanów. Metale ciężkie w naturalnie występują w glebie. Gdy rośnie poziom oceanów, woda zalewa kolejne tereny i wypłukuje z nich szkodliwe pierwiastki.
      Archeolog Hans Peter Blankholm mówi, że dieta mieszkańców Varanger była „niezdrowa, a może nawet niebezpieczna”. Dodaje jednak, że nie wiadomo, jak dużo mięsa zawierającego metale ciężkie spożywali wówczas ludzie. Poza dorszami i fokami jedli też rośliny znajdowane w lasach czy upolowane tam zwierzęta. Ponadto mogli nie żyć na tyle długo, by odczuć negatywne skutki akumulacji metali ciężkich w organizmie.
      Uczeni planują już kolejne badania. Tym razem chcą zająć się analizą szczątków 8 osób z Varanger. Będą w nich poszukiwali śladów negatywnych skutków diety zawierającej metale ciężkie. Mają też nadzieję, że uda im się przeanalizować więcej szczątków zwierzęcych.
      Trzeba też mieć na uwadze, że badania opierały się na niewielkim materiale. Przeanalizowano bowiem zaledwie 40 kości i ości, a na tej podstawie trudno wyciągnąć jednoznaczne wnioski dotyczące 8 stanowisk archeologicznych i 3000 lat historii.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Podczas konferencji Hot Chips IBM zapowiedział nowy interfejs pamięci, który ma zadebiutować wraz z przyszłoroczną wersją procesorów Power 9. Mowa tutaj o Open Memory Interface (OMI). Pozwoli on na upakowanie w serwerze większej ilości pamięci korzystającej do tego z większej przepustowości nić DDR. OMI ma być konkurentem dla Gen-Z oraz intelowskiej CXL.
      OMI przenosi kontroler pamięci poza płytkę samego CPU, na osobną kartę DIMM. Dzięki takiemu rozwiązaniu możliwe będzie zastosowanie w serwerze do 4 TB pamięci o przepustowości 320 Gb/s lub też 512 GB o przepustowości do 650 Gb/s. Koszt takiego rozwiązania to dodatkowe co najmniej 4 nanosekundy opóźnienia oraz dodatkowe 4 waty poboru mocy powodowane przez osobną kartę z kontrolerem. Wiadomo, że w laboratoriach IBM-a już pracują takie testowe karty wyprodukowane przez Microsemi.
      IBM przewiduje, że w przyszłości OMI może być używane w połączeniu z układami DRAM. Takie rozwiązanie charakteryzowało by się opóźnieniem rzędu 80 ns, a więc stanowiłoby atrakcyjną alternatywę wobec Gen-Z, gdzie opóźnienie może dochodzić do 400 ns, twierdzi architekt procesorów William Starke z IBM-a.
      Wykorzystywane przez OMI układy serdes zostały przez IBM-a zoptymalizowane pod kątem jak najmniejszego zużycia energii oraz ograniczenia wielkości samego układu, co osiągnięto ograniczając częstotliwość ich pracy. Oferują one przepustowość do 600 Gb/s i mogą być przystosowane zarówno do pracy z OMI, jak i z nową generacją NVLing czy OpenCAPI 4.0.
      W przypadku OMI współpracującego z Power 9 pamięć będzie wykorzystywała 96 linii układu serdes 25G (miliardów operacji na sekundę), a przyszłe procesory Power 10 będę współpracowały z serdes 32-50G. Pojawiły się głosy mówiące,że pod tym względem OMI przypomina Intelowskie CXL. Z drugiej jednak strony łatwiejsze chłodzenie i uproszczona architektura samego procesora przypominają to, co osiągnęło AMD dzięki Epyc.
      Obecne układy Power 9 są wykonane w technologii 14 nm i obsługują 48 linii PCIe Gen4. Power 10, który ukaże się w roku 2021 będzie wykonany w nowym procesie technologicznym, wykorzysta nowy rdzeń oraz PCIe Gen5, a przepustowość jego pamięci wyniesie 800 Gb/s. Mimo ambitnych celów, jakie wyznacza sobie IBM, procesory Power mają coraz mniejsze udziały w rynku. W ciągu ostatniego roku zmniejszyły się one z 0,219% do 0,190%.

      « powrót do artykułu
×
×
  • Create New...