Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Tani szybko ładujący się akumulator bez metali ciężkich? To możliwe, twierdzi IBM

Recommended Posts

Używamy coraz więcej smartfonów, samochodów elektrycznych i innych urządzeń, wymagających stosowania akumulatorów. To jednak oznacza coraz większe zapotrzebowanie na metale ciężkie, które stanowią olbrzymie zagrożenie zarówno dla ludzkiego zdrowia, jak i środowiska naturalnego. Szczególne kontrowersje budzi wykorzystywanie kobaltu, pozyskiwanego głównie w centralnej Afryce. Z jego wydobyciem wiąże się olbrzymie niszczenie środowiska naturalnego, niewolnictwo, morderstwa i gwałty.

Naukowcy z IBM Research wykorzystali trzy opracowane przez siebie materiały, które nigdy nie były jeszcze używane w akumulatorach i stworzyli w ten sposób urządzenie, które nie wykorzystuje ani metali ciężkich, ani innych materiałów, z wydobyciem których wiąże się popełnianie przestępstw na ludziach czy środowisku naturalnym.

Wspomniane materiały można pozyskać z wody morskiej, co jest metodą mniej szkodliwą dla środowiska niż wydobywanie metali z ziemi. Podczas wstępnych testów nowego akumulatora stwierdzono, że można go zoptymalizować tak, by przewyższał akumulatory litowo-jonowe w wielu kategoriach, takich jak – niższa cena, krótszy czas ładowania, wyższa moc i gęstość energetyczna, lepsza wydajność energetyczna oraz mniejsza palność.

Opracowana przez Battery Lab katoda nie potrzebuje kobaltu i niklu, a akumulator zawiera bezpieczny elektrolit o wysokiej temperaturze zapłonu. Ponadto podczas testów okazało się, że w czasie ładowania nie powstają dendryty, które są poważnym problemem w akumulatorach litowo-jonowych, gdyż mogą doprowadzić do spięcia i pożaru.

Dotychczas przeprowadzone testy pokazują, że odpowiednio skonfigurowany nowy akumulator można naładować do 80% w czasie krótszym niż 5 minut. W połączeniu ze stosunkowo niskim kosztem pozyskania materiałów, możemy mieć do czynienia z tanim akumulatorem, który można szybko naładować. Inżynierowie IBM-a obliczają, że w szczególnie wymagających zastosowaniach, jak na przykład lotnictwo, akumulator można skonfigurować tak, by jego gęstość energetyczna była większa niż 10 000 W/L. Ponadto akumulator wytrzymuje wiele cykli ładowania/rozładowania, dzięki czemu może być wykorzystywany w sieciach energetycznych, gdzie wymagana jest długa i stabilna praca.

Podsumowując, początkowe prace pokazały, że IBM Research opracował tani akumulator, w którym nie są wykorzystywane kobalt, nikiel i inne metale ciężkie, który można naładować do 80% w czasie krótszym niż 5 minut, którego gęstość mocy może przekraczać 10 000 W/L, a gęstość energii jest wyższa od 800 Wh/L, którego wydajność energetyczna przekracza 90% i którego elektrolit jest mniej palny.

Teraz IBM Research wspólnie z Mercedes-Benz Research, Central Glass i Sidusem prowadzi badania, które mają na celu dalsze rozwijanie tej technologii, opracowanie infrastruktury potrzebnej do produkcji nowych akumulatorów i ich komercjalizacji.


« powrót do artykułu

Share this post


Link to post
Share on other sites

W tej dziedzinie to już chyba tradycja.

Kolejny news mówiący o tym że rewolucja już się dokonała a za kilka miesięcy będziemy jeździć,latać i nosić w kieszeni tanie,ekologiczne i niezwykle wydajne akumulatory.

sytuacja trochę przypomina króla który naciska na alchemika żeby w końcu wyprodukował to złoto bo brakuje kasy na wojnę. a alchemik chcąc nosić dalej głowę na karku daje mu próbkę 1g złota przetopionego z pierścionka i uspokaja że technologia jest, produkcja ruszyła i jak zoptymalizuje linię produkcyjną to niebawem tony złota dziennie będą produkowane.

 

 

  • Haha 1

Share this post


Link to post
Share on other sites
8 godzin temu, tempik napisał:

Kolejny news mówiący o tym że rewolucja już się dokonała a za kilka miesięcy będziemy jeździć,latać i nosić w kieszeni tanie,ekologiczne i niezwykle wydajne akumulatory.

Warto dodać Tempik, że kolejny od jakichś już 30 lat.
"Aboi durzej", czyli sukcesy na tym polu są niezaprzeczalnie ogromne (gdyby tak wszystkie te zapowiedzi ustawić jedna na drugiej, to już dawno mielibyśmy windę kosmiczną).

P.S. Kilka swoich zabawek pędzę akumulatorami, które liczą więcej niż 20 lat. Można, ale nie oczekuję od nich, że naładują się w 5 minut. ;)

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      IBM zaprezentował 127-kubitowy procesor kwantowy Eagle. Dzięki niemu, jak zapewnia koncern, klienci firmy będą mogli wykorzystać niedostępne dotychczas zasoby obliczeniowe, co ma się stać krokiem milowym w kierunku wykorzystania obliczeń kwantowych w codziennej praktyce. Eagle ma bowiem wkrótce zostać udostępniony wybranym partnerom IBM-a.
      Postrzegamy Eagle'a jako krok na drodze technologicznej rewolucji w historii maszyn obliczeniowych. W miarę, jak procesory kwantowe są rozbudowywane, każdy dodatkowy kubit dwukrotnie zwiększa ilość pamięci, jaką potrzebują komputery klasyczne, by symulować taki procesor. Spodziewamy się, że komputery kwantowe przyniosą realne korzyści, gdyż rosnąca złożoność procesów obliczeniowych, jakie są w stanie wykonać, przekroczy możliwości komputerów klasycznych, czytamy w informacji prasowej IBM-a.
      Inżynierowie Błękitnego Giganta nie mieli łatwego zadania. Prace praktyczne i teoretyczne nad maszynami kwantowymi, opartymi na zasadach mechaniki kwantowej, są prowadzone od dziesięcioleci i od dawna wiemy, że komputery takie są w stanie przeprowadzać obliczenia niedostępne maszynom klasycznym. Jednak ich zbudowanie jest niezwykle trudne. Nawet najmniejszy wpływ czynników zewnętrznych może spowodować dekoherencję kubitów, czyli doprowadzić do stanu, w którym zawarta w nich informacja zostanie utracona.
      Eagle zawiera niemal 2-krotnie więcej kubitów niż jego poprzednik, 65-kubitowy Hummingbird. Jednak jego powstanie wymagało czegoś więcej, niż tylko dodania kubitów. Inżynierowe IBM-a musieli opracować nowe i udoskonalić istniejące techniki, które – jak zapewniają – staną się podstawą do stworzenia ponad 1000-kubitowego układu Condor.
      Kolejnym niezwykle ważnym elementem nowego procesora jest wykorzystanie techniki multiplekosowania odczytu, znaną już z procesora Hummingbird R2. We wcześniejszych układach kwantowych każdy kubit wymagał zastosowania osobnego zestawu elektroniki zajmującej się odczytem i przesyłaniem danych. Taka architektura może sprawdzić się przy kilkudziesięciu kubitach, jednak jest zbyt nieporęczna i niepraktyczna przy ponad 100 kubitach, nie wspominając już o 1121-kubitowym Condorze, który ma powstać za 2 lata. Multipleksowanie odczytu polega na łączeniu sygnałów odczytowych z wielu kubitów w jeden, dzięki czemu można znakomicie zmniejszyć ilość okablowania i komponentów elektronicznych, co z kolei pozwala na lepsze skalowanie całości.
      Najbardziej interesującymi informacjami, których jeszcze nie znamy, są wyniki testów Quantum Volume (QV) i Circuit Layer Operations Per Second (CLOPS). Quantum Volume to stworzony przez IBM-a system pomiaru wydajności kwantowego komputera jako całości. Bierze pod uwagę nie tylko same kubity, ale również interakcje pomiędzy nimi, działania poszczególnych elementów komputera, w tym błędy obliczeniowe, błędy pomiarowe czy wydajność kompilatora. Im większa wartość QV, tym bardziej złożone problemy może rozwiązać komputer kwantowy. Z kolei zaproponowany niedawno przez IBM-a CLOPS to benchmark określający, na ilu obwodach kwantowych procesor jest w stanie wykonać operacje w ciągu sekundy. Maszyna Eagle nie została jeszcze poddana testom wydajnościowym i jakościowym.
      W ubiegłym roku Honeywell ogłosił, że jego System Model H1, korzystający z zaledwie 10 kubitów, osiągnął w teście QV wartość 128. Nieco wcześniej zaś 27-kubitowy system IBM-a mógł się pochwalić QV 64. Widzimy zatem, że sama liczba kubitów nie mówi jeszcze niczego o wydajności samej maszyny.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Ostatnie działania gigantów IT, takich jak Google, oraz koncernów farmaceutycznych sugerują, że pierwszym naprawdę przydatnym zastosowaniem komputerów kwantowych mogą stać się obliczenia związane z pracami nad nowymi lekami. Komputery kwantowe będą – przynajmniej teoretycznie – dysponowały mocą nieosiągalną dla komputerów klasycznych. Wynika to wprost z zasady ich działania.
      Najmniejszą jednostką informacji jest bit. Reprezentowany jest on przez „0” lub „1”. Jeśli wyobrazimy sobie zestaw trzech bitów, z których w każdym możemy zapisać wartość „0” lub „1” to możemy w ten sposób stworzyć 8 różnych kombinacji zer i jedynek (23). Jednak w komputerze klasycznym w danym momencie możemy zapisać tylko jedną z tych kombinacji i tylko na jednej wykonamy obliczenia.
      Jednak w komputerze kwantowym mamy nie bity, a bity kwantowe, kubity. A z praw mechaniki kwantowej wiemy, że kubit nie ma jednej ustalonej wartości. Może więc przyjmować jednocześnie obie wartości: „0” i „1”. To tzw. superpozycja. A to oznacza, że w trzech kubitach możemy w danym momencie zapisać wszystkie możliwe kombinacje zer i jedynek i wykonać na nich obliczenia. Z tego zaś wynika, że trzybitowy komputer kwantowy jest – przynajmniej w teorii – ośmiokrotnie szybszy niż trzybitowy komputer klasyczny. Jako, że obecnie w komputerach wykorzystujemy procesory 64-bitowe, łatwo obliczyć, że 64-bitowy komputer kwantowy byłby... 18 trylionów (264) razy szybszy od komputera klasycznego.
      Pozostaje tylko pytanie, po co komu tak olbrzymie moce obliczeniowe? Okazuje się, że bardzo przydałyby się one firmom farmaceutycznym. I firmy te najwyraźniej dobrze o tym wiedzą. Świadczą o tym ich ostatnie działania.
      W styczniu największa prywatna firma farmaceutyczna Boehringer Ingelheim ogłosiła, że rozpoczęła współpracę z Google'em nad wykorzystaniem komputerów kwantowych w pracach badawczo-rozwojowych. W tym samym miesiącu firma Roche, największy koncern farmaceutyczny na świecie, poinformował, że od pewnego czasu współpracuje już z Cambridge Quantum Computing nad opracowaniem kwantowych algorytmów służących wstępnym badaniom nad lekami.
      Obecnie do tego typu badań wykorzystuje się konwencjonalne wysoko wydajne systemy komputerowe (HPC), takie jak superkomputery. Górną granicą możliwości współczesnych HPC  są precyzyjne obliczenia dotyczące molekuł o złożoności podobne do złożoności molekuły kofeiny, mówi Chad Edwards, dyrektor w Cambridge Quantum Computing. Molekuła kofeiny składa się z 24 atomów. W farmacji mamy do czynienia ze znacznie większymi molekułami, proteinami składającymi się z tysięcy atomów. Jeśli chcemy zrozumieć, jak funkcjonują systemy działające według zasad mechaniki kwantowej, a tak właśnie działa chemia, to potrzebujemy maszyn, które w pracy wykorzystują mechanikę kwantową, dodaje Edwards.
      Cambridge Quantum Computing nie zajmuje się tworzeniem komputerów kwantowych. Pracuje nad kwantowymi algorytmami. Jesteśmy łącznikiem pomiędzy takimi korporacjami jak Roche, które chcą wykorzystywać komputery kwantowe, ale nie wiedzą, jak dopasować je do swoich potrzeb, oraz firmami jak IBM, Honeywell, Microsoft czy Google, które nie do końca wiedzą, jak zaimplementować komputery kwantowe do potrzeb różnych firm. Współpracujemy z 5 z 10 największych firm farmaceutycznych, wyjaśnia Edwards.
      Bardzo ważnym obszarem prac Cambridge Quantum Computing jest chemia kwantowa. Specjaliści pomagają rozwiązać takie problemy jak znalezieniem molekuł, które najmocniej będą wiązały się z danymi białkami, określenie struktury krystalicznej różnych molekuł, obliczanie stanów, jakie mogą przyjmować różne molekuły w zależności od energii, jaką mają do dyspozycji, sposobu ewolucji molekuł, ich reakcji na światło czy też metod metabolizowania różnych związków przez organizmy żywe.
      Na razie dysponujemy jednak bardzo prymitywnymi komputerami kwantowymi. Są one w stanie przeprowadzać obliczenia dla molekuł składających się z 5–10 atomów, tymczasem minimum, czego potrzebują firmy farmaceutyczne to praca z molekułami, w skład których wchodzi 30–40 atomów. Dlatego też obecnie przeprowadzane są obliczenia dla fragmentów molekuł, a następnie stosuje się specjalne metody obliczeniowe, by stwierdzić, jak te fragmenty będą zachowywały się razem.
      Edwards mówi, że w przyszłości komputery kwantowe będą szybsze od konwencjonalnych, jednak tym, co jest najważniejsze, jest dokładność. Maszyny kwantowe będą dokonywały znacznie bardziej dokładnych obliczeń.
      O tym, jak wielkie nadzieje pokładane są w komputerach kwantowych może świadczyć fakt, że główne koncerny farmaceutyczne powołały do życia konsorcjum o nazwie QuPharm, którego zadaniem jest przyspieszenie rozwoju informatyki kwantowej na potrzeby produkcji leków. QuPharm współpracuje z Quantum Economic Development Consortium (QED-C), powołanym po to, by pomóc w rozwoju komercyjnych aplikacji z dziedziny informatyki kwantowej na potrzeby nauk ścisłych i inżynierii. Współpracuje też z Pistoia Alliance, którego celem jest przyspieszenie innowacyjności w naukach biologicznych.
      Widzimy zainteresowanie długoterminowymi badaniami nad informatyką kwantową. Firmy te przeznaczają znaczące środki rozwój obliczeń kwantowych, zwykle zapewniają finansowanie w dwu-, trzyletniej perspektywie. To znacznie bardziej zaawansowane działania niż dotychczasowe planowanie i studia koncepcyjne. Wtedy sprawdzali, czy informatyka kwantowa może się do czegoś przydać, teraz rozpoczęli długofalowe inwestycje. To jest właśnie to, czego ta technologia potrzebuje, dodaje Edwards.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Dotychczas słyszeliśmy, że „kiedyś” powstanie pełnowymiarowy komputer kwantowy, zdolny do przeprowadzania obliczeń różnego typu, który będzie bardziej wydajny od komputerów klasycznych. Teraz IBM zapowiedział coś bardziej konkretnego i interesującego. Firma publicznie poinformowała, że do końca roku 2023 wybuduje komputer kwantowy korzystający z 1000 kubitów. Obecnie najpotężniejsza kwantowa maszyna IBM-a używa 65 kubitów.
      Plan IBM-a zakłada, że wcześniej powstaną dwie maszyny pozwalające dojść do zamierzonego celu. W przyszłym roku ma powstać 127-kubitowy komputer, a w roku 2022 IBM zbuduje maszynę operującą na 433 kubitach. Rok później ma zaprezentować 1000-kubitowy komputer kwantowy. A „kiedyś” pojawi się komputer o milionie kubitów. Dario Gil, dyrektor IBM-a ds. badawczych mówi, że jest przekonany, iż firma dotrzyma zarysowanych tutaj planów. To coś więcej niż plan i prezentacja w PowerPoincie. To cel, który realizujemy, mówi.
      IBM nie jest jedyną firmą, która pracuje nad komputerem kwantowym. Przed rokiem głośno było o Google'u, który ogłosił, że jego 53-kubitowy komputer kwantowy rozwiązał pewien abstrakcyjny problem osiągając przy tym „kwantową supremację”, a więc rozwiązując go znacznie szybciej, niż potrafi to uczynić jakakolwiek maszyna klasyczna. Stwierdzenie to zostało jednak podane w wątpliwość przez IBM-a, a niedługo później firma Honeywell ogłosiła, że ma najpotężniejszy komputer kwantowy na świecie.
      Google zapowiada, że w ciągu 10 lat zbuduje kwantową maszynę wykorzystującą milion kubitów. Tak przynajmniej zapowiedział Hartmut Neven, odpowiedzialny w Google'u za prace nad kwantową maszyną, który jednak nie podał żadnych konkretnych terminów dochodzenia do celu.
      IBM zadeklarował konkretne daty po to, by jego klienci i współpracownicy wiedzieli, czego można się spodziewać. Obecnie dziesiątki firm kwantowe używają maszyn kwantowych IBM-a,by rozwijać własne technologie kwantowe. Poznanie planów Błękitnego Giganta i śledzenie jego postępów, pozwoli im lepiej planować własne działania, mówi Gil.
      Jednym z partnerów IBM-a jest firma Q-CTRL, rozwija oprogramowanie do optymalizacji kontroli i wydajności poszczególnych kubitów. Jak zauważa jej założyciel i dyrektor, Michael Biercuk, podanie konkretnych terminów przez IBM-a może zachęcić fundusze inwestycyjne do zainteresowania tym rynkiem. Fakt, że wielki producent sprzętu wkłada dużo wysiłku i przeznacza spore zasoby może przekonać inwestorów, mówi.
      Zdaniem Bierucka 1000-kubitowa maszyna będzie niezwykle ważnym krokiem milowym w rozwoju komputerów kwantowych. Co prawda będzie 1000-krotnie zbyt mało wydajna, by w pełni wykorzystać potencjał technologii, ale przy tej liczbie kubitów możliwe już będą wykrywanie i korekta błędów, które trapią obecnie komputery kwantowe.
      Jako, że stany kwantowe są bardzo delikatne i trudne do utrzymania, badacze opracowali protokoły korekcji błędów, pozwalające na przekazanie informacji z jednego fizycznego kubita do wielu innych. Powstaje w ten sposób „kubit logiczny”, którego stan można utrzymać dowolnie długo.
      Dzięki 1121-kubitowej maszynie IBM będzie mógł stworzyć kilka kubitów logicznych i doprowadzić do interakcji pomiędzy nimi. Taka maszyna będzie punktem zwrotnym w pracach nad komputerami kwantowymi. Specjaliści będą mogli skupić się nie na walce z błędami w indywidualnych kubitach, a na wysiłkach w celu udoskonalenia architektury i wydajności całej maszyny.
      IBM już w tej chwili buduje olbrzymi chłodzony helem kriostat, który ma w przyszłości chłodzić komputer kwantowy z milionem kubitów.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Wzrost popularności samochodów elektrycznych wiąże się ze zwiększonym zapotrzebowaniem na lit, wykorzystywany do produkcji akumulatorów. Co prawda jest on dość szeroko rozpowszechniony w skorupie ziemskiej, jednak tylko w niewielu miejscach występuje w takiej ilości i stężeniach, że opłaca się go pozyskiwać. Naukowcy z Uniwersytetu Stanforda dokonali właśnie znacznego kroku na drodze do pozyskiwania litu z niemal niewyczerpanego źródła – wody morskiej.
      Obecnie każdego roku przemysł wykorzystuje ponad 160 000 ton litu. W następnej dekadzie zapotrzebowanie na ten pierwiastek będzie 10-krotnie wyższe niż obecnie. Tymczasem w niewielu krajach na świecie opłaca się go pozyskiwać. Największym światowym rezerwuarem litu jest boliwijski Salar de Uyuni, gdzie występuje ponad 5 milionów ton litu. Prawdopodobnie największe zasoby tego pierwiastka posiadają Chile (7,5 miliona ton), Chiny (3,5 miliona ton) oraz Australia (1,5 miliona ton).
      Kolosalne zasoby litu – szacowane na 180 miliardów ton – znajdują się w wodzie morskiej. Występują tam jednak w niezwykle małym stężeniu wynoszącym 0,2 części na milion. Dla porównania, w Salar de Uyuni koncentracja litu sięga nawet 280 ppm, jest więc 1400-krotnie większa niż w wodzie morskiej.
      Dotychczas naukowcy opracowali wiele filtrów i membran, za pomocą których próbują pozyskiwać lit z wody morskiej. Jednak techniki te bazują na odparowywaniu wody w celu zwiększenia koncentracji litu, a to z kolei wymaga czasu i olbrzymich powierzchni.
      Z kolei Jang Wook Choi, inżynier z Seulskiego Uniwersytetu Narodowego próbował wraz z zespołem pozyskiwać lit za pomocą akumulatorów litowych. Ich pomysł polegał na zanurzeniu elektrod w wodzie, co prowadziło do przyciągnięcia jonów litu do elektrody. Problem jednak w tym, że przyciągany był również sód, którego w wodzie morskiej jest 100 000 razy więcej niż litu. To zaś prowadziło do całkowitego zagłuszenia litu przez sód.
      Teraz Yi Cui i jego zespól z Uniwersytetu Stanforda postanowili spowodować, by materiał wykorzystany do elektrod bardziej selektywnie przyciągał pierwiastki. Najpierw pokryli elektrodę cienką warstwą dwutenku tytanu. Jako, że jony litu są mniejsze od jonów sodu, łatwiej im przedostać się przez taką barierę. Ponadto naukowcy zmienili sposób podawania napięcia do elektrody. Zamiast podawać do elektrody stałe napięcie ujemne, jak to robili inni, zmieniali je. Najpierw podawali napięcie ujemne, później na chwilę wyłączali elektrodę, następnie podawali napięcie dodatnie, wyłączali i powtarzali cały cykl.
      Jak wyjaśnia Cui, takie manipulacje napięciem powodowały, że jony sodu i litu poruszały się do elektrody, zatrzymywały się i poruszały się od elektrody. Jednak, jako że materiał elektrody miał nieco większe powinowactwo do litu, jony litu były tymi, które pierwsze do elektrody trafiały i ostatnie ją opuszczały. Po 10 takich cyklach, które w sumie trwały kilka minut, stosunek jonów litu do sodu wynosił 1:1. To znaczący postęp, przyznaje Choi.
      Nowa technologia wciąż prawdopodobnie nie jest konkurencyjna ekonomicznie w porównaniu z obecnie stosowanymi metodami. Jednak Chong Liu z University of Chicago, która w przeszłości współpracowała z Cui, zapowiada, że spróbuje wykorzystać inny typ elektrod i być może uda się osiągnąć lepsze wyniki. Z kolei Choi dodaje, że nowa technologia może przydać się przy odzyskiwaniu litu ze zużytych akumulatorów.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Zwierzęta morskie utrzymują równowagę wśród wirusów zamieszkujących wodę. Biolog morski Jennifer Welsh będzie w najbliższy poniedziałek broniła – oczywiście online – pracy doktorskiej na Wolnym Uniwersytecie w Amsterdamie. Jej temat brzmi Marine virus predation by non-host organism.
      Wirusy to najbardziej rozpowszechnione cząstki biologiczne w środowisku morskim. Niewiele jednak wiadomo o potencjalnych skutkach ekologicznych procesu usuwania wirusów przez organizmy nie będące ich gospodarzami, czytamy w artykule, który Welsh opublikowała na łamach Nature. Wiemy, że wirusy, poprzez uśmiercanie czy skracanie życia w inny sposób, regulują populację organizmów będących ich gospodarzami. Pani Welsh chciała się dowiedzieć, jak populacja wirusów jest regulowana przez organizmy nie będące ich gospodarzami.
      Wirusy mogą być pożywieniem dla wielu organizmów. Na przykład ostryżyca japońska filtruje wodę, by pobierać z niej tlen, glony i bakterie. Przy okazji pochłania jednak wirusy. Podczas naszych eksperymentów nie podawaliśmy ostryżycom żadnego pożywienia. Filtrowały wodę tylko po to, by pobrać z niej tlen. Okazało się, że usunęły z wody 12% wirusów, mówi Welsh.
      Jednak to nie ostryżyce najbardziej efektywnie usuwały wirusy. Uplasowały się dopiero na 4. pozycji wśród zwierząt badanych przez Welsh. Z organizmów, które testowaliśmy, najlepiej sprawowały się gąbki, kraby i sercówki. Podczas naszych eksperymentów w ciągu trzech godzin gąbki usunęły z wody aż 94% wirusów. Nawet, gdy co 20 minut dostarczaliśmy do wody kolejny zestaw wirusów gąbki niezwykle efektywnie je usuwały, mówi uczona.
      Welsh dodaje, że uzyskanych przez nią wyników nie można przekładać wprost na środowisko naturalne. Tam sytuacja jest znacznie bardziej złożona. Obecnych jest bowiem wiele innych gatunków, które wpływają na siebie nawzajem. Na przykład, gdy ostryżyca filtruje wodę i w pobliżu znajdzie się krab, ostryżyca zamyka skorupę i przestaje filtrować. Ponadto na zwierzęta mają wpływ ruchy wody, temperatura, promieniowanie ultrafioletowe, wyjaśnia.
      Badania Welsh przydadzą się w akwakulturze. Ryby hoduje się tam w zamknięciu w wodach oceanicznych. W takich farmach słonej wody olbrzyma liczba zwierząt z jednego gatunku jest trzymana w monokulturze. Jeśli w takich hodowli wybuchnie epidemia, istnieje wysokie ryzyko, że patogen rozprzestrzeni się na żyjące w oceanie dzikie populacje. Jeśli do takiej hodowli dodamy wystarczającą liczbę gąbek, możemy zapobiec rozprzestrzenianiu się epidemii.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...