Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Tańsza energia słoneczna

Recommended Posts

IBM poinformował o dokonaniu przełomu w technologii ogniw fotowoltaicznych. Najnowsze odkrycia firmy powinny znacząco obniżyć koszt produkcji energii ze Słońca.

Inżynierowie przyznają, że zainspirowały ich dzieci używające szkła powiększającego do koncentracji promieni słonecznych. Pracownicy Błękitnego giganta stworzyli więc soczewki, które na 1 centymetrze kwadratowym ogniwa skupiały aż 230 watów energii słonecznej. Jest ona zamieniana na 70 watów energii elektrycznej. Nowe ogniwa pozwalają więc uzyskać pięciokrotnie więcej mocy, niż ogniwa obecnie stosowane.

Badania IBM-a pozwalają na przykład na 10-krotne zmniejszenie liczby ogniw koniecznych do uzyskania wymaganej ilości mocy. Dzieje się tak dlatego, że obecne ogniwa fotowoltaiczne mają moc 200 "słońc" ("słońce" to jednostka oznaczająca moc dostarczaną przez Słońce w południe, przy bezchmurnym niebie) i dostarczają do ogniwa 20 watów mocy na centymetr kwadratowy. Nowe ogniwa, jak już wspomniano, dostarczają jej 230 watów (ich moc wynosi zatem 2300 słońc).

Największym wyzwaniem było schłodzenie ogniw, na które pada tak skoncentrowana wiązka energii. Skoncentrowanie na centymetrze kwadratowym około 2000 słońc powoduje powstanie temperatury powyżej 1600 stopni Celsjusza. To wystarczy do stopienia stali. Naukowcy IBM-a poradzili sobie z tym problemem wykorzystując opracowaną na potrzeby układów komputerowych technologię chłodzenia płynnym metalem. Dzięki niej udało się obniżyć temperaturę z ponad 1600 do zaledwie 85 stopni Celsjusza. System chłodzący wykorzystuje gal oraz ind i najbardziej efektywnym i, co ważne, tanim.

Share this post


Link to post
Share on other sites
na 1 centymetrze kwadratowym ogniwa skupiały aż 230 watów energii słonecznej

 

;D ;D ;D

 

nie no sił brakuje na palantów

Share this post


Link to post
Share on other sites
na 1 centymetrze kwadratowym ogniwa skupiały aż 230 watów energii słonecznej

 

;D ;D ;D

 

jak by ktos nie widzial to wat to jednostka mocy, jasnosci a energie mierzy sie w dżulach.

Share this post


Link to post
Share on other sites

Srednie nasłonecznienie w Polsce to 1000 W/m2 wiec opisywana soczewka musi mieć powierzchnie przynajmniej czwatą część m2 najbardziej wydajne pasmo to UV ale soczewki szlkane go usuwają , plastikowe przepuszczją ale po dwu latach mętnieją , zostaje jeszcze szkło kwarcowe to podnosi znacznie koszty.

 

Najprostszą metodą to lustra wklęsłe (jak talerze do satelity) z mikro turbinkami (1kW)  chłodzone wodą użytkową. (bez wygłupów z ciekłymi metalami) 8)

 

jak by ktos nie widzial to wat to jednostka mocy, jasnosci a energie mierzy sie w dżulach.

 

1kW/h = 3,6 MJ = 3 600 000 J

Share this post


Link to post
Share on other sites

Srednie nasłonecznienie w Polsce to 1000 W/m2 wiec opisywana soczewka musi mieć powierzchnie przynajmniej czwatą część m2 najbardziej wydajne pasmo to UV ale soczewki szlkane go usuwają , plastikowe przepuszczją ale po dwu latach mętnieją , zostaje jeszcze szkło kwarcowe to podnosi znacznie koszty.

 

Najprostszą metodą to lustra wklęsłe (jak talerze do satelity) z mikro turbinkami (1kW)  chłodzone wodą użytkową. (bez wygłupów z ciekłymi metalami) 8)

 

lustra wklesle sa juz stosowane oddawna

Share this post


Link to post
Share on other sites
lustra wklesle sa juz stosowane oddawna

 

Zgadza się, do topienia trudnotopliwych metali i uzyskiwania super czystych metali ale w domowych warynkach mogłyby gotować wodę na parę i napędzać mikro turbinkę elektryczną a za turbiną podgrzewać wodę użytkową. 8)

Share this post


Link to post
Share on other sites

To czemu tego nie wprowadzisz dla dobra świata, panie inżynier? Widzę, że lubisz dużo gadać o tym, ile trzeba by dla świata robić, a w praktyce jakoś kiepsko wychodzi.

Share this post


Link to post
Share on other sites
To czemu tego nie wprowadzisz dla dobra świata, panie inżynier? Widzę, że lubisz dużo gadać o tym, ile trzeba by dla świata robić, a w praktyce jakoś kiepsko wychodzi.

 

Nawóz nie rośnie , inspiracja nie tworzy. 8)

Share this post


Link to post
Share on other sites

Czyli jak mniemam masz poczucie, że twoja misja na świecie to marudzenie, że wszyscy dookoła się obijają, ale sam do konkretnej roboty się nie weźmiesz? i ty sam, jak rozumiem, nie musisz robić nic?

Share this post


Link to post
Share on other sites
Czyli jak mniemam masz poczucie, że twoja misja na świecie to marudzenie, że wszyscy dookoła się obijają, ale sam do konkretnej roboty się nie weźmiesz? i ty sam, jak rozumiem, nie musisz robić nic?

 

Nie mniemaj tylko bierz się do roboty.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Prace międzynarodowej grupy badawczej, na czele której stali specjaliści ze Skołkowskiego Instytutu Nauki i Technologii (Skoltech) w Moskwie oraz IBM-a zaowocowały powstaniem energooszczędnego superszybkiego przełącznika optycznego. Urządzenie nie wymaga chłodzenia, a jednocześnie jest ponad 100-krotnie szybsze od najszybszych współczesnych tranzystorów.
      Tym, co czyni to urządzenie tak bardzo energooszczędnym jest fakt, że do przełączenia stanu potrzebuje zaledwie kilku fotonów, mówi główny autor badań Anton Zasiedatieliew. W laboratorium udało się nam go przełączać za pomocą pojedynczego fotonu. I to w temperaturze pokojowej. Jednak minie sporo czasu, zanim taka technologia będzie mogła trafić do procesorów optycznych, dodaje profesor Pawlos Lagudakis.
      Możliwość przełączania za pomocą pojedynczego fotonu oznacza, że układ jest niezwykle energooszczędny i zostało niewiele miejsca na jego dalsze udoskonalenie. Oczywiście musimy przy tym pamiętać, że obecnie działa to jedynie w wyspecjalizowanym laboratorium. Jednak tak właśnie zaczyna się wielu historia technologii, które w końcu trafiają do codziennego użytku. Większość współczesnych tranzystorów elektrycznych potrzebuje dziesiątki razy więcej energii, by się przełączyć, a te, którym wystarczy pojedynczy elektron, działają znacznie wolniej niż zademonstrowany właśnie przełącznik optyczny.
      Jednak szybkość i energooszczędność to nie jedyne zalety nowej technologii. Równie ważny jest fakt, że przełącznik działa w temperaturze pokojowej i nie wymaga chłodzenia. Tymczasem systemy chłodzenia potrzebne współczesnym komputerom nie tylko wpływają na koszty samego sprzętu, ale też znacząco zwiększają zużycie energii koniecznej do ich zasilania.
      Urządzenie składa się z dwóch laserów. Bardzo słaby promień lasera kontrolnego jest używany do przełączania stanu drugiego jaśniejszego z laserów. Do przełączenia wystarczy kilka fotonów, stąd wynika wysoka efektywność całości. Przełączanie odbywa się wewnątrz mikrownęki. To 35-nanometrowej grubości organiczny polimer półprzewodzący zamknięty pomiędzy dwiema nieorganicznymi warstwami o wysokim współczynniku odbicia. Mikrownęka zbudowana jest w taki sposób, by jak najdłużej więzić nadchodzące światło, prowadząc w ten sposób do jego sprzężenia z materiałem wnęki.
      Oddziaływanie światła z materią to podstawa działania nowego urządzenia. Gdy fotony sprzęgają się z parami dziura-elektron – tworzącymi kwazicząstkę o nazwie ekscyton – pojawiają się kwazicząstki ekscyton-polaryton. Gdy silniejszy z laserów oświetla przełącznik powstają tysiące identycznych krótko żyjących kwazicząstek tworzących kondensat Bosego-Einsteina, w którym kodowany jest stan urządzenia „0” lub „1”.
      Najpierw za pomocą silniejszego lasera we wnęce tworzone są kwazicząstki o energiach większych niż energia podstawowa. Przełącznik znajduje się w stanie „0” Do przełączenia potrzebny jest laser słabszy, za pomocą którego tworzona jest grupa kwazicząstek o energii podstawowej. Ich pojawienie się wywołuje lawinowy proces przełączania się pozostałych kwazicząstek do stanu podstawowego. W ten sposób uzyskujemy stan „1”. Czas przełączania liczony jest w femtosekundach, dzięki czemu przełącznik jest ponad 100-krotnie szybszy od współczesnych tranzystorów.
      Naukowcy użyli kilku sztuczek, by utrzymać zapotrzebowanie na energię na jak najniższym poziomie przy jednoczesnym zmaksymalizowaniu pracy urządzenia. W efektywnym przełączaniu pomagają wibracje molekuł półprzewodzącego polimeru. Konieczne było precyzyjne dopasowanie częstotliwości pracy laserów, stanu kondensatu i energii wibracji molekuł polimeru.
      Przed nami jeszcze sporo pracy. Musimy zmniejszyć całkowite zapotrzebowania urządzenia na energię. Obecnie jest ono zdominowane przez silniejszy z laserów, który utrzymuje przełącznik w gotowości. Prawdopodobnie trzeba będzie wykorzystać tutaj perowskitowego superkryształu, z którym wcześniej eksperymentowaliśmy. Są one doskonałymi kandydatami to zbudowania naszego przełącznika, gdyż zapewniają bardzo silną interakcję światła z materią, stwierdzają autorzy badań.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Caltech (California Institute of Technology) poinformował właśnie, że od roku 2013 Donald Bren – najbogatszy deweloper w USA – wraz z żoną Brigitte przekazali uczelni ponad 100 milionów dolarów na prace nad pozyskiwaniem energii słonecznej w przestrzeni kosmicznej i przesyłaniem jej na Ziemię. Dzięki nim w roku 2022 lub 2023 w przestrzeń kosmiczną trafi pierwsza testowa instalacja.
      Majątek 89-letniego Brena jest wyceniany na 15–16 miliardów dolarów. Dorobił się olbrzymich pieniędzy na budowie nieruchomości. Jest skrytym człowiekiem, rzadko udziela wywiadów. Przeznacza duże kwoty na działalność charytatywną. Wiadomo, że setkami milionów dolarów wspiera edukację, naukę i ochronę środowiska. W ciągu ostatnich 30 lat przekazał też 220 km2 terenów na potrzeby parków, rezerwatów i terenów rekreacyjnych. O tym, że woli pozostawać w cieniu może świadczyć sam fakt, że o finansowaniu przez Brena Space Solar Power Project poinformowano dopiero po 8 latach.
      Wysoka orbita okołoziemska to bardzo dobre miejsce do pozyskiwania energii słonecznej. Słońce nigdy tam nie zachodzi, nie formują się chmury. Od dawna jest ona przedmiotem zainteresowania inżynierów. Jednak dotychczasowe projekty były nierealistyczne. Zbyt wielkie, by mogły się udać. Zakładały bowiem zbudowanie olbrzymich wielokilometrowych struktur pozyskujących energię, która następnie za pomocą laserów lub mikrofal byłaby przesyłana na Ziemię. Budowa takich struktury wymagałaby startów setek rakiet.
      Tym, czego naprawdę potrzebowaliśmy była zmiana paradygmatu technologicznego, mówi profesor Harry Atwater, kierujący Space Solar Power Project. Zamiast urządzenia, które waży kilogram na metr kwadratowy, możemy obecnie stworzyć system o macie 100-200 gramów na metr kwadratowy i mamy plany zejścia z masą do 10-20 gramów na m2, informuje uczony.
      Największa zmiana w myśleniu zaszła w samej budowie paneli słonecznych. Naukowcy z Caltechu budują modułowe panele. Każde z lekkich galowo-arsenkowych ogniw jest mocowane do „kafelka” o powierzchni 100 cm2. Każdy z „kafelków” – i to właśnie ma być kluczem do sukcesu – jest indywidualną stacją słoneczną, wyposażoną z fotowoltaikę, elektronikę oraz przekaźnik mikrofalowy. „Kafelki” będą łączone w większe moduły o powierzchni kilkudziesięciu metrów kwadratowych, a tysiące takich modułów będą tworzyły heksagonalną stacją o kilkukilometrowej długości. Jednak moduły nie będą ze sobą połączone. Nie będzie ciężkich kabli czy rusztowań.
      Myślimy o tym jak o ławicy ryb. To zestaw identycznych niezależnych elementów latających w formacji, mówi Atwater.
      Transmisja na Ziemię będzie odbywała się za pomocą mikrofal. Sygnały z poszczególnych „kafelków” będą synchronizowane, co pozwoli na wycelowanie ich w naziemny odbiornik bez potrzeby używania ruchomych części. Całość zaś będzie bezpieczna. Promieniowanie mikrofalowe jest promieniowaniem niejonizującym, a gęstość przesyłanej energii będzie taka, jak gęstość energii słonecznej.
      Miną jednak lata, zanim na co dzień będziemy korzystali z tego typu rozwiązań. Wcześniej czy później przesyłanie energii z kosmosu na Ziemię stanie się codziennością. Do optymizmu skłaniają zarówno spadające koszty lotów w kosmos, jak i intensywne prace, prowadzone np. przez agencje kosmiczne z USA, Chin czy Japonii.
      Niewykluczone jednak, że pierwsze urządzenia zasilane w ten sposób nie będą znajdowały się na Ziemi, a w kosmosie. Może się bowiem okazać, że przesyłanie energii mikrofalowej z farm orbitalnych do satelitów czy stacji kosmicznych jest rozwiązaniem bardziej praktycznym, niż konieczność wyposażania satelitów i stacji we własne panele słoneczne.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W laboratorium IBM-a w Zurichu zaprezentowano rekordowo pojemny napęd taśmowy. Pojedynczy kartridż pozwala na przechowanie aż... 580 terabajtów danych. To aż 29-krotnie więcej niż oferowany obecnie przez IBM-a kartridż o pojemności 20 TB. Błękitny Gigant jest tutaj rynkowym liderem. Najnowszy standard przemysłowy LTO-Ultrium (Linear Tape-Open, version 9) mówi o kartridżach o pojemności 18 TB.
      Mark Lantz, menedżer CloudFPGA odpowiedzialny w IBM Zurich za technologie taśmowe mówi, że w ostatnich latach taśmy magnetyczne przeżywają swój renesans. Ma to związek z jednej strony z wykładniczym wzrostem ilości wytwarzanych danych, które trzeba gdzieś archiwizować oraz z jednoczesnym spowolnieniem przyrostu gęstości zapisu na dyskach twardych. Jak zauważa Lantz, w ciągu ostatnich kilkunastu lat składane roczne tempo wzrostu gęstości zapisu na HDD spadło do poniżej 8%. Jednocześnie świat produkuje coraz więcej danych. Roczny wzrost wytwarzania informacji wynosi aż 61%. Eksperci mówią, że do roku 2025 wytworzymy 175 zetabajtów danych.
      Jako, że gęstość zapisu HDD niemal stanęła w miejscu, dramatycznie wzrosła cena każdego gigabajta dysnku twardego. Już w tej chwili 1 bit HDD jest czterokrotnie droższy niż 1 bit taśmy magnetycznej. Ta wielka nierównowaga pojawiła się w bardzo niekorzystnym momencie, gdy ilość wytwarzanych danych zaczęła gwałtownie rosnąć. Centra bazodanowe mają coraz większy problem. Na szczęście zdecydowana większość danych to informacje, które są rzadko potrzebne. To zaś oznacza, że w ich przypadku szybkość odczytu danych nie jest rzeczą zbyt istotną. Mogą być więc przechowywane na taśmach magnetycznych.
      Taśmy mają wiele zalet w porównaniu z dyskami twardymi. Są bardziej odporne na ataki cyberprzestępców, do działania potrzebują mniej energii, są trwałe i znacznie tańsze w przeliczeniu na gigabajt. Zalety te spowodowały, że – jak ocenia IBM – już 345 000 eksabajtów danych przechowywanych jest właśnie na taśmach.
      Najnowszy napęd taśmowy to wynik 15-letniej współpracy IBM-a i Fujifilm. Od roku 2006 firmy pobiły sześć kolejnych rekordów dotyczących napędów taśmowych. Ostatnie osiągnięcie było możliwe dzięki udoskonaleniu samej taśmy, głowicy odczytującej oraz serwomechanizmu odpowiadającego za precyzję pozycjonowania głowicy. Firma Fujifilm odeszła tutaj od przemysłowego standardu jakim jest ferryt baru i pokryła taśmę mniejszymi cząstkami ferrytu strontu. Inżynierowie IBM-a, mając do dyspozycji nową taśmę, opracowali nową technologię głowicy odczytująco-zapisującej, która współpracuje z tak gładką taśmą.
      O tym jak wielkie postępy zostały dokonane w ciągu kilkunastoletniej współpracy Fujifilm i IBM-a najlepiej świadczą liczby. W roku 2006 obie firmy zaprezentowały taśmę pozwalającą na zapisanie 6,67 miliarda bitów na calu kwadratowym. Najnowsza taśma pozwala na zapis 317 miliardów bitów na cal. Kartridż z roku 2006 miał pojemność 8 TB, obecnie jest to 580 TB. Szerokość ścieżki zapisu wynosiła przed 14 laty 1,5 mikrometra (1500 nanometrów), teraz to zaledwie 56,2 nanometra. Liniowa gęstość zapisu w roku 2006 sięgała 400 000 bitów na cal taśmy. Na najnowszej taśmie na każdym calu można zapisać 702 000 bitów. Zmniejszyła się też – z 6,1 mikrometra do 4,3 mikrometra – grubość taśmy, wzrosła za to jej długość. W pojedynczym kartridżu mieści się obecnie 1255 metrów taśmy, a przed 14 laty było to 890 metrów.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      IBM uruchomił w Nowym Jorku Quantum Computation Center, w którym znalazł się największy na świecie zbiór komputerów kwantowych. Wkrótce dołączy do nich nich 53-kubitowy system, a wszystkie maszyny są dostępne dla osób i instytucji z zewnątrz w celach komercyjnych i naukowych.
      Quantum Computation Center ma w tej chwili ponad 150 000 zarejestrowanych użytkowników oraz niemal 80 klientów komercyjnych, akademickich i badawczych. Od czasu, gdy w 2016 roku IBM udostępnił w chmurze pierwszy komputer kwantowy, wykonano na nim 14 milionów eksperymentów, których skutkiem było powstanie ponad 200 publikacji naukowych. W związku z rosnącym zainteresowaniem obliczeniami kwantowymi, Błękity Gigant udostępnił teraz 10 systemów kwantowych, w tym pięć 20-kubitowych, jeden 14-kubitowy i cztery 5-kubitowe. IBM zapowiada, że w ciągu miesiąca liczba dostępnych systemów kwantowych wzrośnie do 14. Znajdzie się wśród nich komputer 53-kubitowy, największy uniwersalny system kwantowy udostępniony osobom trzecim.
      Nasza strategia, od czasu gdy w 2016 roku udostępniliśmy pierwszy komputer kwantowy, polega na wyprowadzeniu obliczeń kwantowych z laboratoriów, gdzie mogły z nich skorzystać nieliczne organizacje, do chmur i oddanie ich w ręce dziesiątków tysięcy użytkowników, mówi Dario Gil, dyrektor IBM Research. Chcemy wspomóc rodzącą się społeczność badaczy, edukatorów i deweloperów oprogramowania komputerów kwantowych, którzy dzielą z nami chęć zrewolucjonizowania informatyki, stworzyliśmy różne generacje procesorów kwantowych, które zintegrowaliśmy w udostępnione przez nas systemy kwantowe.
      Dotychczas komputery kwantowe IBM-a zostały wykorzystane m.in. podczas współpracy z bankiem J.P. Morgan Chase, kiedy to na potrzeby operacji finansowych opracowano nowe algorytmy przyspieszające pracę o całe rzędy wielkości. Pozwoliły one na przykład na osiągnięcie tych samych wyników dzięki dostępowi do kilku tysięcy przykładów, podczas gdy komputery klasyczne wykorzystujące metody Monte Carlo potrzebują milionów próbek. Dzięki temu analizy finansowe mogą być wykonywane niemal w czasie rzeczywistym. Z kolei we współpracy z Mitsubishi Chemical i Keio University symulowano początkowe etapy reakcji pomiędzy litem a tlenem w akumulatorach litowo-powietrznych.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Badacze IBM-a postawili sobie ambitny cel. Chcą co roku dwukrotnie zwiększać wydajność komputerów kwantowych tak, by w końcu były one szybsze lub bardziej wydajne niż komputery klasyczne. Podczas tegorocznych targów CES IBM pokazał przełomowe urządzenie: IBM Q System One, pierwszy komputer kwantowy, który ma być gotowy do komercyjnego użytku.
      Celem IBM-a jest coś, co nazywają „Quantum Advantage” (Kwantowa przewaga). Zgodnie z tym założeniem komputery kwantowe mają zyskać „znaczną” przewagę nad komputerami klasycznymi. Przez „znaczną” rozumie się tutaj system, który albo będzie setki lub tysiące razy szybszy od komputerów kwantowych, albo będzie wykorzystywał niewielki ułamek pamięci potrzebny maszynom kwantowym lub też będzie w stanie wykonać zadania, jakich klasyczne komputery wykonać nie są.
      Wydajność komputera kwantowego można opisać albo za pomocą tego, jak sprawują się poszczególne kubity (kwantowe bity), albo też jako ogólną wydajność całego systemu.
      IBM poinformował, że Q System One może pochwalić się jednym z najniższych odsetków błędów, jakie kiedykolwiek zmierzono. Średni odsetek błędów na dwukubitowej bramce logicznej wynosi mniej niż 2%, a najlepszy zmierzony wynik to mniej niż 1%. Ponadto system ten jest bliski fizycznemu limitowi czasów koherencji, który w w przypadku Q System One wyniósł średnio 73 ms.To oznacza, że błędy wprowadzane przez działanie urządzenia są dość małe i zbliżamy się do osiągnięcia minimalnego możliwego odsetka błędów, oświadczyli badacze IBM-a.
      Błękitny Gigant stworzył też Quantum Volume, system pomiaru wydajności komputera kwantowego jako całości. Bierze on pod uwagę zarówno błędy na bramkach, błędyh pomiarów czy wydajność kompilatora. Jeśli chcemy osiągnąć Quantum Advantage w latach 20. XXI wieku, to każdego roku wartość Quantum Volume musi się co najmniej podwajać, stwierdzili badacze. Na razie udaje im się osiągnąć cel. Wydajność pięciokubitowego systemu Tenerife z 2017 roku wynosiła 4. W 2018 roku 20-kubitowy system IBM Q osiągnął w teście Quantum Volume wynik 8. Najnowszy zaś Q System One nieco przekroczył 16.
      Sądzimy, że obecnie przyszłość komputerów to przyszłość komputerów kwantowych, mówią specjaliści z IBM-a.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...