Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Ogniwa z wyrzuconych plastrów

Rekomendowane odpowiedzi

IBM opracował sposób na wykorzystanie wadliwych plastrów krzemowych w roli ogniw słonecznych. Każdego dnia w fabrykach produkujących układy scalone do kosza wędruje wiele plastrów, na których pojawiły się błędy. Plastry takie były wyrzucane na wysypisko. Można było również usunąć z nich nadrukowane obwody i odsprzedać.

Naukowcy IBM-a wymyślili specjalny proces, który umożliwia sprzedaż wadliwych plastrów producentom paneli słonecznych, którzy mogą je wykorzystać. Musimy pamiętać, że wadliwie wyprodukowanego plastra nie można po prostu odsprzedać każdemu chętnemu, gdyż konkurencja, mając w ręku taki gotowy plaster, mogłaby ukraść producentowi jego własność intelektualną.

Opracowany przez IBM-a proces pozwala na szybkie usunięcie przez producenta tych elementów, które chce chronić przed wścibskim okiem.

IBM na razie nie zdradza szczegółów swojego procesu. Zapewnia jednak, że udostępni wszelkie niezbędne informacje producentom paneli słonecznych.

Prace Błękitnego Giganta już zostały nagrodzone prestiżową 2007 Most Valuable Pollution Prevention Award przyznawaną przez Narodową Radę Zapobiegania Zanieczyszczeniom (The National Pollution Prevention Roundtable – NPPR).

Dzięki wynalazkowi IBM-a z jednej strony zmniejszy się liczba odpadów, gdyż plastry nie będą trafiały na wysypisko, a jednocześnie powinna spaść cena ogniw słonecznych. Trzeba bowiem pamiętać, że producenci tych ogniw również korzystają z krzemu i konkurują o ten materiał z producentami elektroniki. Wyższy popyt oznacza zwykle wyższą cenę.

Teraz, gdy możliwe stało się produkowanie ogniw słonecznych z materiału odpadowego, jakim są wadliwe plastry krzemowe, cena ogniw powinna spaść. Dzięki temu ich zakup stanie się bardziej opłacalny, technologia pozyskiwania energii ze Słońca się rozpowszechni, co z kolei spowoduje zmniejszenie emisji zanieczyszczeń.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Musimy pamiętać, że wadliwie wyprodukowanego plastra nie można po prostu odsprzedać każdemu chętnemu, gdyż konkurencja, mając w ręku taki gotowy plaster, mogłaby ukraść producentowi jego własność intelektualną.

 

Tak bo konkurencja to głupki, a i nie stać ich by taki panel słoneczny sobie kupić i zbadać.

Problemy finansowe zmuszają do zagospodarowania odpadów.

 

bowiem pamiętać, że producenci tych ogniw również korzystają z krzemu i konkurują o ten materiał z producentami elektroniki.

 

Tak , tak bo piasku już zaczyna brakować??  ;D ;D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Musimy pamiętać, że wadliwie wyprodukowanego plastra nie można po prostu odsprzedać każdemu chętnemu, gdyż konkurencja, mając w ręku taki gotowy plaster, mogłaby ukraść producentowi jego własność intelektualną.

 

Tak bo konkurencja to głupki, a i nie stać ich by taki panel słoneczny sobie kupić i zbadać.

Problemy finansowe zmuszają do zagospodarowania odpadów.

To nie takie proste - nie zawsze w finalnym produkcie widać, co działo się z nim na poprzednich etapach produkcji.

 

bowiem pamiętać, że producenci tych ogniw również korzystają z krzemu i konkurują o ten materiał z producentami elektroniki.

 

Tak , tak bo piasku już zaczyna brakować??   ;D ;D

Tak, a wiesz, ile kosztuje oczyszczenie krzemu do takiego stopnia jakości, jak ten stosowany w elektronice? O piasek konkurować nie trzeba, ale o superczysty krzem już na pewno. Poza tym im mniej marnujesz, tym mniej kosztuje Ciebie kilogram finalnego produktu, to chyba oczywiste. Więc to też pewna forma konkurencji

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Tak, a wiesz, ile kosztuje oczyszczenie krzemu do takiego stopnia jakości, jak ten stosowany w elektronice? O piasek konkurować nie trzeba, ale o superczysty krzem już na pewno. Poza tym im mniej marnujesz, tym mniej kosztuje Ciebie kilogram finalnego produktu, to chyba oczywiste. Więc to też pewna forma konkurencji

 

 

Skoro tak to dlaczego nie przerabiają odpadów ??

 

Produkcja czystego krzemu to wcale nie takie wielkie koszty jeśli zważymy na ceny procesorów i porównamy z cenami innych układów w elektronice gdzie również krzem idzie.

 

To nie takie proste - nie zawsze w finalnym produkcie widać, co działo się z nim na poprzednich etapach produkcji

 

(tak jest w informatyce po skompilowaniu )zestaw to z tym poniżej

 

Plastry takie były wyrzucane na wysypisko. Można było również usunąć z nich nadrukowane obwody i odsprzedać.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dlaczego nie przerabiają odpadów? Bo być może do tej pory było to zbyt drogie. Albo zbyt skomplikowane logistycznie. Nie do mnie to pytanie. Tak samo nielogiczne jest produkowanie butelek PET z "świeżego" surowca zamiast ze zmielonych i przetopionych starych - a mimo to mało kto decyduje się na recykling. To nie jest zależne ode mnie.

 

To nie takie proste - nie zawsze w finalnym produkcie widać, co działo się z nim na poprzednich etapach produkcji

 

(tak jest w informatyce po skompilowaniu )zestaw to z tym poniżej

 

Plastry takie były wyrzucane na wysypisko. Można było również usunąć z nich nadrukowane obwody i odsprzedać.

Prawdę mówiąc nie do końca rozumiem związek między jednym a drugim. Usuwanie tego, co było wcześniej na płycie, przecież kosztuje - więc nikomu by się nie chciało wydawać na to kasy ot tak, jeśli nie udałoby się tego sprzedać.

 

Natomiast powtarzam, że widok finalnego produktu nie daje pełnego wglądu w proces produkcji. Weź głupi przykład: widzisz monolityczny element metalowy o skomplikowanym kształcie. Na podstawie widoku gotowego kawałka nie określisz jednoznacznie, czy był spawany, czy może odlewany w specjalnej trójwymiarowej formie, która potem została wykruszona. Tego nie wiesz, choć widzisz kompletny element.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

;D ;D ;D

Natomiast powtarzam, że widok finalnego produktu nie daje pełnego wglądu w proces produkcji. Weź głupi przykład: widzisz monolityczny element metalowy o skomplikowanym kształcie. Na podstawie widoku gotowego kawałka nie określisz jednoznacznie, czy był spawany, czy może odlewany w specjalnej trójwymiarowej formie, która potem została wykruszona. Tego nie wiesz, choć widzisz kompletny element

 

Ty naprawdę myślisz że świat składa się z debili?? - jądro atomowe już sfotografowano. 8)

Szyfry się łamie ,a dylematy o jakich piszesz rozwiązywano bezbłednie w czasach produkcji szabli.

Wyrzucali do smieci bo przebitka na procesorze była olbrzymia a teraz idzie słabiej i muszą kombinować z odpadami ,a zasłanianie się tajemnicą jest bzdurą ,bo konkurencja posiada kasę na zakup 10 000 gotowych procków , właściwy sprzęt do analizy  , wiedzę , sztab wysoko wykształconych speców - to zwykłe niedbalstwo i dobrze że z tym skończyli. A panele elektryczne nie potanieją od tego , co najwyżej wzrosną komuś zyski.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jądro atomowe sfotografowano, a nie wiadomo jak powstał Wszechświat. To, że jest zdjęcie tak małego obiektu jeszzce o niczym nie przesądza. Weź do ręki inny przykład: masz przed sobą samochód i zapewniam Cię, że choćbyś nie wiem jak kombinował nigdy nie zgadniesz na podstaawie gotowego produktu, czy pierwsze były do niego montowane przednie drzwi, czy klapa. Produkt finalny nie pokazuje procesu produkcji, dlatego też kradzież półproduktów może być bardzo istotnym źródłem informacji. Musiałem to przedstawić w wersji łopatologicznej, wybacz.

 

A odnosząc się do cytatu:

 

Produkcja czystego krzemu to wcale nie takie wielkie koszty jeśli zważymy na ceny procesorów i porównamy z cenami innych układów w elektronice gdzie również krzem idzie.

Tyle tylko, że procesory po pierwsze mają większą powierzchnię samego krzemu, po drugie mają znacznie cieńsze ścieżki (co podnosi koszt produkcji, a do tego wymaga ogromnych inwestycji w sprzęt), a po trzecie wymagają jezscze czystszego krzemu. Owszem, przebitka jest wielka, ale też kosztów produkcji nie da się ot tak odnieść do prostego scalaka.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No cóż również przedstawię to łopatologicznie ;D

masz przed sobą samochód i zapewniam Cię, że choćbyś nie wiem jak kombinował nigdy nie zgadniesz na podstaawie gotowego produktu, czy pierwsze były do niego montowane przednie drzwi, czy klapa. Produkt finalny nie pokazuje procesu produkcji,

 

Tak wydaje się tobie, może mnie ale nie gościowi z konkurencji który zjadł zęby na składaniu samochodów, tak samo jest z materiałoznawstwem i technologią produkcji. Co w rękach nie da się ukryć (to dlatego tyle patentów o strategicznym znaczeniu połknęło wojsko).

 

a po trzecie wymagają jezscze czystszego krzemu. Owszem, przebitka jest wielka, ale też kosztów produkcji nie da się ot tak odnieść do prostego scalaka.

 

To bzdura, bo domieszkowanie i proces produkcji musi być zachowany nawet dla tak głupich urządzeń jak ogniwa słoneczne a co dopiero tranzystorów. W scalaku tranzystorów jest mniej i nie muszą popychać 3ghz (mogą byc grube ścieżki ) ale ich cena w większości to tak 50gr do 100zł a nie 3000zł.

 

Ale stopień technologicznego zaawansowania wcale nie musi być mniejszy jeśli weźmiemy technologię nadajników telekomunikacji komórkowej ,tam byle kostka radzi sobie z 3Ghz  i to niezawodnie 8)

 

Problem o którym piszesz został jeszcze w chemii, informatyce no i PM.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
PM.

Nie czuję się zobligowany do jakiejkolwiek odpowiedzi.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie wiem, czy jest się z czego cieszyć - z tego, że sam wcześniej z własnej woli obiecałeś nie przytaczać tego argumentu?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

dla niektórych istnieje "oczywista oczywistość" a dla niektórych nie. gorsze jest to że ci pierwsi czasem mają rację

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Dyrektor wykonawczy IBM-a Arvind Krishna poinformował, że jego firma przestanie rekrutować ludzi na stanowiska, na których w najbliższych latach mogą być oni zastąpieni przez sztuczną inteligencję. W wywiadzie dla Bloomberga menedżer stwierdził, że rekrutacja na stanowiska biurowe, na przykład w dziale HR, może zostać znacznie spowolniona lub całkowicie wstrzymana. Obecnie na tego typu stanowiskach – gdzie nie ma kontaktu z klientem – IBM zatrudnia 26 000 osób.
      Zdaniem Krishny, w ciągu najbliższych 5 lat sztuczna inteligencja może zastąpić 30% z nich. To oznacza, że w samym tylko IBM-ie maszyny zastąpią 7800 osób. Stąd też pomysł na spowolnienie lub wstrzymanie rekrutacji, dzięki czemu uniknie się zwalniania ludzi.
      Krishna mówi, że takie zadania, jak pisanie listów referencyjnych czy przesuwanie pracowników pomiędzy poszczególnymi wydziałami, prawdopodobnie zostaną całkowicie zautomatyzowane. Inne zaś, takie jak analizy produktywności czy struktury zatrudnienia, ludzie będą wykonywali jeszcze przez kolejną dekadę.
      Błękitny Gigant zatrudnia obecnie około 260 000 osób i wciąż zwiększa zatrudnienie. Potrzebuje pracowników przede wszystkim do rozwoju oprogramowania oraz osób pracujących z klientem. Na początku bieżącego roku firma ogłosiła, że planuje zwolnienia, które w sumie obejmą 5000 osób, ale jednocześnie w I kwartale zatrudniła 7000 osób.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Prace międzynarodowej grupy badawczej, na czele której stali specjaliści ze Skołkowskiego Instytutu Nauki i Technologii (Skoltech) w Moskwie oraz IBM-a zaowocowały powstaniem energooszczędnego superszybkiego przełącznika optycznego. Urządzenie nie wymaga chłodzenia, a jednocześnie jest ponad 100-krotnie szybsze od najszybszych współczesnych tranzystorów.
      Tym, co czyni to urządzenie tak bardzo energooszczędnym jest fakt, że do przełączenia stanu potrzebuje zaledwie kilku fotonów, mówi główny autor badań Anton Zasiedatieliew. W laboratorium udało się nam go przełączać za pomocą pojedynczego fotonu. I to w temperaturze pokojowej. Jednak minie sporo czasu, zanim taka technologia będzie mogła trafić do procesorów optycznych, dodaje profesor Pawlos Lagudakis.
      Możliwość przełączania za pomocą pojedynczego fotonu oznacza, że układ jest niezwykle energooszczędny i zostało niewiele miejsca na jego dalsze udoskonalenie. Oczywiście musimy przy tym pamiętać, że obecnie działa to jedynie w wyspecjalizowanym laboratorium. Jednak tak właśnie zaczyna się wielu historia technologii, które w końcu trafiają do codziennego użytku. Większość współczesnych tranzystorów elektrycznych potrzebuje dziesiątki razy więcej energii, by się przełączyć, a te, którym wystarczy pojedynczy elektron, działają znacznie wolniej niż zademonstrowany właśnie przełącznik optyczny.
      Jednak szybkość i energooszczędność to nie jedyne zalety nowej technologii. Równie ważny jest fakt, że przełącznik działa w temperaturze pokojowej i nie wymaga chłodzenia. Tymczasem systemy chłodzenia potrzebne współczesnym komputerom nie tylko wpływają na koszty samego sprzętu, ale też znacząco zwiększają zużycie energii koniecznej do ich zasilania.
      Urządzenie składa się z dwóch laserów. Bardzo słaby promień lasera kontrolnego jest używany do przełączania stanu drugiego jaśniejszego z laserów. Do przełączenia wystarczy kilka fotonów, stąd wynika wysoka efektywność całości. Przełączanie odbywa się wewnątrz mikrownęki. To 35-nanometrowej grubości organiczny polimer półprzewodzący zamknięty pomiędzy dwiema nieorganicznymi warstwami o wysokim współczynniku odbicia. Mikrownęka zbudowana jest w taki sposób, by jak najdłużej więzić nadchodzące światło, prowadząc w ten sposób do jego sprzężenia z materiałem wnęki.
      Oddziaływanie światła z materią to podstawa działania nowego urządzenia. Gdy fotony sprzęgają się z parami dziura-elektron – tworzącymi kwazicząstkę o nazwie ekscyton – pojawiają się kwazicząstki ekscyton-polaryton. Gdy silniejszy z laserów oświetla przełącznik powstają tysiące identycznych krótko żyjących kwazicząstek tworzących kondensat Bosego-Einsteina, w którym kodowany jest stan urządzenia „0” lub „1”.
      Najpierw za pomocą silniejszego lasera we wnęce tworzone są kwazicząstki o energiach większych niż energia podstawowa. Przełącznik znajduje się w stanie „0” Do przełączenia potrzebny jest laser słabszy, za pomocą którego tworzona jest grupa kwazicząstek o energii podstawowej. Ich pojawienie się wywołuje lawinowy proces przełączania się pozostałych kwazicząstek do stanu podstawowego. W ten sposób uzyskujemy stan „1”. Czas przełączania liczony jest w femtosekundach, dzięki czemu przełącznik jest ponad 100-krotnie szybszy od współczesnych tranzystorów.
      Naukowcy użyli kilku sztuczek, by utrzymać zapotrzebowanie na energię na jak najniższym poziomie przy jednoczesnym zmaksymalizowaniu pracy urządzenia. W efektywnym przełączaniu pomagają wibracje molekuł półprzewodzącego polimeru. Konieczne było precyzyjne dopasowanie częstotliwości pracy laserów, stanu kondensatu i energii wibracji molekuł polimeru.
      Przed nami jeszcze sporo pracy. Musimy zmniejszyć całkowite zapotrzebowania urządzenia na energię. Obecnie jest ono zdominowane przez silniejszy z laserów, który utrzymuje przełącznik w gotowości. Prawdopodobnie trzeba będzie wykorzystać tutaj perowskitowego superkryształu, z którym wcześniej eksperymentowaliśmy. Są one doskonałymi kandydatami to zbudowania naszego przełącznika, gdyż zapewniają bardzo silną interakcję światła z materią, stwierdzają autorzy badań.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W laboratorium IBM-a w Zurichu zaprezentowano rekordowo pojemny napęd taśmowy. Pojedynczy kartridż pozwala na przechowanie aż... 580 terabajtów danych. To aż 29-krotnie więcej niż oferowany obecnie przez IBM-a kartridż o pojemności 20 TB. Błękitny Gigant jest tutaj rynkowym liderem. Najnowszy standard przemysłowy LTO-Ultrium (Linear Tape-Open, version 9) mówi o kartridżach o pojemności 18 TB.
      Mark Lantz, menedżer CloudFPGA odpowiedzialny w IBM Zurich za technologie taśmowe mówi, że w ostatnich latach taśmy magnetyczne przeżywają swój renesans. Ma to związek z jednej strony z wykładniczym wzrostem ilości wytwarzanych danych, które trzeba gdzieś archiwizować oraz z jednoczesnym spowolnieniem przyrostu gęstości zapisu na dyskach twardych. Jak zauważa Lantz, w ciągu ostatnich kilkunastu lat składane roczne tempo wzrostu gęstości zapisu na HDD spadło do poniżej 8%. Jednocześnie świat produkuje coraz więcej danych. Roczny wzrost wytwarzania informacji wynosi aż 61%. Eksperci mówią, że do roku 2025 wytworzymy 175 zetabajtów danych.
      Jako, że gęstość zapisu HDD niemal stanęła w miejscu, dramatycznie wzrosła cena każdego gigabajta dysnku twardego. Już w tej chwili 1 bit HDD jest czterokrotnie droższy niż 1 bit taśmy magnetycznej. Ta wielka nierównowaga pojawiła się w bardzo niekorzystnym momencie, gdy ilość wytwarzanych danych zaczęła gwałtownie rosnąć. Centra bazodanowe mają coraz większy problem. Na szczęście zdecydowana większość danych to informacje, które są rzadko potrzebne. To zaś oznacza, że w ich przypadku szybkość odczytu danych nie jest rzeczą zbyt istotną. Mogą być więc przechowywane na taśmach magnetycznych.
      Taśmy mają wiele zalet w porównaniu z dyskami twardymi. Są bardziej odporne na ataki cyberprzestępców, do działania potrzebują mniej energii, są trwałe i znacznie tańsze w przeliczeniu na gigabajt. Zalety te spowodowały, że – jak ocenia IBM – już 345 000 eksabajtów danych przechowywanych jest właśnie na taśmach.
      Najnowszy napęd taśmowy to wynik 15-letniej współpracy IBM-a i Fujifilm. Od roku 2006 firmy pobiły sześć kolejnych rekordów dotyczących napędów taśmowych. Ostatnie osiągnięcie było możliwe dzięki udoskonaleniu samej taśmy, głowicy odczytującej oraz serwomechanizmu odpowiadającego za precyzję pozycjonowania głowicy. Firma Fujifilm odeszła tutaj od przemysłowego standardu jakim jest ferryt baru i pokryła taśmę mniejszymi cząstkami ferrytu strontu. Inżynierowie IBM-a, mając do dyspozycji nową taśmę, opracowali nową technologię głowicy odczytująco-zapisującej, która współpracuje z tak gładką taśmą.
      O tym jak wielkie postępy zostały dokonane w ciągu kilkunastoletniej współpracy Fujifilm i IBM-a najlepiej świadczą liczby. W roku 2006 obie firmy zaprezentowały taśmę pozwalającą na zapisanie 6,67 miliarda bitów na calu kwadratowym. Najnowsza taśma pozwala na zapis 317 miliardów bitów na cal. Kartridż z roku 2006 miał pojemność 8 TB, obecnie jest to 580 TB. Szerokość ścieżki zapisu wynosiła przed 14 laty 1,5 mikrometra (1500 nanometrów), teraz to zaledwie 56,2 nanometra. Liniowa gęstość zapisu w roku 2006 sięgała 400 000 bitów na cal taśmy. Na najnowszej taśmie na każdym calu można zapisać 702 000 bitów. Zmniejszyła się też – z 6,1 mikrometra do 4,3 mikrometra – grubość taśmy, wzrosła za to jej długość. W pojedynczym kartridżu mieści się obecnie 1255 metrów taśmy, a przed 14 laty było to 890 metrów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      IBM uruchomił w Nowym Jorku Quantum Computation Center, w którym znalazł się największy na świecie zbiór komputerów kwantowych. Wkrótce dołączy do nich nich 53-kubitowy system, a wszystkie maszyny są dostępne dla osób i instytucji z zewnątrz w celach komercyjnych i naukowych.
      Quantum Computation Center ma w tej chwili ponad 150 000 zarejestrowanych użytkowników oraz niemal 80 klientów komercyjnych, akademickich i badawczych. Od czasu, gdy w 2016 roku IBM udostępnił w chmurze pierwszy komputer kwantowy, wykonano na nim 14 milionów eksperymentów, których skutkiem było powstanie ponad 200 publikacji naukowych. W związku z rosnącym zainteresowaniem obliczeniami kwantowymi, Błękity Gigant udostępnił teraz 10 systemów kwantowych, w tym pięć 20-kubitowych, jeden 14-kubitowy i cztery 5-kubitowe. IBM zapowiada, że w ciągu miesiąca liczba dostępnych systemów kwantowych wzrośnie do 14. Znajdzie się wśród nich komputer 53-kubitowy, największy uniwersalny system kwantowy udostępniony osobom trzecim.
      Nasza strategia, od czasu gdy w 2016 roku udostępniliśmy pierwszy komputer kwantowy, polega na wyprowadzeniu obliczeń kwantowych z laboratoriów, gdzie mogły z nich skorzystać nieliczne organizacje, do chmur i oddanie ich w ręce dziesiątków tysięcy użytkowników, mówi Dario Gil, dyrektor IBM Research. Chcemy wspomóc rodzącą się społeczność badaczy, edukatorów i deweloperów oprogramowania komputerów kwantowych, którzy dzielą z nami chęć zrewolucjonizowania informatyki, stworzyliśmy różne generacje procesorów kwantowych, które zintegrowaliśmy w udostępnione przez nas systemy kwantowe.
      Dotychczas komputery kwantowe IBM-a zostały wykorzystane m.in. podczas współpracy z bankiem J.P. Morgan Chase, kiedy to na potrzeby operacji finansowych opracowano nowe algorytmy przyspieszające pracę o całe rzędy wielkości. Pozwoliły one na przykład na osiągnięcie tych samych wyników dzięki dostępowi do kilku tysięcy przykładów, podczas gdy komputery klasyczne wykorzystujące metody Monte Carlo potrzebują milionów próbek. Dzięki temu analizy finansowe mogą być wykonywane niemal w czasie rzeczywistym. Z kolei we współpracy z Mitsubishi Chemical i Keio University symulowano początkowe etapy reakcji pomiędzy litem a tlenem w akumulatorach litowo-powietrznych.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Badacze IBM-a postawili sobie ambitny cel. Chcą co roku dwukrotnie zwiększać wydajność komputerów kwantowych tak, by w końcu były one szybsze lub bardziej wydajne niż komputery klasyczne. Podczas tegorocznych targów CES IBM pokazał przełomowe urządzenie: IBM Q System One, pierwszy komputer kwantowy, który ma być gotowy do komercyjnego użytku.
      Celem IBM-a jest coś, co nazywają „Quantum Advantage” (Kwantowa przewaga). Zgodnie z tym założeniem komputery kwantowe mają zyskać „znaczną” przewagę nad komputerami klasycznymi. Przez „znaczną” rozumie się tutaj system, który albo będzie setki lub tysiące razy szybszy od komputerów kwantowych, albo będzie wykorzystywał niewielki ułamek pamięci potrzebny maszynom kwantowym lub też będzie w stanie wykonać zadania, jakich klasyczne komputery wykonać nie są.
      Wydajność komputera kwantowego można opisać albo za pomocą tego, jak sprawują się poszczególne kubity (kwantowe bity), albo też jako ogólną wydajność całego systemu.
      IBM poinformował, że Q System One może pochwalić się jednym z najniższych odsetków błędów, jakie kiedykolwiek zmierzono. Średni odsetek błędów na dwukubitowej bramce logicznej wynosi mniej niż 2%, a najlepszy zmierzony wynik to mniej niż 1%. Ponadto system ten jest bliski fizycznemu limitowi czasów koherencji, który w w przypadku Q System One wyniósł średnio 73 ms.To oznacza, że błędy wprowadzane przez działanie urządzenia są dość małe i zbliżamy się do osiągnięcia minimalnego możliwego odsetka błędów, oświadczyli badacze IBM-a.
      Błękitny Gigant stworzył też Quantum Volume, system pomiaru wydajności komputera kwantowego jako całości. Bierze on pod uwagę zarówno błędy na bramkach, błędyh pomiarów czy wydajność kompilatora. Jeśli chcemy osiągnąć Quantum Advantage w latach 20. XXI wieku, to każdego roku wartość Quantum Volume musi się co najmniej podwajać, stwierdzili badacze. Na razie udaje im się osiągnąć cel. Wydajność pięciokubitowego systemu Tenerife z 2017 roku wynosiła 4. W 2018 roku 20-kubitowy system IBM Q osiągnął w teście Quantum Volume wynik 8. Najnowszy zaś Q System One nieco przekroczył 16.
      Sądzimy, że obecnie przyszłość komputerów to przyszłość komputerów kwantowych, mówią specjaliści z IBM-a.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...