Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Powstały procesory kwantowe niemal wolne od błędów. Polak współautorem przełomowych badań

Rekomendowane odpowiedzi

Najnowszy numer Nature przynosi przełomowe informacje na temat praktycznego wykorzystania komputerów kwantowych. Naukowcy z Uniwersytetu Nowej Południowej Walii (UNSW) wykazali, że możliwe jest stworzenie niemal wolnego od błędów krzemowego procesora kwantowego. Dzisiejsza publikacja pokazuje, że obliczenia przeprowadzane przez nasz procesor były w ponad 99% wolne od błędów. Gdy odsetek błędów jest tak mały, możliwym staje się ich wykrywanie i korygowanie w czasie rzeczywistym. A to oznacza, że można wybudować skalowalny komputer kwantowy wykonujący wiarygodne obliczenia, wyjaśnia profesor Andrea Morello z UNSW.

Morello stoi na czele zespołu złożonego z naukowców z Australii, USA, Japonii i Egiptu. Ich celem jest zbudowanie uniwersalnego komputera kwantowego, czyli maszyny, której możliwości obliczeniowe nie będą ograniczone do jednego rodzaju zadań. Badania, których wyniki właśnie opublikowaliśmy, to bardzo ważny krok w tym kierunku, podkreśla uczony.

Jednak, co niezwykle ważne, artykuł Morello i jego zespołu to jeden z trzech tekstów z Nature, których autorzy informują o niezależnym od siebie osiągnięciu niskiego odsetka błędów w opartych na krzemie procesorach kwantowych.

Z najnowszego Nature, którego redakcja zdecydowała się na zilustrowanie kwantowego przełomu na okładce, dowiadujemy się, że wiarygodność operacji obliczeniowych na jednym kubicie osiągnięta przez Morello i jego zespół wyniosła 99,95%, a operacji na dwóch kubitach – 99,37%. Niezależnie od nich zespół z holenderskiego Uniwersytetu Technologicznego w Delft, prowadzony przez Lievena Vandersypena osiągnął wiarygodność rzędu 99,87% przy operacjach na jednym kubicie i 99,65% podczas operacji dwukubitowych. W trzecim z artykułów czytamy zaś o pracach naukowców z japońskiego RIKEN, w trakcie których grupa Seigo Taruchy mogła pochwalić się wiarygodnością 99,84% przy działaniach na jednym kubicie i 99,51% przy pracy z dwoma kubitami.

Wydajność procesorów z UNSW i Delft została certyfikowana zaawansowaną metodą gate set tomography opracowaną przez amerykańskie Sandia National Laboratories, a wyniki certyfikacji zostały udostępnione innym grupom badawczym.

Zespół profesora Morello już wcześniej wykazał, że jest w stanie utrzymać kwantową informację w krzemie przez 35 sekund. W świecie kwantowym 35 sekund to wieczność. Dla porównania, słynne nadprzewodzące komputery kwantowe Google'a i IBM-a są w stanie utrzymać taką informację przez około 100 mikrosekund, czyli niemal milion razy krócej, zauważa Morello. Osiągnięto to jednak izolując spiny (kubity) od otoczenia, co z kolei powodowało, że wydaje się niemożliwym, by kubity te mogły wejść ze sobą w interakcje, a więc nie mogły wykonywać obliczeń.

Teraz z artykułu w Nature dowiadujemy się, że udało się pokonać problem izolacji wykorzystując elektron okrążający dwa jądra atomu fosforu.

Gdy masz dwa jądra połączone z tym samym elektronem, może zmusić je do wykonywania operacji kwantowych, stwierdza doktor Mateusz Mądzik, jeden z głównych autorów eksperymentów. Gdy nie operujesz na elektronie, jądra te mogą bezpiecznie przechowywać kwantowe informacje. Teraz jednak mamy możliwość, by jądra wchodziły w interakcje za pośrednictwem elektronu i w ten sposób możemy wykonywać uniwersalne operacje kwantowe, które mogą rozwiązywać każdy rodzaj problemów obliczeniowych, wyjaśnia Mądzik.

Gdy splączemy spiny z elektronem, a następnie możemy elektron ten przesunąć w inne miejsce i splątać go z kolejnymi kubitami, tworzymy w ten sposób duże macierze kubitów zdolnych do przeprowadzania solidnych użytecznych obliczeń, dodaje doktor Serwan Asaad.

Jak podkreśla profesor David Jamieson z University of Melbourne, atomy fosforu zostały wprowadzone do krzemowego procesora za pomocą tej samej metody, jaka jest obecnie używana w przemyśle półprzewodnikowym. To pokazuje, że nasz kwantowy przełom jest kompatybilny z obecnie używanymi technologiami.

Wszystkie obecnie używane komputery wykorzystują systemy korekcji błędów i redundancji danych. Jednak prawa mechaniki kwantowej narzucają ścisłe ograniczenia na sposób korekcji błędów w maszynach kwantowych. Konieczne jest osiągnięcie odsetka błędów poniżej 1%. Dopiero wtedy można zastosować kwantowe protokoły korekcji błędów. Teraz, gdy udało się ten cel osiągnąć, możemy zacząć projektować skalowalne krzemowe procesory kwantowe, zdolne do przeprowadzania użytecznych wiarygodnych obliczeń, wyjaśnia Morello.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jakiego wzrostu mocy obliczeniowej się spodziewamy? Ile to ma FLOPS/Wat?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale co? To tak jakbyś zapytał: ile wyciska ten "błysk w oku listonosza" :)
To jest taki etap nie jak przy narodzinach ale przy tym słynnym błysku w oku listonosza. A Ty pytasz czy to dziecko zda na studia.
Zresztą przy komputerach kwantowych - jeśli powstaną to FLOPSy są bezsensowną jednostką.

W dniu 20.01.2022 o 11:44, KopalniaWiedzy.pl napisał:

możemy zacząć projektować skalowalne krzemowe procesory kwantowe

Oni dopiero poznali pewien proces i daleko ale to bardzo daleko mają do "procesorów kwantowych".
Zresztą pewnie głównym celem publikacji jest zainteresowanie tym Google czy Microsoft czy innego bogatego sponsora :)

Edytowane przez thikim

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 20.01.2022 o 11:44, KopalniaWiedzy.pl napisał:

czyli maszyny, której możliwości obliczeniowe nie będą ograniczone do jednego rodzaju zadań.

 

9 godzin temu, thikim napisał:

Zresztą przy komputerach kwantowych - jeśli powstaną to FLOPSy są bezsensowną jednostką.

Nie. Jeśli będzie na nich układać pasjansa to FLOPS pozostaje sensowną miarą.

9 godzin temu, thikim napisał:

To jest taki etap nie jak przy narodzinach ale przy tym słynnym błysku w oku listonosza. A Ty pytasz czy to dziecko zda na studia.

Miałem nadzieję, że istnieją jakieś szacunki. Dla komputerów optycznych w 2020 miałem dostać 17 EFLOPS - według szacunków z ósmego sierpnia 2014 ;)

https://www.benchmark.pl/aktualnosci/optalysys-superkomputer-optyczny-maly-17-eflops.html ale chyba mamy poślizg.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Jajcenty napisał:

Dla komputerów optycznych w 2020 miałem dostać 17 EFLOPS - według szacunków z ósmego sierpnia 2014

Coś trzeba ludziom sprzedawać. Zawsze dobrze zacząć od sprzedaży marzeń :) na przyszłość. Kasę się dostaje w teraźniejszości na tym :)
A pamiętasz takie reklamy: emerytura z OFE na egzotycznych wyspach? "Trzeba mieć fantazję i pieniądze synku" :D Tak sprzedano ludziom potrzębę finansowania OFE :D (jedna z niewielu rzeczy jakie Rudy dobrze zrobił to się dobrał w końcu tym oszustom do d... chociaż mocno delikatnie, na zasadzie: dobra, ukradliście dziesiątki miliardów, od dziś można kraść tylko miliony. PiS tu nic nie poprawił)

Cytat

Nie. Jeśli będzie na nich układać pasjansa to FLOPS pozostaje sensowną miarą.

FLOPSy są bezsensowne dla komputerów kwantowych ponieważ taki (właściwie nie komputer tylko podzespół) może swoje specyficzne obliczenia wykonać w czasie niewyobrażalnie szybszym niż zwykły komputer ... po czym dla układania pasjansa jego prędkość spadnie do standardowych maszyn biurkowych i będzie pracował na zwykłym procesorze. Upraszczam oczywiście bo nikt celerona nie upcha razem z podzespołem kwantowym, jak już to jakiś słaby superkomputer.
To trochę tak jakbyś raz jechał rowerem - po czym w przypadkowych momentach przyspieszał do c i chciał liczyć prędkość wypadkową - nie znając tych momentów.
A tu będą dwie prędkości: zwykła i nadświetlna. Przypadkowo przełączane.
Dziś się sprzedaje bajki o komputerach kwantowych oraz o syntezie termojądrowej :)

Edytowane przez thikim

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 minuty temu, thikim napisał:

po czym dla układania pasjansa jego prędkość spadnie do standardowych maszyn biurkowych.

Mowa jest o uniwersalnym komputerze kwantowym. Zamiast pasjansa może być problem komiwojażera - będzie szybciej? O ile? A może problem 3x+1? Jak daleko 3x+1 policzy komputer kwantowy w ciągu godziny? Prędzej czy później da się to sprowadzić do operacji na liczbach. Skoro kwantowe umieją tylko na liczbach naturalnych może być porównanie w INT64.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Polska fizyk, Barbara Latacz, jest główną autorką badań, w ramach których naukowcy skupieni w projekcie BASE w CERN zaprezentowali pierwszy w historii kubit z antymaterii. Na łamach pisma Nature Latacz i jej koledzy opisali, jak przez niemal minutę utrzymywali w pułapce antyproton oscylujący pomiędzy dwoma stanami kwantowymi. Badania te pozwolą na znaczne udoskonalenie metod badania różnic między materią i antymaterią.
      Proton i antyproton mogą przyjmować dwie wartości spinu. Pomiary zmiany tej wartości pozwalają na precyzyjne testowanie podstawowych praw przyrody, na przykład takich jak symetria CPT (ładunku, parzystości i czasu). Wskazuje ona, że materia i antymateria zachowują się identycznie, jednak jest to sprzeczne z obserwacjami, zgodnie z którymi materii we wszechświecie jest znacznie więcej niż antymaterii.
      Spójne kontrolowane zmiany stanu kwantowego obserwowano dotychczas albo w dużych grupach cząstek, albo w przypadku pojedynczych uwięzionych jonów. Nie udało się tego jednak zrobić dla pojedynczego swobodnego momentu magnetycznego jądra, czyli np. spinu pojedynczego protonu. Teraz dokonali tego naukowcy z projektu BASE.
      W ramach eksperymentu BASE badane są antyprotony dostarczane przez fabrykę antymaterii w CERN-ie. To jedyne miejsce na Ziemi, gdzie produkuje się niskoenergetyczne antyprotony. Są one przechowywane w elektromagnetycznych pułapkach Penninga i pojedynczo przesyłane do systemu pułapek, w których bada się m.in. ich spin.
      Już wcześniej zespół BASE dowiódł, że wartości momentów magnetycznych protonów i antyprotonów są identyczne z dokładnością do kilku części na miliard. Najmniejsza różnica wskazywałaby na naruszenie symetrii CPT, a to oznaczałoby istnienie fizyki poza Modelem Standardowym. Dotychczas jednak badania były zakłócane przez fluktuacje pola magnetycznego. W ostatnim czasie naukowcom udało się znakomicie ulepszyć eksperyment i zapobiec utracie stanu kwantowego, dzięki czemu przez 50 sekund można było badać spin antyprotonu.
      To pierwszy kubit zbudowany z antymaterii. Daje nam to możliwość zastosowania całego zestawu metod do precyzyjnego badania pojedynczych układów materii i antymaterii, mówi Stefan Ulmer z BASE. Uczony dodaje, że nowe osiągnięcie pozwoli na badanie momentu pędu antyprotonu nawet ze 100-krotnie większą precyzją, niż dotychczas.
      Jeszcze bardziej precyzyjne pomiary będą możliwe dzięki projektowi BASE-STEP, o którego pierwszym udanym teście poinformowano w maju bieżącego roku. Umożliwia on bezpieczne transportowanie antyprotonów uzyskanych w CERN-ie do spokojniejszych środowisk i bardziej precyzyjnych laboratoriów. Gdy już system będzie w pełni działał, nasz nowy przenośny układ pułapek Penninga, napełniony antyprotonami z fabryki, będzie transportowany za pomocą BASE-STEP, co pozwoli na nawet 10-krotne wydłużenie czasu koherencji antyprotonu. To będzie przełom w badaniach nad materią barionową, mówi Barbara Latacz.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Fizycy z Uniwersytetu Oksfordzkiego pobili światowy rekord w precyzji kontrolowania pojedynczego kubitu. Uzyskali odsetek błędów wynoszący zaledwie 0,000015%, co oznacza, że ich kubit może popełnić błąd raz na 6,7 milionów operacji. O ile wiemy to najbardziej precyzyjne operacje z udziałem kubitów, jakie kiedykolwiek wykonano. To ważny krok w kierunku budowy praktycznego komputera kwantowego, który zmierzy się z prawdziwymi problemami, mówi współautor badań, profesor David Lucas z Wydziału Fizyki Uniwersytetu Oksfordzkiego.
      Użyteczne obliczenia prowadzone za pomocą komputerów kwantowych będą wymagały prowadzenia milionów operacji przez wiele kubitów. To oznacza, że jeśli odsetek błędów będzie zbyt wysoki, obliczenia staną się nieużyteczne. Oczywiście istnieją metody korekcji błędów, ale ich zastosowanie będzie wymagało zaangażowania kolejnych kubitów. Opracowana w Oksfordzie nowa metoda zmniejsza liczbę błędów, zatem zmniejsza liczbę wymaganych kubitów, a to oznacza, że zmniejsza rozmiary i koszt budowy samego komputera kwantowego.
      Jeśli zmniejszymy liczbę błędów, możemy zmniejszyć moduł zajmujący się korektą błędów, a to będzie skutkowało mniejszym, tańszym, szybszym i bardziej wydajnym komputerem kwantowym. Ponadto techniki precyzyjnego kontrolowania pojedynczego kubity są przydatne w innych technologiach kwantowych, jak zegary czy czujniki kwantowe.
      Bezprecedensowy poziom kontroli i precyzji został uzyskany podczas pracy z uwięzionym jonem wapnia. Był on kontrolowany za pomocą mikrofal. Taka metoda zapewnia większą stabilność niż kontrola za pomocą laserów, jest też od nich tańsza, bardziej stabilna i łatwiej można ją zintegrować w układach scalonych. Co więcej, eksperymenty prowadzono w temperaturze pokojowej i bez użycia ochronnego pola magnetycznego, co znakomicie upraszcza wymagania techniczne stawiane przed komputerem wykorzystującym tę metodę.
      Mimo że osiągnięcie jest znaczące, przed ekspertami pracującymi nad komputerami kwantowymi wciąż stoją poważne wyzwania. Komputery kwantowe wymagają współpracy jedno- i dwukubitowych bramek logicznych. Obecnie odsetek błędów na dwukubitowych bramkach jest bardzo wysoki, wynosi około 1:2000. Zanim powstanie praktyczny komputer kwantowy trzeba będzie dokonać znaczącej redukcji tego odsetka.

      Źródło: Single-qubit gates with errors at the 10−7 level, https://journals.aps.org/prl/accepted/10.1103/42w2-6ccy

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Naukowcy z Aalto University, IQM Quantum Computers oraz VTT Technical Research Centre of Finland odkryli nowy nadprzewodzący kubit. Unimon bo o nim mowa, zwiększy dokładność obliczeń dokonywanych za pomocą komputerów kwantowych. Pierwsze bramki logiczne wykorzystujące unimony pracują z dokładnością 99,9%.
      Nieliczne współczesne komputery kwantowe wciąż nie są wystarczająco wydajne i nie dostarczają wystarczająco dokładnych danych, by można było je zaprzęgnąć do obliczeń rozwiązujących praktyczne problemy. Są najczęściej urządzeniami badawczo-rozwojowymi, służącymi pracom nad kolejnymi generacjami komputerów kwantowych. Wciąż zmagamy się z licznymi błędami powstającymi w 1- i 2-kubitowych bramkach logicznych chociażby wskutek zakłóceń z otoczenia. Błędy te są na tyle poważne, że uniemożliwiają prowadzenie praktycznych obliczeń.
      Naszym celem jest zbudowanie kwantowych komputerów, które nadawałyby się do rozwiązywania rzeczywistych problemów. To odkrycie jest ważnym kamieniem milowym dla IQM oraz znaczącym osiągnięciem na drodze ku zbudowaniu lepszych komputerów kwantowych, powiedział główny autor badań, profesor Mikko Möttönen z Aalto University i VTT, który jest współzałożycielem i głównym naukowcem IQM Quantum Computers.
      Unimony charakteryzują się zwiększoną anharmonicznością, pełną odpornością na szumy wywoływane prądem stałym, zmniejszoną wrażliwością na zakłócenia magnetyczne oraz uproszczoną budową, która wykorzystuje pojedyncze złącze Josephsona w rezonatorze. Dzięki temu w jednokubitowej bramce o długości 13 nanosekund udało się uzyskać dokładność od 99,8 do 99,9 procent na trzech kubitach unimonowych. Dzięki wyższej anharmoniczności czyli nieliniowości niż w transmonach [to wcześniej opracowany rodzaj kubitów, który ma zredukowaną wrażliwość za zakłócenia ze strony ładunku elektrycznego – red.], możemy pracować z unimonami szybciej, co prowadzi do pojawiania się mniejszej liczby błędów na każdą operację, wyjaśnia doktorant Eric Hyyppä.
      Na potrzeby badań fińscy naukowcy skonstruowali układy scalone, z których każdy zawierał trzy kubity unimonowe. W układach użyto głównie niobu, z wyjątkiem złącz Josephsona, które zbudowano z aluminium. Unimony są bardzo proste, a mimo to mają liczne zalety w porównaniu z transmonami. Sam fakt, że już pierwsze uzyskane unimony działały tak dobrze, pozostawia dużo miejsca na ich optymalizację i osiągnięcie ważnych kamieni milowych. W następnym kroku badań chcemy zapewnić jeszcze lepszą ochronę przed szumem i zademonstrować bramki dwukubitowe, mówi profesor Möttönen.
      Więcej o unimonie można przeczytać na łamach Nature Communications.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Grupa japońskich naukowców z Kyoto University wykorzystała eksplozje do wyprodukowania... najmniejszych diamentowych termometrów, które można będzie wykorzystać do bezpiecznych pomiarów różnic temperatury w pojedynczej żywej komórce.
      Gdy w sieci krystalicznej diamentu dwa sąsiadujące atomy węgla zostaną zastąpione pojedynczym atomem krzemu, pojawia się optycznie aktywne miejsce, zwane centrum krzem-wakancja (silicon-vacancy center, SiV). Od niedawna wiemy, że takie miejsca są obiecującym narzędziem do pomiaru temperatur w skali nanometrów. Atom krzemu, gdy zostanie wzbudzony laserem, zaczyna jasno świecić w wąskim zakresie światła widzialnego lub bliskiej podczerwieni, a kolor tego światła zmienia się liniowo w zależności od temperatury otoczenia diamentu.
      Zjawisko to jest bezpieczne dla żywych organizmów, nawet dla bardzo delikatnych struktur. To zaś oznacza, że można je wykorzystać podczas bardzo złożonych badań nad strukturami biologicznymi, np. podczas badania procesów biochemicznych wewnątrz komórki. Problem stanowi jednak sam rozmiar nanodiamentów. Uzyskuje się je obecnie różnymi technikami, w tym za pomocą osadzania z fazy gazowej, jednak dotychczas potrafiliśmy uzyskać nanodiamenty o wielkości około 200 nm. Są one na tyle duże, że mogą uszkadzać struktury wewnątrzkomórkowe.
      Norikazu Mizuochi i jego zespół opracowali technikę pozyskiwania 10-krotnie mniejszych niż dotychczas nanodiamentów SiV. Japońscy naukowcy najpierw wymieszali krzem ze starannie dobraną mieszaniną materiałów wybuchowych. Następnie, w atmosferze wypełnionej CO2, dokonali eksplozji. Później zaś przystąpili do wieloetapowej pracy z materiałem, który pozostał po eksplozji. Najpierw za pomocą kwasu usunęli sadzę i metaliczne zanieczyszczenia, następnie rozcieńczyli i wypłukali uzyskany materiał w wodzie dejonizowanej, w końcu zaś pokryli uzyskane nanodiamenty biokompatybilnym polimerem. Na końcu za pomocą wirówki usunęli wszystkie większe nanodiamenty. W ten sposób uzyskali jednorodny zbiór sferycznych nanodiamentów SiV o średniej średnicy 20 nm. To najmniejsze wyprodukowane nanodiamenty SiV.
      Mizouchi wraz z kolegami przeprowadzili serię eksperymentów, podczas których wykazali, że ich nanodiamenty pozwalają na precyzyjne pomiary temperatury w zakresie od 22 do 40,5 stopnia Celsjusza. Zakres ten obejmuje temperatury wewnątrz większości organizmów żywych. To zaś otwiera nowe możliwości badań struktur wewnątrzkomórkowych. Japończycy zapowiadają, że rozpoczynają prace nad zwiększeniem liczby SiV w pojedynczym nanodiamencie, co ma pozwolić na uzyskanie jeszcze większej precyzji pomiaru. Dzięki temu – mają nadzieję – w przyszłości można będzie badać poszczególne organelle.
      Szczegóły badań zostały opisane na łamach Carbon.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Krzem, jeden z najbardziej rozpowszechnionych pierwiastków na Ziemi, stanowi podstawę nowoczesnego świata. Bez niego nie mielibyśmy ani paneli fotowoltaicznych ani układów scalonych. Jednak właściwości krzemu jako półprzewodnika są dalekie od ideału. Elektrony w krzemie mogą przemieszczać się z dużymi prędkościami, ale tego samego nie można już powiedzieć o dziurach, towarzyszkach elektronów. Ponadto krzem słabo przewodzi ciepło, przez co konieczne jest stosowanie kosztownych systemów chłodzenia.
      Badacze z MIT, Uniwersytetu w Houston i innych instytucji wykazali właśnie, że krystaliczny sześcienny arsenek boru jest pozbawiony tych wad. Zapewnia dużą mobilność elektronom i dziurom oraz charakteryzuje się świetnym przewodnictwem cieplnym. Badacze twierdzą, że to najlepszy ze znanych nam półprzewodników, a może i najlepszy z możliwych półprzewodników.
      Dotychczas jednak arsenek boru był wytwarzany i testowany w niewielkich ilościach wytwarzanych na potrzeby badań naukowych. Takie próbki były niejednorodne. Opracowanie metod ekonomicznej produkcji tego związku na skalę przemysłową będzie wymagało dużo pracy.
      Już w 2018 roku David Broido, który jest współautorem najnowszych badań, teoretycznie przewidział, że arsenek boru powinien charakteryzować się świetnym przewodnictwem cieplnym. Później przewidywania te zostały dowiedzione eksperymentalnie. Wykazano m.in., że chłodzi on układy scalone lepiej niż diament. Okazało się równie, że materiał ten ma bardzo dobre pasmo wzbronione, którego istnienie jest niezbędną cechą półprzewodnika. Obecne badania dodały zaś do tego obrazu możliwość szybkiego transportu elektronów i dziur, zatem arsenek boru wydaje się mieć wszystkie cechy półprzewodnika idealnego.
      To bardzo ważna cecha, gdyż w półprzewodnikach mamy jednocześnie ładunki dodatnie i ujemne. Jeśli więc budujemy z nich urządzenie elektroniczne, chcemy, by zarówno elektrony jak i dziury napotykały jak najmniejszy opór, mówi profesor Gang Chen z MIT.
      Krzem i inne półprzewodniki, jak np. używany do budowy laserów arsenek galu, charakteryzuje się dobrą mobilnością elektronów, ale nie dziur. Poważnym problemem jest też rozpraszanie ciepła. Ciepło to poważny problem w elektronice. W samochodach elektrycznych stosuje się z tego powodu węglik krzemu. Ma on co prawda mniejszą mobilność elektronów niż krzem, ale za to jego przewodnictwo cieplne jest 3-krotnie lepsze. Wyobraźmy sobie więc, co moglibyśmy osiągnąć stosując arsenek boru, który ma 10-krotnie lepsze przewodnictwo cieplne i większość mobilność dziur oraz elektronów niż krzem. To by wszystko zmieniło, dodaje doktor Jungwoo Shin z MIT.
      Wyzwaniem jest obecnie opracowanie metod produkcji arsenku boru w ilościach, które można by praktycznie wykorzystać. Obecne metody produkcyjne pozwalają na uzyskanie bardzo niejednorodnego materiału, z którego naukowcy wydzielają niewielkie jak najbardziej jednorodne fragmenty, by badać je w laboratoriach.
      Wiele wskazuje na to, że arsenek boru jest półprzewodnikiem (niemal) idealnym, ale nie wiemy, czy będziemy w stanie go wykorzystać, dodaje Chen. Krzem stanowi podstawę całego przemysłu półprzewodnikowego, zatem od opracowania metod masowej produkcji jednorodnego arsenku boru zależy, czy trafi on pod strzechy. Badania nad krzemem trwały całe dziesięciolecia, zanim dowiedzieliśmy się, jak uzyskiwać ten materiał o czystości dochodzącej do 99,99999999%. Arsenek boru ma jeszcze przed nami wiele tajemnic. Zanim wyprodukujemy z niego elektronikę musimy np. poznać jego długookresową stabilność.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...