Znajdź zawartość
Wyświetlanie wyników dla tagów ' procesor kwantowy' .
Znaleziono 3 wyniki
-
IBM zaprezentował 127-kubitowy procesor kwantowy Eagle
KopalniaWiedzy.pl dodał temat w dziale Technologia
IBM zaprezentował 127-kubitowy procesor kwantowy Eagle. Dzięki niemu, jak zapewnia koncern, klienci firmy będą mogli wykorzystać niedostępne dotychczas zasoby obliczeniowe, co ma się stać krokiem milowym w kierunku wykorzystania obliczeń kwantowych w codziennej praktyce. Eagle ma bowiem wkrótce zostać udostępniony wybranym partnerom IBM-a. Postrzegamy Eagle'a jako krok na drodze technologicznej rewolucji w historii maszyn obliczeniowych. W miarę, jak procesory kwantowe są rozbudowywane, każdy dodatkowy kubit dwukrotnie zwiększa ilość pamięci, jaką potrzebują komputery klasyczne, by symulować taki procesor. Spodziewamy się, że komputery kwantowe przyniosą realne korzyści, gdyż rosnąca złożoność procesów obliczeniowych, jakie są w stanie wykonać, przekroczy możliwości komputerów klasycznych, czytamy w informacji prasowej IBM-a. Inżynierowie Błękitnego Giganta nie mieli łatwego zadania. Prace praktyczne i teoretyczne nad maszynami kwantowymi, opartymi na zasadach mechaniki kwantowej, są prowadzone od dziesięcioleci i od dawna wiemy, że komputery takie są w stanie przeprowadzać obliczenia niedostępne maszynom klasycznym. Jednak ich zbudowanie jest niezwykle trudne. Nawet najmniejszy wpływ czynników zewnętrznych może spowodować dekoherencję kubitów, czyli doprowadzić do stanu, w którym zawarta w nich informacja zostanie utracona. Eagle zawiera niemal 2-krotnie więcej kubitów niż jego poprzednik, 65-kubitowy Hummingbird. Jednak jego powstanie wymagało czegoś więcej, niż tylko dodania kubitów. Inżynierowe IBM-a musieli opracować nowe i udoskonalić istniejące techniki, które – jak zapewniają – staną się podstawą do stworzenia ponad 1000-kubitowego układu Condor. Kolejnym niezwykle ważnym elementem nowego procesora jest wykorzystanie techniki multiplekosowania odczytu, znaną już z procesora Hummingbird R2. We wcześniejszych układach kwantowych każdy kubit wymagał zastosowania osobnego zestawu elektroniki zajmującej się odczytem i przesyłaniem danych. Taka architektura może sprawdzić się przy kilkudziesięciu kubitach, jednak jest zbyt nieporęczna i niepraktyczna przy ponad 100 kubitach, nie wspominając już o 1121-kubitowym Condorze, który ma powstać za 2 lata. Multipleksowanie odczytu polega na łączeniu sygnałów odczytowych z wielu kubitów w jeden, dzięki czemu można znakomicie zmniejszyć ilość okablowania i komponentów elektronicznych, co z kolei pozwala na lepsze skalowanie całości. Najbardziej interesującymi informacjami, których jeszcze nie znamy, są wyniki testów Quantum Volume (QV) i Circuit Layer Operations Per Second (CLOPS). Quantum Volume to stworzony przez IBM-a system pomiaru wydajności kwantowego komputera jako całości. Bierze pod uwagę nie tylko same kubity, ale również interakcje pomiędzy nimi, działania poszczególnych elementów komputera, w tym błędy obliczeniowe, błędy pomiarowe czy wydajność kompilatora. Im większa wartość QV, tym bardziej złożone problemy może rozwiązać komputer kwantowy. Z kolei zaproponowany niedawno przez IBM-a CLOPS to benchmark określający, na ilu obwodach kwantowych procesor jest w stanie wykonać operacje w ciągu sekundy. Maszyna Eagle nie została jeszcze poddana testom wydajnościowym i jakościowym. W ubiegłym roku Honeywell ogłosił, że jego System Model H1, korzystający z zaledwie 10 kubitów, osiągnął w teście QV wartość 128. Nieco wcześniej zaś 27-kubitowy system IBM-a mógł się pochwalić QV 64. Widzimy zatem, że sama liczba kubitów nie mówi jeszcze niczego o wydajności samej maszyny. « powrót do artykułu- 1 odpowiedź
-
- Eagle
- procesor kwantowy
-
(i 3 więcej)
Oznaczone tagami:
-
Naukowcy i inżynierowie z kanadyjskiej firmy Xanadu Quantum Technologies we współpracy z amerykańskim Narodowym Instytutem Standardów i Technologii, stworzyli programowalny, skalowalny kwantowy fotoniczny układ scalony, na którym można uruchamiać różne algorytmy. Szczegóły układu zostały opisane na łamach Nature. Naukowcy i firmy na całym świecie pracują nad praktycznymi komputerami kwantowymi. Maszyny takie byłyby w stanie wykonywać obliczenia, których za pomocą komputerów klasycznych nie da się przeprowadzić w rozsądnym czasie. Obecnie dominują dwie technologie – układy oparte na materiałach nadprzewodzących oraz na jonach złapanych w pułapkę. Obie mają swoje wady i zalety, a jedną z najpoważniejszych wad jest konieczność schłodzenia takich układów do bardzo niskich temperatur, co praktycznie wyklucza skalowanie takich rozwiązań i zastosowanie ich w większości miejsc, w których stosujemy obecne komputery. Znacznie mniej rozpowszechnione i mniej nagłośnione są technologie bazujące na fotonice. W tego typu układach trudniej jest bowiem uzyskać i przekazywać stany kwantowe. Z kolei olbrzymią zaletą takich układów jest fakt, że mogą pracować w temperaturze pokojowej. Teraz inżynierowie z Xanadu donoszą, że pokonali część problemów związanych z układami fotonicznymi i stworzyli działający chip, który można skalować i uruchamiać na nim różnego typu algorytmu. Firma ogłosiła, że moc obliczeniowa kość X8 zostanie komercyjnie udostępniona. Zainteresowani będą mogli skorzystać z 8- lub 12-kubitowego systemu. « powrót do artykułu
- 1 odpowiedź
-
Google twierdzi, że zbudowany przez tę firmę komputer osiągnął kwantową supremację, czyli wykonał obliczenia, których klasyczny komputer nie jest w stanie wykonać w rozsądnym casie. Jeśli to prawda, możemy mieć do czynienia z prawdziwym przełomem na polu informatyki kwantowej. Dotychczas bowiem komputery kwantowe nie dorównywały komputerom klasycznym. Cała sprawa jest jednak otoczona tajemnicą. Prace Google'a zostały bowiem opisane w dokumencie, który niedawno został umieszczony na serwerze NASA. Jednak dokument szybko stamtąd usunięto. Przedstawiciele Google'a odmawiają komentarza w tej sprawie. W dokumencie opisano procesor kwantowy o nazwie Sycamore, który ma zawierać 54 kubity. To właśnie on miał osiągnąć kwantową supremację. Wymieniony został też tylko jeden autor artykułu, John Martinias z Uniwersytetu Kalifornijskiego w Santa Barbara. Wiadomo, że pracuje on dla Google'a nad sprzętem dla komputerów kwantowych. Wiadomo też, że w 2018 roku Google i NASA zawarły porozumienie, w ramach którego agencja kosmiczna miała pomóc Google'owi w testach kwantowej maszyny. Wspomniany dokument opisuje, w jaki sposób procesor Sycamore rozwiązał problem prawdziwego rozkładu losowego liczb. Tego typu problemy są niezwykle trudne dla komputerów klasycznych. Ci, którzy czytali dokument mówią, że jeden z kubitów procesora nie działał, ale pozostałe 53 zostały splątane, wygenerowały przypadkowy zestaw liczb w systemie dwójkowym i sprawdziły, czy rzeczywiście ich rozkład jest przypadkowy. Autorzy artykułu obliczyli, że wykonanie takiego zadania zajęłoby Summitowi, najpotężniejszemu klasycznemu superkomputerowi na świecie aż 10 000 lat. Procesor Sycamore wykonał je w 200 sekund. Autorzy artykułu przyznają, że użyty algorytm nie przyda się do niczego więcej niż do generowania prawdziwych liczb losowych. Jednak w przyszłości podobny procesor może być przydatny w maszynowym uczeniu się, chemii czy naukach materiałowych. Osiągnięcie kwantowej supremacji przez Google'a to ważny krok w informatyce kwantowej, mówi Jim Clarke z Intel Labs. Ekspert dodaje, że wciąż jesteśmy na początku drogi. To, co osiągnął Google było jedynie demonstracją i to nie wolną od błędów. Jednak w przyszłości będą budowane większe potężniejsze procesory kwantowe, zdolne do wykonywania bardziej użytecznych obliczeń. « powrót do artykułu
- 14 odpowiedzi
-
- superkomputer
- kwantowa supremacja
-
(i 3 więcej)
Oznaczone tagami: