Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Google twierdzi, że zbudowany przez tę firmę komputer osiągnął kwantową supremację, czyli wykonał obliczenia, których klasyczny komputer nie jest w stanie wykonać w rozsądnym casie. Jeśli to prawda, możemy mieć do czynienia z prawdziwym przełomem na polu informatyki kwantowej. Dotychczas bowiem komputery kwantowe nie dorównywały komputerom klasycznym.
Cała sprawa jest jednak otoczona tajemnicą. Prace Google'a zostały bowiem opisane w dokumencie, który niedawno został umieszczony na serwerze NASA. Jednak dokument szybko stamtąd usunięto. Przedstawiciele Google'a odmawiają komentarza w tej sprawie.

W dokumencie opisano procesor kwantowy o nazwie Sycamore, który ma zawierać 54 kubity. To właśnie on miał osiągnąć kwantową supremację. Wymieniony został też tylko jeden autor artykułu, John Martinias z Uniwersytetu Kalifornijskiego w Santa Barbara. Wiadomo, że pracuje on dla Google'a nad sprzętem dla komputerów kwantowych. Wiadomo też, że w 2018 roku Google i NASA zawarły porozumienie, w ramach którego agencja kosmiczna miała pomóc Google'owi w testach kwantowej maszyny. Wspomniany dokument opisuje, w jaki sposób procesor Sycamore rozwiązał problem prawdziwego rozkładu losowego liczb. Tego typu problemy są niezwykle trudne dla komputerów klasycznych.

Ci, którzy czytali dokument mówią, że jeden z kubitów procesora nie działał, ale pozostałe 53 zostały splątane, wygenerowały przypadkowy zestaw liczb w systemie dwójkowym i sprawdziły, czy rzeczywiście ich rozkład jest przypadkowy. Autorzy artykułu obliczyli, że wykonanie takiego zadania zajęłoby Summitowi, najpotężniejszemu klasycznemu superkomputerowi na świecie aż 10 000 lat. Procesor Sycamore wykonał je w 200 sekund.

Autorzy artykułu przyznają, że użyty algorytm nie przyda się do niczego więcej niż do generowania prawdziwych liczb losowych. Jednak w przyszłości podobny procesor może być przydatny w maszynowym uczeniu się, chemii czy naukach materiałowych.
Osiągnięcie kwantowej supremacji przez Google'a to ważny krok w informatyce kwantowej, mówi Jim Clarke z Intel Labs. Ekspert dodaje, że wciąż jesteśmy na początku drogi. To, co osiągnął Google było jedynie demonstracją i to nie wolną od błędów. Jednak w przyszłości będą budowane większe potężniejsze procesory kwantowe, zdolne do wykonywania bardziej użytecznych obliczeń.


« powrót do artykułu

Share this post


Link to post
Share on other sites
20 minut temu, KopalniaWiedzy.pl napisał:

Autorzy artykułu przyznają, że użyty algorytm nie przyda się do niczego więcej niż do generowania prawdziwych liczb losowych.

moment, moment

21 minut temu, KopalniaWiedzy.pl napisał:

wygenerowały przypadkowy zestaw liczb w systemie dziesiętnym i sprawdziły, czy rzeczywiście ich rozkład jest przypadkowy

A "przypadkiem" algorytm taki nie będzie nadawał się do...łamiania szyfrów?

Share this post


Link to post
Share on other sites
23 minuty temu, radar napisał:

A "przypadkiem" algorytm taki nie będzie nadawał się do...łamiania szyfrów?

A coś więcej? Bo nie widzę przesłanek.

Share this post


Link to post
Share on other sites

Obawiam się jednego, że niedługo do zrozumienia jak można zastosować komputer kwantowy ze sztuczną inteligencją będzie potrzebny ... komputer kwantowy ze sztuczną inteligencją ;)

  • Upvote (+1) 2

Share this post


Link to post
Share on other sites
W dniu 23.09.2019 o 15:35, Afordancja napisał:

A coś więcej? Bo nie widzę przesłanek.

No nie widać. Jakoś tak mi się skojarzyło z generowaniem "losowych" liczb pierwszych.

W dniu 23.09.2019 o 23:33, Ergo Sum napisał:

Obawiam się jednego

A ja na prawdę się obawiam. Jako związany mocno z aj ti, jako ojciec, jako osoba dbająca o bezpieczeństwo danych czy prywatności to taki komputer mógłby zmienić bardzo dużo.

Ciekawe tylko czy to był przeciek czy "kontrolowany przeciek"? Jeśli to pierwsze to ciekawe jakie są postępy na płaszczyźnie militarnej.

Share this post


Link to post
Share on other sites
W dniu 23.09.2019 o 15:31, Wuj_Sam napisał:

Troszeczkę obszerniejszy artykuł a propos łamania szyfrów 

https://wolnemedia.net/supremacja-google-w-zakresie-informatyki-kwantowej/

Nie mam wiedzy na ten temat, ale tak na zdrowy rozsądek, to mam wrażenie, że to strachy na lachy. Powiedzmy, że Google zbudował algorytm kwantowy, który łamie dowolne losowe hasło w kilka sekund. Teraz, samo wykorzystanie tego w klasycznych komputerach staje się niemożliwe, bo (a) na takim komputerze samo sprawdzenie jednego hasła zajmuje co najmniej 1 sekundę; (b) producenci oprogramowań i aplikacji zmienią natychmiast swoje standardy i założą zabezpieczenie trochę podobne jak w bankach, gdzie można max 2 razy się pomylić przy wpisywaniu hasła, albo zrobią to co "zlewaczona" Unia Europejska, która nakazała otwierać stronę internetową banku sms-em (wg mnie zupełnie zbyteczna i nadmierna troska o bezpieczeństwo).

To oczywiście tylko przemyślenie laika w tym temacie, ale myślę, że wielu tak rozumuje i jeśli się mylę, to specjalista powinien wyjaśnić gdzie laik popełnia błąd rozumowania.

Share this post


Link to post
Share on other sites
Godzinę temu, Antylogik napisał:

to specjalista powinien wyjaśnić gdzie laik popełnia błąd rozumowania.

Jestem ekspertem, czekam na pytania:)

Godzinę temu, Antylogik napisał:

założą zabezpieczenie trochę podobne jak w bankach, gdzie można max 2 razy się pomylić przy wpisywaniu hasła

Przeczytaj sam co napisałeś wyżej, nie mylisz się wcale, bo hasło (a właściwie klucz prywatny/publiczny) znasz :) Komputer klasyczny nie ma tu nic do rzeczy, hasło możesz wklepać nawet ręcznie :)

A "zlewaczona"  EU chciała niby dobrze (uwierzytelnienie dwuskładnikowe, "coś co wiesz i coś co masz"), szkoda tylko, że w upierdliwej i niezbyt bezpiecznej (smartfon) formie.

Mnie interesuje przez ile Google byłby tego właścicielem. Żaden rząd nie pozwoliłby na coś takiego, a już na pewno nie demokratyczno-amerykański :)

Co z implikacjami na cały świat, przecież tj. uzyskanie przewagi ekonomiczno-militarnej, której nie da się skompensować inaczej niż... no właśnie, czy nie wojną i to nuklearną? "Skoro nie mogę wygrać, to nie chcę przegrać"

 

Share this post


Link to post
Share on other sites
1) Komputery kwantowe całkowicie zdemolują szyfrowanie asymetryczne i poważnie osłabią szyfrowanie symetryczne - liczba bitów klucza prywatnego podzielona przez 2.

2) Rząd i służby mają możliwość pozyskać dane zaszyfrowane, czy to poprzez fizyczne zajęcie komputera czy przechwytywanie ruchu w internecie. W najbliższej przyszłości komputer kwantowy może im umożliwić złamanie szyfrów. Szczególnie wymiana kluczy w SSL/TLS do komunikacji HTTPS jest zdaje się zagrozona.

3) Komputer kwantowy da chwilowo przewagę stronie posiadającej, do czasu kiedy to przeciwnicy czy to inne kraje czy też biznes infosec nadgoni albo wdroży bezpieczniejsze rozwiązania. Przy czym nie będzie miało to wpływu na dane już przechwycone.

4) Komputery tego typu nie będą, przynajmniej początkowo, wykorzystywane do atakowania zwykłych ludzi.
 
5) Zabezpieczenie iPhone, które kasowało hasło do zaszyfrowanych danych po podaniu 10 błędnego hasła było obchodzone przez służby USA przez wylutowanie kości NAND. 
 
6) Co ma "zlewaczenie" Unii Europejskiej do bezpieczeństwa IT? Z tego co widzę na świecie, to im bardziej prawicowy kraj, tym bardziej rząd jest opresyjny w internecie.

7) PSD2 i wprowadzenie wymogu uwierzytelniana dwu składnikowego (2FA) jest bardzo dobrym ruchem. Można dyskutować czy SMS/aplikacja to najlepszy wariant. Z pewnością nie, ale bezpieczeństwo to zawsze kompromis. W tym wypadku przeważyła dostępność telefonów, która i tak znacznie podnosi bezpieczeństwo w porównaniu do samego hasła. W moim banku za granicą mam możliwość korzystania z aplikacji ale i czytnika karty kredytowej/debetowej do generowani kodów z czego skorzystałem.

Share this post


Link to post
Share on other sites
Godzinę temu, cyjanobakteria napisał:

3) Komputer kwantowy da chwilowo przewagę stronie posiadającej, do czasu kiedy to przeciwnicy czy to inne kraje czy też biznes infosec nadgoni albo wdroży bezpieczniejsze rozwiązania. Przy czym nie będzie miało to wpływu na dane już przechwycone.

No tak. Pytanie, jak długo trwać będzie ta "chwila". Zauważ, że do momentu odzyskania równowagi jedna strona może właściwie kontrolować drugą i... np. opóźniać, albo i nie dopuścić do odzyskania równowagi.

Godzinę temu, cyjanobakteria napisał:

4) Komputery tego typu nie będą, przynajmniej początkowo, wykorzystywane do atakowania zwykłych ludzi.

Jeśli technologia zostanie opanowana myślę, że nie zabraknie środków na budowę odpowiedniej infrasrtuktury i dla zwykłych ludzi.

 

Share this post


Link to post
Share on other sites
Godzinę temu, cyjanobakteria napisał:

PSD2 i wprowadzenie wymogu uwierzytelniana dwu składnikowego (2FA) jest bardzo dobrym ruchem. Można dyskutować czy SMS/aplikacja to najlepszy wariant. Z pewnością nie, ale bezpieczeństwo to zawsze kompromis.

Ani pierwsze ani trzecie zdanie nie jest prawdziwe. W mbanku każdą (początkową) operację na kwotach i tak trzeba potwierdzać chyba sms-em. Zatem podwójne zabezpieczanie jest zwykłą przesadą. 

Bezpieczeństwo to zaprzeczenie kompromisu. Kompromis może być pomiędzy bezpieczeństwem a ryzykiem, a więc jedno z tego będzie skrajnością, czyli brakiem kompromisu.

Share this post


Link to post
Share on other sites
3 godziny temu, Antylogik napisał:

Nie mam wiedzy na ten temat, ale tak na zdrowy rozsądek, to mam wrażenie, że to strachy na lachy. Powiedzmy, że Google zbudował algorytm kwantowy, który łamie dowolne losowe hasło w kilka sekund. Teraz, samo wykorzystanie tego w klasycznych komputerach staje się niemożliwe, bo (a) na takim komputerze samo sprawdzenie jednego hasła zajmuje co najmniej 1 sekundę; (b) producenci oprogramowań i aplikacji zmienią natychmiast swoje standardy i założą zabezpieczenie trochę podobne jak w bankach, gdzie można max 2 razy się pomylić przy wpisywaniu hasła, albo zrobią to co "zlewaczona" Unia Europejska, która nakazała otwierać stronę internetową banku sms-em (wg mnie zupełnie zbyteczna i nadmierna troska o bezpieczeństwo).

 

Manko, tu nie chodzi o łamanie haseł do banku, czyli wpisywanie ich szybko lub wolno do strony banku, tu chodzi o, jak już ktoś wspomniał, szyfrowanie asymetryczne. Czyli np. podpisy cyfrowe, pewnie też w przypadku wycieków baz z hasłami (w zasadzie ich skrótami) znajdą sposoby (nie mam wiedzy czy na to też są algorytmy kwantowe) na odgadnięcie haseł. (teraz to trochę brute force). Jednak zgodzę się, że na "technikę" znajdzie się "antytechnika" i spokojnie sobie damy z tym radę, wzrośnie może rola szyfrów symetrycznych. A na asymetryczne znajdą się takie na które nikt nie zna algorytmów kwantowych. No i ostatecznie będzie szyfrowanie kwantowe :)

 

Jednym słowem nie panikował bym, tzn. będzie jeden punkt krytyczny kiedy to jeszcze nie wszyscy ogarną, że trzeba już zmienić technologię, tak jak teraz jeszcze niektórzy trzymają hasła w pain text. 

Share this post


Link to post
Share on other sites
44 minutes ago, Antylogik said:

W mbanku każdą (początkową) operację na kwotach i tak trzeba potwierdzać chyba sms-em. Zatem podwójne zabezpieczanie jest zwykłą przesadą. 

Bezpieczeństwo to zaprzeczenie kompromisu. Kompromis może być pomiędzy bezpieczeństwem a ryzykiem, a więc jedno z tego będzie skrajnością, czyli brakiem kompromisu.

Nie pamiętam, jak jest w mBanku teraz, ale kiedyś można było dodać zaufanego odbiorcę potwierdzając jednorazowo SMS, ewentualnie tak jak piszesz - każda operację. Sporo ataków wymaga od ofiary podania kodu potwierdzającego w celu dodania odbiorcy albo potwierdzenie zmodyfikowanej w locie transakcji, więc rozumiem Twój punkt widzenia. 2FA jednak ujednolica systemy bankowe i wymusza na atakującym wykradzenie dodatkowego kodu, więc jest to dodatkowe zabezpieczenie. Nie zabezpiecza wszystkich możliwych wektorów ataku, ale utrudnia samo zalogowanie się w celu chociażby sprawdzenia rachunku.

Bezpieczeństwo to jest zawsze kompromis pomiędzy wygodą użytkownika a poziomem bezpieczeństwa w odniesieniu do założonego modelu zagrożeń. Nie ma czegoś takiego jak całkowite bezpieczeństwo. Model zagrożeń typowego użytkownika, których jest 99%, jest inny niż działacza opozycyjnego, dilera dragów w darknecie albo terrorysty rekrutującego do IS.

EDIT:

Właśnie się pojawił artykuł na Sekuraku o "sim swap", który odnosi się do dyskusji o PSD2:
https://sekurak.pl/pani-katarzyna-z-gdanska-stracila-275-000-zl-wyrobili-duplikat-karty-sim-i-ogolocili-konto/

Quote

Coraz częściej w Polsce realizowane są ataki SIM Swap (czyli nielegalne wyrobienie duplikatu karty SIM ofiary – w takim przypadku atakowany telefon nagle przestaje działać, a napastnicy uzyskują dostęp do kodów SMS-owych autoryzujących transakcje). W przypadku pani Katarzyny, duplikat karty SIM otrzymano prawdopodobnie na podstawie sfałszowanego dowodu osobistego.

To jest jedna ze słabości SMS. Dlatego wybrałem czytnik kart, który jest najbezpieczniejszą opcję w moim banku.

Edited by cyjanobakteria

Share this post


Link to post
Share on other sites
31 minut temu, cyjanobakteria napisał:

duplikat karty SIM otrzymano prawdopodobnie na podstawie sfałszowanego dowodu osobistego.

Teraz, przynajmniej częściowo, będzie to ograniczone, koniec z dowodami kolekcjonerskimi.

Ciekawe kiedy zacznie się za to na poważnie obciążać sieci komórkowe (za duplikat-fałszywke)

Share this post


Link to post
Share on other sites
25 minutes ago, radar said:

Ciekawe kiedy zacznie się za to na poważnie obciążać sieci komórkowe (za duplikat-fałszywke)

Dobre pytanie. Może kary finansowe zmusiłyby telcomy do uszczelnienia procedur. Firmy powinny dbać o bezpieczeństwo i uszczelnić systemy, ale z drugiej strony to znowu kompromis. Jeżeli wystawienie duplikatu SIM będzie mocno utrudnione, uderzy to w zwykłych klientów. Numery telefonów nie zostały zaprojektowane z myślą o uwierzytelnianiu, chociaż ten kanał jest często wykorzystywany w 2FA. Krebs w zeszłym roku pisał o pracownikach telcomów, którzy oferowali usługi "SIM swap" przestępcom za opłatą, więc zagrożenie wewnętrzne (insider threat) to kolejny wektor.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Naukowcy ze szwedzkiego Uniwersytetu Technologicznego Chalmersa poinformowali, że są jednym z pierwszych, którym udało się stworzyć materiał zdolny do przechowywania fermionów Majorany. Fermiony Majorany mogą być stabilnymi elementami komputera kwantowego. Problem z nimi jest taki, że pojawiają się w bardzo specyficznych okolicznościach.
      Na całym świecie trwają prace nad komputerami kwantowymi. Jednym z najpoważniejszych wciąż nierozwiązanych problemów jest niezwykła delikatność stanów kwantowych, które łatwo ulegają dekoherencji, tracąc superpozycję, czyli zdolność do jednoczesnego przyjmowania wielu wartości.
      Jednym z pomysłów na komputer kwantowy jest wykorzystanie do jego budowy fermionów Majorany. Para takich fermionów, umieszczonych w odległych częściach materiału, powinna być odporna na dekoherencję.
      Problem jednak w tym, że w ciałach stałych fermiony Majorany pojawiają się wyłącznie w nadprzewodnikach topologicznych. To nowy typ materiału, który bardzo rzadko jest spotykany w praktyce. Wyniki naszych eksperymentów zgadzają się z teoretycznymi przewidywaniami dotyczącymi topologicznego nadprzewodnictwa, cieszy się profesor Floriana Lombardi z Laboratorium Fizyki Urządzeń Kwantowych na Chalmers.
      Naukowcy rozpoczęli pracę od topologicznego izolatora z tellurku bizmutu (Bi2Te3). Izolatory topologiczne przewodzą prąd wyłącznie na powierzchni. Wewnątrz są izolatorami. Uczeni z Chalmers pokryli swój izolator warstwą aluminium, które w bardzo niskiej temperaturze jest nadprzewodnikiem. W takich warunkach do izolatora topologicznego przeniknęła nadprzewodząca para elektronów, przez co topologiczny izolator wykazywał właściwości nadprzewodzące, wyjaśnia profesor Thilo Bauch.
      Jednak wstępne pomiary wykazywały, że uczeni mają do czynienia ze standardowym nadprzewodnictwem w Bi2Te3. Gdy jednak naukowcy ponownie schłodzili swój materiał, by dokonać kolejnych pomiarów, sytuacja uległa nagłej zmianie. Charakterystyki nadprzewodzących par elektronów różniły się od siebie w zależności o kierunku. Takie zachowanie nie jest zgodne ze standardowym nadprzewodnictwem. Zaczęły zachodzić niespodziewane, ekscytujące zjawiska, mówi Lombardi.
      Istotnym elementem tego, co się wydarzyło był fakt, że zespół Lombardi – w przeciwieństwie do wielu innych grup, które prowadziły podobne eksperymenty – użył platyny do połączenia izolatora topologicznego z aluminium. Wielokrotne chłodzenie doprowadziło do wzrostu napięć w platynie, przez co doszło do zmian właściwości nadprzewodnictwa. Analizy wykazały, że w ten sposób najprawdopodobniej uzyskano topologiczny nadprzewodnik.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Rząd Niemiec zapowiedział, że przeznaczy 3 miliardy euro na zbudowanie do roku 2026 uniwersalnego komputera kwantowego. To część nowej strategii, w ramach której Niemcy chcą na polu informatyki kwantowej dorównać światowej czołówce – USA i Chinom – oraz stać się na tym polu liderem wśród krajów Unii Europejskiej. To kluczowe dla niemieckiej suwerenności technologicznej, stwierdziła Bettina Sark-Watzinger, minister ds. edukacji i badań.
      Ze wspomnianej kwoty 2,2 miliarda trafi do różnych ministerstw, które będą zajmowały się promocją i znalezieniem zastosowań dla komputerów kwantowych. Największa pulę, bo 1,37 miliarda otrzyma ministerstwo ds. edukacji i badań. Pozostałe 800 milionów euro otrzymają duże państwowe instytuty badawcze.
      Rząd w Berlinie zakłada, że kwota ta pozwoli na zbudowanie do roku 2026 komputera kwantowego o pojemności co najmniej 100 kubitów, którego możliwości w niedługim czasie zostaną p powiększone do 500 kubitów. Tutaj warto przypomnieć, że w ubiegłym roku IBM zaprezentował 433-kubitowy komputer kwantowy.
      W Unii Europejskiej nie powstały tak gigantyczne firmy IT jak Google czy IBM, które same są w stanie wydatkować miliardy dolarów na prace nad komputerami kwantowymi. Dlatego też przeznaczone nań będą pieniądze rządowe. Frank Wilhelm-Mauch, koordynator europejskiego projektu komputera kwantowego OpenSuperQPlus mówi, że i w USA finansowanie prac nad maszynami kwantowymi nie jest transparentne, bo wiele się dzieje w instytucjach wojskowych, a z Chin w ogóle brak jakichkolwiek wiarygodnych danych.
      Komputery kwantowe wciąż jeszcze nie są gotowe do większości praktycznych zastosowań, jednak związane z nimi nadzieje są olbrzymie. Mogą one zrewolucjonizować wiele dziedzin życia. Mają przeprowadzać w ciągu sekund obliczenia, które komputerom klasycznym zajmują lata. A to oznacza, że możliwe będzie przeprowadzanie obliczeń, których teraz się w ogóle nie wykonuje, gdyż nie można ich skończyć w rozsądnym czasie. Maszyny kwantowe mogą przynieść rewolucję na tak różnych polach jak opracowywanie nowych leków czy logistyka.
      Wiele niemieckich przedsiębiorstw działa już aktywnie na polu informatyki kwantowe. Na przykład firm Bosch, dostawca podzespołów dla przemysłu motoryzacyjnego, we współpracy z IBM-em wykorzystuje symulacje na komputerach kwantowych do zbadania czym można zastąpić metale ziem rzadkich w silnikach elektrycznych. Z kolei producent laserów Trumpf pracuje nad kwantowymi chipami i czujnikami, a działający na rynku półprzewodników Infineon rozwija układy scalone korzystające z szyfrowania kwantowego. Niemiecka Agencja Kosmiczna wystrzeliła zaś pierwsze satelity testujące systemy dystrybucji kwantowych kluczy szyfrujących.
      Bettina Stark-Watzinger chce, by do roku 2026 w Niemczech z komputerów kwantowych korzystało co najmniej 60 podmiotów.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Komputery kwantowe mogą bazować na różnych rodzajach kubitów (bitów kwantowych). Jednym z nich są kubity z fotonów, które o palmę pierwszeństwa konkurują z innymi rozwiązaniami. Mają one sporo zalet, na przykład nie muszą być schładzane do temperatur kriogenicznych i są mniej podatne na zakłócenia zewnętrzne niż np. kubity bazujące na nadprzewodnictwie i uwięzionych jonach. Pary splątanych fotonów mogą stanowić podstawę informatyki kwantowej. Jednak uzyskanie splatanych fotonów wymaga zastosowania nieporęcznych laserów i długotrwałych procedur ich dostrajania. Niemiecko-holenderska grupa ekspertów poinformowała właśnie o stworzeniu pierwszego w historii źródła splątanych fotonów na chipie.
      Dokonany przez nas przełom pozwolił na zmniejszenie źródła ponad 1000-krotnie, dzięki czemu uzyskaliśmy powtarzalność, długoterminową stabilność, skalowalność oraz potencjalną możliwość masowej produkcji. To warunki, które muszą być spełnione, by zastosować tego typu rozwiązanie w realnym świecie kwantowych procesorów, mówi profesor Michael Kues, dyrektor Instytutu Fotoniki na Leibniz Universität Hannover. Dotychczas źródła światła dla komputerów kwantowych wymagały zastosowania zewnętrznych, nieporęcznych systemów laserowych, których użyteczność była ograniczona. Poradziliśmy sobie z tymi problemami tworząc nową architekturę i różne systemy integracji podzespołów na układzie scalonym, dodaje doktorant Hatam Mahmudlu z grupy Kuesa.
      Naukowcy mówią, że ich układ scalony jest równie łatwy w użyciu, jak każdy innych chip. Żeby rozpocząć generowanie splątanych fotonów wystarczy układ zamontować i włączyć. Jak każdy inny układ scalony. Jego obsługa nie wymaga żadnego specjalnego doświadczenia. Zdaniem twórców układu, w przyszłości takie źródło może znaleźć się w każdym kwantowym procesorze optycznym.
      Dotychczas eksperci mieli olbrzymie problemy w zintegrowaniu na jednym chipie laserów, filtra i wnęki, gdyż nie istnieje żaden pojedynczy materiał, z którego można by stworzyć wszystkie te urządzenia. Rozwiązaniem okazało się podejście hybrydowe. Naukowcy na jednym chipie umieścili laser z fosforku indu, wnękę oraz filtr z azotku krzemu. W polu lasera, w wyniku spontanicznego nieliniowego procesu, dochodzi do powstania dwóch splątanych fotonów. Uzyskaliśmy wydajność i jakość wymaganą do zastosowania naszego chipa w kwantowych komputerach czy kwantowym internecie, zapewnia Kues. Nasze źródło światła wkrótce stanie się podstawowym elementem programowalnych fotonicznych procesorów kwantowych, uważa uczony. Szczegóły badań zostały opublikowane w Nature Photonics.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Naukowcy z Politechniki Wrocławskiej i Uniwersytetu w Würzburgu pochwalili się na łamach Nature Communications dokonaniem przełomu na polu badań kwantowych. Po raz pierwszy w historii udało się uzyskać ekscytony w izolatorze topologicznym. W skład zespołu naukowego weszli Marcin Syperek, Paweł Holewa, Paweł Wyborski i Łukasz Dusanowski z PWr., a obok naukowców z Würzburga wspomagali ich uczeni z Uniwersytetu w Bolonii i Oldenburgu.
      Izolatory topologiczne to jednorodne materiały, które są izolatorami, ale mogą przewodzić ładunki elektryczne na swojej powierzchni, a wystąpienie przewodnictwa nie jest związane ze zmianą fazy materiału, np. z jego utlenianiem się. Pojawienie się przewodnictwa związane jest ze zjawiskami kwantowymi występującymi na powierzchni takich izolatorów. Istnienie izolatorów topologicznych zostało teoretycznie przewidziane w 1985 roku, a eksperymentalnie dowiedzione w 2007 roku właśnie na Uniwersytecie w Würzburgu.
      Dotychczasowe prace nad wykorzystaniem izolatorów topologicznych koncentrowały się wokół prób kontroli przepływu ładunków elektrycznych za pomocą napięcia. Jeśli jednak izolator był wykonany z cząstek obojętnych elektrycznie, takie podejście nie działało. Naukowcy musieli więc wymyślić coś innego. W tym wypadku tym czymś okazało się światło.
      Po raz pierwszy udało się wygenerować kwazicząstki – tak zwane ekscytony – w izolatorze topologicznym i eksperymentalnie udowodnić ich istnienie. W ten sposób uzyskaliśmy nowe narzędzie, za pomocą którego możemy – metodami optycznymi – kontrolować elektrony. Otworzyliśmy nowy kierunek badań nad izolatorami topologicznymi, mówi profesor Ralph Claessen.
      Ekscyton to kwazicząstka, która stanowi parę elektron-dziura połączoną siłami elektrostatycznymi. Uzyskaliśmy ekscytony oddziałując krótkimi impulsami światła na jednoatomową warstwę materiału, mówi profesor Claessen. Przełomowy tutaj jest fakt, że materiałem tym był izolator topologiczny. Dotychczas nie udawało się w nim uzyskać ekscytonów. W tym przypadku izolator zbudowany był z bizmutu, którego atomy ułożono w strukturę plastra miodu.
      Całość badań optycznych przeprowadzono w Laboratorium Optycznej Spektroskopii Nanostruktur Politechniki Wrocławskiej.
      Osiągnięcie to jest o tyle istotne, że od około 10 lat specjaliści badają ekscytony w dwuwymiarowych półprzewodnikach, chcąc wykorzystać je w roli nośników informacji kontrolowanych światłem. Teraz za pomocą światła uzyskaliśmy ekscytony w izolatorze topologicznym. Reakcje zachodzące pomiędzy światłem a ekscytonami mogą prowadzić do pojawienia się nowych zjawisk w takich materiałach. To zaś można będzie wykorzystać, na przykład, do uzyskiwania kubitów, wyjaśnia Claessen. Kubity, czyli kwantowe bity, to podstawowe jednostki informacji w komputerach kwantowych. Badania polsko-niemieckiego zespołu mogą więc doprowadzić do powstania nowych kontrolowanych światłem podzespołów dla komputerów kwantowych.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W Akademickim Centrum Komputerowym Cyfronet AGH oficjalnie uruchomiono najpotężniejszy superkomputer w Polsce. Uroczyste uruchomienie Atheny, bo tak nazwano maszynę, towarzyszyło inauguracji roku akademickiego. Maszyna dołączyła do innych superkomputerów z Cyfronetu – Zeusa, Prometeusza i Aresa.
      Maksymalna teoretyczna wydajność nowego superkomputera wynosi 7,71 PFlop/s, a maksymalna wydajność zmierzona testem Linpack osięgnęła 5,05 PFlop/s, co dało Athenie 105. pozycję na liście 500 najpotężniejszych superkomputerów na świecie. Polski superkomputer jest jedną z najbardziej ekologicznych maszy na świecie. Na liście Green500 zajął niezwykle wysoką, 9. pozycję. Do pracy potrzebuje bowiem 147 kW, zatem osiąga imponującą wydajność 29,9 GFlops/wat.
      Athena zbudowana jest z 48 serwerów. W skład każdego z nich wchodzą dwa 64-rdzeniowe procesory AMD EPYC oraz 8 kart GPGPU NVIDIA A100. Do wymiany danych pomiędzy serwerami służy wydajna infrastruktura wewnętrzna o przepustowości 4 x 200 Gb/s na serwer.
      Na liście TOP500 znajdziemy w sumie 5 polskich superkomputerów, z czego 3 z Cyfronetu. Obok Atheny są to Ares (290. pozycja, 2,34 PFlop/s) oraz Prometheus (475. pozycja, 1,67 PFlop/s).
      Nasze superkomputery są bardzo potrzebne polskiej nauce i innowacyjnej gospodarce. Czasem jestem pytany, dlaczego nie wystarczy jeden superkomputer? Odpowiedź jest bardzo prosta: po pierwsze są ogromne potrzeby użytkowników, po drugie każdy z superkomputerów ma swoją specyfikę, wynikającą z jego architektury, zainstalowanych procesorów i architektury pamięci operacyjnej. Uruchamiana dziś uroczyście Athena swoją wielką moc obliczeniową osiąga dzięki procesorom graficznym GP GPU. Są to bardzo nowoczesne i bardzo wydajne procesory graficzne Ampere A100 SXM3 firmy Nvidia. Architektura Atheny przeznaczona jest przede wszystkim dla obliczeń metodami sztucznej inteligencji oraz dla potrzeb medycyny, w tym walki z pandemią COVID-19, mówi dyrektor Akademickiego Centrum Komputerowego Cyfronet AGH prof. Kazimierz Wiatr. Uczony dodaje, że w ubiegłym roku maszyny te wykonały ponad 5,5 miliona zadań obliczeniowych na potrzeby polskiej nauki.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...