Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów ' foton' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 13 wyników

  1. Komputery kwantowe mogą bazować na różnych rodzajach kubitów (bitów kwantowych). Jednym z nich są kubity z fotonów, które o palmę pierwszeństwa konkurują z innymi rozwiązaniami. Mają one sporo zalet, na przykład nie muszą być schładzane do temperatur kriogenicznych i są mniej podatne na zakłócenia zewnętrzne niż np. kubity bazujące na nadprzewodnictwie i uwięzionych jonach. Pary splątanych fotonów mogą stanowić podstawę informatyki kwantowej. Jednak uzyskanie splatanych fotonów wymaga zastosowania nieporęcznych laserów i długotrwałych procedur ich dostrajania. Niemiecko-holenderska grupa ekspertów poinformowała właśnie o stworzeniu pierwszego w historii źródła splątanych fotonów na chipie. Dokonany przez nas przełom pozwolił na zmniejszenie źródła ponad 1000-krotnie, dzięki czemu uzyskaliśmy powtarzalność, długoterminową stabilność, skalowalność oraz potencjalną możliwość masowej produkcji. To warunki, które muszą być spełnione, by zastosować tego typu rozwiązanie w realnym świecie kwantowych procesorów, mówi profesor Michael Kues, dyrektor Instytutu Fotoniki na Leibniz Universität Hannover. Dotychczas źródła światła dla komputerów kwantowych wymagały zastosowania zewnętrznych, nieporęcznych systemów laserowych, których użyteczność była ograniczona. Poradziliśmy sobie z tymi problemami tworząc nową architekturę i różne systemy integracji podzespołów na układzie scalonym, dodaje doktorant Hatam Mahmudlu z grupy Kuesa. Naukowcy mówią, że ich układ scalony jest równie łatwy w użyciu, jak każdy innych chip. Żeby rozpocząć generowanie splątanych fotonów wystarczy układ zamontować i włączyć. Jak każdy inny układ scalony. Jego obsługa nie wymaga żadnego specjalnego doświadczenia. Zdaniem twórców układu, w przyszłości takie źródło może znaleźć się w każdym kwantowym procesorze optycznym. Dotychczas eksperci mieli olbrzymie problemy w zintegrowaniu na jednym chipie laserów, filtra i wnęki, gdyż nie istnieje żaden pojedynczy materiał, z którego można by stworzyć wszystkie te urządzenia. Rozwiązaniem okazało się podejście hybrydowe. Naukowcy na jednym chipie umieścili laser z fosforku indu, wnękę oraz filtr z azotku krzemu. W polu lasera, w wyniku spontanicznego nieliniowego procesu, dochodzi do powstania dwóch splątanych fotonów. Uzyskaliśmy wydajność i jakość wymaganą do zastosowania naszego chipa w kwantowych komputerach czy kwantowym internecie, zapewnia Kues. Nasze źródło światła wkrótce stanie się podstawowym elementem programowalnych fotonicznych procesorów kwantowych, uważa uczony. Szczegóły badań zostały opublikowane w Nature Photonics. « powrót do artykułu
  2. Fizycy znaleźli nowy sposób na wejrzenie w głąb jądra atomu. Okazuje się, że można tego dokonać śledząc interakcje pomiędzy światłem a gluonami, bezmasowymi cząstkami, które pośredniczą w oddziaływaniach silnych. Nowo opracowana metoda wykorzystuje nowo odkryty rodzaj kwantowej interferencji pomiędzy różnymi cząstkami. Protony i neutrony, z których składa się jądro atomowe, są zbudowane z kwarków. Jednak same kwarki byłyby niestabilne, potrzebują gluonów, nośnika oddziaływań silnych, które na podobieństwo kleju utrzymują je razem. Gluony są zbyt małe, byśmy mogli je dostrzec, ale wchodzą w interakcje z fotonami, w wyniku czego powstają krótko żyjące mezony ρ (rho), które rozpadają się do pionów. Uczeni z Brookhaven National Laboratory użyli akceleratora Relativistic Heavy Ion Collider (RHIC), w którym przyspieszane są jądra atomów złota i uranu. Podróżujące jądra były otoczone chmurą spolaryzowanych fotonów. Minęły się one z olbrzymią prędkością w odległości równej kilku średnicom jądra. Dzięki tak małej odległości chmury fotonów otaczające każde z jąder weszły w interakcje z gluonami drugiego jądra. Śledząc prędkości i kąty cząstek pochodzących z tych interakcji można bardzo precyzyjnie określić polaryzację fotonów, a to z kolei pozwala na stworzenie mapy dystrybucji gluonów zarówno w kierunku polaryzacji oraz prostopadle do niego. Taka technika daje nam możliwość znacznie bardziej precyzyjnych pomiarów rozkładu gluonów. Naukowcy badali w akceleratorze kąty i prędkości pionów o ładunku dodatnim i ujemnym pochodzących ze wspomnianych interakcji. W ten sposób mogli stworzyć szczegółową mapę rozkładu gluonów w jądrach atomów złota i uranu. Technika obserwacji jest podobna do pozytonowej tomografii emisyjnej, ale działa w skali femtometrów (10-15 m). Pozwoli ona lepiej zrozumieć, w jaki sposób gluony biorą udział w tworzeniu jądra atomowego. Wcześniejsze badania pozwalały jedynie określić, jak daleko od centrum jądra znajduje się każdy z gluonów, gdyż brakowało wówczas precyzyjnych informacji o polaryzacji. Skutkiem tego były błędy interpretacyjne, w wyniku których tak badane jądra wydawały się większe niż wykazywały to inne eksperymenty oraz modele teoretyczne. Naukowcy rozwiązali więc zagadkę trapiącą fizyków od 20 lat. Teraz wiemy, że podczas poprzednich, mniej precyzyjnych pomiarów, mylono pęd i energię fotonu z gluonami. Uzyskane przez nas obrazy są tak precyzyjne, że możemy nawet zauważyć, gdzie w dużym jądrze znajdują się protony, a gdzie neutrony, cieszą się autorzy badań. Ponadto wzorce interferencji pomiędzy funkcjami falowymi obserwowanych pionów wykazały, że – mimo iż miały przeciwne ładunki – były one splątane. To pierwsza eksperymentalna obserwacja interferencji między niepodobnymi cząstkami. Niewykluczone, że uda się dzięki temu opracować nowe sposoby uzyskiwania stanów splątanych. « powrót do artykułu
  3. Współpraca naukowców z Wydziału Fizyki Uniwersytetu Warszawskiego i PAN zaowocowała powstaniem pulsującego neuronu stworzonego z fotonów. To podstawowy element fotonicznego procesora sieci neuronowych. Tego typu chipy, zwane układami neuromorficznymi, mają być w przyszłości podstawą systemów sztucznej inteligencji. Systemy fotoniczne zapewniają dużą prędkość przesyłania informacji przy jednoczesnym niewielkim zużyciu energii. Ich wadą jest zaś słabe oddziaływanie pomiędzy sobą, przez co trudno je wykorzystać do wykonywania operacji obliczeniowych. Dlatego też polscy wykorzystali ekscytony, cząstki o bardzo małej masie, z którymi fotony silnie oddziałują. Gdy fotony i ekscytony zostaną razem umieszczone we wnęce optycznej, powstaje między nimi trwały układ cyklicznej wymiany energii, który jest kwazicząstką – polarytonem. Polarytony mogą zaś, w odpowiednich warunkach, tworzyć kondensat Bosego-Einsteina. W tym stanie skupienia zaczynają tworzyć „superatom”, zachowujący się jak pojedyncza cząstka. Opierając się na naszym ostatnim eksperymencie, jako pierwsi zauważyliśmy, że kiedy polarytony są wzbudzane za pomocą impulsów laserowych, emitują impulsy światła przypominające pulsowanie neuronów biologicznych. Efekt ten jest bezpośrednio związany ze zjawiskiem kondensacji Bosego-Einsteina, które albo hamuje, albo wzmacnia emisję impulsów, wyjaśnia doktorantka Magdalena Furman z Wydziału Fizyki UW. Autorami modelu teoretycznego, który pozwala połączyć badania nad polarytonami z modelem neuronu są doktor Andrzej Opala i profesor Michał Matuszewski. Proponujemy wykorzystać nowy paradygmat obliczeniowy oparty na kodowaniu informacji za pomocą impulsów, które wyzwalają sygnał tylko wtedy, gdy przybędą do neuronu w odpowiednim czasie po sobie, mówi doktor Opala. Innymi słowy, taki sposób pracy takiego sztucznego neurony ma przypominać pracę neuronów biologicznych, pobudzanych impulsami elektrycznymi. W neuronie biologicznym dopiero powyżej pewnego progu impulsów docierających do neuronu, sygnał przekazywany jest dalej. Polarytony mogą naśladować neuron biologiczny, gdyż dopiero po pobudzeniu pewną liczbą fotonów powstaje kondensat Bosego-Einsteinai dochodzi do emisji sygnału do kolejnego neuronu. Mimo niewątpliwie interesujących badań, na wdrożenie pomysłu polskich uczonych przyjdzie nam jeszcze poczekać. Kondensat Bosego-Einsteina uzyskiwali oni w temperaturę zaledwie 4 kelwinów, którą można osiągnąć w ciekłym helu. Naszym kolejnym celem jest przeniesienie eksperymentu z warunków kriogenicznych do temperatury pokojowej. Potrzebne są badania nad nowymi materiałami, które pozwolą na uzyskanie kondensatów Bosego-Einsteina także w wysokich temperaturach. W Laboratorium Polarytonowym pracujemy nie tylko nad takimi substancjami, badamy też możliwość sterowania kierunkiem emitowanych fotonów, mówi profesor Jacek Szczytko z Wydziału Fizyki UW. W badaniach nad układami neuromorficznymi naukowcy wciąż napotykają na nowe wyzwania. Nasz nowy pomysł na odtworzenie pulsowania neuronów biologicznych w domenie optycznej, może posłużyć do stworzenia sieci, a potem układu neuromorficznego, w którym informacje przesyłane są o rzędy wielkości szybciej i w sposób bardziej efektywny energetycznie w porównaniu do dotychczasowych rozwiązań, dodaje doktor Krzysztof Tyszka. Szczegóły pracy zostały opisane na łamach Laser & Photonics Reviews. « powrót do artykułu
  4. Naukowcy z Austrii i Włoch stworzyli „kwantowy memrystor”, urządzenie zdolne do przekazywania koherentnej informacji kwantowej w postaci superpozycji pojedynczych fotonów. Urządzenie takie może stać się podstawą do stworzenia kwantowej wersji architektury neuromorficznej, której działanie ma naśladować pracę ludzkiego mózgu. Memrystor, to czwarty podstawowy typ elementu elektronicznego. Od dawna znaliśmy opornik, kondensator i cewkę. W 1971 roku profesor Leon Chua z Kalifornii wysunął hipotezę, że może istnieć czwarty element, który nazwał opornikiem pamięci czyli memrystorem. Urządzenie takie powstało niemal 40 lat później, w 2008 roku. Memrystory szybko okazały się bardziej przydatne, niż sądzono, a przed dwoma laty wykorzystano je do zbudowania urządzenia działającego podobnie jak neuron. Badania  nad tym elementem elektronicznym ciągle trwają, a najnowszym osiągnięciem jest połączenie go z technologią kwantową. Memrystor współpracujący ze stanami kwantowymi i przekazujące kwantowe informacje został zbudowany przez uczonych z Uniwersytetu Wiedeńskiego, Politechniki Mediolańskiej i włoskiej Narodowej Rady Badawczej. Stworzono go za pomocą femtosekundowego lasera emitującego krótkie impulsy światła trwające zaledwie 10-15 sekundy. Za pomocą tych impulsów naukowcy rzeźbili w szkle falowody, kanały zdolne do więzienia lub przesyłania światła. Michele Spagnolo i jego zespół wykorzystali falowody do przesyłania pojedynczych fotonów. Dzięki ich kwantowej naturze znajdujące się w superpozycji fotony można było w tym samym czasie wysyłać przez dwa lub więcej falowodów. Za pomocą bardzo zaawansowanych wykrywaczy pojedynczych fotonów mogliśmy dokonywać pomiaru fotonu w jednym z falowodów, a następnie wykorzystać ten pomiar do kontrolowania urządzenia modulując transmisję w innym falowodzie. W ten sposób nasze urządzenie zachowywało się jak memrystor, wyjaśnia Michele Spagnolo. Oprócz uzyskania w ten sposób zachowania typowego dla memrystora, naukowcy – za pomocą symulacji – wykazali, że sieć optyczna zawierająca kwantowe memrystory będzie zdolna do nauki rozwiązywania problemów zarówno w sposób klasyczny, jak i kwantowy. To zaś wskazuje, że kwantowy memrystor może być tym elementem, który połączy sztuczną inteligencję i komputery kwantowe. Klasyczne memrystory są obecnie używane w badaniach nad komputerowymi platformami neuromorficznymi. Dlatego też włosko-austriacki zespół sądzi, że kwantowy memrystor może przyczynić się do powstania kwantowych sieci neuromorficznych. Uwolnienie pełnego potencjału możliwości sztucznej inteligencji zbudowanej na systemach kwantowych to jedno z najważniejszych obecnie wyzwań fizyki kwantowej i informatyki, dodaje Spagnolo. Uczony dodaje, że jego grupa już rozpoczęła prace nad odpowiednim urządzeniem. Jej pierwszym celem jest stworzenie urządzenia składającego się z kilkunastu kwantowych memrystorów operującego na kilkunastu fotonach. To poważne wyzwanie technologiczne, przyznaje naukowiec. « powrót do artykułu
  5. Teleskop Webba zarejestrował pierwsze fotony. Z powodzeniem przebyły one całą drogę przez układ optyczny i trafiły do NIRCam. To jedno z najważniejszych osiągnięć zaplanowanego na trzy miesiące etapu dostrajania teleskopu. Dotychczas uzyskane wyniki odpowiadają oczekiwaniom i naziemnym symulacjom. NIRCam to działająca w podczerwieni kamera, rejestrująca fale o długości od 0,6 do 5 mikrometrów. To ona zarejestruje światło z pierwszych gwiazd i galaktyk, pokaże gwiazdy w pobliskich galaktykach, młode gwiazdy w Drodze Mlecznej oraz obiekty w Pasie Kuipera. Wyposażono ją w koronografy, instrumenty pozwalające na fotografowanie bardzo słabo świecących obiektów znajdujących się wokół obiektów znacznie jaśniejszych. Koronografy blokują światło jasnego obiektu, uwidaczniając obiekty słabo świecące. Dzięki nim astronomowie chcą dokładnie obserwować planety krążące wokół pobliskich gwiazd i poznać ich charakterystyki. NIRCam wyposażono w dziesięć czujników rtęciowo-kadmowo-telurkowych, które są odpowiednikami matryc CCD ze znanych nam aparatów cyfrowych. To właśnie NIRCam jest wykorzystywana do odpowiedniego ustawienia zwierciadła webba. Żeby zwierciadło główne teleskopu działało jak pojedyncze lustro trzeba niezwykle precyzyjnie ustawić względem siebie wszystkie 18 tworzących je segmentów. Muszę one do siebie pasować z dokładnością do ułamka długości fali światła, w przybliżeniu będzie to ok. 50 nanometrów. Teraz, gdy zwierciadło jest rozłożone, a instrumenty włączone, rozpoczęliśmy wieloetapowy proces przygotowywania i kalibrowania teleskopu. Będzie on trwał znacznie dłużej niż w przypadku innych teleskopów kosmicznych, gdyż zwierciadło główne Webba składa się z 18 segmentów, które muszą działać jak jedna wielka powierzchnia, wyjaśniają eksperci z NASA. Najpierw trzeba ustawić teleskop względem jego platformy nośnej. Wykorzystuje się w tym celu specjalne systemy śledzenia gwiazd. Obecnie położenie platformy nośnej i segmentów lustra względem gwiazd nie jest ze sobą zgodne. Dlatego też wybrano jedną gwiazdę, jest nią HD 84406, względem której całość będzie ustawiana. Każdy z 18 segmentów zwierciadła rejestruje obraz tej gwiazdy, a jako że są one w różny sposób ustawione, na Ziemię trafią różne niewyraźne obrazy. Obsługa naziemna będzie następnie poruszała każdym z segmentów z osobna, by określić, który z nich zarejestrował który z obrazów. Gdy już to będzie wiadomo, segmenty będą obracane tak, by wszystkie z uzyskanych obrazów miały podobny wspólny punkt. Stworzona w ten sposób „macierz obrazów” zostanie szczegółowo przeanalizowana. Wówczas rozpocznie się drugi etap ustawiania zwierciadła, w ramach którego zredukowane zostaną największe błędy ustawienia. Najpierw obsługa poruszy nieco zwierciadłem wtórnym, co dodatkowo zdeformuje obrazy uzyskiwane z poszczególnych segmentów. Dzięki temu możliwe będzie przeprowadzenie analizy matematycznej, która precyzyjnie określi błędy w ułożeniu każdego z segmentów. Po skorygowaniu tych błędów otrzymamy 18 dobrze skorygowanych ostrych obrazów. W kolejnym etapie położenie każdego z segmentów lustra będzie zmieniane tak, by generowany przezeń obraz trafił dokładnie do środka pola widzenia teleskopu. Każdy z 18 segmentów został przypisany do jednej z trzech grup (oznaczonych jako A, B i C), więc ten etap prac będzie wykonywany w grupach. Po zakończeniu trzeciego etapu będziemy już mieli jeden obraz, jednak będzie to nadal obraz uzyskany tak, jakbyśmy nałożyli na siebie obrazy z 18 różnych teleskopów. Zwierciadło główne wciąż nie będzie działało jak jedno lustro. Rozpocznie się, przeprowadzany trzykrotnie, etap (Coarse Phasing) korygowania ustawienia segmentów lustra względem siebie. Po każdej z trzech części tego etapu ustawienia będą sprawdzane i korygowane za pomocą specjalnych elementów optycznych znajdujących się wewnątrz NIRCam (Fine Phasing). W jego trakcie obraz z poszczególnych zwierciadeł celowo będzie ustawiany poza ogniskową i prowadzone będą analizy zniekształceń. Ten ostatni proces superprecyzyjnej korekty ustawień będzie zresztą przeprowadzany rutynowo podczas całej pracy Webba. Gdy już teleskop zostanie odpowiednio ustawiony, rozpocznie się etap dostrajania pozostałych trzech instrumentów naukowych. Wyłapane zostaną ewentualne błędy i niedociągnięcia, a specjalny algorytm pokaże, jakich poprawek trzeba dokonać. W końcu, w ostatnim etapie prac, obsługa naziemna osobno sprawdzi jakość obrazu uzyskiwanego dzięki każdemu z segmentów zwierciadła głównego i usunie ewentualne błędy. « powrót do artykułu
  6. Współczesne komputery kwantowe to bardzo skomplikowane urządzenia, które trudno jest budować, skalować, a do pracy wymagają niezwykle niskich temperatur. Dlatego naukowcy od dłuższego czasu interesują się optycznymi komputerami kwantowymi. Fotony łatwo przenoszą informację, a fotoniczny komputer kwantowy mógłby pracować w temperaturze pokojowej. Problem jednak w tym, że o ile wiadomo, jak budować pojedyncze kwantowe bramki logiczne dla fotonów, to olbrzymim wyzwaniem jest stworzenie dużej liczby bramek i połączenie ich tak, by możliwe było przeprowadzanie złożonych obliczeń. Jednak optyczny komputer kwantowy może mieć prostszą architekturę, przekonują na łamach Optics naukowcy z Uniwersytetu Stanforda. Proponują oni wykorzystanie lasera do manipulowania pojedynczym atomem, który z kolei – za pomocą zjawiska teleportacji kwantowej – zmieni stan fotonu. Atom taki może być resetowany i wykorzystywany w wielu bramkach kwantowych, dzięki czemu nie ma potrzeby budowania różnych fizycznych bramek, co z kolei znakomicie uprości architekturę komputera kwantowego. Jeśli chciałbyś zbudować komputer kwantowy tego typu, musiałbyś stworzyć tysiące kwantowych źródeł emisji, spowodować, by były nie do odróżnienia od siebie i zintegrować je w wielki obwód fotoniczny. Tymczasem nasza architektura zakłada wykorzystanie niewielkiej liczby dość prostych podzespołów, a wielkość naszej maszyny nie rośnie wraz z wielkością programu kwantowego, który jest na niej uruchamiany, wyjaśnia doktorant Ben Bartlett, główny autor artykułu opisującego prace fizyków ze Stanforda. Nowatorska architektura składa się z dwóch głównych elementów. Pierścień przechowujący dane to po prostu pętla ze światłowodu, w której krążą fotony. Pełni on rolę układu pamięci, a każdy foton reprezentuje kubit. Badacze mogą manipulować fotonem kierując go z pierścienia do jednostki rozpraszania. Składa się ona z wnęki optycznej, w której znajduje się pojedynczy atom. Foton wchodzi w interakcję z atomem i dochodzi do ich splątania. Następnie foton wraca do pierścienia, a laser zmienia stan atomu. Jako, że jest on splątany z fotonem, zmiana stanu atomu skutkuje też zmianą stanu fotonu. Poprzez pomiar stanu atomu możesz badać stan fotonu. W ten sposób potrzebujemy tylko 1 atomowego kubitu, za pomocą którego manipulujemy wszystkimi fotonicznymi kubitami, dodaje Bartlett. Jako że każda kwantowa bramka logiczna może zostać skompilowana w szereg operacji przeprowadzonych na atomie, teoretycznie można by w ten sposób uruchomić dowolny program kwantowy dysponując jednym atomowym kubitem. Działanie takiego programu polegałoby na całym ciągu operacji, w wyniku których fotony wchodziłyby w interakcje z atomowym kubitem. W wielu fotonicznych komputerach kwantowych bramki są fizycznymi urządzeniami, przez które przechodzą fotony, zatem jeśli chcesz zmienić sposób działania swojego programu zwykle musisz zmienić konfigurację sprzętową komputera. W przypadku naszej architektury nie musisz zmieniać sprzętu. Wystarczy, że wyślesz do maszyny inny zestaw instrukcji, stwierdza Bartlett. « powrót do artykułu
  7. Modulowane kwantowe metapowierzchnie mogą posłużyć do kontrolowania wszystkich właściwości fotonicznego kubitu, uważają naukowcy z Los Alamos National Laboratory (LANL). To przełomowe spostrzeżenie może wpłynąć na rozwój kwantowej komunikacji, informatyki, systemów obrazowania czy pozyskiwania energii. Ze szczegółami badań można zapoznać się na łamach Physical Review Letters. Badania nad klasycznymi metapowierzchniami prowadzone są od dawna. My jednak wpadliśmy na pomysł modulowania w czasie i przestrzeni właściwości optycznych kwantowych metapowierzchni. To zaś pozwala na swobodne dowolne manipulowanie pojedynczym fotonem, najmniejszą cząstką światła, mówi Diego Dalvit z grupy Condensed Matter and Complex System w Wydziale Teorii LANL. Metapowierzchnie to ultracienkie powierzchnie, pozwalające na manipulowanie światłem w sposób, jaki zwykle nie występuje powierzchnie. Zespół z Los Alamos stworzył metapowierzchnię wyglądającą jak zbiór poobracanych w różne strony krzyży. Krzyżami można manipulować za pomocą laserów lub impulsów elektrycznych. Pojedynczy foton, przepuszczany przez taką metapowierzchnię, wchodzi w stan superpozycji wielu kolorów, stanów, dróg poruszania się, tworząc kwantowy stan splątany. W tym przypadku oznacza to, że foton jest w stanie jednocześnie przybrać wszystkie właściwości. Modulując taką metapowierzchnię za pomocą lasera lub impulsu elektrycznego, możemy kontrolować częstotliwość pojedynczego fotonu, zmienać kąt jego odbicia, kierunek jego pola elektrycznego czy jego spin, dodaje Abul Azad z Center for Integrated Nanotechnologies. Poprzez manipulowanie tymi właściwościami zyskujemy możliwość zapisywania informacji w fotonach. Naukowcy pracują też nad wykorzystaniem modulowanej kwantowej metapowierzchni do pozyskania fotonów z próżni. Kwantowa próżnia nie jest pusta. Pełno w niej wirtualnych fotonów. Za pomocą modulowanej kwantowej metapowierzchni można w sposób efektywny pozyskiwać te fotony i zamieniać je w realne pary fotonów, wyjaśnia Wilton Kort-Kamp. Pozyskanie fotonów z próżni i wystrzelenie ich w jednym kierunku, pozwoli uzyskać ciąg w kierunku przeciwnym. Niewykluczone zatem, że w przyszłości uda się wykorzystać ustrukturyzowane światło do generowania mechanicznego ciągu, a wszystko to dzięki metapowierzchniom i niewielkiej ilości energii. « powrót do artykułu
  8. Dwa niezależne zespoły badawcze stworzyły kwantowe wzmacniacze zdolne do przechowywania multipleksowanych sygnałów, przekazywania splątanych cząstek i pracy na częstotliwościach używanych w telekomunikacji. To bardzo ważny krok w rozwoju skalowalnego kwantowego internetu. Kwantowa sieć komputerowa nie tylko byłaby siecią znacznie bardziej bezpieczną, ale również pozwalałaby np. na dystrybucję zadań obliczeniowych pomiędzy komputerami kwantowymi, co z kolei umożliwiłoby na rozwiązywanie niezwykle złożonych problemów. Zasadniczym elementem kwantowego internetu będą kwantowo splatane połączenia pomiędzy węzłami takiej sieci. Problem jednak w tym, że tworzenie stanu splątanego przy dużym transferze danych na duże odległości jest bardzo trudne. Wynika to z faktu, że kwantowa informacja ulega degradacji podczas przesyłania, a zasady mechaniki kwantowej nie pozwalają na użycie standardowych wzmacniaczy. Potrzebne są więc wzmacniacze kwantowe, wzmacniające informację i podlegające zasadom fizyki kwantowej. Dwie niezależne grupy badawcze, jedna z hiszpańskiego Instytutu Nauk Fotonicznych (ICFO – Institut de Ciències Fotòniques), druga zaś z Uniwersytetu Nauki i Technologii Chin (USTC), pokazały, jak kwantowe układy pamięci mogą posłużyć do budowy praktycznych kwantowych wzmacniaczy. Oba zespoły użyły źródeł par fotonów, gdzie jeden z fotonów jest składowany w kwantowej pamięci, a drugi jest wysyłany jako sygnał rozgłaszający i potwierdzający splątanie. Multipleksing, rozumiany tutaj jako możliwość jednoczesnego składowania wielu sygnałów w postaci fotonów o różnych długościach fali jest realizowany za pomocą protokołu kwantowego optycznego grzebienia częstości. Dzięki temu taki system nie musi czekać na udane zakończenie rozgłaszania przed wygenerowaniem kolejnej pary fotonów. Co bardzo ważne, całość pracuje na częstotliwościach używanych obecnie w systemach telekomunikacyjnych, jest więc kompatybilna z już istniejącymi sieciami. Hiszpanie stworzyli system, który wykorzystuje pamięć kwantową przechowującą fotony w milionach atomów przypadkowo rozrzuconych w krysztale wzbogaconym metalem ziem rzadkich. Użyli przy tym różnych długości fali, 606 nm dla przechowywania i 1436 nm (częstotliwość telekomunikacyjna) dla rozgłaszania splątania. Ich system może przechowywać sygnały przez 25 mikrosekund zanim je uwolni. Splątanie uzyskiwane jest pomiędzy dwoma układami przechowującymi foton w superpozycji. Układy znajdują się w odległości 10 metrów od siebie. Z kolei Chińczycy wykorzystali kwantowe układy pamięci bazujące na kryształach wzbogaconych jonami metali ziem rzadkich. Zbudowali dwa węzły i stację pośrednią pomiędzy nimi. W każdym z węzłów przechowywany jest jeden z pary splątanych fotonów. Jeden z fotonów z pary uwalniany jest po 56 nanosekundach w celu analizy, a drugi przechodzi do stacji pośredniej. Dokonywany jest wspólny dla nich pomiar stanu Bella. Węzły dzieli odległość 3,5 metra. Musimy jeszcze pokonać sporo przeszkód technologicznych, mówi lider hiszpańskiej grup badawczej, Hugues de Riedmatten. Chcemy uzyskać lepszą stabilizację częstotliwości czy lepszą kontrolę nad liczoną w setkach nanometrów długością łączy optycznych. Pracujemy nad poprawieniem wydajności źródła,z wydłużeniem czasu przechowywania informacji w kwantowej pamięci i systemami odczytu danych. Zmierzamy w kierunku budowy wielowęzłowej sieci i zwiększenia odległości pomiędzy kwantowymi wzmacniaczami. Z kolei Zhou Zongquan z USTC powiedział: przeprowadziliśmy kompletną demonstrację podstawowego połączenia w kwantowym wzmacniaczu. Chińczycy zapowiadają ulepszenia źródła światła w celu zwiększenia tempa uzyskiwania splątania. Dodają, że zanim ich system znajdzie praktyczne zastosowanie, konieczne będzie znaczące poprawienie parametrów kwantowej pamięci. Ronald Hanson z Uniwersytetu Technologicznego w Delft chwali prace obu zespołów. Mówi, że to ważny krok w kierunku budowy praktycznych wzmacniaczy kwantowych, a niezwykle ważny jest fakt, że urządzenia pracują z częstotliwościami współczesnych sieci telekomunikacyjnych. Pod wrażeniem jest też Rodney Van Meter z japońskiego Keio Univeristy. Oba zespoły osiągnęły coś znaczącego: stworzyły dwie pary splątanych fotonów, przechowały po dwa fotony w różnych układach pamięci oddalonych od siebie na pewną odległość, a dwa kolejne wysłały w tym czasie, by przeprowadzić pomiar. Osiągnięcia USTC i ICFO zostały opisane na łamach Nature. « powrót do artykułu
  9. Chińscy naukowcy donieśli, że układ optyczny przeprowadził kwantowe obliczenia zwane gaussowskim próbkowaniem bozonu (Gaussian boson sampling – GBS) ok. 100 bilionów razy szybciej niż mogą to zrobić klasyczne superkomputery. Osiągnięciem takim pochwalili się na łamach Science Jian-Wei Pan i Chao-Yang Lu oraz ich koledzy z Chińskiego Uniwersytetu Nauki i Technologii w Hefei. Co prawda metoda GBS powstała po to, by wykazać, że komputery kwantowe mogą osiągnąć kwantową supremację – czyli wykonać obliczenia, jakich komputery klasyczne nie są w stanie wykonać w rozsądnym czasie – ale można ją przystosować do niektórych wyspecjalizowanych praktycznych obliczeń. Żeby zrozumieć, na czym polega próbkowanie bozonów, wyobraźmy sobie układ optyczny z wieloma wejściami i wyjściami. Do układu wpuszczamy pojedyncze fotony, które napotykają na różne komponenty optyczne, jak dzielniki wiązki czy lustra. Zadaniem metody próbkowania bozonów jest odgadnięcie, jak fotony pojawią się na wyjściu. Taki układ możemy więc postrzegać jako matrycę dokonującą transformacji konfiguracji fotonów wpuszczonych na wejściu w konfigurację wyjściową. Określenie konfiguracji wyjściowej jest bardzo trudne nawet dla niewielkiej matrycy z rozdzielaczy i lusterek. Układ optyczny, który wykorzystali Chińczycy, ma 100 punktów wejścia i 100 punktów wyjścia i składa się z losowo rozłożonych 300 rozdzielaczy wiązki i 75 lusterek. Wszystkie elementy były ze sobą nawzajem połączone, więc foton, który wszedł w dowolnym punkcie wejścia mógł pojawić się dowolnym punkcie wyjścia. Chińczycy poinformowali, że GBS wykonała odpowiednie obliczenia w ciągu około 200 sekund. Tymczasem najszybszy chiński superkomputer – Sunway TaihuLight – który jest 4. najpotężniejszym superkomputerem na świecie, potrzebowałby na wykonanie tych samych obliczeń... ok. 2,5 miliarda lat. Ten eksperyment to z pewnością kamień milowy w dziedzinie symulacji kwantowych opartych na liniowych układach optycznych, mówi Christine Silberhorn z niemieckiego Uniwersytetu w Paderborn. Silberhorn jest jednym z twórców zaproponowanej w 2017 roku metody GBS. Uczona dodała, że samo przygotowanie systemu o rozmiarach 100x100 musiało być bardzo trudne. Z jej opinią zgadza się Ian Walmsley z Imperial College London, który dodatkowo chwali chińskich naukowców za heroiczny wyczyn, jakim było przygotowanie stanów kwantowych, które są całkowicie nierozróżnialne i upewnienie się, że fotony nie zostały utracone. Chao-Yang Lu mówi, że wraz z kolegami na tyle ulepszyli GBS, że możliwe będzie przeprowadzenie eksperymentu na macierzy 144x144. W 2021 roku nasza maszyna GBS będzie łatwiejsza w dostrojeniu, mniejsza i bardziej stabilna. Zaczynamy zastanawiać się nad jej wdrożeniem do celów praktycznych. « powrót do artykułu
  10. Gdy naukowcy z fińskiego Uniwersytetu Aalto po raz pierwszy zobaczyli wyniki badań nad wydajnością swoich detektorów z czarnego krzemu, sądzili, że to pomyłka. Trudno im bowiem było uwierzyć nie tylko w to, że stworzyli pierwsze urządzenie fotowoltaiczne, które przekroczyło limit 100% zewnętrznej wydajności kwantowej, ale i w to, że wydajność ta od razu sięgnęła 130%. Dotychczas uważano, że 100% stanowi nieprzekraczalne teoretyczne maksimum. Gdy to zobaczyliśmy nie mogliśmy uwierzyć. Od razu stwierdziliśmy, że musimy zweryfikować uzyskany wynik za pomocą niezależnych pomiarów, mówi profesor Hele Savin. Niezależne pomiary przeprowadził Physikalisch-Technische Bundesanstalt (PTB), niemiecki narodowy instytut metrologiczny, najbardziej wiarygodna w tym zakresie instytucja w UE. Obok amerykańskiego NIST i brytyjskiego NPL stanowi on ścisłą światową czołówkę w dziedzinie metrologii. Dyrektor Laboratorium Radiometrii PTB, doktor Lutz Werner stwierdził, że gdy tylko zobaczyłem wyniki pomiarów, zdałem sobie sprawę, że mamy tutaj do czynienia z olbrzymim przełomem. Zewnętrzna wydajność kwantowa urządzenia wynosząca 100% oznacza, że 1 foton wpadający do urządzenia, przyczynia się do powstania 1 elektronu w zewnętrznym obwodzie. Zatem wydajność 130% to nic innego, jak generowanie przez 1 foton około 1,3 elektronu. Analiza wykazała, że ta wyjątkowo wysoka zewnętrzna wydajność kwantowa bierze się z procesu multiplikacji zachodzącego wewnątrz nanostruktur krzemu. Proces ten uruchamiany jest obecnością wysoko energetycznego fotonu. Dotychczas zjawiska takiego nie zaobserwowano, gdyż w urządzeniach dochodziło do dużych strat zarówno fotonów jak i elektronów. Jesteśmy w stanie zebrać wszystkie zwielokrotnione nośniki ładunku, gdyż nasze urządzenie nie wywołuje strat powodowanych przez rekombinację i odbicia, mówi profesor Savin. Odkrycie to oznacza, że możliwe jest znakomite zwiększenie wydajności każdego urządzenia, którego praca polega na wykrywaniu obecności fotonu. Takie urządzenia obecne są dosłownie wszędzie, w przemyśle samochodowym, w telefonach komórkowych czy w urządzeniach medycznych. Opracowane przez Finów detektory w czarnego krzemu już spotkały się z olbrzymim zainteresowaniem ze strony przemysłu, szczególnie biotechnologicznego oraz specjalizującego się w monitorowaniu procesów produkcyjnych. « powrót do artykułu
  11. Tibet AS-gamma Experiment zarejestrował najbardziej intensywne promieniowanie pochodzące ze źródła astrofizycznego. Energia fotonów pochodzących z Mgławicy Kraba wynosiła ponad 100 teraelektronowoltów (TEV), to około 10-krotnie więcej niże maksymalna energia uzyskiwana w Wielkim Zderzaczu Hadronów. Naukowcy spekulują, że źródłem tak intensywnego promieniowania jest pulsar ukryty głęboko we wnętrzu Mgławicy. Pojawienie się Mgławicy Kraba zostało zauważone na Ziemi w 1054 roku. Wydarzenie to odnotowały źródła historyczne. Jako, że Mgławica położona jest w odległości ponad 6500 lat świetlnych od Ziemi wiemy, że eksplozja, w wyniku której powstała, miała miejsce około 7500 lat temu. Nowa gwiazda została po raz pierwszy zaobserwowana 4 lipca 1054 roku. Jej pojawienie się odnotowały chińskie źródła. W ciągu kilku tygodni przygasła, a dwa lata po pojawieniu się zniknęła zupełnie. Obecnie wiemy, że jej pojawienie się odnotowano też w XIII-wiecznym japońskim dokumencie oraz w źródłach arabskich. Niewykluczone też, że jest wspominana w źródłach europejskich. Mgławica Kraba została po raz pierwszy odkryta w 1731 roku przez Johna Bevisa. Następnie obserwowali ją inni astronomowie. Nazwę nadal jej William Parsons w 1844 roku. W latach 20. XX wieku ostatecznie stwierdzono, że Mgławica Kraba to pozostałość supernowej z 1054 roku. Tym samym stała się ona pierwszym obiektem astronomicznym powiązanym z eksplozją supernowej. Mgławica Kraba emituje promieniowanie niemal w każdym zakresie fal. Wysyła zarówno niskoenergetyczne fale radiowe, wysokoenergetyczne promieniowanie gamma i rentgenowskie, emituje też światło widzialne. Jednak zarejestrowanie ultraenergetycznego promieniowania to coś nowego. Wysokoenergetyczne fotony, takie jak promieniowanie gamma, z trudnością przedziera się przez ziemską atmosferę. Gdy promienie gamma trafią na atomy w atmosferze, powstaje cały deszcz innych cząstek. Jednak astronomowie nauczyli się rejestrować te cząstki. Najlepiej zrobić to za pomocą narzędzi o dużej powierzchni. Takich jak Tibet AS-gamma, który składa się z 597 detektorów rozrzuconych na przestrzeni niemal 66 000 metrów kwadratowych. A kilka metrów pod detektorami znajdują się 64 betonowe zbiorniki wypełnione wodą, która służy jako dodatkowy wykrywacz. Dzięki rozłożeniu detektorów na dużej powierzchni można śledzić kierunek i energię wysokoenergetycznych wydarzeń, a woda pozwala na rejestrowanie specyficznych sygnatur takich zjawisk. Dzięki temu specjaliści potrafią odróżnić promieniowanie gamma od promieniowania kosmicznego. Dane zebrane pomiędzy lutym 2014 roku a majem roku 2017 ujawniły istnienie 24 wydarzeń o energiach przekraczających 100 TeV pochodzących z Mgławicy Kraba. Niektóre z docierających do nas promieni miały energię dochodzącą do 450 TeV. Obecnie nie jest jasne, w jaki sposób powstają fotony o tak wysokich energiach, ani czy istnieje jakaś granica intensywności promieniowania. Specjaliści pracujący przy Tibet AS-gamma wyznaczyli sobie ambitny cel – zarejestrowanie fotonów o energiach liczonych w petaelektronowoltach, czyli przekraczających 1000 TeV. Biorąc pod uwagę, że analizy takich zjawisk trwają całymi latami, nie można wykluczyć, iż tego typu fotony już zostały przez Tibet AS-gamma zarejestrowane. Teraz wystarczy je tylko zidentyfikować w danych. « powrót do artykułu
  12. Mniejsze systemy mogą symulować większe, gdyż mają takie same właściwości. Większość substancji badanych przez fizyków występuje w tak wielkiej liczbie cząstek, że nie ma różnicy, czy badają oni kroplę wody czy cały basen wypełniony wodą. Nawet bowiem kropla wody zawiera ponad kwadrylion cząstek. Możliwość badania małych systemów składających się z olbrzymiej liczby cząstek pozwala na lepsze rozumienie kolektywnego zachowania się cząstek i przekładania ich zachowania na większe systemy. Na przykład zarówno kropla wody jak i woda w basenie zamarzają przy 0 stopni Celsjusza i gotują się przy 100 stopniach. Naukowcy od dawna zajmują się przejściami fazowymi w substancjach składających się z olbrzymiej liczby cząstek. Naukowcy z Imperial College London, Uniwersytetu w Oxfordzie i Instytut Technologicznego z Karlsruhe postanowili dowiedzieć się, jaki jest najmniejszy system, w do którego stosują się takie same przejścia fazowe, co do systemów składających się z olbrzymiej liczby cząstek. Stworzyli więc systemy składające się z mniej niż 10 fotonów i zaczęli je badać. Właśnie poinformowali, na łamach Nature Physics, że przejście fazowe wciąż zachodzi już w systemie złożonym średnio z 7 cząstek. Eksperyment nie jest podyktowany jedynie ciekawością, ale ma też praktyczne zastosowanie. Badanie właściwości kwantowych cząstek jest tym łatwiejsze, im mniej cząstek badamy. Dzięki niemiecko-brytyjskiemu zespołowi naukowcy będą teraz wiedzieli, że wystarczy stworzyć system z mniej niż 10 cząstek, by móc go badać, a uzyskane wyniki przekładać na większe systemy. Teraz, gdy potwierdziliśmy, że koncepcja przejścia fazowego jest wciąż użyteczna w tak małych systemach, możemy prowadzić badania, których nie da się wykonać w większych systemach. Możemy badać przede wszystkim kwantowe właściwości światła i materii, odpowiadać na pytania, co dzieje się w najmniejszej skali, w której możliwe są przejścia fazowe, mówi główny autor badań, doktor Robert Nyman z Wydziału Fizyki Imperial College London. Zespół Nymana zajmował się badaniem kondensatu Bosego-Einsteina. To stan materii różny od właściwości ciał stałych, cieczy, gazów i plazmy. Okazało się, że do przemiany fazowej kondensatu dochodzi, gdy w systemie znajduje się około 7 cząstek. « powrót do artykułu
  13. Fizycy z Chińskiego Uniwersytetu Nauki i Technologii poinformowali o splątaniu 18 kubitów. To największa jak dotychczas liczba splątanych kubitów z zachowaniem kontroli nad pojedynczym kubitem. Jako, że każdy z kubitów może reprezentować 2 stany, możemy w tym przypadku uzyskać 262 144 kombinacje ich stanów (218). Artykuł opisujący osiągnięcie Xi-Lin Wanga i jego kolegów został opublikowany na łamach Physical Review Letters. W artykule informujemy o splątaniu 18 kubitów, co rozszerza efektywną przestrzeń Hilberta do 262 144 wymiarów z pełną kontrolą o trzech stopniach swobody dla sześciu fotonów, w tym z kontrolą ich polaryzacji, orbitalnego momentu pędu oraz drogi, stwierdził współautor badań Chao-Yang Lu. To największa jak dotąd liczba splątanych kubitów. Splątywanie coraz większej liczby kubitów interesuje nie tylko specjalistów zajmujących się badaniami podstawowymi. Stanowi to jedno z głównych wyzwań informatyki kwantowej. Istnieją dwa sposoby na splątanie większej liczby kubitów. Można albo dodawać kolejne cząstki do już splątanych, albo wykorzystywać dodatkowe stopnie swobody splątanych cząstek. Gdy korzystamy z dodatkowych stopni swobody mówimy o hipersplątaniu. Jak dotychczas największymi osiągnięciami na tym polu było splątanie 14 jonów z jednym stopniem swobody oraz pięciu fotonów z dwoma stopniami swobody, co odpowiada 10 kubitom. Mimo, że przejście od dwóch do trzech stopni swobody stanowi poważne wyzwanie, chińskim naukowcom udało się uzyskać nie tylko trzy stopnie swobody, ale i zwiększyć liczbę fotonów do sześciu, przez co uzyskali 18 splątanych kubitów. Użycie dodatkowych stopni swobody niesie ze sobą liczne korzyści. Na przykład zwiększenie z dwóch do trzech stopni swobody oznacza, że każdy foton może znajdować się nie w czterech, a w ośmiu różnych stanach. Ponadto hipersplątany 18-kkubitowy stan z trzema stopniami swobody jest o 13 rzędów wielkości bardziej efektywny niż  18-kubitowy stan składający się z 18 fotonów o pojedynczym stopniu swobody. Dzięki naszej pracy uzyskaliśmy nową platformę do optycznego przetwarzania informacji kwantowej. Możliwość kontrolowania 18 kubitów pozwala nam na przeprowadzenie niedostępnych dotychczas badań, takich jak na przykład wykorzystanie kodu Raussendorfa-Harringtona-Goyala do korekcji błędów czy teleportacji trzech stopni swobody pojedynczego fotonu, mówi Lu. « powrót do artykułu
×
×
  • Dodaj nową pozycję...