Sign in to follow this
Followers
0
„Niemożliwe” unipolarne impulsy laserowe sposobem na przetwarzanie kwantowej informacji
By
KopalniaWiedzy.pl, in Technologia
-
Similar Content
-
By KopalniaWiedzy.pl
Misja Psyche jeszcze nie dotarła do celu, a już zapisała się w historii podboju kosmosu. Głównym jej celem jest zbadanie największej w Układzie Słonecznym asteroidy Psyche. Przy okazji NASA postanowiła przetestować technologię, z którą eksperci nie potrafili poradzić sobie od dziesięcioleci – przesyłanie w przestrzeni kosmicznej danych za pomocą lasera. Agencja poinformowała właśnie, że z Psyche na Ziemię trafił 15-sekudowy materiał wideo przesłany z odległości 31 milionów kilometrów z maksymalną prędkością 267 Mbps. To niemal 2-krotnie szybciej niż średnia prędkość szerokopasmowego internetu w Polsce.
To, czego właśnie dokonała NASA jest nie zwykle ważnym osiągnięciem. Pozwoli bowiem na znacznie sprawniejsze zbieranie danych z instrumentów pracujących w przestrzeni kosmicznej i zapewni dobrą komunikację z misjami załogowymi odbywającymi się poza orbitą Ziemi.
Sygnał z Psyche potrzebował około 101 sekund, by dotrzeć do Ziemi. Dane, przesyłane przez laser pracujący w bliskiej podczerwieni trafiły najpierw do Hale Teelscope w Palomar Observatory w Kalifornii. Następnie przesłano je do Jet Propulsion Laboratory w Południowej Kalifornii, gdzie były odtwarzane w czasie rzeczywistym podczas przesyłania. Jak zauważył Ryan Rogalin, odpowiedzialny za elektronikę odbiornika w JPL, wideo odebrane w Palomar zostało przesłane przez internet do JPL, a transfer danych odbywał się wolniej, niż przesyłanie danych z kosmosu. Podziwiając tempo transferu danych nie możemy zapomnieć też o niezwykłej precyzji, osiągniętej przez NASA. Znajdujący się na Psyche laser trafił z odległości 31 milionów kilometrów w 5-metrowe zwierciadło teleskopu. Sam teleskop to również cud techniki. Jego budowę ukończono w 1948 roku i przez 45 lat był najdoskonalszym teleskopem optycznym, a jego zwierciadło główne jest drugim największym zwierciadłem odlanym w całości.
Po co jednak prowadzić próby z komunikacją laserową, skoro od dziesięcioleci w przestrzeni kosmicznej z powodzeniem przesyła się dane za pomocą fal radiowych? Otóż fale radiowe mają częstotliwość od 3 Hz do 3 Thz. Tymczasem częstotliwość pracy lasera podczerwonego sięga 300 THz. Zatem transmisja z jego użyciem może być nawet 100-krotnie szybsza. Ma to olbrzymie znaczenie. Chcemy bowiem wysyłać w przestrzeń kosmiczną coraz więcej coraz doskonalszych narzędzi. Dość wspomnieć, że Teleskop Webba, który zbiera do 57 GB danych na dobę, wysyła je na Ziemię z prędkością dochodzącą do 28 Mb/s. Zatem jego systemy łączności działają 10-krotnie wolniej, niż testowa komunikacja laserowa.
Zainstalowany na Psyche Deep Space Optical Communication (DSOC) uruchomiono po raz pierwszy 14 listopada. Przez kolejne dni system sprawdzano i dostrajano, osiągając coraz szybszy transfer danych i coraz większą precyzję ustanawiania łącza z teleskopem. W tym testowym okresie przesłano na Ziemię łącznie 1,3 terabita danych. Dla porównania, misja Magellan, która w latach 1990–1994 badała Wenus, przesłała w tym czasie 1,2 Tb.
Misja Psyche korzysta ze standardowego systemu komunikacji radiowej. DSOC jest systemem testowym, a jego funkcjonowanie nie będzie wpływało na powodzenie całej misji.
« powrót do artykułu -
By KopalniaWiedzy.pl
Naukowcy ze szwedzkiego Uniwersytetu Technologicznego Chalmersa poinformowali, że są jednym z pierwszych, którym udało się stworzyć materiał zdolny do przechowywania fermionów Majorany. Fermiony Majorany mogą być stabilnymi elementami komputera kwantowego. Problem z nimi jest taki, że pojawiają się w bardzo specyficznych okolicznościach.
Na całym świecie trwają prace nad komputerami kwantowymi. Jednym z najpoważniejszych wciąż nierozwiązanych problemów jest niezwykła delikatność stanów kwantowych, które łatwo ulegają dekoherencji, tracąc superpozycję, czyli zdolność do jednoczesnego przyjmowania wielu wartości.
Jednym z pomysłów na komputer kwantowy jest wykorzystanie do jego budowy fermionów Majorany. Para takich fermionów, umieszczonych w odległych częściach materiału, powinna być odporna na dekoherencję.
Problem jednak w tym, że w ciałach stałych fermiony Majorany pojawiają się wyłącznie w nadprzewodnikach topologicznych. To nowy typ materiału, który bardzo rzadko jest spotykany w praktyce. Wyniki naszych eksperymentów zgadzają się z teoretycznymi przewidywaniami dotyczącymi topologicznego nadprzewodnictwa, cieszy się profesor Floriana Lombardi z Laboratorium Fizyki Urządzeń Kwantowych na Chalmers.
Naukowcy rozpoczęli pracę od topologicznego izolatora z tellurku bizmutu (Bi2Te3). Izolatory topologiczne przewodzą prąd wyłącznie na powierzchni. Wewnątrz są izolatorami. Uczeni z Chalmers pokryli swój izolator warstwą aluminium, które w bardzo niskiej temperaturze jest nadprzewodnikiem. W takich warunkach do izolatora topologicznego przeniknęła nadprzewodząca para elektronów, przez co topologiczny izolator wykazywał właściwości nadprzewodzące, wyjaśnia profesor Thilo Bauch.
Jednak wstępne pomiary wykazywały, że uczeni mają do czynienia ze standardowym nadprzewodnictwem w Bi2Te3. Gdy jednak naukowcy ponownie schłodzili swój materiał, by dokonać kolejnych pomiarów, sytuacja uległa nagłej zmianie. Charakterystyki nadprzewodzących par elektronów różniły się od siebie w zależności o kierunku. Takie zachowanie nie jest zgodne ze standardowym nadprzewodnictwem. Zaczęły zachodzić niespodziewane, ekscytujące zjawiska, mówi Lombardi.
Istotnym elementem tego, co się wydarzyło był fakt, że zespół Lombardi – w przeciwieństwie do wielu innych grup, które prowadziły podobne eksperymenty – użył platyny do połączenia izolatora topologicznego z aluminium. Wielokrotne chłodzenie doprowadziło do wzrostu napięć w platynie, przez co doszło do zmian właściwości nadprzewodnictwa. Analizy wykazały, że w ten sposób najprawdopodobniej uzyskano topologiczny nadprzewodnik.
« powrót do artykułu -
By KopalniaWiedzy.pl
Rząd Niemiec zapowiedział, że przeznaczy 3 miliardy euro na zbudowanie do roku 2026 uniwersalnego komputera kwantowego. To część nowej strategii, w ramach której Niemcy chcą na polu informatyki kwantowej dorównać światowej czołówce – USA i Chinom – oraz stać się na tym polu liderem wśród krajów Unii Europejskiej. To kluczowe dla niemieckiej suwerenności technologicznej, stwierdziła Bettina Sark-Watzinger, minister ds. edukacji i badań.
Ze wspomnianej kwoty 2,2 miliarda trafi do różnych ministerstw, które będą zajmowały się promocją i znalezieniem zastosowań dla komputerów kwantowych. Największa pulę, bo 1,37 miliarda otrzyma ministerstwo ds. edukacji i badań. Pozostałe 800 milionów euro otrzymają duże państwowe instytuty badawcze.
Rząd w Berlinie zakłada, że kwota ta pozwoli na zbudowanie do roku 2026 komputera kwantowego o pojemności co najmniej 100 kubitów, którego możliwości w niedługim czasie zostaną p powiększone do 500 kubitów. Tutaj warto przypomnieć, że w ubiegłym roku IBM zaprezentował 433-kubitowy komputer kwantowy.
W Unii Europejskiej nie powstały tak gigantyczne firmy IT jak Google czy IBM, które same są w stanie wydatkować miliardy dolarów na prace nad komputerami kwantowymi. Dlatego też przeznaczone nań będą pieniądze rządowe. Frank Wilhelm-Mauch, koordynator europejskiego projektu komputera kwantowego OpenSuperQPlus mówi, że i w USA finansowanie prac nad maszynami kwantowymi nie jest transparentne, bo wiele się dzieje w instytucjach wojskowych, a z Chin w ogóle brak jakichkolwiek wiarygodnych danych.
Komputery kwantowe wciąż jeszcze nie są gotowe do większości praktycznych zastosowań, jednak związane z nimi nadzieje są olbrzymie. Mogą one zrewolucjonizować wiele dziedzin życia. Mają przeprowadzać w ciągu sekund obliczenia, które komputerom klasycznym zajmują lata. A to oznacza, że możliwe będzie przeprowadzanie obliczeń, których teraz się w ogóle nie wykonuje, gdyż nie można ich skończyć w rozsądnym czasie. Maszyny kwantowe mogą przynieść rewolucję na tak różnych polach jak opracowywanie nowych leków czy logistyka.
Wiele niemieckich przedsiębiorstw działa już aktywnie na polu informatyki kwantowe. Na przykład firm Bosch, dostawca podzespołów dla przemysłu motoryzacyjnego, we współpracy z IBM-em wykorzystuje symulacje na komputerach kwantowych do zbadania czym można zastąpić metale ziem rzadkich w silnikach elektrycznych. Z kolei producent laserów Trumpf pracuje nad kwantowymi chipami i czujnikami, a działający na rynku półprzewodników Infineon rozwija układy scalone korzystające z szyfrowania kwantowego. Niemiecka Agencja Kosmiczna wystrzeliła zaś pierwsze satelity testujące systemy dystrybucji kwantowych kluczy szyfrujących.
Bettina Stark-Watzinger chce, by do roku 2026 w Niemczech z komputerów kwantowych korzystało co najmniej 60 podmiotów.
« powrót do artykułu -
By KopalniaWiedzy.pl
Komputery kwantowe mogą bazować na różnych rodzajach kubitów (bitów kwantowych). Jednym z nich są kubity z fotonów, które o palmę pierwszeństwa konkurują z innymi rozwiązaniami. Mają one sporo zalet, na przykład nie muszą być schładzane do temperatur kriogenicznych i są mniej podatne na zakłócenia zewnętrzne niż np. kubity bazujące na nadprzewodnictwie i uwięzionych jonach. Pary splątanych fotonów mogą stanowić podstawę informatyki kwantowej. Jednak uzyskanie splatanych fotonów wymaga zastosowania nieporęcznych laserów i długotrwałych procedur ich dostrajania. Niemiecko-holenderska grupa ekspertów poinformowała właśnie o stworzeniu pierwszego w historii źródła splątanych fotonów na chipie.
Dokonany przez nas przełom pozwolił na zmniejszenie źródła ponad 1000-krotnie, dzięki czemu uzyskaliśmy powtarzalność, długoterminową stabilność, skalowalność oraz potencjalną możliwość masowej produkcji. To warunki, które muszą być spełnione, by zastosować tego typu rozwiązanie w realnym świecie kwantowych procesorów, mówi profesor Michael Kues, dyrektor Instytutu Fotoniki na Leibniz Universität Hannover. Dotychczas źródła światła dla komputerów kwantowych wymagały zastosowania zewnętrznych, nieporęcznych systemów laserowych, których użyteczność była ograniczona. Poradziliśmy sobie z tymi problemami tworząc nową architekturę i różne systemy integracji podzespołów na układzie scalonym, dodaje doktorant Hatam Mahmudlu z grupy Kuesa.
Naukowcy mówią, że ich układ scalony jest równie łatwy w użyciu, jak każdy innych chip. Żeby rozpocząć generowanie splątanych fotonów wystarczy układ zamontować i włączyć. Jak każdy inny układ scalony. Jego obsługa nie wymaga żadnego specjalnego doświadczenia. Zdaniem twórców układu, w przyszłości takie źródło może znaleźć się w każdym kwantowym procesorze optycznym.
Dotychczas eksperci mieli olbrzymie problemy w zintegrowaniu na jednym chipie laserów, filtra i wnęki, gdyż nie istnieje żaden pojedynczy materiał, z którego można by stworzyć wszystkie te urządzenia. Rozwiązaniem okazało się podejście hybrydowe. Naukowcy na jednym chipie umieścili laser z fosforku indu, wnękę oraz filtr z azotku krzemu. W polu lasera, w wyniku spontanicznego nieliniowego procesu, dochodzi do powstania dwóch splątanych fotonów. Uzyskaliśmy wydajność i jakość wymaganą do zastosowania naszego chipa w kwantowych komputerach czy kwantowym internecie, zapewnia Kues. Nasze źródło światła wkrótce stanie się podstawowym elementem programowalnych fotonicznych procesorów kwantowych, uważa uczony. Szczegóły badań zostały opublikowane w Nature Photonics.
« powrót do artykułu -
By KopalniaWiedzy.pl
Ekosfera jest tradycyjnie definiowana, jako odległość pomiędzy gwiazdą, a planetą, która umożliwia istnienie wody w stanie ciekłym na planecie. To obszar wokół gwiazdy, w którym na znajdujących się tam planetach może istnieć życie. Jednak grupa naukowców z University of Georgia uważa, że znacznie lepsze byłoby określenie „ekosfery fotosyntezy”, czyli wzięcie pod uwagi nie tylko możliwości istnienia ciekłej wody, ale również światła, jakie do planety dociera z gwiazdy macierzystej.
O życiu na innych planetach nie wiemy nic pewnego. Jednak poglądy na ten temat możemy przypisać do jednej z dwóch szkół. Pierwsza z nich mówi, że na innych planetach ewolucja mogła znaleźć sposób, by poradzić sobie z pozornie nieprzekraczalnymi barierami dla życia, jakie znamy z Ziemi. Zgodnie zaś z drugą, życie w całym wszechświecie ograniczone jest uniwersalnymi prawami fizyki i może istnieć jedynie w formie podobnej do życia na Ziemi.
Naukowcy z Georgii rozpoczęli swoje badania od przyznania racji drugiej ze szkół i wprowadzili pojęcie „ekosfery fotosyntezy”. Znajdujące się w tym obszarze planety nie tylko mogą utrzymać na powierzchni ciekłą wodę – zatem nie znajdują się ani zbyt blisko, ani zbyt daleko od gwiazdy – ale również otrzymują wystarczająca ilość promieniowania w zakresie od 400 do 700 nanometrów. Promieniowanie o takich długościach fali jest na Ziemi niezbędne, by zachodziła fotosynteza, umożliwiające istnienie roślin.
Obecność fotosyntezy jest niezbędne do poszukiwania życia we wszechświecie. Jeśli mamy rozpoznać biosygnatury życia na innych planetach, to będą to sygnatury atmosfery bogatej w tlen, gdyż trudno jest wyjaśnić istnienie takiej atmosfery bez obecności organizmów żywych na planecie, mówi główna autorka badań, Cassandra Hall. Pojęcie „ekosfery fotosyntezy” jest zatem bardziej praktyczne i dające szanse na znalezienie życia, niż sama ekosfera.
Nie możemy oczywiście wykluczyć, że organizmy żywe na innych planetach przeprowadzają fotosyntezę w innych zakresach długości fali światła, jednak istnieje pewien silny przekonujący argument, że zakres 400–700 nm jest uniwersalny. Otóż jest to ten zakres fal światła, dla którego woda jest wysoce przezroczysta. Poza tym zakresem absorpcja światła przez wodę gwałtownie się zwiększa i oceany stają się dla takiego światła nieprzezroczyste. To silny argument za tym, że oceaniczne organizmy w całym wszechświecie potrzebują światła w tym właśnie zakresie, by móc prowadzić fotosyntezę.
Uczeni zauważyli również, że życie oparte na fotosyntezie może z mniejszym prawdopodobieństwem powstać na planetach znacznie większych niż Ziemia. Planety takie mają bowiem zwykle bardziej gęstą atmosferę, która będzie blokowała znaczną część światła z potrzebnego zakresu. Dlatego też Hall i jej koledzy uważają, że życia raczej należy szukać na mniejszych, bardziej podobnych do Ziemi planetach, niż na super-Ziemiach, które są uważane za dobry cel takich poszukiwań.
Badania takie, jak przeprowadzone przez naukowców z University of Georgia są niezwykle istotne, gdyż naukowcy mają ograniczony dostęp do odpowiednich narzędzi badawczych. Szczegółowe plany wykorzystania najlepszych teleskopów rozpisane są na wiele miesięcy czy lat naprzód, a poszczególnym grupom naukowym przydziela się ograniczoną ilość czasu. Dlatego też warto, by – jeśli ich badania polegają na poszukiwaniu życia – skupiali się na badaniach najbardziej obiecujących obiektów. Tym bardziej, że w najbliższych latach ludzkość zyska nowe narzędzia. Od 2017 roku w Chile budowany jest europejski Extremely Large Telescope (ELT), który będzie znacznie bardziej efektywnie niż Teleskop Webba poszukiwał tlenu w atmosferach egzoplanet. Z kolei NASA rozważa budowę teleskopu Habitable Exoplanet Observatory, który byłby wyspecjalizowany w poszukiwaniu biosygnatur na egzoplanetach wielkości Ziemi. Teleskop ten w 2035 roku miałby trafić do punktu L2, gdzie obecnie znajduje się Teleskop Webba.
« powrót do artykułu
-
-
Recently Browsing 0 members
No registered users viewing this page.