Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Nowe badania pokazują, jak można wykorzystać kwantowe właściwości światła

Recommended Posts

Modulowane kwantowe metapowierzchnie mogą posłużyć do kontrolowania wszystkich właściwości fotonicznego kubitu, uważają naukowcy z Los Alamos National Laboratory (LANL). To przełomowe spostrzeżenie może wpłynąć na rozwój kwantowej komunikacji, informatyki, systemów obrazowania czy pozyskiwania energii. Ze szczegółami badań można zapoznać się na łamach Physical Review Letters.

Badania nad klasycznymi metapowierzchniami prowadzone są od dawna. My jednak wpadliśmy na pomysł modulowania w czasie i przestrzeni właściwości optycznych kwantowych metapowierzchni. To zaś pozwala na swobodne dowolne manipulowanie pojedynczym fotonem, najmniejszą cząstką światła, mówi Diego Dalvit z grupy Condensed Matter and Complex System w Wydziale Teorii LANL.

Metapowierzchnie to ultracienkie powierzchnie, pozwalające na manipulowanie światłem w sposób, jaki zwykle nie występuje powierzchnie. Zespół z Los Alamos stworzył metapowierzchnię wyglądającą jak zbiór poobracanych w różne strony krzyży. Krzyżami można manipulować za pomocą laserów lub impulsów elektrycznych. Pojedynczy foton, przepuszczany przez taką metapowierzchnię, wchodzi w stan superpozycji wielu kolorów, stanów, dróg poruszania się, tworząc kwantowy stan splątany. W tym przypadku oznacza to, że foton jest w stanie jednocześnie przybrać wszystkie właściwości.

Modulując taką metapowierzchnię za pomocą lasera lub impulsu elektrycznego, możemy kontrolować częstotliwość pojedynczego fotonu, zmienać kąt jego odbicia, kierunek jego pola elektrycznego czy jego spin, dodaje Abul Azad z Center for Integrated Nanotechnologies.

Poprzez manipulowanie tymi właściwościami zyskujemy możliwość zapisywania informacji w fotonach.

Naukowcy pracują też nad wykorzystaniem modulowanej kwantowej metapowierzchni do pozyskania fotonów z próżni. Kwantowa próżnia nie jest pusta. Pełno w niej wirtualnych fotonów. Za pomocą modulowanej kwantowej metapowierzchni można w sposób efektywny pozyskiwać te fotony i zamieniać je w realne pary fotonów, wyjaśnia Wilton Kort-Kamp.

Pozyskanie fotonów z próżni i wystrzelenie ich w jednym kierunku, pozwoli uzyskać ciąg w kierunku przeciwnym. Niewykluczone zatem, że w przyszłości uda się wykorzystać ustrukturyzowane światło do generowania mechanicznego ciągu, a wszystko to dzięki metapowierzchniom i niewielkiej ilości energii.


« powrót do artykułu

Share this post


Link to post
Share on other sites
2 godziny temu, KopalniaWiedzy.pl napisał:

Pozyskanie fotonów z próżni i wystrzelenie ich w jednym kierunku, pozwoli uzyskać ciąg w kierunku przeciwnym. Niewykluczone zatem, że w przyszłości uda się wykorzystać ustrukturyzowane światło do generowania mechanicznego ciągu, a wszystko to dzięki metapowierzchniom i niewielkiej ilości energii.

To jakaś odmiana demona Maxwella? Gdzieś będzie musiało powstać trochę chaosu. Nie wiem co na to istoty międzywymiarowe, jaki im zacznie entropia przez sufit przesiąkać.

Share this post


Link to post
Share on other sites

Wygląda na to że zabawa w głuchy telefon była (by) najważniejszą lekcją życia jaką można dostać w nauczaniu początkowym, wielka szkoda że nikt nie poinformował nas czemu ona służy.

20 godzin temu, KopalniaWiedzy.pl napisał:

Pozyskanie fotonów z próżni i wystrzelenie ich w jednym kierunku, pozwoli uzyskać ciąg w kierunku przeciwnym.

Brawo, ale to wiadomo od dawna. Każde wytworzenie fotonów można rozumieć jak pozyskanie ich z próżni.

20 godzin temu, KopalniaWiedzy.pl napisał:

Niewykluczone zatem, że w przyszłości uda się wykorzystać ustrukturyzowane światło do generowania mechanicznego ciągu

O strukturyzowanej wodzie czytałem, ci sami klienci chętnie kupią lampy ze ustrukturyzowanym światłem. 

20 godzin temu, KopalniaWiedzy.pl napisał:

a wszystko to dzięki metapowierzchniom i niewielkiej ilości energii

Kiepsko kombinują. Powinni podłączyć te "wydajne silniki fotonowe" bezpośrednio do baterii fotowoltaicznych!
I jeszcze ekodotację dostaną, bo trudno o bardziej "odnawialne" źródło energii.

17 godzin temu, Jajcenty napisał:

To jakaś odmiana demona Maxwella?

Kwantowa!  Bycie fizykiem kwantowym pozwala na nieznajomość fizyki "klasycznej".

17 godzin temu, Jajcenty napisał:

Nie wiem co na to istoty międzywymiarowe, jaki im zacznie entropia przez sufit przesiąkać.

Spokojnie, pomyśleli o wszystkim. Demon jest dwuwymiarowy, tak cienki że reszta świata może zignorować jego wzrost entropi.
Aby go zmotywować do pracy pomimo takiego sprasowania podają mu metę prosto od Heisenberga, stąd nazwa "kwantowa metapowierzchnia".

Edited by peceed

Share this post


Link to post
Share on other sites
9 hours ago, peceed said:

Brawo, ale to wiadomo od dawna. Każde wytworzenie fotonów można rozumieć jak pozyskanie ich z próżni.

Niedawno pisałeś, że nie ma cienia szansy na pozyskanie energii z kwantowej próżni, a wirtualnych fotonów nie należy traktować jak cząstek rzeczywistych, a tutaj taka niespodzianka. :) Być może chłopaki z LANL się jednak postarali. Czy mógłbyś przybliżyć w jaki sposób latarka lub laser pozyskuje energię z próżni z wyjątkiem PLT (Photonic Laser Thruster), który traktuję jako fake newsa.

Share this post


Link to post
Share on other sites
Godzinę temu, Qion napisał:

Niedawno pisałeś, że nie ma cienia szansy na pozyskanie energii z kwantowej próżni, a wirtualnych fotonów nie należy traktować jak cząstek rzeczywistych, a tutaj taka niespodzianka. :)

Jaka niespodzianka? Energię trzeba dostarczyć!
A co do pozyskiwania energii z próżni - nikt nie powiedział że nasz "zero point" to globalny "zero point".
Pierwsza osoba osoba która wyciągnie energię z próżni będzie pierwszą ofiarą jej rozpadu, strefa będzie się rozprzestrzeniać z prędkością światła.
Nie zdziwiłbym się gdyby te wszystkie ufole nad nami były tu wyłącznie z tego powodu:
Na pewno mają włączone alarmy na każde pojawienie się w sieci hasła "zero point energy" i "free energy" :P

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Naukowcy z Austrii i Włoch stworzyli „kwantowy memrystor”, urządzenie zdolne do przekazywania koherentnej informacji kwantowej w postaci superpozycji pojedynczych fotonów. Urządzenie takie może stać się podstawą do stworzenia kwantowej wersji architektury neuromorficznej, której działanie ma naśladować pracę ludzkiego mózgu.
      Memrystor, to czwarty podstawowy typ elementu elektronicznego. Od dawna znaliśmy opornik, kondensator i cewkę. W 1971 roku profesor Leon Chua z Kalifornii wysunął hipotezę, że może istnieć czwarty element, który nazwał opornikiem pamięci czyli memrystorem. Urządzenie takie powstało niemal 40 lat później, w 2008 roku. Memrystory szybko okazały się bardziej przydatne, niż sądzono, a przed dwoma laty wykorzystano je do zbudowania urządzenia działającego podobnie jak neuron.
      Badania  nad tym elementem elektronicznym ciągle trwają, a najnowszym osiągnięciem jest połączenie go z technologią kwantową.
      Memrystor współpracujący ze stanami kwantowymi i przekazujące kwantowe informacje został zbudowany przez uczonych z Uniwersytetu Wiedeńskiego, Politechniki Mediolańskiej i włoskiej Narodowej Rady Badawczej. Stworzono go za pomocą femtosekundowego lasera emitującego krótkie impulsy światła trwające zaledwie 10-15 sekundy. Za pomocą tych impulsów naukowcy rzeźbili w szkle falowody, kanały zdolne do więzienia lub przesyłania światła.
      Michele Spagnolo i jego zespół wykorzystali falowody do przesyłania pojedynczych fotonów. Dzięki ich kwantowej naturze znajdujące się w superpozycji fotony można było w tym samym czasie wysyłać przez dwa lub więcej falowodów. Za pomocą bardzo zaawansowanych wykrywaczy pojedynczych fotonów mogliśmy dokonywać pomiaru fotonu w jednym z falowodów, a następnie wykorzystać ten pomiar do kontrolowania urządzenia modulując transmisję w innym falowodzie. W ten sposób nasze urządzenie zachowywało się jak memrystor, wyjaśnia Michele Spagnolo. Oprócz uzyskania w ten sposób zachowania typowego dla memrystora, naukowcy – za pomocą symulacji – wykazali, że sieć optyczna zawierająca kwantowe memrystory będzie zdolna do nauki rozwiązywania problemów zarówno w sposób klasyczny, jak i kwantowy. To zaś wskazuje, że kwantowy memrystor może być tym elementem, który połączy sztuczną inteligencję i komputery kwantowe.
      Klasyczne memrystory są obecnie używane w badaniach nad komputerowymi platformami neuromorficznymi. Dlatego też włosko-austriacki zespół sądzi, że kwantowy memrystor może przyczynić się do powstania kwantowych sieci neuromorficznych.
      Uwolnienie pełnego potencjału możliwości sztucznej inteligencji zbudowanej na systemach kwantowych to jedno z najważniejszych obecnie wyzwań fizyki kwantowej i informatyki, dodaje Spagnolo. Uczony dodaje, że jego grupa już rozpoczęła prace nad odpowiednim urządzeniem. Jej pierwszym celem jest stworzenie urządzenia składającego się z kilkunastu kwantowych memrystorów operującego na kilkunastu fotonach. To poważne wyzwanie technologiczne, przyznaje naukowiec.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Teleskop Webba zarejestrował pierwsze fotony. Z powodzeniem przebyły one całą drogę przez układ optyczny i trafiły do NIRCam. To jedno z najważniejszych osiągnięć zaplanowanego na trzy miesiące etapu dostrajania teleskopu. Dotychczas uzyskane wyniki odpowiadają oczekiwaniom i naziemnym symulacjom.
      NIRCam to działająca w podczerwieni kamera, rejestrująca fale o długości od 0,6 do 5 mikrometrów. To ona zarejestruje światło z pierwszych gwiazd i galaktyk, pokaże gwiazdy w pobliskich galaktykach, młode gwiazdy w Drodze Mlecznej oraz obiekty w Pasie Kuipera. Wyposażono ją w koronografy, instrumenty pozwalające na fotografowanie bardzo słabo świecących obiektów znajdujących się wokół obiektów znacznie jaśniejszych. Koronografy blokują światło jasnego obiektu, uwidaczniając obiekty słabo świecące. Dzięki nim astronomowie chcą dokładnie obserwować planety krążące wokół pobliskich gwiazd i poznać ich charakterystyki. NIRCam wyposażono w dziesięć czujników rtęciowo-kadmowo-telurkowych, które są odpowiednikami matryc CCD ze znanych nam aparatów cyfrowych. To właśnie NIRCam jest wykorzystywana do odpowiedniego ustawienia zwierciadła webba.
      Żeby zwierciadło główne teleskopu działało jak pojedyncze lustro trzeba niezwykle precyzyjnie ustawić względem siebie wszystkie 18 tworzących je segmentów. Muszę one do siebie pasować z dokładnością do ułamka długości fali światła, w przybliżeniu będzie to ok. 50 nanometrów.
      Teraz, gdy zwierciadło jest rozłożone, a instrumenty włączone, rozpoczęliśmy wieloetapowy proces przygotowywania i kalibrowania teleskopu. Będzie on trwał znacznie dłużej niż w przypadku innych teleskopów kosmicznych, gdyż zwierciadło główne Webba składa się z 18 segmentów, które muszą działać jak jedna wielka powierzchnia, wyjaśniają eksperci z NASA.
      Najpierw trzeba ustawić teleskop względem jego platformy nośnej. Wykorzystuje się w tym celu specjalne systemy śledzenia gwiazd. Obecnie położenie platformy nośnej i segmentów lustra względem gwiazd nie jest ze sobą zgodne. Dlatego też wybrano jedną gwiazdę, jest nią HD 84406, względem której całość będzie ustawiana.
      Każdy z 18 segmentów zwierciadła rejestruje obraz tej gwiazdy, a jako że są one w różny sposób ustawione, na Ziemię trafią różne niewyraźne obrazy. Obsługa naziemna będzie następnie poruszała każdym z segmentów z osobna, by określić, który z nich zarejestrował który z obrazów. Gdy już to będzie wiadomo, segmenty będą obracane tak, by wszystkie z uzyskanych obrazów miały podobny wspólny punkt. Stworzona w ten sposób „macierz obrazów” zostanie szczegółowo przeanalizowana.
      Wówczas rozpocznie się drugi etap ustawiania zwierciadła, w ramach którego zredukowane zostaną największe błędy ustawienia. Najpierw obsługa poruszy nieco zwierciadłem wtórnym, co dodatkowo zdeformuje obrazy uzyskiwane z poszczególnych segmentów. Dzięki temu możliwe będzie przeprowadzenie analizy matematycznej, która precyzyjnie określi błędy w ułożeniu każdego z segmentów. Po skorygowaniu tych błędów otrzymamy 18 dobrze skorygowanych ostrych obrazów.
      W kolejnym etapie położenie każdego z segmentów lustra będzie zmieniane tak, by generowany przezeń obraz trafił dokładnie do środka pola widzenia teleskopu. Każdy z 18 segmentów został przypisany do jednej z trzech grup (oznaczonych jako A, B i C), więc ten etap prac będzie wykonywany w grupach.
      Po zakończeniu trzeciego etapu będziemy już mieli jeden obraz, jednak będzie to nadal obraz uzyskany tak, jakbyśmy nałożyli na siebie obrazy z 18 różnych teleskopów. Zwierciadło główne wciąż nie będzie działało jak jedno lustro. Rozpocznie się, przeprowadzany trzykrotnie, etap (Coarse Phasing) korygowania ustawienia segmentów lustra względem siebie. Po każdej z trzech części tego etapu ustawienia będą sprawdzane i korygowane za pomocą specjalnych elementów optycznych znajdujących się wewnątrz NIRCam (Fine Phasing). W jego trakcie obraz z poszczególnych zwierciadeł celowo będzie ustawiany poza ogniskową i prowadzone będą analizy zniekształceń. Ten ostatni proces superprecyzyjnej korekty ustawień będzie zresztą przeprowadzany rutynowo podczas całej pracy Webba.
      Gdy już teleskop zostanie odpowiednio ustawiony, rozpocznie się etap dostrajania pozostałych trzech instrumentów naukowych. Wyłapane zostaną ewentualne błędy i niedociągnięcia, a specjalny algorytm pokaże, jakich poprawek trzeba dokonać. W końcu, w ostatnim etapie prac, obsługa naziemna osobno sprawdzi jakość obrazu uzyskiwanego dzięki każdemu z segmentów zwierciadła głównego i usunie ewentualne błędy.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Fizyk James Franson z University of Maryland opublikował w recenzowanym Journal of Physics artykuł, w którym twierdzi, że prędkość światła w próżni jest mniejsza niż sądzimy. Obecnie przyjmuje się, że w światło w próżni podróżuje ze stałą prędkością wynoszącą 299.792.458 metrów na sekundę. To niezwykle ważna wartość w nauce, gdyż odnosimy do niej wiele pomiarów dokonywanych w przestrzeni kosmicznej.
      Tymczasem Franson, opierając się na obserwacjach dotyczących supernowej SN 1987A uważa, że światło może podróżować wolniej.
      Jak wiadomo, z eksplozji SN 1987A dotarły do nas neutrina i fotony. Neutrina przybyły o kilka godzin wcześniej. Dotychczas wyjaśniano to faktem, że do emisji neutrin mogło dojść wcześniej, ponadto mają one ułatwione zadanie, gdyż cała przestrzeń jest praktycznie dla nich przezroczysta. Jednak Franson zastanawia się, czy światło nie przybyło później po prostu dlatego, że porusza się coraz wolniej. Do spowolnienia może, jego zdaniem, dochodzić wskutek zjawiska polaryzacji próżni. Wówczas to foton, na bardzo krótki czas, rozdziela się na pozyton i elektron, które ponownie łączą się w foton. Zmiana fotonu w parę cząstek i ich ponowna rekombinacja mogą, jak sądzi uczony, wywoływać zmiany w oddziaływaniu grawitacyjnym pomiędzy parami cząstek i przyczyniać się do spowolnienia ich ruchu. To spowolnienie jest niemal niezauważalne, jednak gdy w grę wchodzą olbrzymie odległości, liczone w setkach tysięcy lat świetlnych – a tak było w przypadku SN 1987A – do polaryzacji próżni może dojść wiele razy. Na tyle dużo, by opóźnić fotony o wspomniane kilka godzin.
      Jeśli Franson ma rację, to różnica taka będzie tym większa, im dalej od Ziemi położony jest badany obiekt. Na przykład w przypadku galaktyki Messier 81 znajdującej się od nas w odległości 12 milionów lat świetlnych światło może przybyć o 2 tygodnie później niż wynika z obecnych obliczeń.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Współczesne komputery kwantowe to bardzo skomplikowane urządzenia, które trudno jest budować, skalować, a do pracy wymagają niezwykle niskich temperatur. Dlatego naukowcy od dłuższego czasu interesują się optycznymi komputerami kwantowymi. Fotony łatwo przenoszą informację, a fotoniczny komputer kwantowy mógłby pracować w temperaturze pokojowej. Problem jednak w tym, że o ile wiadomo, jak budować pojedyncze kwantowe bramki logiczne dla fotonów, to olbrzymim wyzwaniem jest stworzenie dużej liczby bramek i połączenie ich tak, by możliwe było przeprowadzanie złożonych obliczeń.
      Jednak optyczny komputer kwantowy może mieć prostszą architekturę, przekonują na łamach Optics naukowcy z Uniwersytetu Stanforda. Proponują oni wykorzystanie lasera do manipulowania pojedynczym atomem, który z kolei – za pomocą zjawiska teleportacji kwantowej – zmieni stan fotonu. Atom taki może być resetowany i wykorzystywany w wielu bramkach kwantowych, dzięki czemu nie ma potrzeby budowania różnych fizycznych bramek, co z kolei znakomicie uprości architekturę komputera kwantowego.
      Jeśli chciałbyś zbudować komputer kwantowy tego typu, musiałbyś stworzyć tysiące kwantowych źródeł emisji, spowodować, by były nie do odróżnienia od siebie i zintegrować je w wielki obwód fotoniczny. Tymczasem nasza architektura zakłada wykorzystanie niewielkiej liczby dość prostych podzespołów, a wielkość naszej maszyny nie rośnie wraz z wielkością programu kwantowego, który jest na niej uruchamiany, wyjaśnia doktorant Ben Bartlett, główny autor artykułu opisującego prace fizyków ze Stanforda.
      Nowatorska architektura składa się z dwóch głównych elementów. Pierścień przechowujący dane to po prostu pętla ze światłowodu, w której krążą fotony. Pełni on rolę układu pamięci, a każdy foton reprezentuje kubit. Badacze mogą manipulować fotonem kierując go z pierścienia do jednostki rozpraszania. Składa się ona z wnęki optycznej, w której znajduje się pojedynczy atom. Foton wchodzi w interakcję z atomem i dochodzi do ich splątania. Następnie foton wraca do pierścienia, a laser zmienia stan atomu. Jako, że jest on splątany z fotonem, zmiana stanu atomu skutkuje też zmianą stanu fotonu. Poprzez pomiar stanu atomu możesz badać stan fotonu. W ten sposób potrzebujemy tylko 1 atomowego kubitu, za pomocą którego manipulujemy wszystkimi fotonicznymi kubitami, dodaje Bartlett.
      Jako że każda kwantowa bramka logiczna może zostać skompilowana w szereg operacji przeprowadzonych na atomie, teoretycznie można by w ten sposób uruchomić dowolny program kwantowy dysponując jednym atomowym kubitem. Działanie takiego programu polegałoby na całym ciągu operacji, w wyniku których fotony wchodziłyby w interakcje z atomowym kubitem.
      W wielu fotonicznych komputerach kwantowych bramki są fizycznymi urządzeniami, przez które przechodzą fotony, zatem jeśli chcesz zmienić sposób działania swojego programu zwykle musisz zmienić konfigurację sprzętową komputera. W przypadku naszej architektury nie musisz zmieniać sprzętu. Wystarczy, że wyślesz do maszyny inny zestaw instrukcji, stwierdza Bartlett.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Współpraca naukowców z Princeton University i University of Washington zaowocowała powstaniem aparatu fotograficznego wielkości kryształu soli. Miniaturowe aparaty powstawały już wcześniej, jednak rejestrowały rozmyte obrazy o ograniczonym polu widzenia. Amerykanie poradzili sobie z tymi problemami i zapewniają, że ich aparat jest w stanie rejestrować pełnokolorowe obrazy o takiej jakości, jaką rejestrują standardowe aparaty o 500 tysięcy razy większych obiektywach.
      Nowe urządzenie może zostać wykorzystane do minimalnie inwazyjnej endoskopii czy jako systemy wizualne dla miniaturowych robotów. A tysiące takich aparatów umieszczonych na dużej powierzchni pozwoli na zmienienie jej w wielki aparat fotograficzny.
      W tradycyjnych aparatach fotograficznych stosuje się odpowiednio wyprofilowane szklane lub plastikowe soczewki skupiające światło. Miniaturowy aparat korzysta zaś z metapowierzchni. Ma ona wymiary zaledwie 0,5 x 0,5 milimetra ale zmieszczono na niej 1,6 miliona cylindrycznych słupków. Każdy z nich ma unikatową geometrię i działa jak antena optyczna. Dzięki indywidualnemu dobraniu kształtu każdego ze słupków możliwe było odpowiednie skorygowanie powierzchni falowej docierającego doń światła. Słupki zaprojektowano tak, by ich interakcja ze światłem skutkowała najostrzejszym obrazem o największym polu widzenia wśród wszystkich w pełni kolorowych aparatów fotograficznych wykorzystujących metapowierzchnie.
      Głównym osiągnięciem naukowców z Princeton i Seattle jest zintegrowanie projektu powierzchni optycznej i algorytmu przetwarzania sygnałów. To znakomicie zwiększyło możliwości aparatu w naturalnym świetle. Wcześniej, by w aparatach wykorzystujących metapowierzchnie uzyskać wysokiej jakości obraz, konieczne było zastosowanie lasera lub stworzenie w laboratorium innych idealnych warunków.
      Naukowcy porównali swój aparat z innymi wykorzystującymi metapowierzchnie oraz z tradycyjnymi aparatami. Nie licząc nieco rozmytego obrazu na krawędziach, jakość zdjęć z ich miniaturowego aparatu jest porównywalna z jakością zdjęć z aparatu o obiektywie o 500 000 razy większej objętości. Udało się też uniknąć najpoważniejszych problemów trapiących dotychczas miniaturowe aparaty korzystające z metapowierzchni: małego pola widzenia, ograniczonych możliwości rejestracji pełnego spektrum światła widzialnego czy dużych deformacji obrazu.
      Olbrzymim osiągnięciem jest odpowiednia współpraca setek tysięcy nanoanten z algorytmem przetwarzającym obraz. Dotychczas nie wiedziano, jak to zrobić. Ze względu na wielką liczbę nanoanten, ich różną konfigurację i złożone interakcje pomiędzy nimi a światłem, opracowanie odpowiedniego algorytmu wymagało długiego czasu i olbrzymich zasobów pamięci. Współautor badań, Shane Colburn, poradził sobie z tym problemem tworząc efektywne przybliżenie interakcji pomiędzy światłem a metapowierzchnią.
      Autorem samej metapowierzchni jest zaś James Whitehead, który stworzył ją na bazie azotku krzemu. To materiał kompatybilny ze współczesnymi technologiami stosowanymi w przemyśle półprzewodnikowych, co oznacza, że można go będzie masowo produkować i będzie tańszy niż tradycyjne soczewki.
      Zaprezentowane tutaj podejście nie jest niczym nowym, jednak jest to pierwszy system, w którym połączono metapowierzchnię i oparty na sieciach neuronowych system przetwarzania informacji. Najważniejszym osiągnięciem jest tutaj osiągnięcie kompatybilności pomiędzy rozmiarami, kształtem i lokalizacją milionów punktów na metapowierzchni, a parametrami używanymi przez algorytmy przetwarzające dane i uzyskanie dzięki temu obrazu o wymaganej jakości, chwali autorów badań Joseph Mait, były główny naukowiec w U.S. Army Research Laboratory.
      Obecnie uczeni z Princeton i Seattle pracują nad wyposażeniem swojego aparatu w większe możliwości obliczeniowe. Chcą w ten sposób nie tylko poprawić jakość obrazu, ale również wyposażyć go w możliwość wykrywania obiektów oraz inne cechy przydatne w obrazowaniu medycznym i robotyce.
      Takie ultrakompaktowe aparaty pozwolą też na zamianę powierzchni w duże aparaty. Cały tył smartfona mógłby być jednym dużym aparatem fotograficzym. Już teraz możemy zacząć myśleć o zupełnie nowej architekturze urządzeń przyszłości, mówi Felix Heide z Princeton University.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...