Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Kwantowy ściskacz światła z MIT pracuje w temperaturze pokojowej

Recommended Posts

Fizycy z MIT opracowali kwantowy „ściskacz światła”, który redukuje szum kwantowy w laserach o 15%. To pierwszy taki system, który pracuje w temperaturze pokojowej. Dzięki temu możliwe będzie wyprodukowanie niewielkich przenośnych systemów, które będzie można dobudowywać do zestawów eksperymentalnych i przeprowadzać niezwykle precyzyjne pomiary laserowe tam, gdzie szum kwantowy jest obecnie poważnym ograniczeniem.

Sercem nowego urządzenia jest niewielka wnęka optyczna znajdująca się w komorze próżniowej. We wnęce umieszczono dwa lustra, z których średnia jednego jest mniejsza niż średnica ludzkiego włosa. Większe lustro jest zamontowane na sztywno, mniejsze zaś znajduje się na ruchomym wsporniku przypominającym sprężynę. I to właśnie kształt i budowa tego drugiego, nanomechanicznego, lustra jest kluczem do pracy całości w temperaturze pokojowej. Wpadające do wnęki światło lasera odbija się pomiędzy lustrami. Powoduje ono, że mniejsze z luster, to na wsporniku zaczyna poruszać się w przód i w tył. Dzięki temu naukowcy mogą odpowiednio dobrać właściwości kwantowe promienia wychodzącego z wnęki.

Światło lasera opuszczające wnękę zostaje ściśnięte, co pozwala na dokonywanie bardziej precyzyjnych pomiarów, które mogą przydać się w obliczeniach kwantowych, kryptologii czy przy wykrywaniu fal grawitacyjnych.

Najważniejszą cechą tego systemu jest to, że działa on w temperaturze pokojowej, a mimo to wciąż pozwala na dobieranie parametrów z dziedziny mechaniki kwantowej. To całkowicie zmienia reguły gry, gdyż teraz będzie można wykorzystać taki system nie tylko w naszym laboratorium, które posiada wielkie systemy kriogeniczne, ale w laboratoriach na całym świecie, mówi profesor Nergis Mavalvala, dyrektor wydziału fizyki w MIT.

Lasery emitują uporządkowany strumień fotonów. Jednak w tym uporządkowaniu fotony mają pewną swobodę. Przez to pojawiają się kwantowe fluktuacje, tworzące niepożądany szum. Na przykład liczba fotonów, które w danym momencie docierają do celu, nie jest stała, a zmienia się wokół pewnej średniej w sposób, który jest trudny do przewidzenia. Również czas dotarcia konkretnych fotonów do celu nie jest stały.

Obie te wartości, liczba fotonów i czas ich dotarcia do celu, decydują o tym, na ile precyzyjne są pomiary dokonywane za pomocą lasera. A z zasady nieoznaczoności Heisenberga wynika, że nie jest możliwe jednoczesne zmierzenie pozycji (czasu) i pędu (liczby) fotonów.

Naukowcy próbują radzić sobie z tym problemem poprzez tzw. kwantowe ściskanie. To teoretyczne założenie, że niepewność we właściwościach kwantowych lasera można przedstawić za pomocą teoretycznego okręgu. Idealny okrąg reprezentuje równą niepewność w stosunku do obu właściwości (czasu i liczby fotonów). Elipsa, czyli okrąg ściśnięty, oznacza, że dla jednej z właściwości niepewność jest mniejsza, dla drugiej większa.

Jednym ze sposobów, w jaki naukowcy realizują kwantowe ściskanie są systemy optomechaniczne, które wykorzystują lustra poruszające się pod wpływem światła lasera. Odpowiednio dobierając właściwości takich systemów naukowcy są w stanie ustanowić korelację pomiędzy obiema właściwościami kwantowymi, a co za tym idzie, zmniejszyć niepewność pomiaru i zredukować szum kwantowy.

Dotychczas optomechaniczne ściskanie wymagało wielkich instalacji i warunków kriogenicznych. Działo się tak, gdyż w temperaturze pokojowej energia termiczna otaczająca system mogła mieć wpływ na jego działanie i wprowadzała szum termiczny, który był silniejszy od szumu kwantowego, jaki próbowano redukować. Dlatego też takie systemy pracowały w temperaturze zaledwie 10 kelwinów (-263,15 stopni Celsjusza). Tam gdzie potrzebna jest kriogenika, nie ma mowy o niewielkim przenośnym systemie. Jeśli bowiem urządzenie może pracować tylko w wielkiej zamrażarce, to nie możesz go z niej wyjąć i uruchomić poza nią, wyjaśnia Mavalvala.

Dlatego też zespół z MIT pracujący pod kierunkiem Nancy Aggarval, postanowił zbudować system optomechaczniczny z ruchomym lustrem wykonanym z materiałów, które absorbują minimalne ilości energii cieplnej po to, by nie trzeba było takiego systemu chłodzić. Uczeni stworzyli bardzo małe lustro o średnicy 70 mikrometrów. Zbudowano je z naprzemiennie ułożonych warstw arsenku galu i arsenku galowo-aluminowego. Oba te materiały mają wysoce uporządkowaną strukturę atomową, która zapobiega utratom ciepła. Materiały nieuporządkowane łatwo tracą energię, gdyż w ich strukturze znajduje się wiele miejsc, gdzie elektrony mogą się odbijać i zderzać. W bardziej uporządkowanych materiałach jest mniej takich miejsc, wyjaśnia Aggarwal.

Wspomniane wielowarstwowe lustro zawieszono na wsporniku o długości 55 mikrometrów. Całości nadano taki kształt, by absorbowała jak najmniej energii termicznej. System przetestowano na Louisiana State University. Dzięki niemu naukowcy byli w stanie określić kwantowe fluktuacje liczby fotonów względem czasu ich przybycia do lustra. Pozwoliło im to na zredukowanie szumu o 15% i uzyskanie bardziej precyzyjnego „ściśniętego” promienia.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Wywiadu udzielił nam profesor Grzegorz Pietrzyński z Obserwatorium Astronomicznego Uniwersytetu Warszawskiego, którego zespół dokonał najbardziej precyzyjnych w historii pomiarów odległości do Wielkiego Obłoku Magellana.
      1. Czy astronomia/astrofizyka mają jakieś bezpośrednie przełożenie na życie codzienne? Czy badania kosmosu, poza oczywistymi przykładami satelitów komunikacyjnych i meteorologicznych, mają znaczenie dla ludzi żyjących tu i teraz czy też są przede wszystkim badaniami wybiegającymi w przyszłość (tzn. mogą mieć ewentualnie znaczenie w przyszłości) i poszerzającymi naszą wiedzę, ale nie rozwiązującymi obecnych praktycznych problemów.
      Astronomia należy do tzw nauk podstawowych, których wyniki nie są bezpośrednio komercjalizowane. Proszę zauważyć, że opracowanie jakiejkolwiek nowej technologii wymaga odpowiedniego postępu w badaniach podstawowych. Dlatego wszystko co dziś mamy zawdzięczamy naukom podstawowym.
      2. Co rodzi w umyśle naukowca pytanie "Ciekawe, jaka jest dokładna odległość między Ziemią, a Obłokiem Magellana"?

      Takie pytanie rodzi kolejne - jak zmierzyć taką odleglość ?
      3. Ile czasu zajęło wyznaczenie aktualnej odległości do Obłoku (wliczając w to obserwacje, symulacje, wyliczenia)?
      Naszej grupie Araucaria zajęło to około 12 lat. W międzyczasie mierzyliśmy odległości do Wielkiego Obłoku Magellana używając innych technik (gwiazd red clump, Cefeid, RR Lyrae, etc). Jednak od początku wiadomo było, że układy zaćmieniowe mają największy potencjał bardzo dokładnego pomiaru odległości do tej galaktyki.
      4. Jak wygląda proces i jakie instrumenty zostały wykorzystane?
      Proces był długi i bardzo złożony. W skrócie: w opariu o dane fotometryczne zgromadzone przez zespół Optical Gravitational Lensing Experiment znaleziono najlepsze kandydatki do dalszych badań. Następnie przez okolo 8 lat w ramach projektu Araucaria obserwowaliśmy widma wybranych systemów za pomoca 6,5-metrowego teleskopu Magellan w Las Campanas Observatory, wyposażonego w spektrograf MIKE oraz 3,6-metrowego teleskopu w La Silla, ESO, wyposażonego w spektrograf HARPS. Dodatkowo wykonaliśmy pomiary jasności naszych układów w bliskiej podczerwieni używając instrumentu SOFI dostępnego na 3,5-metrowym teleskopie NTT, ESO, La Silla. Po obróbce otrzymanych obrazów wykonano odpowiednie pomiary.
      5. W jaki sposób dokładniejszy pomiar odległości od najbliższego Obłoku przełoży się na skalę kosmiczną?
      Wszystkie pomiary odległości do galaktyk wykonuje się względem Wielkiego Obłoku Magellana. Dlatego pomiar odległości do WOM definiuje bezpośrednio punkt zerowy całej kosmicznej skali odległości.
      6. Co umożliwi uzyskanie jeszcze dokładniejszego wyniku? Lepszy kandydat (para analizowanych gwiazd podwójnych)?
      Trudno wyobrazić sobie jeszcze lepsze układy podwójne do pomiaru odleglosci do WOM. Największym źródłem błędu jest zależność pomiędzy temperaturą gwiazdy a jej rozmiarami kątowymi. Jej dokładność wynosi obecnie około 2%. Nasz zespół prowadzi badania mające na celu dokładniejsze skalibrowanie tej zależności. Spodziewamy się, że w niedalekiej przyszłości uda nam się zmierzyć odleglość do WOM z dokładnością około 1%.
      7. Zawsze mnie intrygowało to, że w mediach, a i na oficjalnych portalach prezentowane są artystyczne wizje gwiazd i planet, które co prawda spełniają swoje zadanie przed typowym odbiorcą, ale faktycznie przecież często jest to zlepek kilku lub jeden piksel zdjęcia. Nie potrafię sobie wyobrazić jak stąd wyciągnąć informacje o rozmiarze, masie, orbicie, temperaturze takich ciał. Jak dla mnie to daleko trudniejsze niż próba odczytania Hubblem napisu "Made in USA" na Curiosity. W jaki sposób z takich kilku pikseli można cokolwiek powiedzieć o obserwowanym obiekcie?
      Oczywiście nie jesteśmy w stanie rozdzielić tych obiektów. W przypadku układów zaćmieniowych badając zmiany blasku (zaćmienia to efekt czysto geometryczny) oraz widma (z nich wyznaczymy predkości gwiazd na orbicie) w oparciu o proste prawa fizyczne jesteśmy w stanie wyznaczyć parametry fizyczne gwiazd. Jest to klasyczna metoda stosowana od dawna w astronomii. Aby jej użyć  nie musimy rozdzielać obrazów gwiazd wchodzacych w skład danego układu podwójnego.
      8. Czy rodowisko naukowców astronomów ma w naszym kraju problemy z finansowaniem i rozwijaniem projektów?
      Oczywiscie tak! Z mojego punktu widzenia jest obecnie dużo różnych źródeł finansowania, więc najlepsze projekty mają duże szanse na finansowanie. Dużo gorzej jest z realizacją i rozwojem projektów.Tysiące bezsensownych przepisów, rozdęta do granic absurdu biurokracja, brak wyobraźni i dobrej woli urzędników. To tylko niektóre czynniki, które sprawiają, że wykonanie ambitnego projektu naukowego w Polsce jest niezmiernie trudne.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Dzięki kombinacji laserów i wyjątkowej pułapki, w którą schwytano niezwykle zimne atomy, naukowcom z Lawrence Berkeley National Laboratory i University of California Berkeley udało się zmierzyć najmniejszą znaną nam siłę. Wynosi ona... 42 joktoniutony. Joktoniuton to jedna kwadrylionowa (10-24) niutona.
      Przyłożyliśmy zewnętrzną siłę do centrum masy superzimnej chmury atomów i optycznie zmierzyliśmy jej ruch. […] czułość naszego pomiaru jest zgodna z teoretycznymi przewidywaniami i jest jedynie czterokrotnie mniejsza od limitu kwantowego, który wyznacza granicę najbardziej dokładnego pomiaru - mówi fizyk Dan Stamper-Kurn.
      Prowadzenie tak dokładnych pomiarów jest niezbędne, jeśli chcemy potwierdzić istnienie fal grawitacyjnych. Dlatego też wiele zespołów naukowych stara się udoskonalać metody pomiarowe. Na przykład naukowcy w Laser Interferometer Gravitational-Wave Observatory próbują zmierzyć przesunięcie zaledwie o 1/1000 średnicy protonu.
      Kluczem do sukcesu wszelkich superdokładnych pomiarów jest wykorzystanie mechanicznych oscylatorów, które przekładają zewnętrzną siłę, której oddziaływaniu został poddany obiekt, na jego ruch. Gdy jednak pomiary siły i ruchu staną się tak dokładne, że dotrzemy do limitu kwantowego, ich dalsze wykonywanie nie będzie możliwe, gdyż sam pomiar – zgodnie z zasadą nieoznaczoności Heisenberga – będzie zakłócany ruchem oscylatora. Naukowcy od dziesiątków lat próbują przybliżyć się do tego limitu kwantowego. Dotychczas jednak najlepsze pomiary były od niego gorsze o 6-8 rzędów wielkości. Zmierzyliśmy siłę z dokładnością najbliższą limitowi kwantowemu. Było to możliwe, gdyż nasz mechaniczny oscylator składa się z zaledwie 1200 atomów - stwierdził Sydney Schreppler. Oscylatorem wykorzystanym przez Schrepplera, Stampera-Kurna i innych były atomy rubidu schłodzone niemal do zera absolutnego. Pułapkę stanowiły dwa promienie lasera o długości fali wynoszącej 860 i 840 nanometrów. Stanowiły one równe i przeciwstawne siły osiowe oddziałujące na atomy. Ruch centrum masy został wywołany w gazie poprzez modulowanie amplitudy drgań promienia światła o długości fali 840 nanometrów.
      Gdy do oscylatora przyłożyliśmy siłę zewnętrzną, było to tak, jakbyśmy uderzyli batem w wahadło i zbadali jego reakcję - mówi Schreppler.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Poszukiwanie zjawisk fizycznych wykraczających poza Model Standardowy często wymaga dostępu do potężnych narzędzi, jak Wielki Zderzacz Hadronów, podziemnych wykrywaczy neutrin, ciemnej materii i egzotycznych cząstek. Urządzenia takie są niezwykle kosztowne w budowie i utrzymaniu, ich konstruowanie trwa przez wiele lat i jest ich niewiele, przez co ustawiają się do nich długie kolejki naukowców. Teraz dzięki naukowcom z Holandii może się to zmienić. Opracowali oni bowiem technikę więzienia i badania ciężkich molekuł w warunkach laboratoryjnych.
      Ciężkie molekuły są świetnym obiektem do badań nad elektrycznym momentem dipolowym elektronu. Jednak dotychczas stosowane metody nie pozwalały na ich uwięzienie w warunkach niewielkiego laboratorium.
      Standardowe techniki poszukiwania elektrycznego momentu dipolowego elektronu (eEDM) wykorzystują wysoce precyzyjną spektroskopię. Jednak by ją zastosować konieczne jest najpierw spowolnienie molekuł i schwytanie ich w pułapkę laserową lub elektryczną. Problem w tym, że do odkrycia zjawisk wykraczających poza Model Standardowy konieczne może okazać się przechwycenie molekuł zbyt ciężkich, by mogły uwięzić je lasery. Z kolei pułapki elektryczne pozwalają na przechwycenie ciężkich jonów, ale nie obojętnych elektrycznie molekuł.
      Naukowcy z Uniwersytetu w Groningen, Vrije Universiteit Amsterdam oraz instytutu Nikhef rozpoczęli swoją pracę od stworzenie molekuł fluorku strontu (SrF), które powstały w wyniku reakcji chemicznych zachodzących w kriogenicznym gazie w temperaturze około 20 kelwinów. Dzięki niskiej temperaturze molekuły te mają początkową prędkość 190 m/s, podczas gdy w temperaturze pokojowej wynosi ona ok. 500 m/s. Następnie molekuły wprowadzane są do 4,5-metrowej długości spowalniacza Stark, gdzie zmienne pola elektryczne najpierw je spowalniają, a następnie zatrzymują. Molekuły SrF pozostają uwięzione przez 50 milisekund. W tym czasie można je analizować za pomocą specjalnego systemu indukowanego laserem. Pomiary takie pozwalają badać właściwości elektronów, w tym elektryczny moment dipolowy, dzięki czemu możliwe jest poszukiwanie oznak asymetrii.
      Model Standardowy przewiduje istnienie eEDM, jednak ma on niezwykle małą wartość. Dlatego też dotychczas właściwości tej nie zaobserwowano. Obserwacja i zbadanie eEDM mogłyby wskazać na istnienie fizyki wykraczającej poza Model Standardowy.
      Molekuły SrF, którymi zajmowali się Holendrzy, mają masę około 3-krotnie większą niż inne molekuły badane dotychczas podobnymi metodami. Naszym kolejnym celem jest uwięzienie jeszcze cięższych molekuł, jak np. fluorku baru (BaF), który ma macę 1,5 raza większą od SrF. Taka molekuła byłaby jeszcze lepszym celem do pomiarów eEDM, mówi Steven Hoekstra, fizyk z Uniwersytetu w Groningen. Im bowiem cięższa molekuła, tym dokładniejszych pomiarów można dokonać.
      Jednak możliwość uwięzienia ciężkich molekuł przyda się nie tylko do badania elektrycznego momentu dipolowego elektronu. Można dzięki temu przeprowadzać też zderzenia ciężkich molekuł przy niskich energiach, symulując warunki w przestrzeni kosmicznej. To zaś przyda się podczas badań interakcji na poziomie kwantowym. Hoekstra mówi, że wraz ze swoimi kolegami będą też pracowali nad zwiększeniem czułości pomiarów poprzez zwiększenie intensywności strumienia molekuł. Spróbujemy też uwięzić bardziej złożone molekuły, jak BaOH czy BaOCH3. Dodatkowo wykorzystamy naszą technikę do badania asymetrii w molekułach chiralnych, zapowiada.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      VCSEL to najpopularniejszy typ laserów. Znajdziemy je w smartfonach, sieciach komputerowych czy urządzeniach medycznych. Emitują światło z kwantowych studni lub kropek umieszczonych pomiędzy lustrami. Studnie i kropki są niezwykle małe, ich wielkość mierzy się w ułamkach mikrometrów. To z jednej strony zaleta, pozwalająca na miniaturyzację i dużą prędkość pracy, jednak z drugiej strony rozmiar ogranicza moc lasera. Teraz, po dziesięcioleciach prac, udało się opracować rozwiązanie, które pozwoli zwiększyć moc VCSEL, znajdą więc one zastosowanie tam, gdzie stosowane dotychczas być nie mogły.
      Przez dekady naukowcy próbowali zwiększyć moc VCSEL (vertical cavity surface emitting laser) poprzez wymuszenie na nich pracy grupowej. Chcieli połączyć wiele laserów w jeden, o zwielokrotnionej mocy. Niestety, minimalne niedokładności w procesach produkcyjnych powodowały, że lasery takie pracowały w niewielkich niezależnych od siebie grupach, których emisja nie była ze sobą zsynchronizowana. Niemożliwe było wiec uzyskanie spójnego promienia laserowego.
      Dopiero teraz naukowcy pracujący pod kierunkiem Sebastiana Klembta z Uniwersytetu w Würzburgu i Mordechaia Segeva z Izraelskiego Instytutu Technologii Technion, opracowali metodę na wymuszanie spójnej pracy 30 VCSEL. Udało im się to dzięki ułożeniu laserów tak, by geometria całości była zgodna z tym, czego uczeni dowiedzieli się z badań nad izolatorami topologicznymi.
      Izolatory topologiczne to niezwykłe materiały. Są jednorodne, a mimo to wewnątrz są izolatorami, podczas gdy ich powierzchnia jest przewodnikiem. Materiały takie odkryto dawno, ale historia ich zastosowania w laserach liczy sobie zaledwie 8 lat gdy Segev i naukowcy z Uniwersytetu w Rostocku zaprezentowali pierwszy fotoniczny izolator topologiczny. W laserze tym światło wędrowało wzdłuż krawędzi dwuwymiarowej macierzy falowodów i nie było zakłócane przez ich niedoskonałości. Kilka lat później Segev wraz z inną już grupą współpracowników pokazał, że możliwe jest zmuszenie wielu takich laserów do współdziałania. Jednak system miał poważne ograniczenia. Światło krążyło w płaszczyźnie układu, który je generował. To zaś oznaczało, że moc systemu była ograniczona przez wielkość urządzenia do emisji światła. Naukowcy porównują to do elektrowni, z której wychodzi tylko jedno gniazdko do podłączenia urządzenia.
      Nowa topologiczna macierz VSCEL składa się z dwóch typów macierzy w kształcie plastra miodu, na wierzchołkach których umieszczono nanoskalowe kolumienki. Jednym z typów macierzy jest macierz rozciągnięta, drugim – ściśnięta. Uczeni stworzyli specjalny interfejs pomiędzy nimi. Gdy ma on odpowiednie parametry, otrzymujemy topologiczny interfejs, w którym światło musi przepływać pomiędzy laserami. Taki ciągły topologicznie chroniony przepływ światła powoduje, że światło każdego z laserów musi dotrzeć do wszystkich innych laserów, dzięki czemu otrzymujemy spójną wiązkę, wyjaśnia Segev. Obecnie więc światło krąży w całej macierzy, ale jest też emitowane przez każdy z laserów, wchodzących w jej skład.
      Topologiczne założenia naszego lasera będą działały dla wszystkich długości fali i różnych materiałów. To, ile mikrolaserów możemy połączyć w macierz zależy wyłącznie od tego, jak mają być stosowane. Możemy stworzyć wielką macierz i powinna ona emitować spójne światło dla dużej liczby laserów. To wspaniałe, że topologia, która w przeszłości była wyłącznie dziedziną matematyki, staje się rewolucyjnym narzędziem pozwalającym na kontrolowanie i udoskonalanie laserów, cieszy się profesor Klembt.
      Nasza praca to przykład potęgi topologicznego transportu światła. Niewielkie sprzężenie na płaszczyźnie wystarczy, by wymusić na macierzy indywidualnych źródeł emisji działanie w roli pojedynczego źródła, czytamy na łamach Science.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Na szczycie Mount Säntis w Alpach Szwajcarskich zainstalowano potężny laser, za pomocą którego naukowcy chcą sprawdzić, czy systemy laserowe mogą kontrolować i przekierowywać pioruny. Prototypowa instalacja – ważący pięć ton laser o długości dziewięciu metrów – została umieszczona przy 123-metrowej wieży telekomunikacyjnej.
      Naturalne wyładowania atmosferyczne to wciąż poważny problem. W samych tylko Stanach Zjednoczonych powodowane nimi straty – związane głównie z zakłóceniami ruchu lotniczego, uszkodzeniami samolotów i linii wysokiego napięcia – sięgają 5 miliardów dolarów rocznie. Tymczasem wciąż korzystamy z opracowanego w 1752 roku piorunochronu pomysłu Benjamina Franklina. Nie jest to optymalne rozwiązanie. Piorunochronów nie da się instalować wszędzie, chronią one tylko przed bezpośrednim uderzeniem, a prowadząc ładunek do ziemi mogą powodować kolejne problemy, jak interferencja magnetyczna czy skoki napięcia w różnych urządzeniach.
      Koncepcja „laserowego piorunochronu” pojawiła się całe dziesięciolecia temu, jednak środowisko naukowe było podzielone w kwestii jej przydatności. Przed czterema laty rozpoczęto finansowany przez Unię Europejską projekt badawczy Laser Lightning Rod (LLR). Owocem projektu jest zainstalowany niedawno na Mount Säntis wielki laser. LLR to obecnie jeden z najpotężniejszych laserów w swojej klasie, stwierdził inżynier Clemens Herkommer z firmy TRUMPF Scientiic Lasers, która była partnerem projektu.
      Terawatowy laser wystrzeliwuje w stronę chmur 1000 ultrakrótkich impulsów na sekundę. W ten sposób powstaje długi kanał zjonizowanego powietrza nazwany laserowym włóknem. Zjonizowane powietrze stawia mniejszy opór elektryczny, a że wyładowania przebiegają właśnie po trasie najmniejszego oporu, naukowcy mają nadzieję, że laserowe włókno będzie stanowiło dla pioruna preferowaną ścieżkę, gdy dojdzie do wyładowania. W ten sposób energia wyładowania atmosferycznego ma zostać przekierowana tam, gdzie może wyrządzić ono jak najmniej szkód. Wystrzeliwując w chmury tysiąc impulsów na sekundę, możemy bezpiecznie rozładować ładunek elektryczny i spowodować, że świat stanie się nieco bezpieczniejszy, mówi Herkommer.
      Szczyt Mount Säntis jest jednym z tych miejsc w Europie, gdzie dochodzi do najczęstszych uderzeń piorunów. Każdego roku doświadcza on około 100 takich wydarzeń, a większość z nich ma miejsce pomiędzy majem a sierpniem.
      Już wkrótce powinniśmy poznać wstępne wyniki działania LLR. Jeśli system się sprawdzi, nie można wykluczyć, że w przyszłości laserowe piorunochrony będą czuwały nad bezpieczeństwem lotnisk, elektrowni atomowych i innej krytycznej infrastruktury.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...