Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Mikrofalowe splątanie

Recommended Posts

Fizycy z Narodowych Instytutów Standardów i Technologii (NIST) jako pierwsi w historii doprowadzili do splątania dwóch jonów za pomocą mikrofal. Dotychczas w tym celu wykorzystywano lasery.

Prace te pokazują, że w przyszłości możliwe będzie zastąpienie wielkich systemów laserowych niewielkimi źródłami mikrofal, takimi jak np. wykorzystywane w telefonach komórkowych.

Mikrofale już wcześniej były używane do manipulowania jonami, jednak teraz, dzięki umieszczeniu źródła ich emisji bardzo blisko jonów, w odległości zaledwie 30 mikrometrów, udało się uzyskać splątanie atomów. Możliwość splątywania cząsteczek to jeden z podstawowych warunków transportu informacji i korekcji błędów w przyszłych komputerach kwantowych.

Podczas swoich prac naukowcy wykorzystali źródło mikrofal umieszczone w układzie scalonym zintegrowane z pułapką jonową oraz stołowy zestaw laserów, luster i soczewek. Zestaw ten jest dziesięciokrotnie mniejszy niż dotychczas wykorzystywane. Użycie ultrafioletowego lasera o niskiej mocy wciąż jest koniecznością, gdyż za jego pomocą chłodzi się jony i obserwuje wyniki badań. Jednak w przyszłości cały zespół lasera można będzie zminiaturyzować do rozmiarów laserów używanych np. w odtwarzaczach DVD.

Możliwe, że średniej wielkości komputer kwantowy będzie przypominał telefon komórkowy połączony z urządzeniem podobnym do laserowego wskaźnika, a zaawansowane maszyny będą wielkości współczesnego peceta - mówi fizyk Dietrich Leibfried, współautor badań. Chociaż kwantowe komputery raczej nie będą urządzeniami, które każdy będzie chciał nosić przy sobie, to będą mogły używać elektroniki podobnej do tej, jaka jest obecnie wykorzystywana w smartfonach do generowania mikrofal. Podzespoły takie są dobrze znane i już obecne na rynku. Taka perspektywa bardzo nas ekscytuje - dodaje uczony.

W czasie eksperymentów dwa jony zostały złapane w elektromagnetyczną pułapkę. Nad pułapką znajdował się układ scalony zawierający elektrody z azotku glinu pokrytego złotem. Elektrody były aktywowane, by wywołać impulsy promieniowania mikrofalowego oscylujące wokół jonów. Ich częstotliwość wahała się od 1 do 2 gigaherców. Mikrofale doprowadziły do powstania pola magnetycznego, które z kolei wywołało rotację spinów. Jeśli moc takiego pola magnetycznego jest w odpowiedni sposób zwiększana, można doprowadzić do splątania jonów. Metodą prób i błędów, wykorzystując przy tym zestaw trzech elektrod, udało się uczonym odnaleźć właściwy sposób manipulowania polem magnetycznym i doprowadzić do splątania.

Wykorzystanie mikrofal w miejsce laserów ma i tę zaletę, że zmniejsza liczbę błędów, które są powodowane niestabilnościami w promieniu lasera oraz zapobiega pojawieniu się w jonach spontanicznej emisji wywoływanej światłem laserowym. Jednak technika mikrofalowego splątania musi zostać jeszcze udoskonalona. Uczonym z NIST udało się uzyskać splątanie w 76% przypadków. Tymczasem za pomocą lasera uzyskuje się wynik rzędu 99,3 procenta.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Scharakteryzowanie i optymalizacja obliczeń kwantowych wykonywanych przez kubity, czyli podstawowe jednostki komputera kwantowego to zadanie, jakie postawili przed sobą polscy fizycy i informatycy, zrzeszeni w projekcie TEAM-NET, kierowanym przez prof. Marka Kusia. Rezultaty ich badań będą kolejną cegiełką dołożoną do budowy komputera kwantowego, nad którym usilnie pracują naukowcy i przedsiębiorstwa z całego świata. Na realizację projektu TEAM-NET uczeni otrzymali dofinansowanie od Fundacji na rzecz Nauki Polskiej, w wysokości ponad 17 mln zł.
      Czym jest komputer kwantowy i czym różni się od komputera klasycznego? We współcześnie używanych na co dzień komputerach dane są zapisywane w systemie binarnym czyli poprzez sekwencje bitów, z których każdy znajduje się w jednym z dwóch stanów: 0 lub 1. Grupy takich bitów są przesyłane między różnymi podzespołami jednego komputera lub też między różnymi komputerami w sieci. Co istotne, komputer klasyczny wykonuje operacje w określonej kolejności, jedna po drugiej, i nie jest w stanie wykonywać kilku czynności jednocześnie. Dlatego im bardziej złożone jest zadanie, tym dłużej trwa szukanie rozwiązań, a do rozwiązania wielu ze współczesnych problemów moc obliczeniowa klasycznych komputerów jest już wręcz niewystarczająca.
      Kilka sekund zamiast kilku lat dzięki kubitom
      Komputery kwantowe pozwolą rozwiązywać skomplikowane problemy z wielu dziedzin nauki i przemysłu dużo szybciej i efektywniej niż najlepsze komputery klasyczne. W ciągu kilka sekund potrafią one wykonać obliczenia, które komputerowi klasycznemu mogą zająć nawet kilka lat – tłumaczy prof. Centrum Fizyki Teoretycznej PAN w Warszawie, czyli ośrodka będącego liderem projektu TEAM-NET. A to dlatego, że w komputerach kwantowych informacje zapisywane są w kubitach (od angielskiego quantum bit). Kubit od zwykłego bitu różni się tym, że nie ma ustalonej wartości 0 lub 1, ale zgodnie z zasadami mechaniki kwantowej znajduje się w stanie pośrednim, nazywanym superpozycją. Oznacza to, że jednocześnie znajduje się i w stanie 0, i w stanie 1. A zatem, kubit niesie w sobie znacznie więcej informacji niż zero-jedynkowy bit. Na dodatek, kubity mogą być ze sobą splątane: dwa kubity to już cztery splątane ze sobą wartości, trzy kubity – osiem wartości, i tak dalej. Stanów pojedynczych kubitów  nie można traktować jako niezależnych, bo zmiana jednego wpływa na wszystkie pozostałe. Właśnie dzięki splątaniu kubitów, komputer kwantowy może wykonywać obliczenia na wszystkich wartościach jednocześnie, co daje mu potężną moc obliczeniową. Choć sprawa komplikuje się z uwagi na konieczność „odczytania” wyników takiego obliczenia, co nieuchronnie niszczy stan kwantowy.
      Komputer kwantowy, gdy już powstanie, pozwoli na błyskawiczne wyszukiwanie potrzebnych informacji w ogromnych ilościach danych oraz umożliwi przeprowadzanie najbardziej skomplikowanych, wielopłaszczyznowych symulacji z nieograniczoną liczbą czynników. Technologia ta z pewnością znajdzie zastosowanie w naukach o życiu, medycynie i przemyśle farmaceutycznym, gdzie posłuży do odkrywania nowych leków. Innym sektorem oczekującym na powstanie komputerów kwantowych jest bankowość i cała branża finansowa, która skorzysta m.in. na możliwości doskonałego symulowania zachowań giełdy.
      Kruchość kubitów
      W tej chwili nie możemy jednak określić, kiedy powstanie komputer kwantowy. Wciąż mierzymy się z wieloma bardzo poważnymi ograniczeniami i nie wiadomo, kiedy uda się je przezwyciężyć. Konstrukcja działającego komputera kwantowego jest niezwykle trudna choćby ze względu na nieunikniony wpływ szumu i dekoherencji układów kwantowych – podkreśla prof. Marek Kuś.
      Chodzi o to, że kubity są bardzo niestabilne i ekstremalnie wrażliwe na wpływ otoczenia. Nawet najdrobniejsze wahania temperatury, hałasu, ciśnienia czy pola magnetycznego mogą prowadzić do wybicia kubitów ze stanu współzależnych superpozycji, czyli do zjawiska określanego przez fizyków jako dekoherencja. Jeśli kubity nie utrzymują stanu superpozycji, dochodzi do błędów w obliczeniach, a im więcej kubitów połączymy, tym więcej takich błędów będzie generowanych. Obecnie kubity mogą utrzymać swój stan kwantowy tylko przez około 100 mikrosekund, zanim dojdzie do dekoherencji. Z tego powodu komputery kwantowe muszą znajdować się w specjalnie przygotowanym środowisku. Wymagają m.in. chłodzenia na poziomie temperatury bliskiej zera bezwzględnego oraz umieszczenia w wysokiej próżni, pod ciśnieniem 10 mld razy niższym niż ciśnienie atmosferyczne.
      Oznacza to, że komputery kwantowe szybko nie zagoszczą w naszych domach czy biurach. W niedalekiej przyszłości możemy się spodziewać natomiast urządzeń zbudowanych z niewielu niedoskonałych kubitów. Nasz projekt ma na celu scharakteryzowanie mocy obliczeniowej i zbadanie możliwych praktycznych zastosowań takich urządzeń. Skupiać się będziemy nie na budowie samego urządzenia, ale na przetestowaniu jego oprogramowania i scharakteryzowaniu algorytmów, które zoptymalizują jego działanie. Aby zrealizować ten cel, utworzymy sieć współpracujących ze sobą czterech grup badawczych, zajmujących się nowatorskimi aspektami obliczeń kwantowych: kwantowym uczeniem maszynowym, kontrolą złożonych układów kwantowych, kwantową korekcją błędów i problemem identyfikacji zasobów odpowiedzialnych za tzw. przyspieszenie kwantowe – precyzuje prof. Marek Kuś. W skład konsorcjum naukowego wejdą, oprócz Centrum Fizyki Teoretycznej PAN w Warszawie, także Wydział Nauk Fizyki, Astronomii i Informatyki Stosowanej Uniwersytetu Jagiellońskiego oraz Instytut Informatyki Teoretycznej i Stosowanej PAN w Gliwicach.
      O programie TEAM-NET
      Program TEAM-NET Fundacji na rzecz Nauki Polskiej pozwala na sfinansowanie interdyscyplinarnych badań naukowych, realizowanych przez sieć współpracujących zespołów badawczych, kierowanych przez wybitnych, doświadczonych naukowców. Celem tego programu jest, oprócz umożliwienia prowadzenia w Polsce nowatorskich badań naukowych, także wzmocnienie ponadregionalnej współpracy pomiędzy jednostkami naukowymi oraz budowanie kompetencji dotyczących wykorzystywania dostępnej infrastruktury i usług badawczych. Zgodnie z założeniami konkursowymi, budżet każdego zgłoszonego projektu badawczego może wynosić do 3,5 mln zł na zespół na 36 miesięcy. Finansowanie może być przyznane na okres od 36 do 48 miesięcy.
      Nabór wniosków do konkursu TEAM-NET był prowadzony w październiku 2018 r., a w marcu 2019 r. Fundacja na rzecz Nauki Polskiej ogłosiła jego wyniki. Do konkursu zgłoszono 39 projektów, z których po ocenie merytorycznej 11 otrzymało dofinansowanie, na łączną kwotę ponad 201 mln zł.
      Konkurs TEAM-NET jest realizowany przez FNP ze środków UE pochodzących z Europejskiego Funduszu Rozwoju Regionalnego w ramach Programu Operacyjnego Inteligentny Rozwój.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Za pomocą prostych teoretycznych modeli można budować układy działające ściśle według reguł klasycznej fizyki, a mimo to wiernie odtwarzające przewidywania mechaniki kwantowej dla pojedynczych cząstek – nawet te najbardziej paradoksalne! Co zatem jest prawdziwą oznaką kwantowości?
      Świat kwantów jest pełen paradoksów niepojętych dla ludzkiej intuicji i niewytłumaczalnych dla klasycznej fizyki. Tezę tę można usłyszeć niemal zawsze, gdy mowa o mechanice kwantowej. Oto kilka przykładów zjawisk powszechne uznawanych za typowo kwantowe: pojedynczy elektron generujący prążki interferencyjne za dwiema szczelinami, jakby przechodził przez obie jednocześnie; cząstki przebywające w tym samym czasie w wielu różnych stanach, by w chwili obserwacji "magicznie" pojawić się w jednym wybranym; pomiary bez oddziaływania; wymazywanie przeszłości za pomocą kwantowej gumki czy wreszcie nielokalność, sprawiająca wrażenie, jakby splątane cząstki natychmiastowo oddziaływały na dowolnie duży dystans. Tylko czy wszystkie te zjawiska koniecznie muszą być czysto kwantowe?
      We właśnie opublikowanym artykule dr hab. Paweł Błasiak z Instytutu Fizyki Jądrowej Polskiej Akademii Nauk (IFJ PAN) w Krakowie pokazał, jak z "cegiełek" klasycznej fizyki konstruować szeroko pojęte optyczne układy interferometryczne, wiernie odtwarzające najdziwniejsze przewidywania mechaniki kwantowej w odniesieniu do pojedynczych cząstek. Zaprezentowany model pomaga lepiej zrozumieć, dlaczego mechanika kwantowa jest potrzebna oraz co naprawdę nowego mówi o otaczającej nas rzeczywistości. Jeśli bowiem jakiś efekt kwantowy ma proste klasyczne wytłumaczenie, nie należy upatrywać w nim specjalnej tajemnicy. Publikacja jasno wskazuje granicę, poza którą teoria kwantów jest już niezbędna: prawdziwa kwantowa "magia" zaczyna się dopiero dla wielu cząstek.
      Kontrowersji wokół mechaniki kwantowej jest naprawdę sporo. Są one tak silne, że nawet dziś, gdy teoria ta liczy sobie już niemal sto lat, większość fizyków woli ją po prostu używać, unikając niewygodnych pytań o interpretację - mówi dr Paweł Błasiak i dodaje: Nasze problemy wynikają tu z faktu, że... byliśmy zbyt zdeterminowani. Wcześniej najpierw obserwowaliśmy pewne zjawiska i żeby je tłumaczyć, budowaliśmy aparat matematyczny na bazie dobrze ugruntowanych fizycznych intuicji. W przypadku mechaniki kwantowej zdarzyła się rzecz odwrotna: z zaledwie paru poszlak eksperymentalnych odgadliśmy wysoce abstrakcyjny, matematyczny formalizm, świetnie opisujący wyniki pomiarów w laboratorium, ale najmniejszego pojęcia nie mamy, czym jest kryjąca się za nim fizyczna rzeczywistość.
      Richard Feynman, znakomity fizyk amerykański, był głęboko przekonany, że zjawiskiem absolutnie niemożliwym do wyjaśnienia przez fizykę klasyczną jest kwantowa interferencja, odpowiedzialna między innymi za prążki widoczne za dwiema szczelinami, przez które przechodzi pojedynczy obiekt kwantowy. Erwin Schrödinger, współtwórca mechaniki kwantowej, miał innego faworyta: splątanie kwantowe, mogące na odległość wiązać cechy dwóch i więcej cząstek kwantowych. Spore grono fizyków do dziś się zastanawia, do jakiego stopnia te nieintuicyjne zjawiska mechaniki kwantowej są jedynie wynikiem naszych ograniczeń poznawczych, czyli sposobów, w jaki badamy świat. To nie przyroda, lecz nasz brak pełnej wiedzy o układzie miałby powodować, że obserwowane w nim zjawiska nabierałyby cech niewytłumaczalnej egzotyki. Tego typu podejście to próba spojrzenia na mechanikę kwantową jako teorię z dobrze określoną ontologią, prowadząca ku odpowiedzi na pytanie, co tak naprawdę odróżnia teorię kwantów od teorii klasycznych.
      W artykule na łamach czasopisma Physical Review A zademonstrowano zasady budowy modeli dowolnie skomplikowanych układów optycznych, skonstruowanych z elementów pracujących wedle zasad klasycznej fizyki, dodatkowo uwzględniając istnienie pewnych lokalnych zmiennych ukrytych, do których eksperymentator ma jedynie pośredni dostęp. Dr Błasiak wykazał, że dla pojedynczych cząstek przedstawiony model wiernie odtwarza wszystkie zjawiska powszechnie uznawane za ewidentną oznakę kwantowości, w tym kolaps funkcji falowej, interferencję kwantową czy kontekstualność. Co więcej, klasyczne analogie tych zjawisk okazują się całkiem proste. Model ten nie może jednak odtworzyć charakterystycznych cech splątania kwantowego, którego zaistnienie wymaga co najmniej dwóch cząstek kwantowych. Zdaje się to wskazywać, że splątanie oraz związana z nią nielokalność mogą być bardziej fundamentalną własnością świata kwantów niż kwantowa interferencja.
      Tego typu podejście pozwala unikać fatalnej praktyki polegającej na wymijających odpowiedziach i machaniu rękami w dyskusjach o podstawach oraz interpretacji mechaniki kwantowej. Mamy narzędzia, aby takie pytania formułować i precyzyjnie rozstrzygać. Skonstruowany model ma na celu pokazać, że modele ontologiczne z ograniczonym dostępem do informacji mają przynajmniej potencjalną możliwość wyjaśnienia większości egzotycznych zjawisk kwantowych w ramach szeroko pojętej fizyki klasycznej. Prawdziwą kwantową tajemnicą pozostawałoby jedynie kwantowe splątanie - wyjaśnia dr Błasiak.
      Splątanie kwantowe trafia zatem w samo sedno mechaniki kwantowej, wskazując na to "coś", co wymusza odejście od klasycznie rozumianej rzeczywistości i przesuwa granicę tajemniczości w kierunku zjawisk wielocząstkowych. Okazuje się bowiem, że efekty kwantowe dla pojedynczych cząstek mogą być z powodzeniem odtwarzane w ramach klasycznych (tzn. lokalnych) modeli ontologicznych z ograniczonym dostępem do informacji. Gdyby więc pominąć zjawiska wielocząstkowe, moglibyśmy w zasadzie obejść się bez mechaniki kwantowej i jej "upiornej" nielokalności. Opisany lokalny model, odtwarzający kwantowe zjawiska dla pojedynczej cząstki, bardzo wyraźnie definiuje granicę, poza którą stwierdzenia dotyczące nielokalności tracą swoją zasadność.
      Zatem Feynman czy Schrödinger? Wydaje się, że to jednak Schrödinger trafił w samo serce mechaniki kwantowej. Ale cichym zwycięzcą może być... Albert Einstein, który nigdy nie był zadowolony z powszechnie obowiązującej interpretacji mechaniki kwantowej. Bez jego uporczywych pytań nie mielibyśmy dziś ani twierdzenia Bella, ani kwantowej informacji.
      Dlatego właśnie badania w dziedzinie podstaw mechaniki kwantowej są tak fascynujące. Rozciągają się one od wciąż powracającego pytania o naturę naszej rzeczywistości, po istotę prawdziwej kwantowości, której zawdzięczamy przewagę technologii kwantowych nad ich klasycznymi odpowiednikami - podsumowuje z uśmiechem dr Błasiak.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Podczas odbywającego się właśnie dorocznego spotkania Amerykańskiego Towarzystwa Fizycznego specjaliści z IBM-a poinformowali o dokonaniu trzech przełomowych kroków, dzięki którym zbudowanie komputera kwantowego stanie się możliwe jeszcze za naszego życia.
      Jednym z najważniejszych wyzwań stojących przed ekspertami zajmującymi się kwantowymi komputerami jest dekoherencja. To wywołana oddziaływaniem czynników zewnętrznych utrata właściwości kwantowych przez kubity - kwantowe bity. Koherencja wprowadza błędy do obliczeń kwantowych. Jednak jeśli udałoby się utrzymać kwantowe bity przez wystarczająco długi czas można by przeprowadzić korektę błędów.
      Eksperci z IBM-a eksperymentowali ostatnio z „trójwymiarowymi“ nadprzewodzącymi kubitami, które zostały opracowane na Yale University. Ich prace pozwoliły na dokonanie przełomu. Udało się im utrzymać stan kwantowy kubitu przez 100 mikrosekund. To 2 do 4 razy więcej niż poprzednie rekordy. A co najważniejsze, to na tyle długo by przeprowadzić korekcję błędów na kubitach 3D.
      Drugi z przełomowych kroków to powstrzymanie dekoherencji zwykłego „dwuwymiarowego“ kubitu przez 10 mikrosekund. W przypadku takich kubitów wystarczy to do przeprowadzenia korekcji błędów.
      Utrzymanie przez tak długi czas kubitu pozwoliło na dokonanie trzeciego z przełomów. Udało się bowiem przeprowadzić na dwóch kubitach operację CNOT (controlled-NOT) z dokładnością 95-98 procent. To niezwykle ważne osiągnięcie, gdyż bramka CNOT w połączeniu z prostszymi bramkami kubitowymi może być skonfigurowana do przeprowadzenia dowolnej operacji logicznej.
      Od połowy 2009 roku IBM udoskonalił wiele technik związanych z komputerami kwantowymi. Najprzeróżniejsze aspekty związane z takimi maszynami udoskonalono od 100 do 1000 razy. W sumie wszystkie te techniki są bardzo bliskie spełnienia minimalnych wymagań stawianych przed praktycznym komputerem kwantowym.
    • By KopalniaWiedzy.pl
      Wynikiem współpracy uczonych z Purdue University, University of New South Wales i University of Melbourne jest najmniejszy tranzystor na świecie. Urządzenie zbudowane jest z pojedynczego atomu fosforu. Tranzystor nie tyle udoskonali współczesną technologię, co pozwoli na zbudowanie zupełnie nowych urządzeń.
      To piękny przykład kontrolowania materii w skali atomowej i zbudowania dzięki temu urządzenia. Pięćdziesiąt lat temu gdy powstał pierwszy tranzystor nikt nie mógł przewidzieć, jaką rolę odegrają komputery. Teraz przeszliśmy do skali atomowej i rozwijamy nowy paradygmat, który pozwoli na zaprzęgnięcie praw mechaniki kwantowej do dokonania podobnego jak wówczas technologicznego przełomu - mówi Michelle Simmons z University of New South Wales, która kierowała pracami zespołu badawczego.
      Niedawno ta sama grupa uczonych połączyła atomy fosforu i krzem w taki sposób, że powstał nanokabel o szerokości zaledwie czterech atomów, który przewodził prąd równie dobrze, jak miedź.
      Gerhard Klimeck, który stał na czele grupy uczonych z Purdue prowadzących symulacje działania nowego tranzystora stwierdził, że jest to najmniejszy podzespół elektroniczny. Według mnie osiągnęliśmy granice działania Prawa Moore’a. Podzespołu nie można już zmniejszyć - powiedział.
      Prawo Moore’a stwierdza, że liczba tranzystorów w procesorze zwiększa się dwukrotnie w ciągu 18 miesięcy. Najnowsze układy Intela wykorzystują 2,3 miliarda tranzystorów, które znajdują się w odległości 32 nanometrów od siebie. Atom fosforu ma średnicę 0,1 nanometra. Minie jeszcze wiele lat zanim powstaną procesory budowane w takiej skali. Tym bardziej, że tranzystor zbudowany z pojedynczego atomu ma bardzo poważną wadę - działa tylko w temperaturze -196 stopni Celsjusza. Atom znajduje się w studni czy też kanale. Żeby działał jak tranzystor konieczne jest, by elektrony pozostały w tym kanale. Wraz ze wzrostem temperatury elektrony stają się bardziej ruchliwe i wychodzą poza kanał - wyjaśnia Klimeck. Jeśli ktoś opracuje technikę pozwalającą na utrzymanie elektronów w wyznaczonym obszarze, będzie można zbudować komputer działający w temperaturze pokojowej. To podstawowy warunek praktycznego wykorzystania tej technologii - dodaje.
      Pojedyncze atomy działające jak tranzystory uzyskiwano już wcześniej, jednak teraz po raz pierwszy udało się ściśle kontrolować ich budowę w skali atomowej. Unikatową rzeczą, jaką osiągnęliśmy, jest precyzyjne umieszczenie pojedynczego atomu tam, gdzie chcieliśmy - powiedział Martin Fuechsle z University of New South Wales.
      Niektórzy naukowcy przypuszczają, że jeśli uda się kontrolować elektrony w kanale, to będzie można w ten sposób kontrolować kubity, zatem powstanie komputer kwantowy.
    • By KopalniaWiedzy.pl
      Badacze z organizacji Public Intelligence opublikowali informację dotyczącą broni, która nie zabija, a którą chce budować lub udoskonalać Pentagon. Taka broń ma posłużyć przede wszystkim do rozwiązywania konfliktów bez eskalowania przemocy i wywoływania niechęci czy nienawiści do żołnierzy.
      Analitycy twierdzą, że obecnie używana broń tego typu nie tylko pozwala na zażegnanie kryzysu, ale wywołuje też pozytywny oddźwięk u miejscowej ludności.
      Jednym z takich urządzeń jest Raytheon Active Denial System. To urządzenie mikrofalowe, które na krótki czas podgrzewa skórę. Temperatura jest na tyle wysoka, że „ostrzelany“ jest zmuszony do wycofania się, jednocześnie zaś broń ma nie powodować ran. Pentagon chce zwiększyć zasięg systemu tak, by niemożliwe było zbliżenie się do niego na odległość pozwalającą na ostrzelanie z małej broni ręcznej.
      Innym urządzeniem jest Distributed Sound and Light Array (DSLA). To połączenie laserów, świateł i systemu dźwiękowego, które ma zdezorientować tłum. Ma jednak tę wadę, że użyte z bliskiej odległości może uszkodzić uszy i oczy.
      W przyszłym roku Pentagon rozpocznie testy udoskonalonego granatu hukowego. Ma on oślepiać człowieka na 10 sekund i wystawiać go na działanie dźwięku o natężeniu 143 decybeli.
      Udoskonalona zostanie też gumowa amunicja. Wojskowi domagają się, by miała ona większy zasięg i została wyposażona w barwnik pozostawiający ślady na ubraniu i ciele ostrzelanego, by można było go później zidentyfikować.
      Jeśli zaś chodzi o broń, która jeszcze nie istnieje, to na „liście życzeń“ Pentagonu znalazły się dwa interesujące systemy. jeden z nich to Subsurface Non-Lethal Engagement-Impulse Swimmer Gun. Ma być to broń generująca pod wodą impuls dźwiękowy, który z odległości nawet 150 metrów będzie wywoływał zaburzenia orientacji oraz nudności u wrogich płetwonurków. Odmiana tego systemu będzie generowała nanosekundowy impuls elektryczny, powodujący utratę kontroli nad mięśniami. Pentagon nie wyklucza takiej modyfikacji tej broni, że możliwe będzie zatrzymywanie za jej pomocą samochodów lub statków, poprzez przeciążenie ich systemów elektronicznych.
      Najciekawszym pomysłem ma być jednak Laser Based Flow Modification. W zamierzeniach pomysłodawców tego systemu, pozwoli on na „ostrzelanie“ krawędzi natarcia skrzydła samolotu, dzięki czemu zmieni się siła nośna i maszyna zostanie zmuszona do lądowania.
×
×
  • Create New...