Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Powstał oscyloskop optyczny. Przyspieszy internet 10 000 razy?

Rekomendowane odpowiedzi

Na University of Central Florida powstał pierwszy w historii oscyloskop optyczny. Urządzenie może zrewolucjonizować technologie komunikacyjne, od smartfonów po internet. Skonstruowane na UCF urządzenie mierzy pole elektryczne światła zamieniając oscylacje światła w sygnał elektryczny.

Dotychczas pomiary pola elektrycznego światła były poważnym problemem ze względu na olbrzymie tempo jego oscylacji. Najbardziej zaawansowane techniki pomiarowi, wykorzystywane w urządzeniach elektronicznych i telekomunikacyjnych, pozwalają na pomiar częstotliwości rzędu gigaherców. Pokrywa to spektrum radiowe i mikrofalowe promieniowania elektromagnetycznego. Jednak światło oscyluje ze znacznie większa częstotliwością. Możliwe jest więc upakowanie w nim znacznie większej ilości informacji niż robimy to obecnie. Jednak nie dysponujemy narzędziami, które by to umożliwiały. Obecne oscyloskopy dokonują uśrednionych pomiarów w ramach impulsu światła. Nie potrafią odróżnić poszczególnych dolin i grzbietów fali. Gdybyśmy zaś byli w stanie mierzyć pojedyncze doliny i grzbiety, moglibyśmy kodować w nich informacje

Dzięki włóknom optycznym możemy korzystać ze światła do przesyłania informacji, ale wciąż jesteśmy ograniczeni prędkością oscyloskopów, mówi profesor Michael Chini. Nasz oscyloskop optyczny może zwiększyć prędkość przekazywania informacji nawet o około 10 000 razy.

Uczeni z Florydy zbudowali swoje urządzenie i zaprezentowali jego możliwości dokonując w czasie rzeczywistym pomiarów pól elektrycznych indywidualnych impulsów światła laserowego. W kolejnym etapie badań będą chcieli sprawdzić, gdzie leży nieprzekraczalna granica prędkości pomiaru przy wykorzystaniu ich techniki.

Swoje badania naukowcy opisali na łamach Nature Photonics.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Naukowcy z Northeastern University odkryli, w jaki sposób można na żądanie zmieniać elektroniczny stan materii. Potencjalnie może to doprowadzić do stworzenia materiałów elektronicznych, które pracują z 1000-krotnie większą prędkością niż obecnie i są bardziej wydajne. Możliwość dowolnego przełączania pomiędzy przewodnikiem a izolatorem daje nadzieję na zastąpienia krzemowej elektroniki mniejszymi i szybszymi materiałami kwantowymi. Obecnie procesory pracują z częstotliwością liczoną w gigahercach. Dzięki pracom uczonych z Northeastern, w przyszłości mogą być to teraherce.
      Opisana na łamach Nature Physics technika „termicznego chłodzenia” (thermal quenching) polega przełączaniu materiału pomiędzy izolatorem a przewodnikiem za pomocą kontrolowanego podgrzewania i schładzania. Współautor odkrycia, profesor Gregory Fiete porównuje tę metodę do przełączania bramek w tranzystorze. Każdy, kto kiedykolwiek używał komputera, doszedł w pewnym momencie do punktu, w którym chciał, by komputer działał szybciej. Nie ma nic szybszego niż światło, a my używamy światła do kontrolowania właściwości materiałów z największą prędkością, jaką dopuszcza fizyka, dodaje uczony.
      Naukowcy w temperaturze bliskiej temperaturze pokojowej oświetlali materiał kwantowy 1T-TaS2 uzyskując „ukryty stan metaliczny”, który dotychczas był stabilny w temperaturach kriogenicznych, poniżej -150 stopni Celsjusza. Teraz osiągnięto ten stan w znacznie bardziej praktycznych temperaturach, sięgających -60 stopni C, a materiał utrzymywał go przez wiele miesięcy. To daje nadzieję na stworzenie podzespołów składających się z jednego materiału, który w zależności od potrzeb może być przewodnikiem lub izolatorem.
      Źródło: Dynamic phase transition in 1T-TaS2 via a thermal quench, https://www.nature.com/articles/s41567-025-02938-1

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Uczeni z University of Manchester i Australian National University (ANU) stworzyli magnes składający się z pojedynczej molekuły, który przechowuje zapisane w nim informacje w najwyższej temperaturze ze wszystkich tego rodzajów pamięci. Tego typu molekuły charakteryzuje niezwykle duża pojemność zapisu, nawet 100-krotnie większa niż limit współczesnych technologii. W przyszłości tego typu molekuły mogą zostać wykorzystane do zbudowania pamięci kwantowych czy w spintronice.
      Nowa molekuła zachowuje zapisane w niej dane w temperaturze 100 kelwinów, czyli -173 stopni Celsjusza. Jej stworzenie to znaczący krok naprzód w porównaniu z wcześniejszymi „molekularnymi magnesami”, które przechowywały dane w temperaturze 80 kelwinów (-193 stopnie Celsjusza). Oczywiście temperatura potrzebna do pracy wspomnianej molekuły jest znacznie niższa od temperatury pokojowej czy temperatur możliwych do uzyskania za pomocą standardowych urządzeń chłodniczych. Jednak, na co warto zwrócić uwagę, jest to temperatura znacząco wyższa od temperatury ciekłego azotu (77 kelwinów, -196 stopni Celsjusza).
      Ciekły azot jest łatwo dostępnym chłodziwem, więc dla koncernów wykorzystujących olbrzymie bazy danych, jak Google, Microsofot, Meta czy Amazon, jego użycie nie powinno stanowić problemu. Natomiast korzyści z zastosowania wspomnianej molekuły mogą być olbrzymie. Dość wspomnieć, że teoretycznie pozwala ona przechować ponad 3TB na powierzchni 1 cm2. To na przykład pół miliona filmików z TikToka czy 3600 płyt CD z muzyką zapisanych na dysku twardym wielkości znaczka pocztowego.
      Pamięci magnetyczne są wykorzystywane od dziesięcioleci. Obecnie używane dyski twarde przechowują dane poprzez namagnesowanie niewielkich regionów składających się z wielu atomów, które współdziałają w podtrzymaniu zapisanych danych. Chemiczne molekuły magnetyczne nie potrzebują pomocy sąsiadów, by zachować zapisane w nich dane. To stwarza okazję do zbudowania z nich układów pamięci o olbrzymiej gęstości zapisu. Jednak problemem jest tutaj fakt, że do przechowania tego zapisu wymagają one bardzo niskich temperatur. Badacze z Manchesteru zaprezentowali molekułę, której można zapewnić odpowiednie warunki za pomocą tak powszechnie dostępnego chłodziwa jak ciekły azot.
      Kluczem do sukcesu jest tutaj unikatowa struktura złożona z atomu dysprozu umieszczonego między dwoma atomami azotu. Te trzy atomu układają się niemal w linii prostej. Taka architektura zwiększa zdolność materiału do generowania i utrzymania pola magnetycznego. O tym wiadomo było nie od dzisiaj. Dopiero teraz jednak udało się to zrealizować w praktyce.
      Zwykle gdy dysproz jest związany jedynie z 2 atomami azotu, powstaje molekuła o zagiętym, nieregularnym kształcie. Uczeni z Manchesteru dodali do całości alken, który łączy się z atomem dysprozu, utrzymując pożądany kształt całości.
      Naukowcy z ANU są twórcami analizy numerycznej i nowego modelu opisującego zachowanie się tego typu molekuł. Na ich podstawie uczeni z Manchesteru będą teraz pracowali nad jeszcze lepszymi magnesami molekularnymi.
      Źródło: Soft magnetic hysteresis in a dysprosium amide–alkene complex up to 100 kelvin, https://www.nature.com/articles/s41586-025-09138-0

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Ekosfera jest tradycyjnie definiowana, jako odległość pomiędzy gwiazdą, a planetą, która umożliwia istnienie wody w stanie ciekłym na planecie. To obszar wokół gwiazdy, w którym na znajdujących się tam planetach może istnieć życie. Jednak grupa naukowców z University of Georgia uważa, że znacznie lepsze byłoby określenie „ekosfery fotosyntezy”, czyli wzięcie pod uwagi nie tylko możliwości istnienia ciekłej wody, ale również światła, jakie do planety dociera z gwiazdy macierzystej.
      O życiu na innych planetach nie wiemy nic pewnego. Jednak poglądy na ten temat możemy przypisać do jednej z dwóch szkół. Pierwsza z nich mówi, że na innych planetach ewolucja mogła znaleźć sposób, by poradzić sobie z pozornie nieprzekraczalnymi barierami dla życia, jakie znamy z Ziemi. Zgodnie zaś z drugą, życie w całym wszechświecie ograniczone jest uniwersalnymi prawami fizyki i może istnieć jedynie w formie podobnej do życia na Ziemi.
      Naukowcy z Georgii rozpoczęli swoje badania od przyznania racji drugiej ze szkół i wprowadzili pojęcie „ekosfery fotosyntezy”. Znajdujące się w tym obszarze planety nie tylko mogą utrzymać na powierzchni ciekłą wodę – zatem nie znajdują się ani zbyt blisko, ani zbyt daleko od gwiazdy – ale również otrzymują wystarczająca ilość promieniowania w zakresie od 400 do 700 nanometrów. Promieniowanie o takich długościach fali jest na Ziemi niezbędne, by zachodziła fotosynteza, umożliwiające istnienie roślin.
      Obecność fotosyntezy jest niezbędne do poszukiwania życia we wszechświecie. Jeśli mamy rozpoznać biosygnatury życia na innych planetach, to będą to sygnatury atmosfery bogatej w tlen, gdyż trudno jest wyjaśnić istnienie takiej atmosfery bez obecności organizmów żywych na planecie, mówi główna autorka badań, Cassandra Hall. Pojęcie „ekosfery fotosyntezy” jest zatem bardziej praktyczne i dające szanse na znalezienie życia, niż sama ekosfera.
      Nie możemy oczywiście wykluczyć, że organizmy żywe na innych planetach przeprowadzają fotosyntezę w innych zakresach długości fali światła, jednak istnieje pewien silny przekonujący argument, że zakres 400–700 nm jest uniwersalny. Otóż jest to ten zakres fal światła, dla którego woda jest wysoce przezroczysta. Poza tym zakresem absorpcja światła przez wodę gwałtownie się zwiększa i oceany stają się dla takiego światła nieprzezroczyste. To silny argument za tym, że oceaniczne organizmy w całym wszechświecie potrzebują światła w tym właśnie zakresie, by móc prowadzić fotosyntezę.
      Uczeni zauważyli również, że życie oparte na fotosyntezie może z mniejszym prawdopodobieństwem powstać na planetach znacznie większych niż Ziemia. Planety takie mają bowiem zwykle bardziej gęstą atmosferę, która będzie blokowała znaczną część światła z potrzebnego zakresu. Dlatego też Hall i jej koledzy uważają, że życia raczej należy szukać na mniejszych, bardziej podobnych do Ziemi planetach, niż na super-Ziemiach, które są uważane za dobry cel takich poszukiwań.
      Badania takie, jak przeprowadzone przez naukowców z University of Georgia są niezwykle istotne, gdyż naukowcy mają ograniczony dostęp do odpowiednich narzędzi badawczych. Szczegółowe plany wykorzystania najlepszych teleskopów rozpisane są na wiele miesięcy czy lat naprzód, a poszczególnym grupom naukowym przydziela się ograniczoną ilość czasu. Dlatego też warto, by – jeśli ich badania polegają na poszukiwaniu życia – skupiali się na badaniach najbardziej obiecujących obiektów. Tym bardziej, że w najbliższych latach ludzkość zyska nowe narzędzia. Od 2017 roku w Chile budowany jest europejski Extremely Large Telescope (ELT), który będzie znacznie bardziej efektywnie niż Teleskop Webba poszukiwał tlenu w atmosferach egzoplanet. Z kolei NASA rozważa budowę teleskopu Habitable Exoplanet Observatory, który byłby wyspecjalizowany w poszukiwaniu biosygnatur na egzoplanetach wielkości Ziemi. Teleskop ten w 2035 roku miałby trafić do punktu L2, gdzie obecnie znajduje się Teleskop Webba.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Troje astronomów –  José Luis Bernal, Gabriela Sato-Polito i Marc Kamionkowski – uważa, że sonda New Horizons mogła zarejestrować rozpadające się cząstki ciemnej materii. Uważają oni, że niespodziewany nadmiar światła zarejestrowany przez sondę, może pochodzić z rozpadających się aksjonów, hipotetycznych cząstek ciemnej materii.
      Na optyczne promieniowanie tła składa się całe światło widzialne emitowane przez źródła znajdujące się poza Drogą Mleczną. Światło to może nieść ze sobą istotne informacje na temat struktury wszechświata. Problem w badaniu tego światła polega na trudności w jego odróżnieniu od światła, którego źródła znajdują się znacznie bliżej, szczególnie od światła Słońca rozproszonego na pyle międzyplanetarnym.
      Wystrzelona w 2006 roku sonda New Horizons znajduje się obecnie w Pasie Kuipera. Pył międzyplanetarny jest tam znacznie bardziej rozproszony niż bliżej Słońca. Niedawno sonda użyła instrumentu o nazwie Long Range Reconnaissance Imager (LORRI) do pomiaru światła. Ku zdumieniu specjalistów okazało się, że optyczne promieniowanie tła jest dwukrotnie bardziej jasne, niż należałoby się spodziewać z ostatnich badań dotyczących rozkładu galaktyk.
      Astronomowie z Uniwersytetu Johnsa Hopkinsa uważają, że ten nadmiar światła może pochodzić z rozpadu aksjonów. Uczeni, chcąc wyjaśnić wyniki obserwacji LORRI, zbadali model, w którym aksjony rozpadałyby się do fotonów. Obliczyli, jak rozkładałaby się energia fotonów z takiego rozpadu i w jaki sposób przyczyniałoby się to zarejestrowania nadmiarowego światła przez LORRI. Wyniki sugerują, że nadmiar fotonów mógłby pochodzić z aksjonów o masie mieszczącym się w zakresie 8–20 eV/c2. Powinny one dawać wyraźny sygnał w przyszłych pomiarach intensywności światła.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Teleskop Webba (JWST) od kilku tygodni przysyła wspaniałe zdjęcia przestrzeni kosmicznej. JWST może pracować nawet przez 20 lat i w tym czasie będzie badał też egzoplanety. Dzięki olbrzymiej czułości, dostarczy niedostępnych dotychczas informacji o świetle docierającym z ich atmosfer, co pozwoli określenie ich składu, historii i poszukiwanie śladów życia. Jednak, jak się okazuje, teleskop jest tak doskonały, że obecnie stosowane narzędzia mogą niewłaściwe interpretować przesyłane dane.
      Grupa naukowców z MIT opublikowała na łamach Nature Astronomy artykuł, w którym informuje, że obecnie używane przez astronomów narzędzia do interpretacji danych ze światła mogą dawać niewłaściwe wyniki w przypadku JWST. Chodzi konkretnie o modele nieprzezroczystości, narzędzia opisujące, jak światło wchodzi w interakcje z materią w zależności od jej właściwości. Mogą one wymagać znacznych zmian, by dorównać precyzji danym z JWST. Jeśli nie zostaną odpowiednio dostosowane to – jak ostrzegają autorzy badań – informacje dotyczące takich właściwości atmosfer egzoplanet jak temperatura, ciśnienie i skład mogą różnić się od rzeczywistych o cały rząd wielkości.
      Z punktu widzenia nauki istnieje olbrzymia różnica, czy np. woda stanowi 5% czy 25% składu. Obecne modele nie są w stanie tego odróżnić, stwierdza profesor Julien de Wit. Obecnie używany przez nas model interpretujące dane ze spektrum światła nie przystaje precyzją i jakością do danych, jakie napływają z Teleskopu Webba. Musimy rozwiązać ten problem, wtóruje mu student Prajwal Niraula.
      Nieprzezroczystość określa, na ile łatwo foton przechodzi przez badany ośrodek, jak jest absorbowany czy odbijany. Interakcje te zależą też od temperatury i ciśnienia ośrodka. De Wit mówi, że obecnie używany najdoskonalszy model badania nieprzezroczystości bardzo dobrze się sprawdził w przypadku takich instrumentów jak Teleskop Hubble'a. Teraz jednak weszliśmy na kolejny poziom precyzji danych. Wykorzystywany przez nas sposób ich interpretacji nie pozwoli nam wyłapać drobnych subtelności, które mogą decydować np. o tym, czy planeta nadaje się dla życia czy nie.
      Uczeni z MIT po analizie najpowszechniej używanego obecnie modelu nieprzezroczystości stwierdzili, że jego wykorzystanie do danych z Webba spowoduje, iż trafimy na „barierę precyzji”. Model ten nie będzie na tyle dokładny, by stwierdzić, czy temperatura na planecie wynosi 27 czy 327 stopni Celsjusza, a stężenie jakiegoś gazu w atmosferze to 5 czy 25 procent.
      Wit i jego zespół uważają, że aby poprawić obecnie używane modele konieczne będzie przeprowadzenie więcej badań laboratoryjnych, obliczeń teoretycznych oraz poszerzenie współpracy pomiędzy specjalistami z różnych dziedzin, szczególnie astronomami i ekspertami od spektroskopii.
      Możemy wiele zrobić, jeśli będziemy dobrze rozumieli, jak światło wchodzi w interakcje z materią. Dobrze rozumiemy warunki panujące wokół Ziemi. Jednak tam, gdzie mamy do czynienia z innymi typami atmosfery, wszystko się zmienia. A teraz dysponujemy olbrzymią ilością danych o coraz lepszej jakości, więc istnieje ryzyko błędnej interpretacji, wyjaśnia Niraula.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...