Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

W laboratorium IBM-a w Zurichu zaprezentowano rekordowo pojemny napęd taśmowy. Pojedynczy kartridż pozwala na przechowanie aż... 580 terabajtów danych. To aż 29-krotnie więcej niż oferowany obecnie przez IBM-a kartridż o pojemności 20 TB. Błękitny Gigant jest tutaj rynkowym liderem. Najnowszy standard przemysłowy LTO-Ultrium (Linear Tape-Open, version 9) mówi o kartridżach o pojemności 18 TB.

Mark Lantz, menedżer CloudFPGA odpowiedzialny w IBM Zurich za technologie taśmowe mówi, że w ostatnich latach taśmy magnetyczne przeżywają swój renesans. Ma to związek z jednej strony z wykładniczym wzrostem ilości wytwarzanych danych, które trzeba gdzieś archiwizować oraz z jednoczesnym spowolnieniem przyrostu gęstości zapisu na dyskach twardych. Jak zauważa Lantz, w ciągu ostatnich kilkunastu lat składane roczne tempo wzrostu gęstości zapisu na HDD spadło do poniżej 8%. Jednocześnie świat produkuje coraz więcej danych. Roczny wzrost wytwarzania informacji wynosi aż 61%. Eksperci mówią, że do roku 2025 wytworzymy 175 zetabajtów danych.

Jako, że gęstość zapisu HDD niemal stanęła w miejscu, dramatycznie wzrosła cena każdego gigabajta dysnku twardego. Już w tej chwili 1 bit HDD jest czterokrotnie droższy niż 1 bit taśmy magnetycznej. Ta wielka nierównowaga pojawiła się w bardzo niekorzystnym momencie, gdy ilość wytwarzanych danych zaczęła gwałtownie rosnąć. Centra bazodanowe mają coraz większy problem. Na szczęście zdecydowana większość danych to informacje, które są rzadko potrzebne. To zaś oznacza, że w ich przypadku szybkość odczytu danych nie jest rzeczą zbyt istotną. Mogą być więc przechowywane na taśmach magnetycznych.
Taśmy mają wiele zalet w porównaniu z dyskami twardymi. Są bardziej odporne na ataki cyberprzestępców, do działania potrzebują mniej energii, są trwałe i znacznie tańsze w przeliczeniu na gigabajt. Zalety te spowodowały, że – jak ocenia IBM – już 345 000 eksabajtów danych przechowywanych jest właśnie na taśmach.

Najnowszy napęd taśmowy to wynik 15-letniej współpracy IBM-a i Fujifilm. Od roku 2006 firmy pobiły sześć kolejnych rekordów dotyczących napędów taśmowych. Ostatnie osiągnięcie było możliwe dzięki udoskonaleniu samej taśmy, głowicy odczytującej oraz serwomechanizmu odpowiadającego za precyzję pozycjonowania głowicy. Firma Fujifilm odeszła tutaj od przemysłowego standardu jakim jest ferryt baru i pokryła taśmę mniejszymi cząstkami ferrytu strontu. Inżynierowie IBM-a, mając do dyspozycji nową taśmę, opracowali nową technologię głowicy odczytująco-zapisującej, która współpracuje z tak gładką taśmą.

O tym jak wielkie postępy zostały dokonane w ciągu kilkunastoletniej współpracy Fujifilm i IBM-a najlepiej świadczą liczby. W roku 2006 obie firmy zaprezentowały taśmę pozwalającą na zapisanie 6,67 miliarda bitów na calu kwadratowym. Najnowsza taśma pozwala na zapis 317 miliardów bitów na cal. Kartridż z roku 2006 miał pojemność 8 TB, obecnie jest to 580 TB. Szerokość ścieżki zapisu wynosiła przed 14 laty 1,5 mikrometra (1500 nanometrów), teraz to zaledwie 56,2 nanometra. Liniowa gęstość zapisu w roku 2006 sięgała 400 000 bitów na cal taśmy. Na najnowszej taśmie na każdym calu można zapisać 702 000 bitów. Zmniejszyła się też – z 6,1 mikrometra do 4,3 mikrometra – grubość taśmy, wzrosła za to jej długość. W pojedynczym kartridżu mieści się obecnie 1255 metrów taśmy, a przed 14 laty było to 890 metrów.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

szkoda, że nie podają szacunkowej trwałości takiego zapisu. Może okazać się, że iloczyn gęsośćxczas jest taka jak dla hieroglifów na skałach o gęstości zapisu 1 bit/cal^2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 22.12.2020 o 11:42, nurek napisał:

szkoda, że nie podają szacunkowej trwałości takiego zapisu.

Własnego nie miałem, ale chodziłem do kolegi na commodore i napędy taśmowe były bardzo zawodne.

Następnie używałem streamerów taśmowych do backupów (różne generacje i modele), i nadal ta technologia była bardzo zawodna. Pamiętam że robiło się kopie na 2 komplety tasiemek bo nigdy nie było wiadomo czy uda się odzyskać z jednego :) a w skryptach linijki od weryfikacji były wyremowane bo nie starczało nocy na te manewry. Zresztą weryfikacja nic nie gwarantowała :)

myślałem że technologia odeszła w zapomnienie, ale jak pojawia się coś nowego to chyba gdzieś to jeszcze działa.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie jest tak źle, jak się może wydawać. Jeszcze do niedawna, zanim ceny dysków tak mocno spadły, backupy serwerów odbywały się na taśmach. Być może AWS Glacier, chociaż dokładnie się nie orientuję, jest trzymany na taśmach, bo odzysk jest czasochłonny i trwa kilka godzin. Ceny GB/miesiąc są za to bardzo niskie. Wrzuciłem w Google wyszukanie, pierwsze z brzegu taśmy HP 30TB RW kosztują około 100 euro.

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
26 minut temu, tempik napisał:

Zresztą weryfikacja nic nie gwarantowała :)

Gwarantowała poprawność zapisu w chwili zapisu :D Upadł mi kiedyś dysk z plikiem logu transakcji i trzeba było odtwarzać bazę z taśm. Oczywiście, jedna z 30 taśm archiwizacji przyrostowej zgłosiła błędy i daliśmy radę odzyskać bazę dopiero w wersji z przed 3 dni. Jak nam użytkownicy dziękowali.... Od czasu tych wyrazów wdzięczności unikałem taśm jak ognia. 

Oczywiście była włączona kontrola poprawności.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Co najwyżej potwierdzała. Podstawowa zasada backupów to 3-2-1. Incydent z backupem bazy danych w GitLab sprzed kilu lat pokazał, że w rzeczywistości mieli jakieś N-5 działających kopii bezpieczeństwa :) Odratowali bazę sprzed 6h, tylko dlatego, bo deweloper zrobił snapshot bazy produkcyjnej do pracy na swieżych danych, co jest słabą praktyką infosec, ale w tym wypadku im pomogło.

Ja kiedyś podpisałem CD miękkim flamastrem, ale zauważyłem, że zmieniła się suma kontrolna :) SHA1 zrzutu płyty do iso przed podpisaniem był inny niż po podpisaniu, bo to był magiczny flamaster :)

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Dyrektor wykonawczy IBM-a Arvind Krishna poinformował, że jego firma przestanie rekrutować ludzi na stanowiska, na których w najbliższych latach mogą być oni zastąpieni przez sztuczną inteligencję. W wywiadzie dla Bloomberga menedżer stwierdził, że rekrutacja na stanowiska biurowe, na przykład w dziale HR, może zostać znacznie spowolniona lub całkowicie wstrzymana. Obecnie na tego typu stanowiskach – gdzie nie ma kontaktu z klientem – IBM zatrudnia 26 000 osób.
      Zdaniem Krishny, w ciągu najbliższych 5 lat sztuczna inteligencja może zastąpić 30% z nich. To oznacza, że w samym tylko IBM-ie maszyny zastąpią 7800 osób. Stąd też pomysł na spowolnienie lub wstrzymanie rekrutacji, dzięki czemu uniknie się zwalniania ludzi.
      Krishna mówi, że takie zadania, jak pisanie listów referencyjnych czy przesuwanie pracowników pomiędzy poszczególnymi wydziałami, prawdopodobnie zostaną całkowicie zautomatyzowane. Inne zaś, takie jak analizy produktywności czy struktury zatrudnienia, ludzie będą wykonywali jeszcze przez kolejną dekadę.
      Błękitny Gigant zatrudnia obecnie około 260 000 osób i wciąż zwiększa zatrudnienie. Potrzebuje pracowników przede wszystkim do rozwoju oprogramowania oraz osób pracujących z klientem. Na początku bieżącego roku firma ogłosiła, że planuje zwolnienia, które w sumie obejmą 5000 osób, ale jednocześnie w I kwartale zatrudniła 7000 osób.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Teleskop Webba (JWST) od kilku tygodni przysyła wspaniałe zdjęcia przestrzeni kosmicznej. JWST może pracować nawet przez 20 lat i w tym czasie będzie badał też egzoplanety. Dzięki olbrzymiej czułości, dostarczy niedostępnych dotychczas informacji o świetle docierającym z ich atmosfer, co pozwoli określenie ich składu, historii i poszukiwanie śladów życia. Jednak, jak się okazuje, teleskop jest tak doskonały, że obecnie stosowane narzędzia mogą niewłaściwe interpretować przesyłane dane.
      Grupa naukowców z MIT opublikowała na łamach Nature Astronomy artykuł, w którym informuje, że obecnie używane przez astronomów narzędzia do interpretacji danych ze światła mogą dawać niewłaściwe wyniki w przypadku JWST. Chodzi konkretnie o modele nieprzezroczystości, narzędzia opisujące, jak światło wchodzi w interakcje z materią w zależności od jej właściwości. Mogą one wymagać znacznych zmian, by dorównać precyzji danym z JWST. Jeśli nie zostaną odpowiednio dostosowane to – jak ostrzegają autorzy badań – informacje dotyczące takich właściwości atmosfer egzoplanet jak temperatura, ciśnienie i skład mogą różnić się od rzeczywistych o cały rząd wielkości.
      Z punktu widzenia nauki istnieje olbrzymia różnica, czy np. woda stanowi 5% czy 25% składu. Obecne modele nie są w stanie tego odróżnić, stwierdza profesor Julien de Wit. Obecnie używany przez nas model interpretujące dane ze spektrum światła nie przystaje precyzją i jakością do danych, jakie napływają z Teleskopu Webba. Musimy rozwiązać ten problem, wtóruje mu student Prajwal Niraula.
      Nieprzezroczystość określa, na ile łatwo foton przechodzi przez badany ośrodek, jak jest absorbowany czy odbijany. Interakcje te zależą też od temperatury i ciśnienia ośrodka. De Wit mówi, że obecnie używany najdoskonalszy model badania nieprzezroczystości bardzo dobrze się sprawdził w przypadku takich instrumentów jak Teleskop Hubble'a. Teraz jednak weszliśmy na kolejny poziom precyzji danych. Wykorzystywany przez nas sposób ich interpretacji nie pozwoli nam wyłapać drobnych subtelności, które mogą decydować np. o tym, czy planeta nadaje się dla życia czy nie.
      Uczeni z MIT po analizie najpowszechniej używanego obecnie modelu nieprzezroczystości stwierdzili, że jego wykorzystanie do danych z Webba spowoduje, iż trafimy na „barierę precyzji”. Model ten nie będzie na tyle dokładny, by stwierdzić, czy temperatura na planecie wynosi 27 czy 327 stopni Celsjusza, a stężenie jakiegoś gazu w atmosferze to 5 czy 25 procent.
      Wit i jego zespół uważają, że aby poprawić obecnie używane modele konieczne będzie przeprowadzenie więcej badań laboratoryjnych, obliczeń teoretycznych oraz poszerzenie współpracy pomiędzy specjalistami z różnych dziedzin, szczególnie astronomami i ekspertami od spektroskopii.
      Możemy wiele zrobić, jeśli będziemy dobrze rozumieli, jak światło wchodzi w interakcje z materią. Dobrze rozumiemy warunki panujące wokół Ziemi. Jednak tam, gdzie mamy do czynienia z innymi typami atmosfery, wszystko się zmienia. A teraz dysponujemy olbrzymią ilością danych o coraz lepszej jakości, więc istnieje ryzyko błędnej interpretacji, wyjaśnia Niraula.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Z Teleskopu Webba na Ziemię zaczęły trafiać pierwsze zdjęcia przestrzeni kosmicznej oraz dane spektroskopowe. Gdy będziemy oglądać fascynujące obrazy warto pamiętać, że pochodzą one z urządzenia, które znajduje się niemal 3000 razy dalej od Ziemi niż Teleskop Hubble'a. Warto więc dowiedzieć się, jak do nas trafiły.
      Znaczna odległość Webba od Ziemi oznacza, że sygnał musi przebyć długą drogę, zanim do nas trafi, a cały system komunikacyjny musi działać naprawdę dobrze, gdyż nie przewiduje się misji serwisowych do Webba. Jeśli więc komunikacja zawiedzie, będziemy mieli w przestrzeni kosmicznej całkowicie bezużyteczny najdoskonalszy teleskop w idealnym stanie.
      Teleskop Kosmiczny Jamesa Webba (JWST) jest pierwszą misją kosmiczną, która wykorzystuje pasmo Ka do przesyłania tak dużej ilości danych. Już na etapie projektowania zdecydowano o wykorzystaniu Ka, części większego pasma K.
      Webb wysyła na Ziemię dane w paśmie o częstotliwości 25,9 Ghz, a prędkość transmisji może dochodzić do 28 Mb/s. Tak duża prędkość jest niezbędna, gdyż JWST może zebrać do 57 GB danych na dobę, chociaż rzeczywista ilość danych będzie zależała od zaplanowanych obserwacji. Dla porównania, Teleskop Hubble'a (HST) zbiera każdej doby nie więcej niż 2 GB danych.
      Pasmo Ka wybrano, gdyż kanałem tym można przesłać więcej danych niż powszechnie wykorzystywanymi w komunikacji kosmicznej pasmami X (7–11 GHz) czy S (2–4 GHz). Dodatkowo przeciwko wykorzystaniu pasma X przemawiał fakt, że antena pracująca w tym zakresie musiałaby być na tyle duża, że teleskop miałby problemy z utrzymaniem wysokiej stabilności, niezbędnej do prowadzenia obserwacji.
      Szybki transfer danych jest niezbędny na potrzeby przesyłania informacji naukowych. Webb korzysta też z dwóch kanałów pasma S. Jeden z nich, o częstotliwości 2.09 GHz to kanał odbiorczy, pracujący z prędkością 16 kb/s. Służy on do wysyłania do teleskopu poleceń dotyczących zaplanowanych obserwacji oraz przyszłych transmisji danych. Za pomocą zaś drugiego kanału, 2.27 GHz, pracującego w tempie 40 kb/s, Webb przysyła na Ziemię informacje dane inżynieryjne, w tym informacje o kondycji poszczególnych podzespołów.
      Łączność pomiędzy Ziemią a teleskopem nie jest utrzymywana przez 24 godziny na dobę. Dlatego też JWST musi przechowywać dane na pokładzie, zanim je nam przyśle. Magazynem danych jest 68-gigabajtowy dysk SSD, którego 3% pojemności zarezerwowano na dane inżynieryjne. Gdy już Webb prześle dane na Ziemię, oczekuje na potwierdzenie, że dotarły i wszystko z nimi w porządku. Dopiero po potwierdzeniu może wykasować dane z dysku, by zrobić miejsce na kolejne informacje. Specjaliści z NASA spodziewają się, że za 10 lat pojemność dysku, z powodu oddziaływania promieniowania kosmicznego, zmniejszy się do około 60 GB.
      Dane z Teleskopu Webba są odbierane na Ziemi przez Deep Space Network. DSN korzysta z trzech kompleksów anten znajdujących się w pobliżu Canberry, Madrytu i Barstow w Kalifornii. Z DNS korzysta wiele innych misji, w tym Parker Solar Probe, TESS czy Voyagery. Dlatego też JWST musi dzielić się z nimi ograniczonym czasem korzystania z anten. Wszystko to wymaga starannego planowania. Czas, w którym dana misja będzie mogła korzystać z anten DSN jest planowany z wyprzedzeniem sięgającym 12-20 tygodni. Wyjątkiem była sytuacja, gdy Teleskop Webba przygotowywał się do pracy, rozkładał poszczególne podzespoły, uruchamiał instrumenty, gdy były one sprawdzane i kalibrowane. Większość z tych czynności wymagała komunikacji w czasie rzeczywistym, wówczas więc Webb miał pierwszeństwo przed innymi misjami.
      Inżynierowie pracujący przy systemie komunikacji przykładali szczególną uwagę do jego niezawodności. Wiedzieli, że jeśli oni popełnią błąd, cała praca kolegów z innych zespołów pójdzie na marne. System komunikacji musi działać idealnie. Dlatego też wybrali znane rozwiązanie i odrzucili co najmniej dwie propozycje wykorzystania eksperymentalnej komunikacji laserowej.
       


      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Podczas zakończonego właśnie sezonu 2021/22 ogólnopolskiej Akcji Karmnik studenci z Koła Naukowego Biologów Uniwersytetu w Białymstoku (UwB) zaobrączkowali najwięcej ptaków. Jak podkreślono w komunikacie uczelni, jeszcze jeden osobnik - i byłby okrągły tysiąc. W ich sieci ornitologiczne schwytały się też rekordowe liczby czyżów, dzwońców i grubodziobów.
      XVI edycja akcji rozpoczęła się 4 grudnia, a zakończyła wraz z lutym. Zgłosiły się liczne drużyny karmnikowe, które co 2 tygodnie prowadziły odłowy. Zaplanowano je na 4-5 oraz 18-19 grudnia, 1-2, 15-16 i 29-30 stycznia, a także na 12-13 i 26-27 lutego.
      W sieci ornitologiczne studentów z UwB wpadło 1318 ptaków, z czego 999 nie miało jeszcze obrączek. Oprócz tego odnotowano 319 kolejnych odłowów. Były to tzw. retrapy i kontrole, a więc osobniki, którym kiedyś założono obrączki przy studenckich karmnikach albo w innych miejscach.
      Ptakom sprzyjają ogródki, łagodna zima i miejska wyspa ciepła
      Wg dr. Krzysztofa Deoniziaka, opiekuna sekcji ornitologicznej Koła Naukowego Biologów, istnieje parę przyczyn, dla których w pobliżu kampusu UwB odławia się tyle ptaków. Po pierwsze, nieopodal znajdują się zarówno pozostałości, jak i nadal użytkowane duże ogrody działkowe. Ptaki mogą tu znaleźć sporo pokarmu i odpocząć podczas migracji. Po drugie, z powodu łagodnej zimy dochodzi do pewnych zaburzeń w migracjach ptaków. Brak stałej i grubej pokrywy śnieżnej nie zmusza ich do dalekiej wędrówki na zimowiska. A obszary miejskie (chociażby z powodu wspomnianych wcześniej działek i przydomowych ogrodów) są atrakcyjnym żerowiskami.
      Nie bez znaczenia jest też wpływ miejskiej wyspy ciepła. Skoro ptaki mogą przetrwać tutaj, niektórym gatunkom zwyczajnie nie kalkuluje się wędrówka na południe lub zachód kontynentu.
      Statystyki żaków z Białegostoku
      Gdy przyjrzymy się statystykom, okaże się, że Koło Naukowe Biologów UwB (Koło Naukowe Biologów UwB i przyjaciele) złapało w sieci 14 gatunków. Niekwestionowane 1. miejsce przypadło bogatkom (387). Na drugim miejscu uplasowały się czyże (273), a na trzecim dzwońce (136). Tuż za podium znalazły się zaś grubodzioby (116). Spośród liczniej reprezentowanych gatunków warto wymienić jeszcze modraszkę (64).
      Jak wspominaliśmy na początku, odłowy czyżów, dzwońców i grubodziobów okazały się rekordowe w skali kraju.
      Stali bywalcy i rzadko odławiane gatunki
      Co ciekawe, niektóre osobniki regularnie pojawiają się przy studenckich karmnikach. Pewną bogatkę zaobrączkowano, na przykład, w 2017 r., a później odłowiono ponownie aż 5-krotnie. Innym powracającym przypadkiem jest dzięcioł duży, który został zaobrączkowany w 2016 r. i wpadł w sieci ornitologiczne jeszcze 2-krotnie (rok później i w 2021 r.).
      W nasze sieci w tym sezonie wpadały również ciekawe, rzadko odławiane gatunki. Np. dwie czeczotki, które nie złapały się nigdzie indziej w Polsce, dzięcioł średni, krogulec. Były też cztery zięby - ptaki, które jeszcze kilka lat temu raczej odlatywały na południe. Teraz obserwujemy je u nas zimą i odławiamy coraz częściej, co pokazuje zachodzące zmiany klimatyczne – opowiada Anna Winiewicz, prezeska Koła Naukowego Biologów UwB.
      Podsumowanie sezonu 2021/22
      Na witrynie Akcji Karmnik można się zapoznać zarówno z wynikami zbiorczymi, jak i ze statystykami poszczególnych odłowów. W tym sezonie złapaliśmy ponad 11.000 [11.620] ptaków z 37 gatunków! Samych bogatek trafiło się ponad 4 tysiące, modraszek ponad tysiąc. Dzwoniec wylądował na czwartym miejscu, zaraz za czyżami - ponad 400 osobników obu gatunków. Piątym najchętniej przylatującym do karmnika ptakiem był grubodziób. Zabrakło dwóch grubków, aby było 400. Mieliśmy tylko dwa ptaki z zagranicy. Trafiło się parę ciekawych ptaków, jak srokosz i sroka, ale w przyszłym sezonie będą już wliczone w listę ptaków karmnikowych - podsumowano.
      W ramach Akcji Karmnik ptaki obrączkuje się pod okiem licencjonowanych obrączkarzy. Poza tym są one mierzone i opisywane. Dzięki temu można zbierać dane ujawniające skład gatunkowy i liczebność ptaków przylatujących do karmników w różnych regionach kraju.
      Dane ornitologiczne trafią do Stacji Ornitologicznej Muzeum i Instytutu Zoologii PAN w Gdańsku.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Na University of Central Florida powstał pierwszy w historii oscyloskop optyczny. Urządzenie może zrewolucjonizować technologie komunikacyjne, od smartfonów po internet. Skonstruowane na UCF urządzenie mierzy pole elektryczne światła zamieniając oscylacje światła w sygnał elektryczny.
      Dotychczas pomiary pola elektrycznego światła były poważnym problemem ze względu na olbrzymie tempo jego oscylacji. Najbardziej zaawansowane techniki pomiarowi, wykorzystywane w urządzeniach elektronicznych i telekomunikacyjnych, pozwalają na pomiar częstotliwości rzędu gigaherców. Pokrywa to spektrum radiowe i mikrofalowe promieniowania elektromagnetycznego. Jednak światło oscyluje ze znacznie większa częstotliwością. Możliwe jest więc upakowanie w nim znacznie większej ilości informacji niż robimy to obecnie. Jednak nie dysponujemy narzędziami, które by to umożliwiały. Obecne oscyloskopy dokonują uśrednionych pomiarów w ramach impulsu światła. Nie potrafią odróżnić poszczególnych dolin i grzbietów fali. Gdybyśmy zaś byli w stanie mierzyć pojedyncze doliny i grzbiety, moglibyśmy kodować w nich informacje
      Dzięki włóknom optycznym możemy korzystać ze światła do przesyłania informacji, ale wciąż jesteśmy ograniczeni prędkością oscyloskopów, mówi profesor Michael Chini. Nasz oscyloskop optyczny może zwiększyć prędkość przekazywania informacji nawet o około 10 000 razy.
      Uczeni z Florydy zbudowali swoje urządzenie i zaprezentowali jego możliwości dokonując w czasie rzeczywistym pomiarów pól elektrycznych indywidualnych impulsów światła laserowego. W kolejnym etapie badań będą chcieli sprawdzić, gdzie leży nieprzekraczalna granica prędkości pomiaru przy wykorzystaniu ich techniki.
      Swoje badania naukowcy opisali na łamach Nature Photonics.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...