Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Pobito rekord świata w światłowodowej transmisji danych

Rekomendowane odpowiedzi

Japońscy naukowcy pobili rekord świata w prędkości transmisji danych. Udało im się przesłać informacje z prędkością 109 Tb/s. Nie tylko pobili rekord świata, ale dowiedli też, że 100 Tb/s nie jest fizyczną granicą przepustowości światłowodów.

Autorzy sukcesu, uczeni z Narodowego Instytutu Technologii Informacyjnych i Komunikacyjnych oraz Sumitomo Electric Industries mówią, że wykorzystana przez nich technologia oraz nowe optyczne techniki przesyłu danych mogą zwiększyć przepustowość światłowodów nawet 1000-krotnie.

W światłowodach informacje przesyłane są za pomocą światła wędrującego we włóknach. Każde z nich ma grubość zaledwie 9 mikronów, a jego gęstość energetyczna jest porównywalna z gęstością na powierzchni Słońca. Jednak włókna ulegają uszkodzeniu wskutek wysokiej temperatury. Ponadto z włókiem "wyciekają" sygnały, jeśli więc w światłowodzie jest ich kilka, to sygnały nawzajem się zakłócają.

Japończykom udało się rozwiązać problem wynikający z sąsiedztwa wielu włókien i przesłali dane na odległość 16,8 kilometrów z prędkością 109 Tb/s.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

transmisja transmisją, jeszcze trzeba te dane odczytać i zapisać z taką prędkością, a to już większy problem - szczególnie w przypadku trwałych nośników, a nie tylko RAM'u

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

transmisja transmisją, jeszcze trzeba te dane odczytać i zapisać z taką prędkością, a to już większy problem - szczególnie w przypadku trwałych nośników, a nie tylko RAM'u

 

Ale to nie będzie kabelek dla przeciętnego Kowalskiego przecież. ;) Taka technologia pójdzie do sieci szkieletowych.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jasne, ale nie zmienia to faktu że w typowej domowo / biurowej informatyce procesory i magistrale danych większość czasu czekają na dane. Możliwości transmisji praktycznie od zawsze wyprzedzały zdolność do szybkiego - trwałego zapisu i odczytu danych przez komputery.

 

W związku z tym dla mnie bardziej przełomowe jest wymyślenie nowego szybkiego nośnika, niż wprowadzenie nowego szybszego standardu łącz. Chociaż jedno i drugie galopująco postępuje do przodu i to jest fajne ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W związku z tym dla mnie bardziej przełomowe jest wymyślenie nowego szybkiego nośnika, niż wprowadzenie nowego szybszego standardu łącz. 

Potrzebny taki USB z maleńkim kalkulatorkiem w środku , podajesz nr.  liczb pierwszych (np: 115-ta, 345-ąta , 573-cia) a on wymnaża i konwertuje do systemu dwójkowego w czasie rzeczywistym przez port do kompa.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Jeden niepozorny błąd - źle wpisany adres e-mail, przypadkowo udostępniony plik w chmurze czy dokument pozostawiony w biurowej drukarce - może kosztować firmę naprawdę wiele. W dzisiejszym świecie dane to jeden z najcenniejszych zasobów, a ich ochrona staje się równie ważna jak zabezpieczenie pieniędzy czy sprzętu. Co istotne, zagrożenia nie zawsze przychodzą z zewnątrz - często wynikają z codziennej, rutynowej komunikacji. Dlatego zapobieganie utracie firmowych danych to temat, którego nie można odkładać na później. Jak robić to skutecznie? Odpowiadamy.


      Kanały ryzyka Do wycieku danych wcale nie potrzeba zaawansowanego ataku - często wystarczy zwykła codzienna pomyłka. Mail z poufnym załącznikiem trafiający do złego odbiorcy, wydruk pozostawiony w biurowej drukarce, pendrive zgubiony w drodze na spotkanie, czy plik udostępniony w chmurze bez właściwych uprawnień - to scenariusze, które zdarzają się częściej, niż mogłoby się wydawać. Do tego dochodzą rozmowy na komunikatorach i wideokonferencjach, gdzie łatwo pokazać zbyt wiele. Każdy z tych kanałów wygląda niepozornie, ale to właśnie tam najczęściej kryją się wektory wycieku, dlatego tak ważne jest stosowanie różnych mechanizmów ochrony, dopasowanych do konkretnego sposobu pracy.
       
      Podstawowe mechanizmy DLP Nowoczesne systemy DLP działają trochę jak inteligentny strażnik - potrafią rozpoznać, które pliki zawierają wrażliwe informacje, nadać im odpowiednie „etykiety” i pilnować, co dalej się z nimi dzieje. Jeśli ktoś spróbuje wysłać taki dokument na zewnątrz, system może go zablokować, poprosić o dodatkowe potwierdzenie albo przynajmniej ostrzec, że coś jest nie tak.
      Uzupełnieniem tej ochrony jest IRM, czyli zarządzanie prawami do informacji. To rozwiązanie działa bezpośrednio na samym pliku - można ustawić, kto ma prawo go otworzyć, edytować czy wydrukować. Dzięki temu nawet jeśli dokument przypadkiem trafi w niepowołane ręce, jego zawartość nadal pozostaje zabezpieczona.
       
      Kopie zapasowe i audyt Sama technologia DLP to ważny element układanki, ale nie rozwiązuje problemu w stu procentach. Nawet najlepiej skonfigurowany system nie pomoże, jeśli firma nie zadba o coś tak podstawowego jak regularne kopie zapasowe. To one pozwalają szybko wrócić do pracy po awarii, ataku ransomware czy zwykłej pomyłce pracownika. Ważne jest nie tylko ich wykonywanie, ale też sprawdzanie, czy faktycznie da się z nich odtworzyć dane - wielu organizacjom zdarzało się boleśnie odkryć, że kopie były, ale bezużyteczne.

      Drugim filarem jest audyt. To nic innego jak szczegółowe „mapowanie” danych w firmie - sprawdzenie, gdzie dokładnie się znajdują, kto ma do nich dostęp i jakimi kanałami są przesyłane. Bez takiej wiedzy trudno ustawić skuteczne zabezpieczenia. Audyt pomaga też wychwycić miejsca, w których ryzyko wycieku jest największe, na przykład dział, który korzysta z wielu zewnętrznych narzędzi czy wymienia dużo informacji z partnerami. Dzięki temu można lepiej dopasować polityki bezpieczeństwa do realnych potrzeb, zamiast wprowadzać ogólne zasady, które albo są zbyt luźne, albo nadmiernie utrudniają pracę.
       
      Architektura ochrony Najlepsze rozwiązania w zakresie ochrony informacji opierają się na wielu warstwach, bo tylko takie podejście daje realne efekty. Na poziomie komputerów i urządzeń mobilnych kontrolowane są działania użytkowników, w sieci monitorowany jest ruch wychodzący, a w aplikacjach i chmurze zabezpieczane są pliki współdzielone na co dzień. To właśnie dzięki takiej wielopoziomowej architekturze zapobieganie utracie danych staje się skuteczne - bo nawet jeśli jedno zabezpieczenie zawiedzie, kolejne wciąż stanowią barierę przed wyciekiem.
       
      Proces wdrożenia Wdrożenie systemu zapobiegania utracie danych to proces etapowy. Najpierw robi się audyt i inwentaryzację, by wiedzieć, jakie informacje firma posiada i gdzie one są. Potem następuje klasyfikacja i oznaczanie danych - ustalenie, co jest poufne, a co mniej wrażliwe. Kolejny krok to pilotaż w ograniczonym zakresie, który pozwala sprawdzić działanie systemu i reakcje użytkowników. Dopiero później wdraża się rozwiązanie w całej organizacji, a na końcu dba o stałe monitorowanie i dopasowywanie polityk, tak aby były skuteczne, ale nie paraliżowały codziennej pracy.
       
      Ograniczenia i przykłady rozwiązań Żaden system nie gwarantuje stuprocentowej ochrony. Zagrożenia mogą pojawić się w kanałach, które nie zostały objęte kontrolą, a zbyt restrykcyjne reguły mogą paraliżować pracę. Dlatego w praktyce łączy się różne podejścia: DLP, IRM, archiwizację i szkolenia pracowników. Na rynku dostępne są rozwiązania, które integrują te mechanizmy - przykładem jest GTB DLP Suite, oferowane przez iiTD, które umożliwia zarówno analizę treści, jak i kontrolę kanałów komunikacji. To jedno z narzędzi, które pokazuje, jak technologia wspiera organizacje w redukowaniu ryzyka.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Obecnie wykrywanie związków chemicznych jest łatwiejsze niż kiedykolwiek wcześniej, lecz prowadzenie analiz w pojedynczej kropli nadal pozostaje wyzwaniem. Naukowcy próbują miniaturyzować urządzenia do wykrywania substancji chemicznych w o wiele mniejszej objętości niż robione jest to w laboratoriach diagnostycznych. Gdyby ktoś powiedział kilka dekad temu, że jedna kropla roztworu wystarczy, aby odkryć, jakie substancje kryją się w jej wnętrzu, z pewnością nikt by w to nie uwierzył. Na szczęście to już nie fikcja, a codzienność.
      Wychodząc naprzeciw rosnącemu zapotrzebowaniu na prowadzenie w czasie rzeczywistym analiz w zaledwie kilku mikrolitrach roztworu, naukowcy z Instytutu Chemii Fizycznej PAN pod kierunkiem Martina Jӧnssona-Niedziółki we współpracy z badaczami z Politechniki Warszawskiej udowodnili, że detekcja w tak małej skali jest możliwa.
      Nowa koncepcja badaczy łączy kilka rozwiązań opierających się na zminiaturyzowanych elektrodach, unikalnej geometrii płytki do gromadzenia roztworu oraz światłowodu. Naukowcy zaprezentowali połączenie różnych technik badawczych, tworząc narzędzie o wiele czulsze niż klasyczne metody. Taka kombinacja elektrochemii z technikami optycznymi oraz mikroskopijnym zbiornikiem na kroplę opłacała się, pozwalając na o wiele więcej niż pierwotnie zakładano. To niesamowite, że dzięki „zaledwie” i jednocześnie „aż” sygnałom elektrochemicznym i optycznym wyjątkowo czuła analiza chemiczna mikroskopijnych kropel jest możliwa.
      Przeprowadziliśmy serię eksperymentów elektrochemicznych równolegle z pomiarami optycznymi dla różnych pozycji mikroelektrod. Dzięki temu mogliśmy wyraźnie zobaczyć zmianę sygnału optycznego w miarę postępu reakcji elektrochemicznej – wspomina dr Martin Jӧnsson-Niedziółka
      Naukowcy wykazali, że kontrolując wielkość wgłębień na płytce typu „lab-on-a-chip” oraz indukując sygnał w światłowodzie za pomocą ablacji laserem femtosekundowym, mogą elektrochemicznie badać roztwór w setnych częściach mililitra roztworu. Co ciekawe, tajemnica dużej czułości układu kryje się w zastosowanym światłowodzie, który choć jest ma długą historię i jest powszechnie używany w telekomunikacji, umożliwia detekcję nawet minimalnych zmian w procesach chemicznych. A to za sprawą pomiaru parametru zwanego współczynnikiem załamania światła. W ten sposób zaprojektowany system może precyzyjnie mierzyć ugięcie światła w każdej z badanych kropel. Gdy w próbce zachodzi reakcja chemiczna np. proces redukcji-utlenienia, wartości tego parametru zmieniają się, umożliwiając wykrycie nawet niewielkich różnic w składzie chemicznym w cieczy.
      Dr Martin Jӧnsson-Niedziółka twierdzi, że połączenie niezwykłej czułości światłowodów z ich elastycznością i narzędziami elektrochemicznymi daje nowe możliwości w detekcji związków chemicznych, szczególnie w analizie złożonych układów np. próbek biologicznych.
      Naukowcy porównali uzyskane wyniki z klasycznymi technikami tj. spektroskopia w bliskiej podczerwieni, celem porównania czułości detekcji na przykładzie reakcji redoks przy użyciu związku na bazie ferrocenu. Co ciekawe, stosując tę metodę, nie zarejestrowali różnicy między sygnałami postaci utlenionej i zredukowanej stosowanego wskaźnika redoks, pokazując, że klasyczne rozwiązania w tak małej skali zawodzą. Tym samym badacze potwierdzili, że mierzenie zmian podczas przebiegu reakcji elektrochemicznych wraz z monitorowaniem właściwości optycznych roztworu umożliwia detekcję związków nawet w objętościach rzędu zaledwie kilku mikrolitrów. Dodatkowo przeprowadzone analizy numeryczne potwierdziły, że detekcja ta jest możliwa nawet w jeszcze mniejszej objętości rzędu pikolitrów. Jest to niezwykle ważne w projektowaniu nowoczesnych urządzeń do przenośnego, wydajnego i czułego wykrywania substancji z roztworu.
      Wciąż jest jeszcze wiele do zrobienia, lecz niezmiernie cieszy nas fakt, że zaproponowany przez nas układ w ogóle działa. Już teraz ulepszamy aparaturę, aby system był łatwiejszy w obsłudze i bardziej uniwersalny w użyciu – mówi Jӧnsson-Niedziółka.
      Przedstawione dane są obiecujące i mają ogromny potencjał pod kątem prowadzenia w przyszłości badań przesiewowych próbek biologicznych, takich jak metabolity, lub zastosowania w innych dziedzinach, np. do analizy próbek środowiskowych, a nawet materiałów niebezpiecznych. Być może zaproponowane przez naukowców rozwiązanie już niebawem pozwoli na przenośne wykrywanie wielu reakcji chemicznych o wiele szybciej i sprawniej niż przy użyciu klasycznej aparatury laboratoryjnej. Złożoność układu i czułość pomiarów wciąż wymagają prac celem optymalizacji licznych parametrów, lecz już teraz można stwierdzić, że jest to przełom w detekcji w mikroskali i z pewnością przyczyni się do polepszenia skuteczności przyszłego leczenia klinicznego.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Inżynierowie w University of Texas at Austin stworzyli najmniejsze w dziejach urządzenie do przechowywania danych. Profesor Deji Akiwande i jego zespół opierali się na opisywanych już przez nas badaniach, w czasie których powstał atomistor, najcieńsze urządzenie do składowania danych. Teraz naukowcy poczynili krok naprzód zmniejszając przekrój swojego urządzenie do zaledwie 1 nm2.
      Kluczem do dalszej redukcji rozmiarów urządzenia było dobre poznanie właściwości materiałów w tak małej skali i wykorzystanie roli defektów w materiale. Gdy pojedynczy dodatkowy atom metalu wypełnia dziurę, przekazuje materiałowi nieco ze swojego przewodnictwa, co prowadzi do zmiany czyli pojawienia się efektu pamięciowego, mówi Akinwande. Mniejsze układy pamięci pozwolą na stworzenie mniejszych komputerów i telefonów. Układy takie zużywają też mniej energii, pozwalają przechować więcej danych w mniejszej przestrzeni, działają też szybciej.
      Wyniki tych badań przecierają drogę do opracowania przyszłych generacji interesującego Departament Obrony sprzętu takiego jak ultragęste układy pamięci, neuromorficzne systemy komputerowe, systemy komunikacyjne działające w zakresie fal radiowych i inne, mówi Pani Veranasi, menedżer w US Army Research Office, które finansowało najnowsze badaniach.
      Atomristor, na którym oparto najnowsze badania, był już najcieńszym układem pamięci. Jego grubość wynosiła zaledwie 1 atom. Jednak dla zmniejszenia urządzeń ważny jest również ich przekrój poprzeczny. Tym, czego poszukiwaliśmy było spowodowanie by pojedynczy atom kontrolował funkcje pamięci. Udało się nam to osiągnąć, mówi Akinwande.
      Nowe urządzenie należy do kategorii memrystorów, urządzeń zdolnych do modyfikowania oporności pomiędzy dwoma punktami końcowymi bez potrzeby używania bramki w roli pośrednika. Opracowana właśnie odmiana memrystora, którą stworzono dzięki wykorzystaniu zaawansowanych narzędzi z Oak Ridge National Laboratory, daje szanse na osiągnięcie gęstości zapisu rzędu 25 Tb/cm2. To 100 krotnie więcej niż obecnie dostępne komercyjne układ flash.
      Nowy układ pamięci wykorzystuje dwusiarczek molibdenu (MoS2). Jednak jego twórcy zapewniają, że w tej roli można wykorzystać setki innych materiałów o podobnej budowie.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Na internetowych czarnych rynkach pojawiła się oferta sprzedaży danych 92 milionów Brazylijczyków. Jej cena wywoławcza to 15 000 dolarów. Wiadomo, że oferentem jest ktoś zarejestrowany jako X4Crow, a bazę wystawiono na wielu forach, do których dostęp uzyskuje się za zaproszeniem lub poprzez płatną rejestrację.
      Jak twierdzi sprzedający, baza zawiera nazwiska, daty urodzenia oraz identyfikatory podatkowe około 92 milionów Brazylijczyków. Baza w formacie SQL zajmuje 16 gigabajtów, a zaprezentowane fragmenty wskazują, że jest ona podzielona na poszczególne stany.
      Witryna BleepingComputer poinformowała, że otrzymała próbkę bazy danych. Dziennikarze potwierdzili, że dane te są prawdziwe oraz zawierają m.in. informacje o nazwisku matki. Nie wiadomo, co jest źródłem bazy, jednak sprzedający poinformowali dziennikarzy, że pochodzi ona ze źródeł rządowych.
      Sprzedający twierdzą, że dzięki informacjom z tej bazy możliwe jest pozyskanie dodatkowych informacji, jak dane z dowodów osobistych czy praw jazdy. Niewykluczone, że możliwe jest też zdobycie innych danych osobowych, jak numery telefonów, e-maili, informacji o zawodzie, wykształceniu, członkach rodziny, numerach rejestracyjnych pojazdów i wielu innych.
      Próba sprzedaży danych dotyczących milionów obywateli Brazylii to kolejny w ostatnich tygodniach przykład na masowy wyciek danych z instytucji rządowych. We wrześniu wycikeły informacje na temat około 20 milionów obywateli Ekwadoru, a na początku października do sieci trafiły informacje podatkowe dotyczące około 20 milionów obywateli Rosji.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dzisiaj administracja prezydenta Obamy ma oficjalnie zaprezentować zarys dokumentu [PDF] określanego jako Bill of Rights (Karta Praw) prywatności. To oczywiste nawiązanie do konstytucyjnego Bill of Rights, czyli dziesięciu pierwszych poprawek do Konstytucji USA, które gwarantują podstawowe wolności obywatelskie.
      Zdaniem urzędników z Białego Domu nowe przepisy powinny gwarantować użytkownikom prywatność w internecie. Mają się one opierać na następujących zasadach:
      - indywidualnej kontroli. Użytkownik ma prawo do kontrolowania danych zbieranych na jego temat przez firmy oraz powinien być poinformowany, w jaki sposób są one używane.
      - przejrzystości. Użytkownik powinien posiadać łatwy dostęp do napisanej w sposób dlań zrozumiały polityki prywatności i bezpieczeństwa.
      - zachowanie kontekstu: Użytkownik ma prawo oczekiwać, że firmy będą zbierały, używały i ujawniały dane w sposób, który jest zgodny z kontekstem, w jakim dane zostały im dostarczone.
      - bezpieczeństwo: Użytkownik ma prawo oczekiwać, że dane będą przechowywane w sposób bezpieczny i odpowiedzialny.
      - dostęp i dokładność: Użytkownik ma prawo dostępu i poprawiania swoich danych, które powinny być mu prezentowane w sposób umożliwiający przeprowadzani takich informacji. Zmiana danych powinna odbywać się tak, by informacje pozostawały bezpieczne i by uwzględniać ryzyko związane z pojawieniem się niedokładnych danych.
      - precyzja: Użytkownik ma prawo do ograniczenia ilości informacji, jakie na jego temat firmy zbierają i przechowują.
      - odpowiedzialność: Użytkownik ma prawo oczekiwać,że jego dane będą zbierane tylko przez firmy, które posiadają odpowiednie mechanizmy zapewniające, że Consumer Privacy Bill of Rights będzie przestrzegane.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...