Jump to content
Forum Kopalni Wiedzy

Recommended Posts

W laboratorium IBM-a w Zurichu zaprezentowano rekordowo pojemny napęd taśmowy. Pojedynczy kartridż pozwala na przechowanie aż... 580 terabajtów danych. To aż 29-krotnie więcej niż oferowany obecnie przez IBM-a kartridż o pojemności 20 TB. Błękitny Gigant jest tutaj rynkowym liderem. Najnowszy standard przemysłowy LTO-Ultrium (Linear Tape-Open, version 9) mówi o kartridżach o pojemności 18 TB.

Mark Lantz, menedżer CloudFPGA odpowiedzialny w IBM Zurich za technologie taśmowe mówi, że w ostatnich latach taśmy magnetyczne przeżywają swój renesans. Ma to związek z jednej strony z wykładniczym wzrostem ilości wytwarzanych danych, które trzeba gdzieś archiwizować oraz z jednoczesnym spowolnieniem przyrostu gęstości zapisu na dyskach twardych. Jak zauważa Lantz, w ciągu ostatnich kilkunastu lat składane roczne tempo wzrostu gęstości zapisu na HDD spadło do poniżej 8%. Jednocześnie świat produkuje coraz więcej danych. Roczny wzrost wytwarzania informacji wynosi aż 61%. Eksperci mówią, że do roku 2025 wytworzymy 175 zetabajtów danych.

Jako, że gęstość zapisu HDD niemal stanęła w miejscu, dramatycznie wzrosła cena każdego gigabajta dysnku twardego. Już w tej chwili 1 bit HDD jest czterokrotnie droższy niż 1 bit taśmy magnetycznej. Ta wielka nierównowaga pojawiła się w bardzo niekorzystnym momencie, gdy ilość wytwarzanych danych zaczęła gwałtownie rosnąć. Centra bazodanowe mają coraz większy problem. Na szczęście zdecydowana większość danych to informacje, które są rzadko potrzebne. To zaś oznacza, że w ich przypadku szybkość odczytu danych nie jest rzeczą zbyt istotną. Mogą być więc przechowywane na taśmach magnetycznych.
Taśmy mają wiele zalet w porównaniu z dyskami twardymi. Są bardziej odporne na ataki cyberprzestępców, do działania potrzebują mniej energii, są trwałe i znacznie tańsze w przeliczeniu na gigabajt. Zalety te spowodowały, że – jak ocenia IBM – już 345 000 eksabajtów danych przechowywanych jest właśnie na taśmach.

Najnowszy napęd taśmowy to wynik 15-letniej współpracy IBM-a i Fujifilm. Od roku 2006 firmy pobiły sześć kolejnych rekordów dotyczących napędów taśmowych. Ostatnie osiągnięcie było możliwe dzięki udoskonaleniu samej taśmy, głowicy odczytującej oraz serwomechanizmu odpowiadającego za precyzję pozycjonowania głowicy. Firma Fujifilm odeszła tutaj od przemysłowego standardu jakim jest ferryt baru i pokryła taśmę mniejszymi cząstkami ferrytu strontu. Inżynierowie IBM-a, mając do dyspozycji nową taśmę, opracowali nową technologię głowicy odczytująco-zapisującej, która współpracuje z tak gładką taśmą.

O tym jak wielkie postępy zostały dokonane w ciągu kilkunastoletniej współpracy Fujifilm i IBM-a najlepiej świadczą liczby. W roku 2006 obie firmy zaprezentowały taśmę pozwalającą na zapisanie 6,67 miliarda bitów na calu kwadratowym. Najnowsza taśma pozwala na zapis 317 miliardów bitów na cal. Kartridż z roku 2006 miał pojemność 8 TB, obecnie jest to 580 TB. Szerokość ścieżki zapisu wynosiła przed 14 laty 1,5 mikrometra (1500 nanometrów), teraz to zaledwie 56,2 nanometra. Liniowa gęstość zapisu w roku 2006 sięgała 400 000 bitów na cal taśmy. Na najnowszej taśmie na każdym calu można zapisać 702 000 bitów. Zmniejszyła się też – z 6,1 mikrometra do 4,3 mikrometra – grubość taśmy, wzrosła za to jej długość. W pojedynczym kartridżu mieści się obecnie 1255 metrów taśmy, a przed 14 laty było to 890 metrów.


« powrót do artykułu

Share this post


Link to post
Share on other sites

szkoda, że nie podają szacunkowej trwałości takiego zapisu. Może okazać się, że iloczyn gęsośćxczas jest taka jak dla hieroglifów na skałach o gęstości zapisu 1 bit/cal^2

Share this post


Link to post
Share on other sites
W dniu 22.12.2020 o 11:42, nurek napisał:

szkoda, że nie podają szacunkowej trwałości takiego zapisu.

Własnego nie miałem, ale chodziłem do kolegi na commodore i napędy taśmowe były bardzo zawodne.

Następnie używałem streamerów taśmowych do backupów (różne generacje i modele), i nadal ta technologia była bardzo zawodna. Pamiętam że robiło się kopie na 2 komplety tasiemek bo nigdy nie było wiadomo czy uda się odzyskać z jednego :) a w skryptach linijki od weryfikacji były wyremowane bo nie starczało nocy na te manewry. Zresztą weryfikacja nic nie gwarantowała :)

myślałem że technologia odeszła w zapomnienie, ale jak pojawia się coś nowego to chyba gdzieś to jeszcze działa.

Share this post


Link to post
Share on other sites

Nie jest tak źle, jak się może wydawać. Jeszcze do niedawna, zanim ceny dysków tak mocno spadły, backupy serwerów odbywały się na taśmach. Być może AWS Glacier, chociaż dokładnie się nie orientuję, jest trzymany na taśmach, bo odzysk jest czasochłonny i trwa kilka godzin. Ceny GB/miesiąc są za to bardzo niskie. Wrzuciłem w Google wyszukanie, pierwsze z brzegu taśmy HP 30TB RW kosztują około 100 euro.

Edited by cyjanobakteria

Share this post


Link to post
Share on other sites
26 minut temu, tempik napisał:

Zresztą weryfikacja nic nie gwarantowała :)

Gwarantowała poprawność zapisu w chwili zapisu :D Upadł mi kiedyś dysk z plikiem logu transakcji i trzeba było odtwarzać bazę z taśm. Oczywiście, jedna z 30 taśm archiwizacji przyrostowej zgłosiła błędy i daliśmy radę odzyskać bazę dopiero w wersji z przed 3 dni. Jak nam użytkownicy dziękowali.... Od czasu tych wyrazów wdzięczności unikałem taśm jak ognia. 

Oczywiście była włączona kontrola poprawności.

Share this post


Link to post
Share on other sites

Co najwyżej potwierdzała. Podstawowa zasada backupów to 3-2-1. Incydent z backupem bazy danych w GitLab sprzed kilu lat pokazał, że w rzeczywistości mieli jakieś N-5 działających kopii bezpieczeństwa :) Odratowali bazę sprzed 6h, tylko dlatego, bo deweloper zrobił snapshot bazy produkcyjnej do pracy na swieżych danych, co jest słabą praktyką infosec, ale w tym wypadku im pomogło.

Ja kiedyś podpisałem CD miękkim flamastrem, ale zauważyłem, że zmieniła się suma kontrolna :) SHA1 zrzutu płyty do iso przed podpisaniem był inny niż po podpisaniu, bo to był magiczny flamaster :)

Edited by cyjanobakteria

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Podczas niedawnej konferencji Ignite 2020 Microsoft ogłosił rozpoczęciu Project HSD (Holographic Storage Device). Biorą nim udział specjaliści z laboratorium sztucznej inteligencji w Cambridge oraz inżynierowie z chmury Azure. Celem projektu jest stworzenie holograficznego systemu przechowywania informacji na potrzeby chmur.
      Zapotrzebowanie na długoterminowe przechowywanie danych w chmurach sięgnęło niespotykanego poziomu i rośnie w zetabajtach. Istniejące obecnie technologie nie pozwalają na ekonomiczne długotrwałe przechowywanie danych. Operowanie danymi w skali chmur obliczeniowych wymaga przemyślenia samych podstaw budowy wielkoskalowych systemów przechowywania informacji oraz technologii, z których są one tworzone, stwierdzili przedstawiciele Microsoftu.
      Firmowi eksperci zauważają, że obecnie używane technologie nie rozwijają się w dostatecznie szybkim tempie, by zaspokoić zapotrzebowanie. Ponadto mają problemy z wiarygodnością i stabilnością spowodowane albo obecnością mechanicznych podzespołów albo degradującymi się z czasem komórkami pamięci.
      Dlatego też w 2017 roku Microsoft rozpoczął Project Silica, w ramach którego pracuje nad holograficznym zapisem danych w szkle. Holograficzny zapis danych nie jest ograniczony do dwuwymiarowej powierzchni, pozwala wykorzystać całość nośnika.
      Hologram zajmuje niewielką część kryształu. W jednym krysztale można zaś zapisać wiele hologramów, wyjaśniają przedstawiciele koncernu z Redmond. Najnowsze osiągnięcia z dziedziny sztucznej inteligencji czy optyki pozwalają na znaczne udoskonalenie tego, co robiono dotychczas w ramach Project Silica, na którym bazuje Project HDS. Na razie, jak informuje dział Microsoft Research, udało się niemal dwukrotnie zwiększyć gęstość zapisu w hologramach. W najbliższych miesiącach powinniśmy zaś zobaczyć poprawioną kompresję i szybsze czasy dostępu.
      Przed niemal rokiem informowaliśmy, że w ramach Project Silica Microsoft stworzył prototypowy system do przechowywania informacji w szkle. We współpracy z firmą Warner Bros. koncern zapisał oryginalny firm Superman z 1978 roku na kawałku szkła o wymiarach 75x75x2 milimetry. Pisaliśmy wówczas, że firma wykorzystuje femtosekundowe lasery pracujące w podczerwieni do zapisu danych na „wokselach”, trójwymiarowych pikselach. Każdy z wokseli ma kształt odwróconej kropli, a zapis dokonywany jest poprzez nadawanie mi różnych wielkości i różnej orientacji. Na szkle o grubości 2 milimetrów można zapisać ponad 100 warstw wokseli. Odczyt odbywa się za pomocą kontrolowanego przez komputer mikroskopu, który wykorzystuje różne długości światła laserowego. Światło zostaje odbite od wokseli i jest przechwytywane przez kamerę. W zależności od orientacji wokseli, ich wielkości oraz warstwy do której należą, odczytywane są dane.
      Przy Project HSD pracują fizycy, optycy, specjaliści od maszynowego uczenia się i systemów przechowywania danych. Jest on prowadzony przez grupę Optics for the Cloud w Microsoft Resarch Cambridge.
       


      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Badacze z USA i Chin stworzyli dysk twardy wykorzystujący białka jedwabiu. Urządzenie może przechowywać do 64 GB danych na cal kwadratowy i jest odporne na zmiany temperatury, wilgotność, promieniowanie gamma i silne pola magnetyczne. Nie może ono konkurować prędkością pracy czy gęstością zapisu z tradycyjnymi dyskami twardymi, jednak dzięki swoim unikatowym właściwościom może znaleźć zastosowanie w elektronice wszczepianej do wnętrza ciała.
      Zespół naukowy prowadzony przez Tigera Tao z Chińskiej Akademii Nauk w Szanghaju, Mengkuna Liu z nowojorskiego Stony Brook University oraz Wei Li z University of Texas stworzył specjalny wariant techniki wykorzystującej skaningowy mikroskop pola bliskiego (SNOM), dzięki któremu możliwe stało się zapisanie informacji na warstwie protein jedwabiu.
      Do produkcji dysków posłużył naturalny jedwab, którego wodny roztwór nałożono cienką warstwą na podłoże z krzemu lub złota. Następnie za pomocą SNOM i lasera na jedwabiu zapisano dane, wykorzystując w tym celu wywołane laserem zmiany topologiczne i/lub zmiany fazy jedwabiu. Metoda pozwala na wielokrotne usuwanie i zapisywanie danych.
      Jak mówi Mengkun Liu, technika taka ma wiele zalet. Cienką warstwę jedwabiu można z łatwością nakładać na różne podłoża, w tym na podłoża miękkie oraz o zagiętych kształtach. Dane zapisane na jedwabiu można odczytywać na dwa różne sposoby. Jeden z nich wykorzystuje topografię zapisanego materiału, traktując wzniesienia jako „1”, a brak wzniesień jako „0”. Druga, bardziej innowacyjne metoda, to wykorzystanie lasera do odczytu. Jest to jednak zmodyfikowana technika laserowa. Dzięki zmianie mocy lasera można bowiem uzyskać całą skalę szarości z danego punktu danych, co oznacza,że można w nim zapisać więcej informacji niż binarne „0” i „1”.
      Nie mniej ważną cechą jest fakt, że jedwab, jako materiał organiczny, dobrze łączy się z wieloma systemami biologicznymi, w tym z biomarkerami we krwi. Zatem informacje z tych biomarkerów mogą być zakodowane i przechowywane w bazującym na jedwabiu dysku twardym. Liu już zapowiada, że w najbliższej przyszłości rozpoczną się prace nad zaimplementowaniem nowego dysku w żywym organizmie.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Naukowcy z Uniwersytetu Technologicznego w Delft wykazali, że możliwe jest niezależne manipulowanie dwoma rodzajami magnetyzmu w atomach. Magnetyzm w atomach powstaje w wyniku orbitalnego oraz obrotowego ruchu elektronów. W tym pierwszym przypadku mowa jest o ruchu elektronu wokół jądra. Ruch obrotowy zaś to ruch elektronu wokół własnej osi. Jako, że każdy z tych rodzajów ruchu może odbywać się zgodnie z ruchem wskazówek zegara lub w stronę przeciwną, zatem może reprezentować 0 lub 1. Teoretycznie więc w atomie możemy zapisać 2 bity danych.
      "W praktyce jednak jest to niezwykle trudne, gdyż jeśli zmienimy kierunek ruchu orbitalnego, niemal zawsze zmieni się kierunek ruchu obrotowego i vice versa", mówi główny autor najnowszych badań, Sander Otte.
      Holendrzy, we współpracy z Hiszpanami i Chilijczykami dowiedli, że można odwrócić kierunek ruchu orbitalnego elektronu bez zmiany jego ruchu obrotowego. Osiągnęli to dzięki wykorzystaniu efektu Einsteina-de Haasa. Zgodnie z nim odwrócenie kierunku ruchu orbitalnego można skompensować przez niemierzalnie mały obrót środowiska. W tym przypadku był to kawałek metalu, którego część stanowi atom.
      Naukowcy wykorzystali skaningowy mikroskop tunelowy, którego próbnik może manipulować pojedynczymi atomami. Zwykle atom ma kontakt z wieloma sąsiadującymi atomami, co zaburza jego magnetyzm. Otte i jego zespół odseparowali spin od ruchu orbitalnego atomu żelaza umieszczając go na pojedynczym niemagnetycznym atomie azotu. Dzięki temu mogli manipulować ruchem orbitalnym bez wpływania na spin elektronu.
      Możliwość przechowywania bitów w pojedynczym atomie zwiększyłaby tysiące razy pojemność obecnych układów pamięci. Do tego jeszcze bardzo długa droga. Otte mówi, że w tej chwili głównym osiągnięciem, z którego naukowcy się bardzo cieszą, jest możliwość kontrolowania pojedynczych atomów oraz elektronów krążących wokół nich.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Fujifilm informuje o dokonaniu technologicznego przełomu, który pozwala na stworzenie pamięci taśmowej o pojemności 400 terabajtów. Obecnie na rynku dostępne są pamięci taśmowe o pojemnościach kilkunastu do około 20 TB. Z tej formy przechowywania danych korzystają zarówno firmy jak o osoby indywidualne, które muszą archiwizować olbrzymie ilości informacji.
      Fujifilm chce osiągnąć większe pojemności dzięki zmianie używanego obecnie ferrytu baru (BaFe) na ferryt strontu (SrFe). Używane w taśmach powłoki z ferrytu baru zostały już tak bardzo zminiaturyzowane, że odczyt informacji staje się coraz mniej wiarygodny.
      Najpopularniejszym formatem napędów taśmowych jest LTO (Linear Tape-Open) opracowany przez IBM-a w latach 90. LTO-1 było pierwszą generacją taśm, w których wykorzystano powłoki z cząstek metalu. Pojemność tych taśm sięgała 100 GB. Ferryt baru został po raz pierwszy użyty w LTO-6, a taśmy te miały pojemność 2,5 TB. Fujifilm zapowiada, że ferryt strontu trafi do generacji LTO-10, która ma się ukazać na rynku za 2 lata. Taśmy będą miały pojemność 48 TB. W roku 2025 pojawią się taśmy o pojemności 96 TB, na model o pojemności 192 terabajtów będziemy musieli poczekać do 2027 roku, a w roku 2030 do sprzedaży trafią 384-terabajtowe taśmy.
      Jako, że atomy strontu są mniejsze niż atomy baru, ferryt strontu pozwoli na zapisanie większej ilości informacji na takiej samej powierzchni taśmy.
      Napędy taśmowe nie są popularne wśród użytkowników indywidualnych. Są jednak poszukiwane przez duże firmy, które muszą przechowywać olbrzymie ilości danych. Co prawda odczyt informacji z taśmy jest wolniejszy niż z dysku twardego, jednak kartridże z taśmami są tańsze i mają znacznie większą pojemność. Dlatego też czasami korzystają z nich też i osoby indywidualne, jak fotografowie czy filmowcy, którzy chcą tworzyć archiwa swojej pracy.
      Obecnie tylko 2 firmy produkują taśmy magnetyczne do przechowywania danych: Fujifilm i Sony. W 2017 roku Sony we współpracy z IBM-em stworzyło prototypową taśmę, na której można zapisać 201 gigabitów danych na cal kwadratowy. Pozwala to na wyprodukowanie taśmy po pojemności 330 TB. Produkt taki ma trafić na rynek w 2026 roku. Teraz Fujifilm informuje o osiągnięciu gęstości zapisu rzędu 224 gigabitów na cal kwadratowy.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...