Jump to content
Forum Kopalni Wiedzy

Recommended Posts

W laboratorium IBM-a w Zurichu zaprezentowano rekordowo pojemny napęd taśmowy. Pojedynczy kartridż pozwala na przechowanie aż... 580 terabajtów danych. To aż 29-krotnie więcej niż oferowany obecnie przez IBM-a kartridż o pojemności 20 TB. Błękitny Gigant jest tutaj rynkowym liderem. Najnowszy standard przemysłowy LTO-Ultrium (Linear Tape-Open, version 9) mówi o kartridżach o pojemności 18 TB.

Mark Lantz, menedżer CloudFPGA odpowiedzialny w IBM Zurich za technologie taśmowe mówi, że w ostatnich latach taśmy magnetyczne przeżywają swój renesans. Ma to związek z jednej strony z wykładniczym wzrostem ilości wytwarzanych danych, które trzeba gdzieś archiwizować oraz z jednoczesnym spowolnieniem przyrostu gęstości zapisu na dyskach twardych. Jak zauważa Lantz, w ciągu ostatnich kilkunastu lat składane roczne tempo wzrostu gęstości zapisu na HDD spadło do poniżej 8%. Jednocześnie świat produkuje coraz więcej danych. Roczny wzrost wytwarzania informacji wynosi aż 61%. Eksperci mówią, że do roku 2025 wytworzymy 175 zetabajtów danych.

Jako, że gęstość zapisu HDD niemal stanęła w miejscu, dramatycznie wzrosła cena każdego gigabajta dysnku twardego. Już w tej chwili 1 bit HDD jest czterokrotnie droższy niż 1 bit taśmy magnetycznej. Ta wielka nierównowaga pojawiła się w bardzo niekorzystnym momencie, gdy ilość wytwarzanych danych zaczęła gwałtownie rosnąć. Centra bazodanowe mają coraz większy problem. Na szczęście zdecydowana większość danych to informacje, które są rzadko potrzebne. To zaś oznacza, że w ich przypadku szybkość odczytu danych nie jest rzeczą zbyt istotną. Mogą być więc przechowywane na taśmach magnetycznych.
Taśmy mają wiele zalet w porównaniu z dyskami twardymi. Są bardziej odporne na ataki cyberprzestępców, do działania potrzebują mniej energii, są trwałe i znacznie tańsze w przeliczeniu na gigabajt. Zalety te spowodowały, że – jak ocenia IBM – już 345 000 eksabajtów danych przechowywanych jest właśnie na taśmach.

Najnowszy napęd taśmowy to wynik 15-letniej współpracy IBM-a i Fujifilm. Od roku 2006 firmy pobiły sześć kolejnych rekordów dotyczących napędów taśmowych. Ostatnie osiągnięcie było możliwe dzięki udoskonaleniu samej taśmy, głowicy odczytującej oraz serwomechanizmu odpowiadającego za precyzję pozycjonowania głowicy. Firma Fujifilm odeszła tutaj od przemysłowego standardu jakim jest ferryt baru i pokryła taśmę mniejszymi cząstkami ferrytu strontu. Inżynierowie IBM-a, mając do dyspozycji nową taśmę, opracowali nową technologię głowicy odczytująco-zapisującej, która współpracuje z tak gładką taśmą.

O tym jak wielkie postępy zostały dokonane w ciągu kilkunastoletniej współpracy Fujifilm i IBM-a najlepiej świadczą liczby. W roku 2006 obie firmy zaprezentowały taśmę pozwalającą na zapisanie 6,67 miliarda bitów na calu kwadratowym. Najnowsza taśma pozwala na zapis 317 miliardów bitów na cal. Kartridż z roku 2006 miał pojemność 8 TB, obecnie jest to 580 TB. Szerokość ścieżki zapisu wynosiła przed 14 laty 1,5 mikrometra (1500 nanometrów), teraz to zaledwie 56,2 nanometra. Liniowa gęstość zapisu w roku 2006 sięgała 400 000 bitów na cal taśmy. Na najnowszej taśmie na każdym calu można zapisać 702 000 bitów. Zmniejszyła się też – z 6,1 mikrometra do 4,3 mikrometra – grubość taśmy, wzrosła za to jej długość. W pojedynczym kartridżu mieści się obecnie 1255 metrów taśmy, a przed 14 laty było to 890 metrów.


« powrót do artykułu

Share this post


Link to post
Share on other sites

szkoda, że nie podają szacunkowej trwałości takiego zapisu. Może okazać się, że iloczyn gęsośćxczas jest taka jak dla hieroglifów na skałach o gęstości zapisu 1 bit/cal^2

Share this post


Link to post
Share on other sites
W dniu 22.12.2020 o 11:42, nurek napisał:

szkoda, że nie podają szacunkowej trwałości takiego zapisu.

Własnego nie miałem, ale chodziłem do kolegi na commodore i napędy taśmowe były bardzo zawodne.

Następnie używałem streamerów taśmowych do backupów (różne generacje i modele), i nadal ta technologia była bardzo zawodna. Pamiętam że robiło się kopie na 2 komplety tasiemek bo nigdy nie było wiadomo czy uda się odzyskać z jednego :) a w skryptach linijki od weryfikacji były wyremowane bo nie starczało nocy na te manewry. Zresztą weryfikacja nic nie gwarantowała :)

myślałem że technologia odeszła w zapomnienie, ale jak pojawia się coś nowego to chyba gdzieś to jeszcze działa.

Share this post


Link to post
Share on other sites

Nie jest tak źle, jak się może wydawać. Jeszcze do niedawna, zanim ceny dysków tak mocno spadły, backupy serwerów odbywały się na taśmach. Być może AWS Glacier, chociaż dokładnie się nie orientuję, jest trzymany na taśmach, bo odzysk jest czasochłonny i trwa kilka godzin. Ceny GB/miesiąc są za to bardzo niskie. Wrzuciłem w Google wyszukanie, pierwsze z brzegu taśmy HP 30TB RW kosztują około 100 euro.

Edited by cyjanobakteria

Share this post


Link to post
Share on other sites
26 minut temu, tempik napisał:

Zresztą weryfikacja nic nie gwarantowała :)

Gwarantowała poprawność zapisu w chwili zapisu :D Upadł mi kiedyś dysk z plikiem logu transakcji i trzeba było odtwarzać bazę z taśm. Oczywiście, jedna z 30 taśm archiwizacji przyrostowej zgłosiła błędy i daliśmy radę odzyskać bazę dopiero w wersji z przed 3 dni. Jak nam użytkownicy dziękowali.... Od czasu tych wyrazów wdzięczności unikałem taśm jak ognia. 

Oczywiście była włączona kontrola poprawności.

Share this post


Link to post
Share on other sites

Co najwyżej potwierdzała. Podstawowa zasada backupów to 3-2-1. Incydent z backupem bazy danych w GitLab sprzed kilu lat pokazał, że w rzeczywistości mieli jakieś N-5 działających kopii bezpieczeństwa :) Odratowali bazę sprzed 6h, tylko dlatego, bo deweloper zrobił snapshot bazy produkcyjnej do pracy na swieżych danych, co jest słabą praktyką infosec, ale w tym wypadku im pomogło.

Ja kiedyś podpisałem CD miękkim flamastrem, ale zauważyłem, że zmieniła się suma kontrolna :) SHA1 zrzutu płyty do iso przed podpisaniem był inny niż po podpisaniu, bo to był magiczny flamaster :)

Edited by cyjanobakteria

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Prace międzynarodowej grupy badawczej, na czele której stali specjaliści ze Skołkowskiego Instytutu Nauki i Technologii (Skoltech) w Moskwie oraz IBM-a zaowocowały powstaniem energooszczędnego superszybkiego przełącznika optycznego. Urządzenie nie wymaga chłodzenia, a jednocześnie jest ponad 100-krotnie szybsze od najszybszych współczesnych tranzystorów.
      Tym, co czyni to urządzenie tak bardzo energooszczędnym jest fakt, że do przełączenia stanu potrzebuje zaledwie kilku fotonów, mówi główny autor badań Anton Zasiedatieliew. W laboratorium udało się nam go przełączać za pomocą pojedynczego fotonu. I to w temperaturze pokojowej. Jednak minie sporo czasu, zanim taka technologia będzie mogła trafić do procesorów optycznych, dodaje profesor Pawlos Lagudakis.
      Możliwość przełączania za pomocą pojedynczego fotonu oznacza, że układ jest niezwykle energooszczędny i zostało niewiele miejsca na jego dalsze udoskonalenie. Oczywiście musimy przy tym pamiętać, że obecnie działa to jedynie w wyspecjalizowanym laboratorium. Jednak tak właśnie zaczyna się wielu historia technologii, które w końcu trafiają do codziennego użytku. Większość współczesnych tranzystorów elektrycznych potrzebuje dziesiątki razy więcej energii, by się przełączyć, a te, którym wystarczy pojedynczy elektron, działają znacznie wolniej niż zademonstrowany właśnie przełącznik optyczny.
      Jednak szybkość i energooszczędność to nie jedyne zalety nowej technologii. Równie ważny jest fakt, że przełącznik działa w temperaturze pokojowej i nie wymaga chłodzenia. Tymczasem systemy chłodzenia potrzebne współczesnym komputerom nie tylko wpływają na koszty samego sprzętu, ale też znacząco zwiększają zużycie energii koniecznej do ich zasilania.
      Urządzenie składa się z dwóch laserów. Bardzo słaby promień lasera kontrolnego jest używany do przełączania stanu drugiego jaśniejszego z laserów. Do przełączenia wystarczy kilka fotonów, stąd wynika wysoka efektywność całości. Przełączanie odbywa się wewnątrz mikrownęki. To 35-nanometrowej grubości organiczny polimer półprzewodzący zamknięty pomiędzy dwiema nieorganicznymi warstwami o wysokim współczynniku odbicia. Mikrownęka zbudowana jest w taki sposób, by jak najdłużej więzić nadchodzące światło, prowadząc w ten sposób do jego sprzężenia z materiałem wnęki.
      Oddziaływanie światła z materią to podstawa działania nowego urządzenia. Gdy fotony sprzęgają się z parami dziura-elektron – tworzącymi kwazicząstkę o nazwie ekscyton – pojawiają się kwazicząstki ekscyton-polaryton. Gdy silniejszy z laserów oświetla przełącznik powstają tysiące identycznych krótko żyjących kwazicząstek tworzących kondensat Bosego-Einsteina, w którym kodowany jest stan urządzenia „0” lub „1”.
      Najpierw za pomocą silniejszego lasera we wnęce tworzone są kwazicząstki o energiach większych niż energia podstawowa. Przełącznik znajduje się w stanie „0” Do przełączenia potrzebny jest laser słabszy, za pomocą którego tworzona jest grupa kwazicząstek o energii podstawowej. Ich pojawienie się wywołuje lawinowy proces przełączania się pozostałych kwazicząstek do stanu podstawowego. W ten sposób uzyskujemy stan „1”. Czas przełączania liczony jest w femtosekundach, dzięki czemu przełącznik jest ponad 100-krotnie szybszy od współczesnych tranzystorów.
      Naukowcy użyli kilku sztuczek, by utrzymać zapotrzebowanie na energię na jak najniższym poziomie przy jednoczesnym zmaksymalizowaniu pracy urządzenia. W efektywnym przełączaniu pomagają wibracje molekuł półprzewodzącego polimeru. Konieczne było precyzyjne dopasowanie częstotliwości pracy laserów, stanu kondensatu i energii wibracji molekuł polimeru.
      Przed nami jeszcze sporo pracy. Musimy zmniejszyć całkowite zapotrzebowania urządzenia na energię. Obecnie jest ono zdominowane przez silniejszy z laserów, który utrzymuje przełącznik w gotowości. Prawdopodobnie trzeba będzie wykorzystać tutaj perowskitowego superkryształu, z którym wcześniej eksperymentowaliśmy. Są one doskonałymi kandydatami to zbudowania naszego przełącznika, gdyż zapewniają bardzo silną interakcję światła z materią, stwierdzają autorzy badań.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Fizycy z Massachusetts Institute of Technology (MIT) odkryli sposób na szybsze przełączanie stanu antyferromagnetyków. Opracowana przez nich technologia zakłada wzbogacenie materiału antyferromagnetycznego o dodatkowe elektrony. Takie materiały posłużą do budowy szybciej działających nośników danych o większej gęstości i lepszej stabilności.
      Dyski twarde przechowują dane wykorzystując impulsy magnetyczne do zmiany spinu elektronów w materiałach ferromagnetycznych. Te różne stany spinów reprezentują 0 i 1. Impulsy magnetyczne potrzebne do przeprowadzenia takiej zmiany wymagają jednak stosunkowo silnego prądu, przez co całość jest energochłonna. Ponadto całkowita zmiana spinu to proces dość powolny, trwający dziesiątki nanosekund.
      Antyferromagnetyki to obiecujące materiały dla przyszłych nośników danych o dużej gęstości. Stany ich spinów można zmieniać znacznie szybciej. Jest to możliwe dzięki silnymi interakcjami pomiędzy spinami, gdyż w antyferromagnetykach mają tendencję do ustawiania się przeciwrównolegle. W ferromagnetykach zaś są równoległe.
      Ponadto antyferromagnetyki nie wykazują magnetyzacji w skali mniejszej niż 10 nm, co czyni je odpornymi na zakłócenia ze strony zewnętrznych pól magnetycznych. To oznacza, że dane zapisane w antyferromagnetyku nie mogą zostać usunięte za pomocą pola magnetycznego. Kolejną zaletą antyferromagnetyków jest fakt, że można z nich robić mniejsze tranzystory niż z krzemu i innych konwencjonalnych materiałów.
      Riccardo Comin i jego koledzy z MIT postanowili sprawdzić, czy będą w stanie manipulować antyferromagnetycznymi właściwościami 100-nanometrowych warstw tlenku samarowo-niklowego (SmNi03) i tlenku neodymowo-niklowego (NdNiO3), wprowadzając do tych materiałów dodatkowe elektrony. W tym celu pozbawili badane materiały części atomów tlenu. Po każdym z usuniętych atomów pozostały dwa elektrony, które rozłożyły się pomiędzy pozostałymi atomami tlenu i atomami niklu.
      Naukowcy monitorowali cały proces za pomocą techniki krystalografii rentgenowskiej, by sprawdzić, czy struktura magnetyczna materiału się zmieniła. Okazało się, że porządek antyferromagnetyczny w badanych materiałach ulega gwałtownemu załamaniu przy wzbogaceniu ich 0,21 elektronami na atom niklu. Dochodzi do gwałtownej zmiany, podobnej do przełączania tranzystora pomiędzy stanami 0 a 1. Zmianę tę można odwrócić dodając atomy tlenu.
      Comin mówi, że antyferromagnetyczne bity można przełączać za pomocą bramek z napięciem elektrycznym. Teraz wraz z zespołem będzie pracował nad uzyskaniem lepszej kontroli nad całym procesem i zoptymalizowaniem go.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Prawnikom Google'a nie udało się doprowadzić do odrzucenia przez sąd pozwu związanego z nielegalnym gromadzeniem danych użytkowników przez koncern. Sędzia Lucy Koh uznała, że Google nie poinformował użytkowników, iż zbiera ich dane również wtedy, gdy wykorzystują w przeglądarce tryb anonimowy.
      Powodzi domagają się od Google'a i konglomeratu Alphabet co najmniej 5 miliardów dolarów odszkodowania. Twierdzą, że Google potajemnie zbierał dane za pośrednictwem Google Analytics, Google Ad Managera, pluginów oraz innych programów, w tym aplikacji mobilnych. Przedstawiciele Google'a nie skomentowali jeszcze postanowienia sądu. Jednak już wcześniej mówili, że pozew jest bezpodstawny, gdyż za każdym razem, gdy użytkownik uruchamia okno incognito w przeglądarce, jest informowany, że witryny mogą zbierać informacje na temat jego działań.
      Sędzia Koh już wielokrotnie rozstrzygała spory, w które były zaangażowane wielkie koncerny IT. Znana jest ze swojego krytycznego podejścia do tego, w jaki sposób koncerny traktują prywatność użytkowników. Tym razem na decyzję sędzi o zezwoleniu na dalsze prowadzenie procesu przeciwko Google'owi mogła wpłynąć odpowiedź prawników firmy. Gdy sędzia Koh zapytała przedstawicieli Google'a, co koncern robi np. z danymi, które użytkownicy odwiedzający witrynę jej sądu wprowadzają w okienku wyszukiwarki witryny, ci odpowiedzieli, że dane te są przetwarzane zgodnie z zasadami, na jakie zgodzili się administratorzy sądowej witryny.
      Na odpowiedź tę natychmiast zwrócili uwagę prawnicy strony pozywającej. Ich zdaniem podważa ona twierdzenia Google'a, że użytkownicy świadomie zgadzają się na zbieranie i przetwarzanie danych. Wygląda na to, że Google spodziewa się, iż użytkownicy będą w stanie zidentyfikować oraz zrozumieć skrypty i technologie stosowane przez Google'a, gdy nawet prawnicy Google'a, wyposażeni w zaawansowane narzędzia i olbrzymie zasoby, nie są w stanie tego zrobić, stwierdzili.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Podczas niedawnej konferencji Ignite 2020 Microsoft ogłosił rozpoczęciu Project HSD (Holographic Storage Device). Biorą nim udział specjaliści z laboratorium sztucznej inteligencji w Cambridge oraz inżynierowie z chmury Azure. Celem projektu jest stworzenie holograficznego systemu przechowywania informacji na potrzeby chmur.
      Zapotrzebowanie na długoterminowe przechowywanie danych w chmurach sięgnęło niespotykanego poziomu i rośnie w zetabajtach. Istniejące obecnie technologie nie pozwalają na ekonomiczne długotrwałe przechowywanie danych. Operowanie danymi w skali chmur obliczeniowych wymaga przemyślenia samych podstaw budowy wielkoskalowych systemów przechowywania informacji oraz technologii, z których są one tworzone, stwierdzili przedstawiciele Microsoftu.
      Firmowi eksperci zauważają, że obecnie używane technologie nie rozwijają się w dostatecznie szybkim tempie, by zaspokoić zapotrzebowanie. Ponadto mają problemy z wiarygodnością i stabilnością spowodowane albo obecnością mechanicznych podzespołów albo degradującymi się z czasem komórkami pamięci.
      Dlatego też w 2017 roku Microsoft rozpoczął Project Silica, w ramach którego pracuje nad holograficznym zapisem danych w szkle. Holograficzny zapis danych nie jest ograniczony do dwuwymiarowej powierzchni, pozwala wykorzystać całość nośnika.
      Hologram zajmuje niewielką część kryształu. W jednym krysztale można zaś zapisać wiele hologramów, wyjaśniają przedstawiciele koncernu z Redmond. Najnowsze osiągnięcia z dziedziny sztucznej inteligencji czy optyki pozwalają na znaczne udoskonalenie tego, co robiono dotychczas w ramach Project Silica, na którym bazuje Project HDS. Na razie, jak informuje dział Microsoft Research, udało się niemal dwukrotnie zwiększyć gęstość zapisu w hologramach. W najbliższych miesiącach powinniśmy zaś zobaczyć poprawioną kompresję i szybsze czasy dostępu.
      Przed niemal rokiem informowaliśmy, że w ramach Project Silica Microsoft stworzył prototypowy system do przechowywania informacji w szkle. We współpracy z firmą Warner Bros. koncern zapisał oryginalny firm Superman z 1978 roku na kawałku szkła o wymiarach 75x75x2 milimetry. Pisaliśmy wówczas, że firma wykorzystuje femtosekundowe lasery pracujące w podczerwieni do zapisu danych na „wokselach”, trójwymiarowych pikselach. Każdy z wokseli ma kształt odwróconej kropli, a zapis dokonywany jest poprzez nadawanie mi różnych wielkości i różnej orientacji. Na szkle o grubości 2 milimetrów można zapisać ponad 100 warstw wokseli. Odczyt odbywa się za pomocą kontrolowanego przez komputer mikroskopu, który wykorzystuje różne długości światła laserowego. Światło zostaje odbite od wokseli i jest przechwytywane przez kamerę. W zależności od orientacji wokseli, ich wielkości oraz warstwy do której należą, odczytywane są dane.
      Przy Project HSD pracują fizycy, optycy, specjaliści od maszynowego uczenia się i systemów przechowywania danych. Jest on prowadzony przez grupę Optics for the Cloud w Microsoft Resarch Cambridge.
       


      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...