Jump to content
Forum Kopalni Wiedzy

Recommended Posts

W laboratorium IBM-a w Zurichu zaprezentowano rekordowo pojemny napęd taśmowy. Pojedynczy kartridż pozwala na przechowanie aż... 580 terabajtów danych. To aż 29-krotnie więcej niż oferowany obecnie przez IBM-a kartridż o pojemności 20 TB. Błękitny Gigant jest tutaj rynkowym liderem. Najnowszy standard przemysłowy LTO-Ultrium (Linear Tape-Open, version 9) mówi o kartridżach o pojemności 18 TB.

Mark Lantz, menedżer CloudFPGA odpowiedzialny w IBM Zurich za technologie taśmowe mówi, że w ostatnich latach taśmy magnetyczne przeżywają swój renesans. Ma to związek z jednej strony z wykładniczym wzrostem ilości wytwarzanych danych, które trzeba gdzieś archiwizować oraz z jednoczesnym spowolnieniem przyrostu gęstości zapisu na dyskach twardych. Jak zauważa Lantz, w ciągu ostatnich kilkunastu lat składane roczne tempo wzrostu gęstości zapisu na HDD spadło do poniżej 8%. Jednocześnie świat produkuje coraz więcej danych. Roczny wzrost wytwarzania informacji wynosi aż 61%. Eksperci mówią, że do roku 2025 wytworzymy 175 zetabajtów danych.

Jako, że gęstość zapisu HDD niemal stanęła w miejscu, dramatycznie wzrosła cena każdego gigabajta dysnku twardego. Już w tej chwili 1 bit HDD jest czterokrotnie droższy niż 1 bit taśmy magnetycznej. Ta wielka nierównowaga pojawiła się w bardzo niekorzystnym momencie, gdy ilość wytwarzanych danych zaczęła gwałtownie rosnąć. Centra bazodanowe mają coraz większy problem. Na szczęście zdecydowana większość danych to informacje, które są rzadko potrzebne. To zaś oznacza, że w ich przypadku szybkość odczytu danych nie jest rzeczą zbyt istotną. Mogą być więc przechowywane na taśmach magnetycznych.
Taśmy mają wiele zalet w porównaniu z dyskami twardymi. Są bardziej odporne na ataki cyberprzestępców, do działania potrzebują mniej energii, są trwałe i znacznie tańsze w przeliczeniu na gigabajt. Zalety te spowodowały, że – jak ocenia IBM – już 345 000 eksabajtów danych przechowywanych jest właśnie na taśmach.

Najnowszy napęd taśmowy to wynik 15-letniej współpracy IBM-a i Fujifilm. Od roku 2006 firmy pobiły sześć kolejnych rekordów dotyczących napędów taśmowych. Ostatnie osiągnięcie było możliwe dzięki udoskonaleniu samej taśmy, głowicy odczytującej oraz serwomechanizmu odpowiadającego za precyzję pozycjonowania głowicy. Firma Fujifilm odeszła tutaj od przemysłowego standardu jakim jest ferryt baru i pokryła taśmę mniejszymi cząstkami ferrytu strontu. Inżynierowie IBM-a, mając do dyspozycji nową taśmę, opracowali nową technologię głowicy odczytująco-zapisującej, która współpracuje z tak gładką taśmą.

O tym jak wielkie postępy zostały dokonane w ciągu kilkunastoletniej współpracy Fujifilm i IBM-a najlepiej świadczą liczby. W roku 2006 obie firmy zaprezentowały taśmę pozwalającą na zapisanie 6,67 miliarda bitów na calu kwadratowym. Najnowsza taśma pozwala na zapis 317 miliardów bitów na cal. Kartridż z roku 2006 miał pojemność 8 TB, obecnie jest to 580 TB. Szerokość ścieżki zapisu wynosiła przed 14 laty 1,5 mikrometra (1500 nanometrów), teraz to zaledwie 56,2 nanometra. Liniowa gęstość zapisu w roku 2006 sięgała 400 000 bitów na cal taśmy. Na najnowszej taśmie na każdym calu można zapisać 702 000 bitów. Zmniejszyła się też – z 6,1 mikrometra do 4,3 mikrometra – grubość taśmy, wzrosła za to jej długość. W pojedynczym kartridżu mieści się obecnie 1255 metrów taśmy, a przed 14 laty było to 890 metrów.


« powrót do artykułu

Share this post


Link to post
Share on other sites

szkoda, że nie podają szacunkowej trwałości takiego zapisu. Może okazać się, że iloczyn gęsośćxczas jest taka jak dla hieroglifów na skałach o gęstości zapisu 1 bit/cal^2

Share this post


Link to post
Share on other sites
W dniu 22.12.2020 o 11:42, nurek napisał:

szkoda, że nie podają szacunkowej trwałości takiego zapisu.

Własnego nie miałem, ale chodziłem do kolegi na commodore i napędy taśmowe były bardzo zawodne.

Następnie używałem streamerów taśmowych do backupów (różne generacje i modele), i nadal ta technologia była bardzo zawodna. Pamiętam że robiło się kopie na 2 komplety tasiemek bo nigdy nie było wiadomo czy uda się odzyskać z jednego :) a w skryptach linijki od weryfikacji były wyremowane bo nie starczało nocy na te manewry. Zresztą weryfikacja nic nie gwarantowała :)

myślałem że technologia odeszła w zapomnienie, ale jak pojawia się coś nowego to chyba gdzieś to jeszcze działa.

Share this post


Link to post
Share on other sites

Nie jest tak źle, jak się może wydawać. Jeszcze do niedawna, zanim ceny dysków tak mocno spadły, backupy serwerów odbywały się na taśmach. Być może AWS Glacier, chociaż dokładnie się nie orientuję, jest trzymany na taśmach, bo odzysk jest czasochłonny i trwa kilka godzin. Ceny GB/miesiąc są za to bardzo niskie. Wrzuciłem w Google wyszukanie, pierwsze z brzegu taśmy HP 30TB RW kosztują około 100 euro.

Edited by cyjanobakteria

Share this post


Link to post
Share on other sites
26 minut temu, tempik napisał:

Zresztą weryfikacja nic nie gwarantowała :)

Gwarantowała poprawność zapisu w chwili zapisu :D Upadł mi kiedyś dysk z plikiem logu transakcji i trzeba było odtwarzać bazę z taśm. Oczywiście, jedna z 30 taśm archiwizacji przyrostowej zgłosiła błędy i daliśmy radę odzyskać bazę dopiero w wersji z przed 3 dni. Jak nam użytkownicy dziękowali.... Od czasu tych wyrazów wdzięczności unikałem taśm jak ognia. 

Oczywiście była włączona kontrola poprawności.

Share this post


Link to post
Share on other sites

Co najwyżej potwierdzała. Podstawowa zasada backupów to 3-2-1. Incydent z backupem bazy danych w GitLab sprzed kilu lat pokazał, że w rzeczywistości mieli jakieś N-5 działających kopii bezpieczeństwa :) Odratowali bazę sprzed 6h, tylko dlatego, bo deweloper zrobił snapshot bazy produkcyjnej do pracy na swieżych danych, co jest słabą praktyką infosec, ale w tym wypadku im pomogło.

Ja kiedyś podpisałem CD miękkim flamastrem, ale zauważyłem, że zmieniła się suma kontrolna :) SHA1 zrzutu płyty do iso przed podpisaniem był inny niż po podpisaniu, bo to był magiczny flamaster :)

Edited by cyjanobakteria

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Uczeni z University of Manchester i Australian National University (ANU) stworzyli magnes składający się z pojedynczej molekuły, który przechowuje zapisane w nim informacje w najwyższej temperaturze ze wszystkich tego rodzajów pamięci. Tego typu molekuły charakteryzuje niezwykle duża pojemność zapisu, nawet 100-krotnie większa niż limit współczesnych technologii. W przyszłości tego typu molekuły mogą zostać wykorzystane do zbudowania pamięci kwantowych czy w spintronice.
      Nowa molekuła zachowuje zapisane w niej dane w temperaturze 100 kelwinów, czyli -173 stopni Celsjusza. Jej stworzenie to znaczący krok naprzód w porównaniu z wcześniejszymi „molekularnymi magnesami”, które przechowywały dane w temperaturze 80 kelwinów (-193 stopnie Celsjusza). Oczywiście temperatura potrzebna do pracy wspomnianej molekuły jest znacznie niższa od temperatury pokojowej czy temperatur możliwych do uzyskania za pomocą standardowych urządzeń chłodniczych. Jednak, na co warto zwrócić uwagę, jest to temperatura znacząco wyższa od temperatury ciekłego azotu (77 kelwinów, -196 stopni Celsjusza).
      Ciekły azot jest łatwo dostępnym chłodziwem, więc dla koncernów wykorzystujących olbrzymie bazy danych, jak Google, Microsofot, Meta czy Amazon, jego użycie nie powinno stanowić problemu. Natomiast korzyści z zastosowania wspomnianej molekuły mogą być olbrzymie. Dość wspomnieć, że teoretycznie pozwala ona przechować ponad 3TB na powierzchni 1 cm2. To na przykład pół miliona filmików z TikToka czy 3600 płyt CD z muzyką zapisanych na dysku twardym wielkości znaczka pocztowego.
      Pamięci magnetyczne są wykorzystywane od dziesięcioleci. Obecnie używane dyski twarde przechowują dane poprzez namagnesowanie niewielkich regionów składających się z wielu atomów, które współdziałają w podtrzymaniu zapisanych danych. Chemiczne molekuły magnetyczne nie potrzebują pomocy sąsiadów, by zachować zapisane w nich dane. To stwarza okazję do zbudowania z nich układów pamięci o olbrzymiej gęstości zapisu. Jednak problemem jest tutaj fakt, że do przechowania tego zapisu wymagają one bardzo niskich temperatur. Badacze z Manchesteru zaprezentowali molekułę, której można zapewnić odpowiednie warunki za pomocą tak powszechnie dostępnego chłodziwa jak ciekły azot.
      Kluczem do sukcesu jest tutaj unikatowa struktura złożona z atomu dysprozu umieszczonego między dwoma atomami azotu. Te trzy atomu układają się niemal w linii prostej. Taka architektura zwiększa zdolność materiału do generowania i utrzymania pola magnetycznego. O tym wiadomo było nie od dzisiaj. Dopiero teraz jednak udało się to zrealizować w praktyce.
      Zwykle gdy dysproz jest związany jedynie z 2 atomami azotu, powstaje molekuła o zagiętym, nieregularnym kształcie. Uczeni z Manchesteru dodali do całości alken, który łączy się z atomem dysprozu, utrzymując pożądany kształt całości.
      Naukowcy z ANU są twórcami analizy numerycznej i nowego modelu opisującego zachowanie się tego typu molekuł. Na ich podstawie uczeni z Manchesteru będą teraz pracowali nad jeszcze lepszymi magnesami molekularnymi.
      Źródło: Soft magnetic hysteresis in a dysprosium amide–alkene complex up to 100 kelvin, https://www.nature.com/articles/s41586-025-09138-0

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Dyrektor wykonawczy IBM-a Arvind Krishna poinformował, że jego firma przestanie rekrutować ludzi na stanowiska, na których w najbliższych latach mogą być oni zastąpieni przez sztuczną inteligencję. W wywiadzie dla Bloomberga menedżer stwierdził, że rekrutacja na stanowiska biurowe, na przykład w dziale HR, może zostać znacznie spowolniona lub całkowicie wstrzymana. Obecnie na tego typu stanowiskach – gdzie nie ma kontaktu z klientem – IBM zatrudnia 26 000 osób.
      Zdaniem Krishny, w ciągu najbliższych 5 lat sztuczna inteligencja może zastąpić 30% z nich. To oznacza, że w samym tylko IBM-ie maszyny zastąpią 7800 osób. Stąd też pomysł na spowolnienie lub wstrzymanie rekrutacji, dzięki czemu uniknie się zwalniania ludzi.
      Krishna mówi, że takie zadania, jak pisanie listów referencyjnych czy przesuwanie pracowników pomiędzy poszczególnymi wydziałami, prawdopodobnie zostaną całkowicie zautomatyzowane. Inne zaś, takie jak analizy produktywności czy struktury zatrudnienia, ludzie będą wykonywali jeszcze przez kolejną dekadę.
      Błękitny Gigant zatrudnia obecnie około 260 000 osób i wciąż zwiększa zatrudnienie. Potrzebuje pracowników przede wszystkim do rozwoju oprogramowania oraz osób pracujących z klientem. Na początku bieżącego roku firma ogłosiła, że planuje zwolnienia, które w sumie obejmą 5000 osób, ale jednocześnie w I kwartale zatrudniła 7000 osób.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Teleskop Webba (JWST) od kilku tygodni przysyła wspaniałe zdjęcia przestrzeni kosmicznej. JWST może pracować nawet przez 20 lat i w tym czasie będzie badał też egzoplanety. Dzięki olbrzymiej czułości, dostarczy niedostępnych dotychczas informacji o świetle docierającym z ich atmosfer, co pozwoli określenie ich składu, historii i poszukiwanie śladów życia. Jednak, jak się okazuje, teleskop jest tak doskonały, że obecnie stosowane narzędzia mogą niewłaściwe interpretować przesyłane dane.
      Grupa naukowców z MIT opublikowała na łamach Nature Astronomy artykuł, w którym informuje, że obecnie używane przez astronomów narzędzia do interpretacji danych ze światła mogą dawać niewłaściwe wyniki w przypadku JWST. Chodzi konkretnie o modele nieprzezroczystości, narzędzia opisujące, jak światło wchodzi w interakcje z materią w zależności od jej właściwości. Mogą one wymagać znacznych zmian, by dorównać precyzji danym z JWST. Jeśli nie zostaną odpowiednio dostosowane to – jak ostrzegają autorzy badań – informacje dotyczące takich właściwości atmosfer egzoplanet jak temperatura, ciśnienie i skład mogą różnić się od rzeczywistych o cały rząd wielkości.
      Z punktu widzenia nauki istnieje olbrzymia różnica, czy np. woda stanowi 5% czy 25% składu. Obecne modele nie są w stanie tego odróżnić, stwierdza profesor Julien de Wit. Obecnie używany przez nas model interpretujące dane ze spektrum światła nie przystaje precyzją i jakością do danych, jakie napływają z Teleskopu Webba. Musimy rozwiązać ten problem, wtóruje mu student Prajwal Niraula.
      Nieprzezroczystość określa, na ile łatwo foton przechodzi przez badany ośrodek, jak jest absorbowany czy odbijany. Interakcje te zależą też od temperatury i ciśnienia ośrodka. De Wit mówi, że obecnie używany najdoskonalszy model badania nieprzezroczystości bardzo dobrze się sprawdził w przypadku takich instrumentów jak Teleskop Hubble'a. Teraz jednak weszliśmy na kolejny poziom precyzji danych. Wykorzystywany przez nas sposób ich interpretacji nie pozwoli nam wyłapać drobnych subtelności, które mogą decydować np. o tym, czy planeta nadaje się dla życia czy nie.
      Uczeni z MIT po analizie najpowszechniej używanego obecnie modelu nieprzezroczystości stwierdzili, że jego wykorzystanie do danych z Webba spowoduje, iż trafimy na „barierę precyzji”. Model ten nie będzie na tyle dokładny, by stwierdzić, czy temperatura na planecie wynosi 27 czy 327 stopni Celsjusza, a stężenie jakiegoś gazu w atmosferze to 5 czy 25 procent.
      Wit i jego zespół uważają, że aby poprawić obecnie używane modele konieczne będzie przeprowadzenie więcej badań laboratoryjnych, obliczeń teoretycznych oraz poszerzenie współpracy pomiędzy specjalistami z różnych dziedzin, szczególnie astronomami i ekspertami od spektroskopii.
      Możemy wiele zrobić, jeśli będziemy dobrze rozumieli, jak światło wchodzi w interakcje z materią. Dobrze rozumiemy warunki panujące wokół Ziemi. Jednak tam, gdzie mamy do czynienia z innymi typami atmosfery, wszystko się zmienia. A teraz dysponujemy olbrzymią ilością danych o coraz lepszej jakości, więc istnieje ryzyko błędnej interpretacji, wyjaśnia Niraula.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Z Teleskopu Webba na Ziemię zaczęły trafiać pierwsze zdjęcia przestrzeni kosmicznej oraz dane spektroskopowe. Gdy będziemy oglądać fascynujące obrazy warto pamiętać, że pochodzą one z urządzenia, które znajduje się niemal 3000 razy dalej od Ziemi niż Teleskop Hubble'a. Warto więc dowiedzieć się, jak do nas trafiły.
      Znaczna odległość Webba od Ziemi oznacza, że sygnał musi przebyć długą drogę, zanim do nas trafi, a cały system komunikacyjny musi działać naprawdę dobrze, gdyż nie przewiduje się misji serwisowych do Webba. Jeśli więc komunikacja zawiedzie, będziemy mieli w przestrzeni kosmicznej całkowicie bezużyteczny najdoskonalszy teleskop w idealnym stanie.
      Teleskop Kosmiczny Jamesa Webba (JWST) jest pierwszą misją kosmiczną, która wykorzystuje pasmo Ka do przesyłania tak dużej ilości danych. Już na etapie projektowania zdecydowano o wykorzystaniu Ka, części większego pasma K.
      Webb wysyła na Ziemię dane w paśmie o częstotliwości 25,9 Ghz, a prędkość transmisji może dochodzić do 28 Mb/s. Tak duża prędkość jest niezbędna, gdyż JWST może zebrać do 57 GB danych na dobę, chociaż rzeczywista ilość danych będzie zależała od zaplanowanych obserwacji. Dla porównania, Teleskop Hubble'a (HST) zbiera każdej doby nie więcej niż 2 GB danych.
      Pasmo Ka wybrano, gdyż kanałem tym można przesłać więcej danych niż powszechnie wykorzystywanymi w komunikacji kosmicznej pasmami X (7–11 GHz) czy S (2–4 GHz). Dodatkowo przeciwko wykorzystaniu pasma X przemawiał fakt, że antena pracująca w tym zakresie musiałaby być na tyle duża, że teleskop miałby problemy z utrzymaniem wysokiej stabilności, niezbędnej do prowadzenia obserwacji.
      Szybki transfer danych jest niezbędny na potrzeby przesyłania informacji naukowych. Webb korzysta też z dwóch kanałów pasma S. Jeden z nich, o częstotliwości 2.09 GHz to kanał odbiorczy, pracujący z prędkością 16 kb/s. Służy on do wysyłania do teleskopu poleceń dotyczących zaplanowanych obserwacji oraz przyszłych transmisji danych. Za pomocą zaś drugiego kanału, 2.27 GHz, pracującego w tempie 40 kb/s, Webb przysyła na Ziemię informacje dane inżynieryjne, w tym informacje o kondycji poszczególnych podzespołów.
      Łączność pomiędzy Ziemią a teleskopem nie jest utrzymywana przez 24 godziny na dobę. Dlatego też JWST musi przechowywać dane na pokładzie, zanim je nam przyśle. Magazynem danych jest 68-gigabajtowy dysk SSD, którego 3% pojemności zarezerwowano na dane inżynieryjne. Gdy już Webb prześle dane na Ziemię, oczekuje na potwierdzenie, że dotarły i wszystko z nimi w porządku. Dopiero po potwierdzeniu może wykasować dane z dysku, by zrobić miejsce na kolejne informacje. Specjaliści z NASA spodziewają się, że za 10 lat pojemność dysku, z powodu oddziaływania promieniowania kosmicznego, zmniejszy się do około 60 GB.
      Dane z Teleskopu Webba są odbierane na Ziemi przez Deep Space Network. DSN korzysta z trzech kompleksów anten znajdujących się w pobliżu Canberry, Madrytu i Barstow w Kalifornii. Z DNS korzysta wiele innych misji, w tym Parker Solar Probe, TESS czy Voyagery. Dlatego też JWST musi dzielić się z nimi ograniczonym czasem korzystania z anten. Wszystko to wymaga starannego planowania. Czas, w którym dana misja będzie mogła korzystać z anten DSN jest planowany z wyprzedzeniem sięgającym 12-20 tygodni. Wyjątkiem była sytuacja, gdy Teleskop Webba przygotowywał się do pracy, rozkładał poszczególne podzespoły, uruchamiał instrumenty, gdy były one sprawdzane i kalibrowane. Większość z tych czynności wymagała komunikacji w czasie rzeczywistym, wówczas więc Webb miał pierwszeństwo przed innymi misjami.
      Inżynierowie pracujący przy systemie komunikacji przykładali szczególną uwagę do jego niezawodności. Wiedzieli, że jeśli oni popełnią błąd, cała praca kolegów z innych zespołów pójdzie na marne. System komunikacji musi działać idealnie. Dlatego też wybrali znane rozwiązanie i odrzucili co najmniej dwie propozycje wykorzystania eksperymentalnej komunikacji laserowej.
       


      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...