Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Seagate zapowiada 20-terabajtowe HDD na przyszły rok

Recommended Posts

Podczas niedawnego prezentowania wyników finansowych za pierwszy kwartał roku podatkowego 2020 dyrektor wykonawczy Seagate'a Dave Mosley poinformował, kiedy możemy spodziewać się rynkowego debiutu dysków twardych o wyższej pojemności.

Mosley zapowiedział, że 18-terabajtowe HDD trafią na rynek w pierwszej połowie przyszłego roku. Z kolei 20-terabajtowy HDD wykonany w technologii HAMR powinien trafić do sklepów przed końcem przyszłego roku. Warto jednak zauważyć, że dysk o pojemności 20TB będzie wykorzystywał też technologię SMR (Shingled Magnetic Recording), która nie budzi entuzjazmu zwolenników jak największej wydajności. Najprawdopodobniej wspomniane urządzenia zostaną najpierw zaoferowane na rynku przedsiębiorstw.

Obecnie Seagate jest jedynym przedsiębiorstwem, który masowo produkuje 16-terabajtowe dyski, będące punktem odniesienia dla przemysłu. [...] Jesteśmy liderem pod względem gęstości zapisu. To dzięki naszej rewolucyjnej technologii HAMR, która pozwoli nam na przestrzeni kolejnej dekady osiągnąć co najmniej 20-procentowy skumulowany roczny wskaźnik wzrostu gęstości zapisu, mówił Mosley.

Nie wiadomo, ile będą kosztowały nowe dyski. Obecnie 16-terabajtowy HDD można kupić za około 420 USD. Seagate twierdzi, że w roku 2026 będzie w stanie wyprodukować dysk o pojemności 50TB.


« powrót do artykułu

Share this post


Link to post
Share on other sites

dzisiaj niby są coraz szybsze routery do łączenia się z internetem, ale jakoś nie zauważam tak dużej różnicy w stosunku do poprzednich, z jakich korzystałem. Jedno jest prawdą. - raczej indywidualni konsumenci nie będą potrzebowali tak dużej pojemności dysku, o jakiej tu można przeczytać. 

Share this post


Link to post
Share on other sites
7 minut temu, rozan napisał:

raczej indywidualni konsumenci nie będą potrzebowali tak dużej pojemności dysku, o jakiej tu można przeczytać. 

Ale może dysk w  chmurze będzie tańszy. Obecnie g. drive 200 GB / rok kosztuje więcej niż 240 GB SSD. Od lat nie mogę znaleźć ekonomicznego uzasadnienia migracji do chmury.

Share this post


Link to post
Share on other sites

@Jajcenty

Jako backup. Innego uzasadnienia tez nie widzę. Może ograniczone ilości danych aby mieć do nich zawsze dostęp z różnych urządzeń.

A duże dyski będą potrzebne, bo gry i reszta softu strasznie puchną ostatnio...

Share this post


Link to post
Share on other sites

Jak się chce mieć grafikę 4k albo i 8 to i puchną :)

Do tego masa niepotrzebnych ficzerów zaimportowana z masą prawie niepotrzebnych bibliotek etc.

Chmura to zło za wyjątkiem jak dostępu do danych offline, ale można skorzystać z innych rozwiązań (np. prywatna chmura/NAS).

 

 

Share this post


Link to post
Share on other sites

Wiele obecnych gier jest spuchnięta z kilku powodów:

  • marketingowy: gra dużo zajmuje, więc wg odbiorcy musi mieć super grafikę i mnóstwo zawartości,
  • czasowy: trzeba szybko wydać, drugi zespół już pracuje nad kolejną częścią, nie ma czasu na optymalizację,
  • lenistwo: częściowo związany z poprzednimi — gry często zawierają masę treści która w grze w ogóle nie jest używana, wynika to z:
    • importowania całego enginu bez okrawania,
    • pozostałości z fazy projektowania i pozostawienie odrzuconych, bądź niedokończonych z braku czasu pomysłów,
    • jeśli gra jest kontynuacją, to nierzadko jest budowana na plikach poprzedniej części, których zawartość (dialogi, skrypty, modele postaci, tekstury itd.) faktycznie potem w grze nie występuje.

Share this post


Link to post
Share on other sites

A najwięcej i tak zwykle zajmują tekstury i muzyka... Ostatnio niektóre gry korzystają z nich bez kompresji, by odciążyć silnik graficzny, wiadomo jakim kosztem.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Fizycy z Massachusetts Institute of Technology (MIT) odkryli sposób na szybsze przełączanie stanu antyferromagnetyków. Opracowana przez nich technologia zakłada wzbogacenie materiału antyferromagnetycznego o dodatkowe elektrony. Takie materiały posłużą do budowy szybciej działających nośników danych o większej gęstości i lepszej stabilności.
      Dyski twarde przechowują dane wykorzystując impulsy magnetyczne do zmiany spinu elektronów w materiałach ferromagnetycznych. Te różne stany spinów reprezentują 0 i 1. Impulsy magnetyczne potrzebne do przeprowadzenia takiej zmiany wymagają jednak stosunkowo silnego prądu, przez co całość jest energochłonna. Ponadto całkowita zmiana spinu to proces dość powolny, trwający dziesiątki nanosekund.
      Antyferromagnetyki to obiecujące materiały dla przyszłych nośników danych o dużej gęstości. Stany ich spinów można zmieniać znacznie szybciej. Jest to możliwe dzięki silnymi interakcjami pomiędzy spinami, gdyż w antyferromagnetykach mają tendencję do ustawiania się przeciwrównolegle. W ferromagnetykach zaś są równoległe.
      Ponadto antyferromagnetyki nie wykazują magnetyzacji w skali mniejszej niż 10 nm, co czyni je odpornymi na zakłócenia ze strony zewnętrznych pól magnetycznych. To oznacza, że dane zapisane w antyferromagnetyku nie mogą zostać usunięte za pomocą pola magnetycznego. Kolejną zaletą antyferromagnetyków jest fakt, że można z nich robić mniejsze tranzystory niż z krzemu i innych konwencjonalnych materiałów.
      Riccardo Comin i jego koledzy z MIT postanowili sprawdzić, czy będą w stanie manipulować antyferromagnetycznymi właściwościami 100-nanometrowych warstw tlenku samarowo-niklowego (SmNi03) i tlenku neodymowo-niklowego (NdNiO3), wprowadzając do tych materiałów dodatkowe elektrony. W tym celu pozbawili badane materiały części atomów tlenu. Po każdym z usuniętych atomów pozostały dwa elektrony, które rozłożyły się pomiędzy pozostałymi atomami tlenu i atomami niklu.
      Naukowcy monitorowali cały proces za pomocą techniki krystalografii rentgenowskiej, by sprawdzić, czy struktura magnetyczna materiału się zmieniła. Okazało się, że porządek antyferromagnetyczny w badanych materiałach ulega gwałtownemu załamaniu przy wzbogaceniu ich 0,21 elektronami na atom niklu. Dochodzi do gwałtownej zmiany, podobnej do przełączania tranzystora pomiędzy stanami 0 a 1. Zmianę tę można odwrócić dodając atomy tlenu.
      Comin mówi, że antyferromagnetyczne bity można przełączać za pomocą bramek z napięciem elektrycznym. Teraz wraz z zespołem będzie pracował nad uzyskaniem lepszej kontroli nad całym procesem i zoptymalizowaniem go.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W laboratorium IBM-a w Zurichu zaprezentowano rekordowo pojemny napęd taśmowy. Pojedynczy kartridż pozwala na przechowanie aż... 580 terabajtów danych. To aż 29-krotnie więcej niż oferowany obecnie przez IBM-a kartridż o pojemności 20 TB. Błękitny Gigant jest tutaj rynkowym liderem. Najnowszy standard przemysłowy LTO-Ultrium (Linear Tape-Open, version 9) mówi o kartridżach o pojemności 18 TB.
      Mark Lantz, menedżer CloudFPGA odpowiedzialny w IBM Zurich za technologie taśmowe mówi, że w ostatnich latach taśmy magnetyczne przeżywają swój renesans. Ma to związek z jednej strony z wykładniczym wzrostem ilości wytwarzanych danych, które trzeba gdzieś archiwizować oraz z jednoczesnym spowolnieniem przyrostu gęstości zapisu na dyskach twardych. Jak zauważa Lantz, w ciągu ostatnich kilkunastu lat składane roczne tempo wzrostu gęstości zapisu na HDD spadło do poniżej 8%. Jednocześnie świat produkuje coraz więcej danych. Roczny wzrost wytwarzania informacji wynosi aż 61%. Eksperci mówią, że do roku 2025 wytworzymy 175 zetabajtów danych.
      Jako, że gęstość zapisu HDD niemal stanęła w miejscu, dramatycznie wzrosła cena każdego gigabajta dysnku twardego. Już w tej chwili 1 bit HDD jest czterokrotnie droższy niż 1 bit taśmy magnetycznej. Ta wielka nierównowaga pojawiła się w bardzo niekorzystnym momencie, gdy ilość wytwarzanych danych zaczęła gwałtownie rosnąć. Centra bazodanowe mają coraz większy problem. Na szczęście zdecydowana większość danych to informacje, które są rzadko potrzebne. To zaś oznacza, że w ich przypadku szybkość odczytu danych nie jest rzeczą zbyt istotną. Mogą być więc przechowywane na taśmach magnetycznych.
      Taśmy mają wiele zalet w porównaniu z dyskami twardymi. Są bardziej odporne na ataki cyberprzestępców, do działania potrzebują mniej energii, są trwałe i znacznie tańsze w przeliczeniu na gigabajt. Zalety te spowodowały, że – jak ocenia IBM – już 345 000 eksabajtów danych przechowywanych jest właśnie na taśmach.
      Najnowszy napęd taśmowy to wynik 15-letniej współpracy IBM-a i Fujifilm. Od roku 2006 firmy pobiły sześć kolejnych rekordów dotyczących napędów taśmowych. Ostatnie osiągnięcie było możliwe dzięki udoskonaleniu samej taśmy, głowicy odczytującej oraz serwomechanizmu odpowiadającego za precyzję pozycjonowania głowicy. Firma Fujifilm odeszła tutaj od przemysłowego standardu jakim jest ferryt baru i pokryła taśmę mniejszymi cząstkami ferrytu strontu. Inżynierowie IBM-a, mając do dyspozycji nową taśmę, opracowali nową technologię głowicy odczytująco-zapisującej, która współpracuje z tak gładką taśmą.
      O tym jak wielkie postępy zostały dokonane w ciągu kilkunastoletniej współpracy Fujifilm i IBM-a najlepiej świadczą liczby. W roku 2006 obie firmy zaprezentowały taśmę pozwalającą na zapisanie 6,67 miliarda bitów na calu kwadratowym. Najnowsza taśma pozwala na zapis 317 miliardów bitów na cal. Kartridż z roku 2006 miał pojemność 8 TB, obecnie jest to 580 TB. Szerokość ścieżki zapisu wynosiła przed 14 laty 1,5 mikrometra (1500 nanometrów), teraz to zaledwie 56,2 nanometra. Liniowa gęstość zapisu w roku 2006 sięgała 400 000 bitów na cal taśmy. Na najnowszej taśmie na każdym calu można zapisać 702 000 bitów. Zmniejszyła się też – z 6,1 mikrometra do 4,3 mikrometra – grubość taśmy, wzrosła za to jej długość. W pojedynczym kartridżu mieści się obecnie 1255 metrów taśmy, a przed 14 laty było to 890 metrów.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Badacze z USA i Chin stworzyli dysk twardy wykorzystujący białka jedwabiu. Urządzenie może przechowywać do 64 GB danych na cal kwadratowy i jest odporne na zmiany temperatury, wilgotność, promieniowanie gamma i silne pola magnetyczne. Nie może ono konkurować prędkością pracy czy gęstością zapisu z tradycyjnymi dyskami twardymi, jednak dzięki swoim unikatowym właściwościom może znaleźć zastosowanie w elektronice wszczepianej do wnętrza ciała.
      Zespół naukowy prowadzony przez Tigera Tao z Chińskiej Akademii Nauk w Szanghaju, Mengkuna Liu z nowojorskiego Stony Brook University oraz Wei Li z University of Texas stworzył specjalny wariant techniki wykorzystującej skaningowy mikroskop pola bliskiego (SNOM), dzięki któremu możliwe stało się zapisanie informacji na warstwie protein jedwabiu.
      Do produkcji dysków posłużył naturalny jedwab, którego wodny roztwór nałożono cienką warstwą na podłoże z krzemu lub złota. Następnie za pomocą SNOM i lasera na jedwabiu zapisano dane, wykorzystując w tym celu wywołane laserem zmiany topologiczne i/lub zmiany fazy jedwabiu. Metoda pozwala na wielokrotne usuwanie i zapisywanie danych.
      Jak mówi Mengkun Liu, technika taka ma wiele zalet. Cienką warstwę jedwabiu można z łatwością nakładać na różne podłoża, w tym na podłoża miękkie oraz o zagiętych kształtach. Dane zapisane na jedwabiu można odczytywać na dwa różne sposoby. Jeden z nich wykorzystuje topografię zapisanego materiału, traktując wzniesienia jako „1”, a brak wzniesień jako „0”. Druga, bardziej innowacyjne metoda, to wykorzystanie lasera do odczytu. Jest to jednak zmodyfikowana technika laserowa. Dzięki zmianie mocy lasera można bowiem uzyskać całą skalę szarości z danego punktu danych, co oznacza,że można w nim zapisać więcej informacji niż binarne „0” i „1”.
      Nie mniej ważną cechą jest fakt, że jedwab, jako materiał organiczny, dobrze łączy się z wieloma systemami biologicznymi, w tym z biomarkerami we krwi. Zatem informacje z tych biomarkerów mogą być zakodowane i przechowywane w bazującym na jedwabiu dysku twardym. Liu już zapowiada, że w najbliższej przyszłości rozpoczną się prace nad zaimplementowaniem nowego dysku w żywym organizmie.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Seagate poinformowało o wyprodukowaniu i udanym przetestowaniu pierwszego w historii w pełni funkcjonalnego 3,5-calowego dysku twardego o pojemności 16 terabajtów z technologią HAMR (heat-assisted magnetic recording). Urządzenie ma trafić do sprzedaży już w przyszłym roku. Seagate wierzy, że technologia HAMR pozwoli na wyprodukowanie w nadchodzącym dziesięcioleciu dysków twardych po pojemności przekraczającej 20 terabajtów.
      Dysk z serii Exos jest obecnie wykorzystywany w testach aplikacji biznesowych. To urządzenie typu plug-and-play, a jego producent zapewnia, że dyski HAMR można bez najmniejszych przeszkód stosować w obecnie istniejącej infrastrukturze centrów bazodanowych i systemów komputerowych. Klient nie musi zmieniać architektury czy kupować innego, poza dyskiem, sprzętu.
      Obecnie na rynku nie ma dostępnego żadnego dysku HAMR. Technologia HAMR, nad którą Seagate pracuje od kilku lat, polega na zastosowaniu diod laserowych na każdej głowicy zapisująco-odczytującej. Laser podgrzewa nośnik w miejscu, gdzie mają być zapisane dane. Dzięki temu, łatwiej je zapisać, a stygnięcie nośnika stabilizuje dane. Dzięki takiemu rozwiązaniu informacje można znacznie gęściej upakować niż w tradycyjnych dyskach twardych.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...