Jump to content
Forum Kopalni Wiedzy

Search the Community

Showing results for tags 'HDD'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Found 33 results

  1. Komisja Europejska zezwoliła firmie Western Digital na przejęcie Hitachi Global Storage Technologies (HGST). Postawiono jednak przy tym warunek, że WD musi sprzedać fabrykę 3,5-calowych dysków. Komisja stwierdziła, że po zakupie HGST jedynym konkurentem Western Digital będzie Seagate, który odkupił od Samsunga wydział zajmujący się produkcją HDD. To, zdaniem KE, jest niekorzystne dla konsumenta, gdyż może prowadzić do wzrostu cen. Komisja postawiła więc warunek, że WD musi pozbyć się części swoich mocy produkcyjnych, sprzedając fabrykę. Ceny dysków twardych i tak rosną, w związku z powodziami, które nawiedziły Tajlandię. Obecnie największym na świecie producentem dysków twardych jest Seagate. WD zajmuje drugie miejsce, a na trzecim plasuje się Toshiba.
  2. Sól kuchenna pozwoliła inżynierom z Singapuru opracować metodę gęstszego upakowania danych w dyskach twardych. Obecnie dostępne HDD mogą przechowywać do 625 gigabitów na calu kwadratowym powierzchni. Singapurska technologia pozwoli na zwiększenie upakowania od 1,9 do 3,3 terabita. Innymi słowy, w najbliższej przyszłości w sklepach mogą pojawić się dyski o nawet pięciokrotnie większej pojemności niż obecnie. Azjatyccy eksperci dodali chlorek sodu do roztworu używanego w procesie litograficznym. To pozwoliło na tworzenie bardzo uporządkowanych nanostruktur o średnicy 4,5 nanometra każda. We współczesnych dyskach twardych to ziarno ma średnicę 7-8 nanometrów. Wziąwszy pod uwagę fakt, że pojedynczy bit przechowywany jest w grupie „ziaren" możliwe było nawet 5-krotne zwiększenie gęstości zapisu. Niezwykle ważną cechę nowej technologii jest to, że współpracuje ona ze współcześnie wykorzystywanym sprzętem. Producenci nie będą więc musieli inwestować w niezwykle drogie urządzenia do litografii. Wystarczy niewielka zmiana składu używanego płynu.
  3. W ciągu najbliższych kilku tygodni możemy doświadczyć wzrostu cen dysków twardych. Wszystkiemu winne są powodzie, które nawiedziły Tajlandię. Wpłynęły one negatywnie na produkcję firm Western Digital, Seagate, Hitachi i Toshiba. Fabryki doświadczyły przerw w dostawach prądu, a woda poważnie zakłóciła cały transport. Co gorsza w Tajlandii swoje fabryki mają też producenci podzespołów dla HDD, tacy jak Nidec, Min Aik Technology czy Cal-Comp. W związku z powstałą sytuacją sprzedawcy dysków na gwałt uzupełniają zapasy, by uniknąć możliwych niedoborów w IV kwartale bieżącego roku. Powódź zalała cały park technologiczny Rojana, w którym umiejscowionych jest wiele firm działających na rynku HDD. Wszystkie zalane fabryki zostały zamknięte, a te, których powódź nie dotknęła bezpośrednio mają problemy z dostawami prądu i transportem. Specjaliści mówią, że na powrót sytuacji do normy będziemy musieli poczekać co najmniej sześć tygodni.
  4. Firma analityczna Gartner twierdzi, że w przyszłym roku dyski SSD trafią do mainstreamu sprzedaży. Ma się tak stać dzięki spadkowi cen tych urządzeń. Gartner prognozuje, że w 2012 cena 1 gigabajta SSD wyniesie 1 dolara. To oznacza, że 64-gigabajtowe urządzenie kupimy już za 64 USD. Obecnie w USA 1 gigabajt SSD kosztuje około 2 dolarów. Do spadku cen mają przyczynić się taniejące ukłay NAND. Gartner prognozuje, że w bieżącym roku ich ceny spadną o 30%, a przyszłym zmniejszą się o kolejne 36%. Znaczne obniżenie ceny oraz lepsza wydajność i niezawodność spowodują, że SSD staną się poważnymi konkurentami dla HDD. Oczywiście 1 dolar za 1 gigabajt to wciąż sporo, warto jednak pamiętać, że zaledwie przed 8 laty takie ceny obowiązywały też na rynku HDD, ale musieliśmy płacić tyle za dyski wyposażone w mniej wydajny interfejs PATA.
  5. Seagate to pierwsza firma, której udało się upakować 1 terabajt danych na pojedynczym talerzu dysku twardego. Koncern pokazał właśnie 3,5-calowy HDD z serii Barracuda o pojemności 3TB, w którym zastosowano jedynie 3 talerze. Dyski z nowymi talerzami najpierw będą sprzedawane w ramach serii GoFlex. Będą się charakteryzowały pojemnością do 3TB i gęstością zapisu rzędu 625 gigabitów na cal kwadratowy. Pierwsze takie urządzenia trafią do sprzedaży w połowie bieżącego roku. Seagate nie zdradza przewidywanej ceny nowych HDD.
  6. Wkrótce na rynku konsumenckim może pozostać tylko trzech producentów dysków twardych. Seagate ogłosił właśnie, że ma zamiar kupić od Samsunga wydział zajmujący się produkcją HDD. Koreańska firma od pewnego już czasu poszukiwała kupca. Seagate i Samsung informują, że zawarły ostateczne porozumienie, zgodnie z którym znacząco rozszerzą i zacieśnią strategiczną współpracę - czytamy w oświadczeniu prasowym Seagate'a. Amerykańska firma będzie dostarczała Koreańczykom dyski do ich notebooków, a obie firmy będą wspólnie pracowały nad ofertą dla przedsiębiorstw. Seagate zapłaci Samsungowi 1,75 miliarda USD, a kwotę tę Samsung będzie mógł przeznaczyć np. na dalszą ekspansję na rynku smartfonów. Częścią umowy jest wymiana licencji na własność intelektualną obu firm. Ponadto Samsung będzie prawdopodobnie dostarczał Seagate'owi kości NAND dla hybrydowych HDD oraz SSD. Ponadto Koreańczycy otrzymają znaczącą liczbę akcji Seagate'a, która będzie prawdopodobnie na tyle duża, że Samsung będzie miał jednego przedstawiciela w zarządzie Seagate'a. Umowę pomiędzy obiema firmami musi zaakceptować amerykańska Federalna Komisja Handlu oraz jej koreański odpowiednik. To już drugie wielkie przejęcie na rynku HDD. W marcu Western Digital kupił za od Hitachi czwartego co do wielkości producenta dysków twardych - Hitachi Global Storage Technologies. Obecnie największym producentem HDD jest Seagate, na drugim miejscu jest WD, a po zrealizowaniu umowy Seagate-Samsung trzecim co do wielkości producentem stanie się Toshiba.
  7. SSD powoli zdobywają popularność i odbierają rynek HDD. Wciąż są od nich sporo droższe, jednak szybszy transfer danych i większa niezawodność przekonują do tych urządzeń coraz więcej osób. Okazuje się jednak, że SSD mają poważną wadę, która jest szczególnie ważna dla przedsiębiorstw czy agend rządowych. Badania przeprowadzone przez naukowców z Laboratorium Systemów Nieulotnych (Non-Volatile Systems Laboratory - NVSL) z Uniwersytetu Kalifornijskiego w San Diego dowodzą, że z SSD znacznie trudniej jest usunąć dane niż z HDD. Ma to olbrzymie znaczenie, gdy chcemy pozbyć się starego SSD. Nasze badania dowodzą, że naiwne zastosowanie w SSD technik przeznaczonych do skutecznego usuwania danych z HDD, takich jak nadpisywanie czy używanie wbudowanych komend bezpiecznego kasowania, jest nieskuteczne i czasem może powodować, iż dane pozostaną nietknięte. Co więcej, niszczenie informacji zawartych w pojedynczym pliku jest znacznie trudniejsze na SSD niż na tradycyjnych dyskach twardych - czytamy w raporcie z badań. Podczas jednego z eksperymentów wobec plików zastosowano 14 różnych metod usuwania danych. Wykorzystano m.in. algorytmy amerykańskich sił zbrojnych (US DoD 5220.22-M, US Air Force 5020, US Army AR380-19), rosyjski GOST P50739-19, brytyjski HMG ISS, Schneier 7 Pass i inne. Żaden z nich nie usunął pliku całkowicie, pozostawiając na SSD od 10 do 1000 megabajtów informacji. Uczeni z NVSL pracują teraz nad technikami, które umożliwią dokładne kasowanie danych z SSD. Ostrzegają, że dopóki technologie takie nie zostaną opracowane, właściciele SSD powinni zachowywać szczególną ostrożność podczas pozbywania się dysków wykorzystywanych do przechowywania istotnych danych.
  8. Hitachi GST jest producentem najcieńszego w historii 500-gigabajtowego dysku twardego. Urządzenie Travelstar Z5K500 ma grubość zaledwie 7 milimetrów. Standardowy 2,5-calowy dysk do laptopów jest o 2,5 milimetra grubszy. HDD pracuje z prędkością 5400 rpm i zostało wyposażone w interfejs SATA. Wyposażono je w mechanizm automatycznego szyfrowania danych, a w ramach rodziny Travelstar Z5K500 będzie można kupić też dyski z serii EA (enhaced availability), przeznaczone do tych zastosowań, w których wymagana jest całodobowa praca dysku. Travelstar Z5K500 trafi na rynek w pierwszym kwartale przyszłego roku.
  9. Western Digital dostarcza na rynek najbardziej pojemny wewnętrzny dysk twardy z interfejsem SATA. Urządzenie z rodziny Caviar Green jest w stanie przechowywać 3 terabajty danych. Korzysta ono z czterech talerzy o pojemności 750 GB każdy. Dzięki zastosowaniu technologii Host Bus Adapter zgodnej z Advanced Host Controller Interface użytkownik dysku ma gwarancję, że jego komputer będzie bez problemu współpracował z nowym urządzeniem. Rozwiązanie takie pozwala bowiem na pokonanie bariery 2,19 TB. Starsze systemy operacyjne, jak Windows XP, korzystają ze schematu tablicy partycji MBR i nie obsługują dysków o pojemności większej niż 2,19 terabajta. Ten sam problem dotyczy 32-bitowych systemów Windows Vista i Windows 7, które obsługują rozruch systemu tylko z partycji typu MBR, co oznacza, że HDD o wyższej pojemności nie mogą być używane w roli dysku rozruchowego. Oferowane przez WD rozwiązania pozwalają na obejście tego problemu. Trzyterabajtowy WD Caviar Green jest już sprzedawany w USA w średniej cenie 239 dolarów.
  10. Zaledwie przed trzema miesiącami informowaliśmy o wysuniętej przez ekspertów propozycji połączenia dwóch metod zapisu - TAR i BPR - dzięki którym gęstość upakowania danych na dysku twardym mogłaby wynieść od 1 do 10 terabitów na cal kwadratowy. Tymczasem specjaliści z Toshiby nie próżnowali i ogłosili właśnie, że udało im się osiągnąć gęstość zapisu rzędu 2,5 Tb/in2. To pięciokrotnie więcej niż w obecnie sprzedawanych HDD. Szczegóły ich prac mają dopiero zostać ujawnione, jednak już teraz wiadomo, że wykorzystana została technologia zapisu z wzorcem bitowym (BPR - bit-patterned recording). BPR wykorzystuje szczególny sposób ułożenia materiału magnetycznego na talerzu dysku. Nie jest on rozłożony równomiernie, ale tworzy niewielkie "wyspy", z których każda reprezentuje bit. Inżynierom Toshiby jako pierwszym udało się uporządkować "wyspy" w rzędy. Ich precyzyjne ułożenie jest niezwykle ważne, gdyż "wyspy" i granice pomiędzy nimi działają jak znaczniki miejsc przechowywania danych. W sytuacji, gdy "wyspy" nie są uporządkowane, dotarcie do aktualnie potrzebnych informacji staje się niemożliwe. Japończycy skonstruowali też odpowiednią głowicę i mechanizm pozwalający na precyzyjne nią sterowanie. Toshiba ma nadzieję, że pierwsze dyski z technologią BPR trafią do sklepów w 2013 roku.
  11. W najbliższym czasie będziemy świadkami największej od 30 lat zmiany w metodach formatowania dysków twardych. Pozwoli to na udoskonalenie technologii, jednak użytkownicy starszych systemów operacyjnych mogą mieć w związku z tym kłopoty. Dyski twarde są obecnie formatowane w bloki o wielkości 512 bajtów. Taki format został przejęty z dyskietek i spopularyzowany przez IBM-a. Sprawdzał się on dobrze do czasu, gdy HDD miały stosunkowo niewielkie pojemności. Jednak dzielenie przestrzeni dyskowej na tak małe bloki oznacza spore straty w pojemności urządzenia. Każdy taki bloczek zawiera znacznik informujący o jego początku oraz przestrzeń zarezerwowaną na korekcję błędów. Ponadto pomiędzy poszczególnymi bloczkami należy zostawić nieco przestrzeni. W dużych dyskach twardych przy takim formatowaniu sporo miejsca jest przeznaczanych na potrzeby samego HDD lub w ogóle marnowane. Dlatego też postanowiono, że od początku 2011 roku dyski będą formatowane w 4-kilobajtowe sektory. Pozwoli to kilkukrotnie zmniejszyć ilość marnowanego miejsca, a jednocześnie zapisać w sektorze dwa razy więcej informacji potrzebnych do korekcji błędów. Dzięki takim zabiegom na dysku z 4-kilobajtowymi sektorami użytkownik będzie mógł zapisać od 7 do 11 procent więcej danych. Tutaj pojawia się problem dla posiadaczy starszych wersji systemów operacyjnych, takich jak np. Windows XP. Pojawiły się one bowiem jeszcze zanim zdecydowano o nowym sposobie formatowania. Dlatego też nowe dyski, z 4-kilobajtowymi sektorami, gdy będą używane ze starszymi OS-ami, wykorzystają wbudowane mechanizmy, emulujące działanie dysku z 512-bajtowymi sektorami. Na codzień emulacja ta powinna przebiegać niezauważenie, jednak w pewnych okolicznościach niekorzystnie odbije się to na wydajności HDD, który może pracować nawet o 10% wolniej. Problem z nowymi dyskami nie będzie dotyczył użytkowników Windows 7, Windows Vista, OSX Tiger, Leopard i Snow Leopard oraz Linuksa z jądrem opublikowanym po wrześniu 2009 roku.
  12. Hitachi informuje o osiągnięciu rekordowo dużej gęstości upakowania danych na dysku twardym. Japończykom udało się zapisać 2,5 terabita na calu kwadratowym. To pięciokrotnie więcej, niż w obecnie sprzedawanych dyskach twardych. Tak gęste upakowanie danych możliwe było dzięki technologii wspomaganego ciepłem zapisu magnetycznego. O pracach nad nią, które prowadzi Seagate, informowaliśmy już przed rokiem. Japończycy użyli podobnej techniki co Amerykanie. Wyposażyli swoją głowicę w źródło światła, które podgrzewa cząstki materiału magnetycznego podczas gdy głowica zapisuje dane. Gdy cząstki ostygną, stają się stabilne. Dzięki temu nie ma niebezpieczeństwa, że przy bardzo gęstym ich upakowaniu, będą traciły swój stan i przybierały przypadkowe położenia, co skutkowałoby utratą danych. W rozwiązaniu Hitachi emitowana wiązka światła ma średnicę nie większą niż 20 nanometrów. To pozwala na stabilne zapisywanie danych w komórkach o wymiarach 28x9 nanometrów, czyli umożliwia osiągnięcie gęstości rzędu 2,5 terabita na cal kwadratowy. Opracowywanie nowych technologii zapisu danych na HDD to być albo nie być przemysłu pamięci masowych. Fizyczne możliwości zapisu przy obecnie wykorzystywanych technologiach natrafią na nieprzekraczalną granicę przy gęstości około 1 terabita na cal kwadratowy. Rosnące zapotrzebowanie na pamięci masowe oraz silna rynkowa presja na obniżanie ceny za gigabajt przestrzeni wymuszają prowadzenie intensywnych prac badawczo-rozwojowych.
  13. Niewykluczone, że jeszcze w bieżącym zadebiutują dyski twarde o pojemności 3 terabajtów. Tak przynajmniej uważa serwis Fudzilla, który powołuje się przy tym na plany firmy TDK. Ze zdobytych przez Fudzillę informacji wynika, że w październiku 2010 TDK ma zamiar pokazać 3,5-calowy HDD wykorzystujący cztery talerze o pojemności 640 gigabajtów każdy. W tym samym miesiącu miałby zadebiutować podobny dysk z pięcioma talerzami. Oznaczałoby to, że już wkrótce będzie można kupić HDD o pojemności od 2,5 do 3 TB. Na razie nie wiadomo, kiedy takie urządzenia trafią do sklepów, ani ile mogłyby kosztować.
  14. W ofercie firmy OCZ Technolgy znalazł się 3,5-calowy dysk SSD. Urządzenie może przechować terabajt danych. Dotychczas dyski SSD były produkowane przeważnie w formatach 1,8 i 2,5 cala. Powstawały więc przede wszystkim z myślą o zastosowaniu ich w notebookach i netbookach. OCZ wyprodukowało typowy dysk dla pecetów, a dzięki większym wymiarom możliwe było zwiększenie jego pojemności do takiej, która dorównuje standardowym HDD. Urządzenie Colossus 3,5 Solid State Drive odczytuje dane z prędkością 260 megabajtów na sekundę. Prędkość zapisu informacji jest identyczna. Jest też w stanie przeprowadzić 14 000 operacji wejścia/wyjścia w ciągu sekundy. Produkty z linii Colossus objęte są 3-letnią gwarancją, a ich średni czas bezawaryjnej pracy wynosi 1,5 miliona godzin.
  15. Były wiceprezes ds. badawczych w Seagate Technology, profesor Mark Kryder z Carnegie Mellon Univeristy, założyciel Data Storage System Center oraz jego student Chang Soo Kim przeprowadzili studium nt. przyszłości technologii przechowywania danych. W jego ramach przebadali 13 nieulotnych technologii przechowywania informacji, które są postrzegane jako możliwi następcy dysków twardych (HDD). Obaj specjaliści przeanalizowali rynkowe szanse badanych technologii, prawdopodobieństwo z jakim mogą zastąpić HDD oraz przyszłą cenę terabajta pojemności do roku 2020. Najważniejszą konkluzją ich prac jest stwierdzenie, iż jest bardzo mało prawdopodobne, by jakiekolwiek urządzenia wykorzystujące pamięci nieulotne były w stanie w najbliższym dziesięcioleciu konkurować cenowo z HDD. Zdaniem naukowców "mapa drogowa" rozwoju technologii litograficznych (ITRS - International Technology Roadmap for Semiconductors) pokazuje, że w przyszłej dekadzie nie rozwiną się one na tyle, by zapewnić odpowiednio wysoką gęstość zapisu, co pozwoliłoby na obniżenie ceny technologii alternatywnych tak, by stały się one tańsze od HDD. Największe szanse na konkurowanie z obecnymi dyskami mają technologię pozwalające na zapisanie wielu bitów w pojedynczej komórce oraz takie, które korzystają z pamięci zmiennofazowych (PCRAM) i STT-RAM. W podsumowaniu swojej analizy, naukowcy stwierdzają: Przyjmując, że technologia HDD będzie rozwijała się w takim tempie, jak w przeszłości, w roku 2020 dwutalerzowy 2,5-calowy dysk twardy będzie w stanie przechowywać ponad 40 terabajtów danych, a jego cena wyniesie około 40 dolarów. Na długo przed rokiem 2020 technologia pamięci flash osiągnie granicę, poza którą nie będzie można jej skalować. Istnieje obecnie duże zainteresowanie technologiami pamięci nieulotnych, które zastąpią flash i w przyszłości być może i HDD. W dokumencie tym porównaliśmy trzynaście z nich. Uznając za najważniejszy czynnik gęstość zapisu oraz biorąc pod uwagę wydajność, najbardziej obiecujące wydają się technologie typu racetrack. Jednak zależą one od synchronicznego przemieszczania ścian domen w rejestrach, co już w przeszłości okazało się niepraktyczne i nadal jest dalekie od wdrożenia. Tym bardziej, że nad technologią tą nie pracuje odpowiednia liczba badaczy, którzy mogliby rozwiązać trapiące ją problemy. Obiecująco duże gęstości zapisu można uzyskać w pamięciach korzystających z próbników, tym bardziej, że produkcja ich głowic nie jest mocno ograniczana przez rozwój technologii litograficznych. Z drugiej jednak strony, ich wydajność jest niższa niż wydajność innych technologii i, podobnie jak w pamięciach racetrack, są one dalekie od praktycznego zastosowania. Również nad nimi pracuje mało specjalistów. Pamięci holograficzne mogą potencjalnie mieć wysoką gęstość przy niskich kosztach, jednak jak dotąd sprawdzają się tylko w zastosowaniach polegających na jednorazowym zapisie nośnika, a to zupełnie inny rynek. Układy MRAM i FRAM należą do najdroższych, a ich koszt jest podobny do kości DRAM, dlatego też nie zastąpią układów flash czy dysków twardych. Pamięci polimerowe, molekularne i SEM (Single Electron Memory) charakteryzują się niską gęstością zapisu i krótkimi czasami przechowywania danych, co czyni je nieprzydatnymi w rozważanych zastosowaniach. Z kolei kości typu NRAM wydają się być dobrymi kandydatami, jednak ich prognozowana gęstość, a co za tym idzie i koszt, nie są wystarczająco konkurencyjne. Produkty takie jak RRAM, CBRAM, STTRAM i PCRAM mają małe komórki i potencjalnie nadają się do przechowywania wielu bitów w pojedynczej komórce, dzięki czemu mogą w przyszłości konkurować z dyskami twardymi Wśród nich PCRAM są najbardziej dojrzałe i już trafiły na rynek, a STTRAM wydają się oferować najlepszą wydajność.
  16. MySpace zrezygnowało z tradycyjnych HDD na rzecz dysków SSD. Serwis wykorzystał karty PCI Express firmy Fusion-io z zamontowanymi kośćmi flash, którymi zastąpił wszystkie dyski. Dzięki temu firma zaoszczędziła sporo miejsca w swoich farmach serwerowych. Każdy z serwerów formatu 2U, w których umieszczano 10-12 napędów HDD został zastąpiony jednym serwerem 1U. Serwis będzie oszczędzał również na energii elektrycznej. Koszty napędzania i chłodzenia nowego systemu pamięci masowych są stukrotnie mniejsze niż systemu złożonego z HDD. MySpace wymieniło również serwery korzystające z pamięci RAM na maszyny używające NAND. Karty z serii ioDrive Duo pracują z prędkością 200 000 operacji wejścia/wyjścia na sekundę, a transfer danych obywa się z prędkością 1,5 GB/s. Urządzenia skalują się, dzięki czemu cztery ioDrive umieszczone w jednym serwerze zapewniają transfer rzędu 6 GB/s i ponad 500 000 IOPS. W ofercie Fusion-io znajdują się obecnie karty o pojemności 160, 320 i 640 gigabajtów. Jeszcze w bieżącym roku do sprzedaży ma trafić 1,28-terabajtowe urządzenie.
  17. Microsoft Research z Cambridge przygotował, na zlecenie Association for Computing Machinery, raport na temat rynkowych trendów instalowania dysków SSD w serwerach. Wynika z niego, że stosowanie tego typu rozwiązań jest w chwili obecnej zupełnie nieopłacalne. W swojej analizie eksperci skupili się na szczegółowym zbadaniu sposobu pracy dysków SSD tam, gdzie już zostały zastosowane. Przeanalizowali instalacje w których SSD całkowicie zastąpiły HDD, jak też i takie, gdzie SSD są wykorzystywane jako pośrednik pomiędzy HDD a pamięcią RAM. Z ich badań wynika, że zastosowanie SSD jest nieopłacalne ze względu na wysoką cenę urządzeń i ich niską pojemność. Powoduje to, że cena gigabajta jest znacznie wyższa niż w przypadku HDD. Oszczędności energii czy większa szybkość pracy uzyskiwane dzięki SSD są całkowicie pochłaniane przez wyższy koszt zakupu dysków. Zdaniem Microsoftu, pojemność SSD na każdego dolara wydanego na zakup dysku musi wzrosnąć, w zależności od zastosowania, od 3 do 3000 razy, by urządzenia te mogły wyprzeć tradycyjne dyski twarde w zastosowaniach serwerowych. Jedynym obszarem, w którym sprawdzają się dyski SSD jest, według Microsoftu, pełnienie roli pamięci podręcznej i pośrednika pomiędzy HDD a RAM. Jednak i tutaj korzyści występują dość rzadko, gdyż dzieje się tak w przypadku około 10-20% zastosowań.
  18. Analityk Arun Taneja z firmy Taneja Group ocenia, że rynek dysków SSD staje się rynkiem masowym. Po latach niszowego rozwoju, znaleźliśmy się w punkcie, w którym na masową skalę zaczynają pojawiać się dobrze pracujące, tanie SSD... Każda firma, działająca na rynku pamięci masowych prowadzi prace nad tą technologią - dodaje. Tylko w marcu swoje produkty SSD pokazały Sun, Texas Memory Systems, Dell, Pillar Data Systems, Compellent, Fusion-io i EMC. Firma STEC, wytwórca kości flash wykorzystywanych przez wielu innych producentów, informuje, że w 2008 roku przychody ze sprzedaży produktów z linii ZeuslOPS SSD sięgnęły kwoty 53 milionów dolarów. To trzykrotnie więcej niż w całym roku 2007. Co więcej, przedsiębiorstwo spodziewa się, że już w pierwszej połowie bieżącego roku sprzeda ZeuslOPS SSD za większą kwotę niż wspomniane 53 miliony. Co prawda gigabajt pamięci flash jest około 20-krotnie droższy niż gigabajt pojemności wydajnego HDD. Jednak jej zalety - wysoka wydajność oraz energooszczędność - powodują, że dyski SSD stają się coraz bardziej popularne. Są coraz chętniej kupowane przez właścicieli centrów bazodanowych, którzy oszczędzają dzięki nim energię oraz mogą lepiej dostosować urządzenia do swoich potrzeb. W centrach bazodanowych często bowiem znajduje się więcej dysków HDD niż jest potrzebne dla zaspokojenia potrzeb przechowywania danych. Dzięki zwiększaniu ich liczby można skrócić czas dostępu do danych. To samo można obecnie uzyskać za pomocą mniejszej liczby SSD. Dzięki oszczędności energii i szybszej pracy, która powoduje, że nie trzeba kupować nadmiarowych urządzeń, zakup SSD staje się opłacalny. Głównym problemem pozostaje wciąż brak kontrolerów pozwalających zintegrować dyski SSD z już istniejącymi HDD. Obecnie w praktyce administratorzy centrów bazodanowych muszą zastępować jedne dyski drugimi. Na rynku konsumenckim SSD są ciągle o 10 do 15 razy droższe od HDD o analogicznej pojemności.
  19. Na rynku pamięci masowych trwa ostra konkurencja, w której ścierają się nie tylko poszczególni producenci, ale także różne technologie. Jednak wciąż najpopularniejszą metodą przechowywania danych jest wykorzystanie tradycyjnego dysku twardego (HDD). W urządzeniach takich znajdziemy materiały magnetyczne, które umożliwiają zapis informacji. Problem w tym, że prawdopodobnie w ciągu najbliższych pięciu lat dojdziemy do fizycznego kresu upakowania danych w tych materiałach. Nad producentami HDD wisi więc groźba przegrania walki o rynek z firmami oferującymi inne rozwiązania. Seagate zaprezentowało właśnie nową technologię, dzięki której jeszcze przez wiele lat będziemy korzystali z obecnie stosowanych materiałów. Mowa tutaj o wspomaganym ciepłem zapisie magnetycznym. Pozwala on na 50-krotne zwiększenie limitu upakowania danych. Zapis danych na dysku twardym polega na odwracaniu poszczególnych cząstek materiału magnetycznego. W zależności od położenia cząstki reprezentują 1 lub 0. Problem w tym, że zwiększanie gęstości zapisu oznacza zmniejszanie cząstek. W pewnym momencie staną się one niestabilne i istnieje niebezpieczeństwo, że ich stan będzie się przypadkowo zmieniał. Zastosowanie bardziej stabilnych materiałów nie wchodzi w grę, gdyż obecnie używane głowice w dyskach nie są w stanie z nimi współpracować. Seagate opracowało głowicę, w której zintegrowano rodzaj lasorowej "grzałki". Nowa głowica zmienia nie tylko orientację cząstki, ale także wysyła jej krótki impuls cieplny. Gdy cząstka ostygnie, przechowywana w niej informacja zostaje "zamrożona", przez co nie istnieje niebezpieczeństwo przypadkowej zmiany wartości. Największym problemem tej techniki jest skupienie światła lasera tak, by trafił on w konkretną cząstkę. Te mają mniej niż 100 nanometrów średnicy, a takiej precyzji nie osiągnie się stosując współczesne soczewki. Dlatego też użyto specjalnych anten optycznych. Eksperci Seagate'a udowodnili, że za pomocą nowej technologii są już w stanie zapisać 250 gigabitów danych na calu kwadratowym. Podobną gęstość zapisu znajdziemy we współczesnych HDD, a Hitachi zaprezentowało technologię pozwalającą na zapisanie 610 Gb na calu kwadratowym. Musimy jednak pamiętać, że to dopiero początek badań Seagate'a. Co ważne, nowy dysk jest niemal w całości zbudowany z takich samych materiałów, jak współczesne HDD. Korzysta z innego materiału magnetycznego, ale można go używać w już wykorzystywanych procesach technologicznych, zatem nowe dyski nie będą wymagały wielu inwestycji w linie produkcyjne.
  20. Jednym z powszechnych przekonań dotyczących bezpieczeństwa danych jest liczący sobie wiele lat pogląd, iż do skutecznego usunięcia informacji na dysku twardym konieczne jest ich wielokrotne nadpisanie. Ekspert sądowy Craig Wright twierdzi, że udało mu się obalić to przekonanie. Wraz z grupą specjalistów sprawdził, jaka jest szansa na odzyskanie danych po ich jednokrotnym celowym nadpisaniu za pomocą zer. Podczas eksperymentów wykorzystano zarówno starsze 1-gigabajtowe dyski, jak i współczesne HDD oraz mikroskop sił magnetycznych, którym po nadpisaniu badano powierzchnię dysków. Eksperci dowiedli, że jeśli jednokrotnie nadpiszemy dysk zerami, to praktycznie nie ma szans, by odczytać dane. Z ich badań wynika, że mamy 56-procentową szansę na odzyskanie danych z pojedynczego bitu, którego lokalizację dokładnie znamy. By odczytać bajt musimy ośmiokrotnie bardzo precyzyjnie wypozycjonować głowicę zapisująco-odczytującą HDD. Szansa, że nam się to uda wynosi 0,97%. Odzyskanie czegokolwiek poza pojedynczym bajtem jest jeszcze mniej prawdopodobne. Tymczasem firmy oferujące oprogramowanie do usuwania danych z dysku, proponują software, który nadpisuje HDD aż 35-krotnie. Zdaniem Wrighta to tylko i wyłącznie strata czasu. Wielokrotne nadpisywanie danych było standardem przed laty przy zabezpieczaniu dyskietek. Niezwykle ważne jednak jest, by, jeśli chcemy na trwałe wyczyścić dysk twardy, nadpisać go całego, sektor po sektorze, a nie tylko te fragmenty, na których znajdują się pliki, które chcemy usunąć. Podczas pracy systemy operacyjne tworzą bowiem wiele różnych kopii tego samego pliku i przechowują je niewidoczne w różnych miejscach.
  21. Western Digital jest autorem pierwszego 3,5-calowego dysku twardego o pojemności 2 terabajtów. Urządzenie korzysta z czterech 500-gigabajtowych talerzy oraz 32 megabajtów pamięci cache. W najnowszym HDD zastosowano wiele technologii, które mają zwiększyć stabilność pracy i wydajność dysku, a jednocześnie zmniejszyć generowany hałas. Warto wśród nich wymienić StableTrac, która tłumi wibracje talerzy, IntelliPower odpowiedzialną za dopasowanie prędkości obrotowej oraz szybkości transferu i operacji cache'owania do poziomu zużycia energii. Z kolei IntelliSeek oblicza optymalny czas przesuwania głowic, redukuje hałas, wibracje i zużycie energii. Nowy dysk korzysta z interfejsu SATA II. Średnia głośność jego pracy waha się od 25 do 29 dBA. Wytrzymałość na przeciążenia do 300 G w stanie spoczynku i 65 G podczas pracy. WD Caviar Green 2 TB trafi do sklepów pod koniec stycznia. Jego sugerowana cena detaliczna wyniesie 880 złotych.
  22. Eksperci z drezdeńskiego Forschungszentrum Rossendorf, Universidad Autónoma w Barcelonie we współpracy z naukowcami ze Szwecji, Szwajcarii i USA stworzyli niezwykle małe domeny magnetyczne za pomocą silnie skoncentrowanych strumieni jonów. Domeny magnetyczne są wykorzystywane m.in. w dyskach twardych. Są one rodzajem najmniejszej "szuflady" do przechowywania danych. Ich wielkość ma olbrzymie znacznie dla pojemności dysku. Im domeny mniejsze, tym więcej zmieści się ich na danej powierzchni, a więc tym więcej danych będziemy mogli przechować. Naukowcy podczas eksperymentów ze stopem żelaza i aluminium uzyskali domeny wielkości 5-10 nanometrów. To z kolei oznacza, że jeśli ich technologię udałoby się zastosować w dyskach twardych, moglibyśmy liczyć nawet na 10-krotne zwiększenie gęstości zapisu. Obecnie nie wiadomo, czy uda się to osiągnąć. Uczeni chcieli poprzez swój eksperyment udowodnić jedynie, że wygenerowanie domen magnetycznych za pomocą bardzo skoncentrowanego promienia jonów jest w ogóle możliwe. Wiadomo jednak, że nowa technologia jest niezwykle interesująca. Od wielu lat domeny magnetyczne ulegają coraz większej miniaturyzacji. Jednak im są mniejsze, tym mniej korzystny stosunek sygnału do szumu. Przy dalszym ich zmniejszaniu tradycyjnymi metodami dojdziemy wkrótce do granicy, w której zakłócenia będą na tyle duże, iż nie będzie możliwe przechowywanie danych. Akademicy z Niemiec mówią, że ich metoda daje gwarancję, iż do takiej sytuacji nie dojdzie. Na razie uczeni będą musieli odpowiedzieć na dwa pytania: czy podobnie dobre rezultaty uda się osiągnąć też w innych materiałach, które są obecnie wykorzystywane do produkcji talerzy dysków twardych oraz czy ich technologię uda się zmienić tak, by nadawała się do masowej produkcji. Wykorzystana w laboratorium metoda jest bowiem zbyt powolna.
  23. W przyszłym miesiącu, podczas targów Consumer Electronics Show (CES) Toshiba pokaże dysk SSD (solid-state drive) o pojemności 512 gigabajtów. Tym samym technologia SSD przekroczy granicę pół terabajta i zbliży się do pojemności tradycyjnych mechanicznych dysków twardych. Obecnie w sprzedaży można spotkać terabajtowe HDD. Japońska firma jest pierwszym przedsiębiorstwem, która zapowiedziała premierę tak pojemnego SSD. Jej konkurenci oferują dyski, na których można pomieścić najwyżej 256 gigabajtów danch. Nowy dysk może odczytywać dane z maksymalną prędkością 240 MB/s, a zapisuje z prędkością 200 MB/s. Obecnie najpoważniejszą przeszkodą na drodze do upowszechnienia się SSD jest ich wysoka cena, która kilkukrotnie przewyższa cenę HDD. Masowa produkcja urządzenia oznaczonego jako THNS512GG8BB rozpocznie się w drugim kwartale przyszłego roku. Dysk korzysta z interfejsu SATA II, a jego średni czas bezawaryjnej pracy ma wynieść milion godzin.
  24. Hitachi Global Storage Technologies zapowiada, że jeszcze przed końcem bieżącego kwartału rozpocznie sprzedaż energooszczędnych dysków twardych. Ukażą się dwa modele dysku Deskstar P7K500, o pojemności 250 i 500 gigabajtów. Urządzenie zdolne do przechowywania 250 GB będzie w czasie spoczynku zużywało 3,6 wata, a podczas pracy – 6,4 W. Dwukrotnie bardziej pojemny Deskstar zużyje, odpowiednio, 4,8 W i 8,2 W. Hitachi chce w ten sposób z jednej strony spełnić restrykcyjne kryteria Energy Star 4.0, a z drugiej dorównać konkurencji. Energy Star 4.0 zakłada powstanie peceta, który będzie potrzebował do pracy nie więcej niż 50 watów mocy. Specyfikacja nie dopuszcza żadnych podzespołów, które zużywają więcej niż 7 watów. Poważnym wyzwaniem dla Hitachi są dyski Western Digital z linii GreenPower. WD ogłosiło, że firmowy dysk o pojemności 1 terabajta zużywa 4 W podczas spoczynku i 7,5 W w czasie pracy.
  25. Hitachi poinformowało o wyprodukowaniu najmniejszej w historii głowicy odczytująco-zapisującej dla dysków twardych. Umożliwi ona skonstruowanie około roku 2011 dysków twardych o pojemności 4 terabajtów. Dyski dla notebooków będą mogły dzięki niej zapisać 1 TB danych. Głowica CPP-GMR ma trafić na rynek już w 2009 lub 2010 roku. Jej zastosowanie oznacza konieczność wprowadzenia zmian w samej strukturze dysku twardego. Obecnie talerze dysków zbudowane są z dwóch warstw magnetycznych przedzielonych izolatorem. Używane we współczesnych dyskach twardych głowice TMR (Tunelling MagnetResistance – magnetoopór tunelowy) wykorzystują tunelowanie elektronów przez warstwę izolatora. Dzięki precyzyjnemu kontrolowaniu tego zjawiska, można odczytywać dane w postaci 0 i 1. W miarę jednak jak zwiększana jest gęstość zapisu na dysku (a więc zmniejszana pojedyncza komórka z danymi), zmniejszeniu powinny ulegać też głowice TMR. Im są one mniejsze, tym większy jest opór i związane z tym zakłócenia sygnału. Obecnie specjaliści oceniają, że przy zwiększeniu gęstości zapisu do 500 gigabitów na cal kwadratowy głowice TMR staną się bezużyteczne z powodu olbrzymich zakłóceń w odczycie. Obecnie osiągnięto już gęstość zapisu rzędu 200 Gb na cal kwadratowy. W technologii CPP-GMR izolator został wyeliminowany i zastąpiony przewodnikiem (miedzią). Sygnał elektryczny nie biegnie w nim równolegle, lecz prostopadle. Dzięki takiej budowie udało się zmniejszyć opór, a co za tym idzie, możliwe będzie dalsze zmniejszanie głowic. O tym, jak ważne jest przejście z głowic TMR na CPP-GMR niech świadczy fakt, że obecnie głowice TMR są w stanie odczytać dane z komórek znajdujących się od siebie w odległości 70 nanometrów. CPP-GMR już w tej chiwili mogą czytać dane z komórek odległych o 30-50 nanometrów (to 2000 razy mniej, niż grubość ludzkiego włosa). Ocenia się, że odległość między ścieżkami dysku spadnie do 50 nanometrów już w 2009 roku, a w 2011 pojawią się 30-nanometrowe odległości między nimi. Przed kilkoma dniami Albert Fert (Francja) i Peter Grünberg (Niemcy) otrzymali Nagrodę Nobla w dziedzinie fizyki za odkrycie w 1988 roku zjawiska gigantycznego magnetooporu (GMR). To ono umożliwiło dalsze udoskonalanie dysków twardych i przyczyniło się do narodzin spintroniki.
×
×
  • Create New...