Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'dysk twardy' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 92 wyników

  1. Super Talent przygotował nową linię dysków SSD, które mają trafić do desktopów i notebooków. TeraDrive CT wykorzystują kontroler SandForce SF-1222, dzięki któremu osiągają rekordowe prędkości odczytu (285 MB/s) i zapisu (275 MB/s). Dyski wyposażono w interfejs SATA II i kości MLC NAND. Dzięki nowemu oprogramowaniu są one w stanie przechować więcej danych, niż poprzednie dyski Super Talent. Firma już podała ceny swoich urządzeń. Za 60-gigabajtowy SSD zapłacimy 199 dolarów. Model 120-gigabajtowy wyceniono na 349 USD, za 240 gigabajtów trzeba zapłacić 669 USD. W ofercie jest też dysk o pojemności 480 GB, ale w jego przypadku o cenę należy pytać bezpośrednio producenta.
  2. W Nature Photonics ukazał się artykuł, którego autorzy proponują połączenie dwóch metod zapisu danych na dyskach twardych, dzięki czemu gęstość zapisu mogłaby wzrosnąć do 1 terabita na cal kwadratowy. Uczeni nie wykluczyli przy tym, że może ona wynieść nawet 10 Tb/in2. Specjaliści proponują połączenie metod wspomaganego ciepłem zapisu magnetycznego (TAR - thermally-assisted magnetic recording) oraz zapisu z wzorcem bitowym (BPR - bit-patterned recording). Obie technologie pozwalają na uniknięcie pojawienia się niekorzystnego zjawiska superparamagnetyzmu, które prowadzi do zniszczenia zbyt gęsto upakowanych danych. TAR polega na podgrzaniu obszaru zapisu, wprowadzeniu danych i ochłodzeniu nośnika. Dzięki odpowiednio dobranej ilości ciepła, konstrukcji ośrodka magnetycznego oraz odległości pomiędzy poszczególnymi bitami nie dochodzi do superparamagnetyzmu. Dodatkową zaletą tej metody jest fakt, że na podgrzanym materiale szybciej zapisuje się dane. Z kolei BPR wykorzystuje "magnetyczne wyspy" naniesione na dysk w czasie jego produkcji. Odpowiednia izolacja "wysp" zapobiega superparamagnetyzmowi. Obie metody mają pewne wady. TAR potrzebuje specjalnego ziarnistego materiału, który jest w stanie przetrwać ciągłe podgrzewania i chłodzenie oraz wymaga precyzyjnej kontroli podgrzewanego obszaru. BPR wymaga użycia głowic, których wielkość pasuje do wielkości poszczególnych "wysp". Połączenie obu technologii eliminuje te wady. Technologia BPR nie wymaga ziarnistego materiału, a TAR pozwala na podgrzanie konkretnych obszarów nośnika, przez co nie są potrzebne głowice o ściśle określonej wielkości. Dzięki współpracy BPR i TAR można uzyskać system, który gęsto upakowuje dane na tanim materiale, a zapis informacji nie zagraża zniszczeniem sąsiadujących bitów. Wyprodukowane przez specjalistów prototypowe urządzenie łączące TAR z BPR wykorzystuje lasery, których światło kierowane jest przez światłowód do plazmonicznej anteny. Gdy jej dosięga, jest ono zmieniane na ładunek elektryczny. Antena ma kształt litery E. Górna i dolna poprzeczka służą jako uziemienie, a środkowa jest rodzajem piorunochronu kierującego ładunek na wybrany obszar nośnika danych. Wstępne badania wykazały, że gdy poprzeczka środkowa ma długość 20-25 nanometrów, a ścieżki na dysku dzieli odległość 24 nanometrów, możliwe jest zapisywanie danych na powierzchni 15 nanometrów bez naruszania danych sąsiadujących. Efektywność sygnału przekazywanego ze światłowodu do anteny wynosiła około 40%, zanotowano też niski odsetek błędów oraz prędkość zapisu rzędu 250 megabitów na sekundę. Badacze z łatwością uzyskali gęstość zapisu rzędu 1 Tb/in2 i wyliczyli, że teoretycznie może ona sięgnąć 10 Tb/in2.
  3. Seagate nie jest już największym światowym producentem dysków twardych. Firma straciła palmę pierwszeństwa na rzecz Western Digital. W trzecim kwartale roku podatkowego 2010, który zakończył się 2 kwietnia, WD dostarczył na rynek 51,1 milionów dysków. To o 800 000 więcej niż Seagate. Różnica jest na tyle niewielka, że prawdopodobnie i tak Seagate będzie światowym liderem pod względem rocznej produkcji. Jednak uwidocznił się w ten sposób interesujący trend. Widzimy bowiem ostrą konkurencję pomiędzy obiema firmami. Seagate, chcąc zwiększyć swoje możliwości produkcyjne, kupił niedawno kanadyjskiego Maxtora. Jednak, jak się okazuje, obecnie firma produkuje mniej dysków niż produkowały oba przedsiębiorstwa gdy były osobnymi jednostkami. W tym samym czasie WD skupił się na ulepszaniu swojej strategii i dokonywał tylko niezbędnych akwizycji. W trzecim kwartale roku podatkowego 2010 WD zanotował wpływy rzędu 2,6 miliarda dolarów. Zysk netto wyniósł 400 milionów.
  4. Samsung poinformował o wprowadzeniu do oferty handlowej najszybszego dysku zewnętrznego w historii firmy. Urządzenie STORY Station 3.0 korzysta z interfejsu USB 3.0. Dzięki niemu maksymalny transfer danych wynosi 5 gigabitów na sekundę czyli 10-krotnie więcej niż oferował USB 2.0 (480 Mb/s). Interfejs jest kompatybilny z USB 2.0 oraz 1.1. Napęd Samsunga zamknięto w szarej aluminiowej obudowe, która przypomina dawne urządzenia elektroniczne. Urządzenie oferuje trzy tryby oszczędzania energii: uśpienie, bieg jałowy i wstrzymanie. Wcześniej w ramach linii STORY Station Samsung zaoferował urządzenia USB 2.0 oraz Plus (z interfejsem e-SATA i USB 2.0). Pojemność STORY Station 3.0 wynosi 1 i 2 terabajty. Dysk sprzedawany jest wraz z oprogramowaniem Auto Backup, SecretZone i SafetyKey.
  5. Dziennikarze serwisu CBS pokazali, jak w prosty sposób można wejść w posiadanie wielu poufnych danych różnych firm i instytucji. Okazało się, że wystarczy kupić na rynku wtórnym... nowoczesną kopiarkę. Niemal każda taka maszyna wyprodukowana po 2002 roku jest wyposażona w twardy dysk przechowujący każdy dokument, który przez nią przeszedł. Dziennikarze CBS kupili cztery używane kopiarki, płacąc za nie średnio po 300 USD. Dopóki ich nie rozpakowali, nie wiedzieli, kto był ich pierwszym właścicielem. Jednej z maszyn nie trzeba było nawet podłączać do prądu. W maszynie nadal tkwiły dokumenty z Wydziału Przestępstw Seksualnych policji w Buffalo. Dziennikarzom wyjęcie dysków twardych z kopiarek zajęło około 30 minut. Następnie uruchomili pobrane z internetu darmowe programy do skanowania zawartości HDD. Po mniej niż 12 godzinach dysponowali kopiami dziesiątek tysięcy dokumentów należących do poprzednich właścicieli urządzeń. Okazało się, że dwie maszyny pochodzą z policji w Buffallo. Z HDD pierwszej odczytano m.in. listę poszukiwanych przestępców seksualnych i skargi składane przez ofiary przemocy domowej. Na drugiej, należącej wcześniej do Wydziału Narkotykowego, odnaleziono m.in. spis celów, które policja planowała osiągnąć podczas wielkich nalotów na handlarzy narkotyków. Trzecia z kopiarek należała do firmy budowlanej z Nowego Jorku. Na jej dysku znaleziono szczegółowe plany budynku, który ma stanąć w pobliżu Ground Zero na Manhattanie, 95-stronicową listę płac zawierającą nazwiska, adresy i numery ubezpieczenia społecznego oraz kopie czeków opiewających na kwotę 40 000 USD. Jednak największa niespodzianka czekała dziennikarzy przy ostatniej kopiarce. Była ona własnością firmy ubezpieczeniowej Affinity Health Plan, a na jej dysku znaleziono m.in. 300 stron ze szczegółowymi danymi ubezpieczonych. Były tam informacje o przepisanych lekach, wynikach badań krwi czy dokumenty diagnozujące nowotwory. Nie trzeba nikogo przekonywać, że wszystkie znalezione dane mogą posłużyć zarówno do kradzieży tożsamości, jak i szantażu, popełnienia przestępstw finansowych czy uniknięcia kary przez przestępców. Wielu producentów kopiarek oferuje co prawda dodatkowe zabezpieczenia - od kluczy szyfrujących po urządzenia dokładnie usuwające dane - jednak wiele przedsiębiorstw i instytucji nie chce najwyraźniej ponosić kosztów związanych z ich zakupem.
  6. Seagate i Paramount Pictures zawarły umowę, na podstawie której na nowo sprzedawanych zewnętrznych dyskach twardych z serii Freeagent Go będą rozprowadzane filmy wytwórni. Filmy znajdą się w specjalnym katalogu, a dostęp do nich będzie możliwy po wykupieniu kodu aktywacyjnego. Obrazy mają zajmować około 10% pojemności dysku. Seagate będzie sprzedawało urządzenia jako dyski o pojemności mniejszej, niż pojemność rzeczywista, tak więc dodatkowa przestrzeń będzie pewnym bonusem dla użytkownika. Urządzenia przygotowano tak, by łączyły się ze sklepem Paramount i pobierały stamtąd kody aktywacyjne do filmów. Za możliwość obejrzenia obrazu trzeba będzie zapłacić 10-15 dolarów. Używanie filmów zostało obwarowane licznymi ograniczeniami. Skorzystają z nich tylko posiadacze systemu Windows z Internet Explorerem. Do połączenia się ze sklepem Paramount konieczne jest także zainstalowanie wtyczki Silverlight, a posiadacz filmów będzie mógł oglądać je na nie więcej niż trzech urządzeniach. Możliwe będzie tylko jednokrotne pobranie kopii zapasowych, ale tych nie będzie można nagrać na płycie DVD.
  7. W najbliższym czasie będziemy świadkami największej od 30 lat zmiany w metodach formatowania dysków twardych. Pozwoli to na udoskonalenie technologii, jednak użytkownicy starszych systemów operacyjnych mogą mieć w związku z tym kłopoty. Dyski twarde są obecnie formatowane w bloki o wielkości 512 bajtów. Taki format został przejęty z dyskietek i spopularyzowany przez IBM-a. Sprawdzał się on dobrze do czasu, gdy HDD miały stosunkowo niewielkie pojemności. Jednak dzielenie przestrzeni dyskowej na tak małe bloki oznacza spore straty w pojemności urządzenia. Każdy taki bloczek zawiera znacznik informujący o jego początku oraz przestrzeń zarezerwowaną na korekcję błędów. Ponadto pomiędzy poszczególnymi bloczkami należy zostawić nieco przestrzeni. W dużych dyskach twardych przy takim formatowaniu sporo miejsca jest przeznaczanych na potrzeby samego HDD lub w ogóle marnowane. Dlatego też postanowiono, że od początku 2011 roku dyski będą formatowane w 4-kilobajtowe sektory. Pozwoli to kilkukrotnie zmniejszyć ilość marnowanego miejsca, a jednocześnie zapisać w sektorze dwa razy więcej informacji potrzebnych do korekcji błędów. Dzięki takim zabiegom na dysku z 4-kilobajtowymi sektorami użytkownik będzie mógł zapisać od 7 do 11 procent więcej danych. Tutaj pojawia się problem dla posiadaczy starszych wersji systemów operacyjnych, takich jak np. Windows XP. Pojawiły się one bowiem jeszcze zanim zdecydowano o nowym sposobie formatowania. Dlatego też nowe dyski, z 4-kilobajtowymi sektorami, gdy będą używane ze starszymi OS-ami, wykorzystają wbudowane mechanizmy, emulujące działanie dysku z 512-bajtowymi sektorami. Na codzień emulacja ta powinna przebiegać niezauważenie, jednak w pewnych okolicznościach niekorzystnie odbije się to na wydajności HDD, który może pracować nawet o 10% wolniej. Problem z nowymi dyskami nie będzie dotyczył użytkowników Windows 7, Windows Vista, OSX Tiger, Leopard i Snow Leopard oraz Linuksa z jądrem opublikowanym po wrześniu 2009 roku.
  8. Hitachi informuje o osiągnięciu rekordowo dużej gęstości upakowania danych na dysku twardym. Japończykom udało się zapisać 2,5 terabita na calu kwadratowym. To pięciokrotnie więcej, niż w obecnie sprzedawanych dyskach twardych. Tak gęste upakowanie danych możliwe było dzięki technologii wspomaganego ciepłem zapisu magnetycznego. O pracach nad nią, które prowadzi Seagate, informowaliśmy już przed rokiem. Japończycy użyli podobnej techniki co Amerykanie. Wyposażyli swoją głowicę w źródło światła, które podgrzewa cząstki materiału magnetycznego podczas gdy głowica zapisuje dane. Gdy cząstki ostygną, stają się stabilne. Dzięki temu nie ma niebezpieczeństwa, że przy bardzo gęstym ich upakowaniu, będą traciły swój stan i przybierały przypadkowe położenia, co skutkowałoby utratą danych. W rozwiązaniu Hitachi emitowana wiązka światła ma średnicę nie większą niż 20 nanometrów. To pozwala na stabilne zapisywanie danych w komórkach o wymiarach 28x9 nanometrów, czyli umożliwia osiągnięcie gęstości rzędu 2,5 terabita na cal kwadratowy. Opracowywanie nowych technologii zapisu danych na HDD to być albo nie być przemysłu pamięci masowych. Fizyczne możliwości zapisu przy obecnie wykorzystywanych technologiach natrafią na nieprzekraczalną granicę przy gęstości około 1 terabita na cal kwadratowy. Rosnące zapotrzebowanie na pamięci masowe oraz silna rynkowa presja na obniżanie ceny za gigabajt przestrzeni wymuszają prowadzenie intensywnych prac badawczo-rozwojowych.
  9. Niewykluczone, że jeszcze w bieżącym zadebiutują dyski twarde o pojemności 3 terabajtów. Tak przynajmniej uważa serwis Fudzilla, który powołuje się przy tym na plany firmy TDK. Ze zdobytych przez Fudzillę informacji wynika, że w październiku 2010 TDK ma zamiar pokazać 3,5-calowy HDD wykorzystujący cztery talerze o pojemności 640 gigabajtów każdy. W tym samym miesiącu miałby zadebiutować podobny dysk z pięcioma talerzami. Oznaczałoby to, że już wkrótce będzie można kupić HDD o pojemności od 2,5 do 3 TB. Na razie nie wiadomo, kiedy takie urządzenia trafią do sklepów, ani ile mogłyby kosztować.
  10. Micron zaprezentował pierwszy w historii dysk SSD korzystający z interfejsu SATA 600. Co jednak zaskakujące, firma nie chwali się większą wydajnością pracy urządzenia, ale podkreśla, że jest ono bardziej oszczędne i stabilne niż inne dyski SSD. Micron RealSSD C300 charakteryzuje się prędkością odczytu rzędu 355 MB/s, a zapis odbywa się z prędkością do 215 MB/s. Urządzenie korzysta 34-nanometrowe układy MLC NAND. Są one zgodne ze standardem ONFI 2.1 co daje gwarancję, że prędkość pracy kości nie będzie negatywnie wpływała na wydajność 6-gigabitowego SATA. Sprzedaż dysków rozpocznie się w pierwszym kwartale przyszłego roku. Do sklepów trafią urządzenia w formatach 1,8 oraz 2,5 cala o pojemnościach 128 i 256 gigabajtów.
  11. W ofercie firmy OCZ Technolgy znalazł się 3,5-calowy dysk SSD. Urządzenie może przechować terabajt danych. Dotychczas dyski SSD były produkowane przeważnie w formatach 1,8 i 2,5 cala. Powstawały więc przede wszystkim z myślą o zastosowaniu ich w notebookach i netbookach. OCZ wyprodukowało typowy dysk dla pecetów, a dzięki większym wymiarom możliwe było zwiększenie jego pojemności do takiej, która dorównuje standardowym HDD. Urządzenie Colossus 3,5 Solid State Drive odczytuje dane z prędkością 260 megabajtów na sekundę. Prędkość zapisu informacji jest identyczna. Jest też w stanie przeprowadzić 14 000 operacji wejścia/wyjścia w ciągu sekundy. Produkty z linii Colossus objęte są 3-letnią gwarancją, a ich średni czas bezawaryjnej pracy wynosi 1,5 miliona godzin.
  12. Były wiceprezes ds. badawczych w Seagate Technology, profesor Mark Kryder z Carnegie Mellon Univeristy, założyciel Data Storage System Center oraz jego student Chang Soo Kim przeprowadzili studium nt. przyszłości technologii przechowywania danych. W jego ramach przebadali 13 nieulotnych technologii przechowywania informacji, które są postrzegane jako możliwi następcy dysków twardych (HDD). Obaj specjaliści przeanalizowali rynkowe szanse badanych technologii, prawdopodobieństwo z jakim mogą zastąpić HDD oraz przyszłą cenę terabajta pojemności do roku 2020. Najważniejszą konkluzją ich prac jest stwierdzenie, iż jest bardzo mało prawdopodobne, by jakiekolwiek urządzenia wykorzystujące pamięci nieulotne były w stanie w najbliższym dziesięcioleciu konkurować cenowo z HDD. Zdaniem naukowców "mapa drogowa" rozwoju technologii litograficznych (ITRS - International Technology Roadmap for Semiconductors) pokazuje, że w przyszłej dekadzie nie rozwiną się one na tyle, by zapewnić odpowiednio wysoką gęstość zapisu, co pozwoliłoby na obniżenie ceny technologii alternatywnych tak, by stały się one tańsze od HDD. Największe szanse na konkurowanie z obecnymi dyskami mają technologię pozwalające na zapisanie wielu bitów w pojedynczej komórce oraz takie, które korzystają z pamięci zmiennofazowych (PCRAM) i STT-RAM. W podsumowaniu swojej analizy, naukowcy stwierdzają: Przyjmując, że technologia HDD będzie rozwijała się w takim tempie, jak w przeszłości, w roku 2020 dwutalerzowy 2,5-calowy dysk twardy będzie w stanie przechowywać ponad 40 terabajtów danych, a jego cena wyniesie około 40 dolarów. Na długo przed rokiem 2020 technologia pamięci flash osiągnie granicę, poza którą nie będzie można jej skalować. Istnieje obecnie duże zainteresowanie technologiami pamięci nieulotnych, które zastąpią flash i w przyszłości być może i HDD. W dokumencie tym porównaliśmy trzynaście z nich. Uznając za najważniejszy czynnik gęstość zapisu oraz biorąc pod uwagę wydajność, najbardziej obiecujące wydają się technologie typu racetrack. Jednak zależą one od synchronicznego przemieszczania ścian domen w rejestrach, co już w przeszłości okazało się niepraktyczne i nadal jest dalekie od wdrożenia. Tym bardziej, że nad technologią tą nie pracuje odpowiednia liczba badaczy, którzy mogliby rozwiązać trapiące ją problemy. Obiecująco duże gęstości zapisu można uzyskać w pamięciach korzystających z próbników, tym bardziej, że produkcja ich głowic nie jest mocno ograniczana przez rozwój technologii litograficznych. Z drugiej jednak strony, ich wydajność jest niższa niż wydajność innych technologii i, podobnie jak w pamięciach racetrack, są one dalekie od praktycznego zastosowania. Również nad nimi pracuje mało specjalistów. Pamięci holograficzne mogą potencjalnie mieć wysoką gęstość przy niskich kosztach, jednak jak dotąd sprawdzają się tylko w zastosowaniach polegających na jednorazowym zapisie nośnika, a to zupełnie inny rynek. Układy MRAM i FRAM należą do najdroższych, a ich koszt jest podobny do kości DRAM, dlatego też nie zastąpią układów flash czy dysków twardych. Pamięci polimerowe, molekularne i SEM (Single Electron Memory) charakteryzują się niską gęstością zapisu i krótkimi czasami przechowywania danych, co czyni je nieprzydatnymi w rozważanych zastosowaniach. Z kolei kości typu NRAM wydają się być dobrymi kandydatami, jednak ich prognozowana gęstość, a co za tym idzie i koszt, nie są wystarczająco konkurencyjne. Produkty takie jak RRAM, CBRAM, STTRAM i PCRAM mają małe komórki i potencjalnie nadają się do przechowywania wielu bitów w pojedynczej komórce, dzięki czemu mogą w przyszłości konkurować z dyskami twardymi Wśród nich PCRAM są najbardziej dojrzałe i już trafiły na rynek, a STTRAM wydają się oferować najlepszą wydajność.
  13. Na rynek trafiły nowe dyski twarde produkcji WD. Urządzenia z serii Caviar Black charakteryzują się pojemnością 2 terabajtów. Zostały one wyposażone w 4 talerze po 500 GB każdy. Model WD Caviar Black to propozycja dla użytkowników domowych, natomiast WD RE4 powstał z myślą o zastosowaniach serwerowych i sieciach pamięci masowych. Dyski wyposażono w 64 megabajty pamięci cache, technologię podwójnego serwomechanizmu głowicy zapewniającą lepsze pozycjonowanie, interfejs SATA II, a prędkość obrotowa ich talerzy wynosi 7200 rpm. Dyski WD objęte są 5-letnią gwarancją. WD Caviar Black 2 TB jest sprzedawany w cenie 1143 złotych. Model RE4 można kupić tylko w wersji OEM.
  14. Toshiba ogłosiła powstanie 2,5-calowego dysku dla notebooków o pojemności 640 gigabajtów. Urządzenie MK6465GSX charakteryzuje się gęstością zapisu rzędu 528,5 gigabita na cal kwadratowy. Najnowszy dysk to przedstawiciel większej rodziny, w skład której wchodzą urządzenia o pojemności 160, 250, 320 i 500 gigabajtów. Japońska firma oferuje też dodatkowo czujnik swobodnego spadania, który ma wyłączyć dysk jeśli wykryje, że wyposażony w niego komputer zaraz uderzy o ziemię. Cena nowego dysku nie została ujawniona.
  15. W najnowszej serii dysków SSD Intela, X25-M G2, znaleziono poważny błąd, który zagraża przechowywanym danym. Okazuje się, że jeśli w BIOS-ie ustawimy hasło dostępu do dysku, a następnie je zresetujemy lub zmienimy, dojdzie do uszkodzenia przechowywanych danych. Początkowo Intel sądził, że do rozwiązania problemu konieczne są zmiany w samym urządzeniu. Okazało się jednak, iż wystarczy wgrać nowy firmware. Koncern wstrzymał dostawy dysków do czasu, aż przygotuje nowe oprogramowanie. Powinno się ono pojawić w ciągu najbliższych dwóch tygodni. Osoby, które kupiły już dysk ze wspomnianej rodziny, nie powinny ustawiać haseł w BIOS-ie. Firmware z odpowiednimi poprawkami będzie można pobrać z witryny Intela.
  16. Dyski twarde od początku swej historii składają się z okrągłych wirujących talerzy, na których zapisane są dane. Niewielka firma DataSlide pracuje nad dyskami o prostokątnych, nieruchomych talerzach, które w przyszłości mogą zastąpić zarówno HDD jak i SSD. Nowe urządzenia o nazwie HRD (Hard Rectangular Drive) może osiągnąć wydajność rzędu 160 000 operacji odczytu/zapisu na sekundę i transfer rzędu 500 MB/s, a jednocześnie pobiera mniej niż 4 waty mocy. Urządzenie składa się z piezoelektrycznego pozycjonera, który odpowiada za precyzyjne dostosowanie położenia talerzy, diamentowego lubrykantu chroniącego powierzchnie przed zarysowaniem oraz dwuwymiarowej matrycy głowic odczytująco-zapisujących. Pomysł więc, jak widzimy, jest nieco podobny do projektu Millipede IBM-a, który dostosowano do współcześnie dostępnych technologii. Talerz, na którym przechowywane są dane znajduje się pomiędzy dwiema szklanymi płytami. Na nich techniką litografii naniesiono wspomniane matryce głowic. Tak więc do zapisu dostępne są obie strony talerza. Szklane płyty i talerz są w bezpośrednim kontakcie, stąd konieczność zastosowania ochronnego lubrykantu. Matryce głowic pozostają nieruchome, podczas gdy sam talerz jest poruszany i precyzyjnie pozycjonowany. Taka technika umożliwia dokonywanie jednoczesnego odczytu z 64 głowic. Całość zamknięta jest w standardowej obudowie dysku twardego. Projekt znajduje się we wczesnej fazie rozwoju, więc nawet DataSlide nie jest w stanie podać daty rynkowego debiutu HRD. Firma chce swoim pomysłem zainteresować gigantów IT.
  17. Bardzo pojemne, niewielkie dyski twarde, z którymi mamy do czynienia w pecetach, notebookach czy odtwarzaczach MP3 mogą istnieć dzięki odkryciu przed 20 laty zjawiska gigantycznego magnetooporu (GMR). To ono umożliwiło udoskonalenie tych urządzeń i przyczyniło się do narodzin spintroniki. Teraz naukowcy z Carnegie Institution of Science są na tropie zjawiska nazwanego kolosalnym magnetooporem (CMR), które jest tysiące razy potężniejsze niż GMR i może zapowiadać kolejną rewolucję w informatyce. Występowanie CMR odkryto w manganitach, a prawdziwym wyzwaniem jest zrozumienie i kontrolowanie tego zjawiska. Fakt występowania magnetooporu w manganitach czyni z nich świetny materiał do produkcji pamięci MRAM. W układach tych magnetyczne tunelowanie elektronów pomiędzy dwiema warstwami manganitu oddzielonego warstwą izolatora zależy od relatywnej orientacji pola magnetycznego w manganitach. Niestety, naukowcy nie potrafią obecnie w pełni wyjaśnić wszystkich zjawisk, w tym CMR, zachodzących w manganitach. Problem w tym, że pomiędzy elektronami w manganitach zachodzą przeciwstawne interakcje, które wpływają na właściwości magnetyczne. Ponadto właściwości te zależą też od czynników zewnętrznych, takich jak temperatura, ciśnienie, pole magnetyczne czy domieszkowanie chemiczne - mówi Yang Ding z Carnegie. Ciśnienie ma wyjątkowy wpływ na manganity, gdyż zmienia interakcje pomiędzy elektronami w jasne i naukowo 'przejrzyste' zjawisko. Daje nam szanse na bezpośrednie efektywne manipulowanie zachowaniem elektronów i może dostarczyć cennych informacji na temat magnetycznych i elektrycznych właściwości systemu zbudowanego z manganitów. Jednak ze wszystkich zjawisk zewnętrznych to właśnie wpływ ciśnienia został najmniej zbadany - dodaje Ding. Naukowcy odkryli, że w przy ciśnieniu 230 000 razy przekraczającym ciśnienie na Ziemi manganity zmieniają się z ferromagnetyków w antyferrromagnetyki. Mamy też do czynienia ze zjawiskiem Jahna-Tellera czyli nierównomierną dystorsją sieci krystalicznej. To bardzo ciekawe zjawisko, które nie zostało przewidziane przez teorię, gdy jednolite ciśnienie prowadzi do niejednolitych zmian strukturalnych - zauważa Ding. Zauważono też, że zmiana właściwości magnetycznych w manganitach poddawanych wysokiemu ciśnieniu nie odbywa się jednorodnie, ale "rozprzestrzeniają się" one stopniowo. To z kolei, jak mówią uczeni, sugeruje, że nawet w zwykłych warunkach w skali nano manganity mogą jednocześnie wykazywać właściwości ferromagnetyków i antyferromagnetyków. W tym momencie wkraczamy na znajome pole, gdyż jednym z podstawowych pól działalności nanotechnologii jest manipulowanie fazami termodynamicznymi materiałów.
  18. W najnowszym numerze Nature Physics ukazał się artykuł, którego autorzy opisują, w jaki sposób wykorzystać laser do przyspieszenia 100 000 razy operacji odczytu i zapisu na dyskach twardych. Zespół z francuskiego Instytutu Chemii i Fizyki Materiałów pod przewodnictwem Jeana-Yvesa Bigota użył femtosekundowego lasera. Obecnie korzystamy z zapisu magnetycznego i mówimy o spintronice, czyli elektronice spinu. Nasza metoda to fotonika spinu, gdyż używamy fotonów do zmiany i odczytu spinu elektronów - wyjaśnia Bigot. Odczyt i zapis danych na współczesnych dyskach twardych odbywa się za pomocą pola magnetycznego i zmiany w spinie elektronów. Metoda ta jest jednak dość powolna. Francuzi udowodnili, że femtosekundowy laser pozwala na zmianę spinu elektronów, a tym samym, na znaczne przyspieszenie całej operacji. Niestety, w najbliższej przyszłość nie powinniśmy się spodziewać, że kupimy bardzo szybko działające dyski twarde. Femtosekundowe lasery to obecnie bardzo duże urządzenia o wymiarach około 30x10 centymetrów. Jednak wraz z postępującą miniaturyzacją mogą one w przyszłości stanowić część HDD. Zainteresowanie pracami Francuzów wyrazili już najwięksi producenci dysków twardych.
  19. Microsoft Research z Cambridge przygotował, na zlecenie Association for Computing Machinery, raport na temat rynkowych trendów instalowania dysków SSD w serwerach. Wynika z niego, że stosowanie tego typu rozwiązań jest w chwili obecnej zupełnie nieopłacalne. W swojej analizie eksperci skupili się na szczegółowym zbadaniu sposobu pracy dysków SSD tam, gdzie już zostały zastosowane. Przeanalizowali instalacje w których SSD całkowicie zastąpiły HDD, jak też i takie, gdzie SSD są wykorzystywane jako pośrednik pomiędzy HDD a pamięcią RAM. Z ich badań wynika, że zastosowanie SSD jest nieopłacalne ze względu na wysoką cenę urządzeń i ich niską pojemność. Powoduje to, że cena gigabajta jest znacznie wyższa niż w przypadku HDD. Oszczędności energii czy większa szybkość pracy uzyskiwane dzięki SSD są całkowicie pochłaniane przez wyższy koszt zakupu dysków. Zdaniem Microsoftu, pojemność SSD na każdego dolara wydanego na zakup dysku musi wzrosnąć, w zależności od zastosowania, od 3 do 3000 razy, by urządzenia te mogły wyprzeć tradycyjne dyski twarde w zastosowaniach serwerowych. Jedynym obszarem, w którym sprawdzają się dyski SSD jest, według Microsoftu, pełnienie roli pamięci podręcznej i pośrednika pomiędzy HDD a RAM. Jednak i tutaj korzyści występują dość rzadko, gdyż dzieje się tak w przypadku około 10-20% zastosowań.
  20. Analityk Arun Taneja z firmy Taneja Group ocenia, że rynek dysków SSD staje się rynkiem masowym. Po latach niszowego rozwoju, znaleźliśmy się w punkcie, w którym na masową skalę zaczynają pojawiać się dobrze pracujące, tanie SSD... Każda firma, działająca na rynku pamięci masowych prowadzi prace nad tą technologią - dodaje. Tylko w marcu swoje produkty SSD pokazały Sun, Texas Memory Systems, Dell, Pillar Data Systems, Compellent, Fusion-io i EMC. Firma STEC, wytwórca kości flash wykorzystywanych przez wielu innych producentów, informuje, że w 2008 roku przychody ze sprzedaży produktów z linii ZeuslOPS SSD sięgnęły kwoty 53 milionów dolarów. To trzykrotnie więcej niż w całym roku 2007. Co więcej, przedsiębiorstwo spodziewa się, że już w pierwszej połowie bieżącego roku sprzeda ZeuslOPS SSD za większą kwotę niż wspomniane 53 miliony. Co prawda gigabajt pamięci flash jest około 20-krotnie droższy niż gigabajt pojemności wydajnego HDD. Jednak jej zalety - wysoka wydajność oraz energooszczędność - powodują, że dyski SSD stają się coraz bardziej popularne. Są coraz chętniej kupowane przez właścicieli centrów bazodanowych, którzy oszczędzają dzięki nim energię oraz mogą lepiej dostosować urządzenia do swoich potrzeb. W centrach bazodanowych często bowiem znajduje się więcej dysków HDD niż jest potrzebne dla zaspokojenia potrzeb przechowywania danych. Dzięki zwiększaniu ich liczby można skrócić czas dostępu do danych. To samo można obecnie uzyskać za pomocą mniejszej liczby SSD. Dzięki oszczędności energii i szybszej pracy, która powoduje, że nie trzeba kupować nadmiarowych urządzeń, zakup SSD staje się opłacalny. Głównym problemem pozostaje wciąż brak kontrolerów pozwalających zintegrować dyski SSD z już istniejącymi HDD. Obecnie w praktyce administratorzy centrów bazodanowych muszą zastępować jedne dyski drugimi. Na rynku konsumenckim SSD są ciągle o 10 do 15 razy droższe od HDD o analogicznej pojemności.
  21. Western Digital, jeden z najwięĸszych wytwórców dysków twardych, kupił firmę SiliconSystems, specjalizującą się w produkcji SSD. WD zapłacił 65 milionów dolarów. W ramach koncernu powstanie nowy dział o nazwie Solid-Stage Storage. SiliconSystems zostało założone w 2002 roku. Firma sprzedała miliony dysków z rodziny SiliconDrive. W jej portfolio znajdują się urządzenia pamięci masowej z interfejsami SATA, EIDE, PC Card, USB i CF.
  22. Na rynku pamięci masowych trwa ostra konkurencja, w której ścierają się nie tylko poszczególni producenci, ale także różne technologie. Jednak wciąż najpopularniejszą metodą przechowywania danych jest wykorzystanie tradycyjnego dysku twardego (HDD). W urządzeniach takich znajdziemy materiały magnetyczne, które umożliwiają zapis informacji. Problem w tym, że prawdopodobnie w ciągu najbliższych pięciu lat dojdziemy do fizycznego kresu upakowania danych w tych materiałach. Nad producentami HDD wisi więc groźba przegrania walki o rynek z firmami oferującymi inne rozwiązania. Seagate zaprezentowało właśnie nową technologię, dzięki której jeszcze przez wiele lat będziemy korzystali z obecnie stosowanych materiałów. Mowa tutaj o wspomaganym ciepłem zapisie magnetycznym. Pozwala on na 50-krotne zwiększenie limitu upakowania danych. Zapis danych na dysku twardym polega na odwracaniu poszczególnych cząstek materiału magnetycznego. W zależności od położenia cząstki reprezentują 1 lub 0. Problem w tym, że zwiększanie gęstości zapisu oznacza zmniejszanie cząstek. W pewnym momencie staną się one niestabilne i istnieje niebezpieczeństwo, że ich stan będzie się przypadkowo zmieniał. Zastosowanie bardziej stabilnych materiałów nie wchodzi w grę, gdyż obecnie używane głowice w dyskach nie są w stanie z nimi współpracować. Seagate opracowało głowicę, w której zintegrowano rodzaj lasorowej "grzałki". Nowa głowica zmienia nie tylko orientację cząstki, ale także wysyła jej krótki impuls cieplny. Gdy cząstka ostygnie, przechowywana w niej informacja zostaje "zamrożona", przez co nie istnieje niebezpieczeństwo przypadkowej zmiany wartości. Największym problemem tej techniki jest skupienie światła lasera tak, by trafił on w konkretną cząstkę. Te mają mniej niż 100 nanometrów średnicy, a takiej precyzji nie osiągnie się stosując współczesne soczewki. Dlatego też użyto specjalnych anten optycznych. Eksperci Seagate'a udowodnili, że za pomocą nowej technologii są już w stanie zapisać 250 gigabitów danych na calu kwadratowym. Podobną gęstość zapisu znajdziemy we współczesnych HDD, a Hitachi zaprezentowało technologię pozwalającą na zapisanie 610 Gb na calu kwadratowym. Musimy jednak pamiętać, że to dopiero początek badań Seagate'a. Co ważne, nowy dysk jest niemal w całości zbudowany z takich samych materiałów, jak współczesne HDD. Korzysta z innego materiału magnetycznego, ale można go używać w już wykorzystywanych procesach technologicznych, zatem nowe dyski nie będą wymagały wielu inwestycji w linie produkcyjne.
  23. Jednym z powszechnych przekonań dotyczących bezpieczeństwa danych jest liczący sobie wiele lat pogląd, iż do skutecznego usunięcia informacji na dysku twardym konieczne jest ich wielokrotne nadpisanie. Ekspert sądowy Craig Wright twierdzi, że udało mu się obalić to przekonanie. Wraz z grupą specjalistów sprawdził, jaka jest szansa na odzyskanie danych po ich jednokrotnym celowym nadpisaniu za pomocą zer. Podczas eksperymentów wykorzystano zarówno starsze 1-gigabajtowe dyski, jak i współczesne HDD oraz mikroskop sił magnetycznych, którym po nadpisaniu badano powierzchnię dysków. Eksperci dowiedli, że jeśli jednokrotnie nadpiszemy dysk zerami, to praktycznie nie ma szans, by odczytać dane. Z ich badań wynika, że mamy 56-procentową szansę na odzyskanie danych z pojedynczego bitu, którego lokalizację dokładnie znamy. By odczytać bajt musimy ośmiokrotnie bardzo precyzyjnie wypozycjonować głowicę zapisująco-odczytującą HDD. Szansa, że nam się to uda wynosi 0,97%. Odzyskanie czegokolwiek poza pojedynczym bajtem jest jeszcze mniej prawdopodobne. Tymczasem firmy oferujące oprogramowanie do usuwania danych z dysku, proponują software, który nadpisuje HDD aż 35-krotnie. Zdaniem Wrighta to tylko i wyłącznie strata czasu. Wielokrotne nadpisywanie danych było standardem przed laty przy zabezpieczaniu dyskietek. Niezwykle ważne jednak jest, by, jeśli chcemy na trwałe wyczyścić dysk twardy, nadpisać go całego, sektor po sektorze, a nie tylko te fragmenty, na których znajdują się pliki, które chcemy usunąć. Podczas pracy systemy operacyjne tworzą bowiem wiele różnych kopii tego samego pliku i przechowują je niewidoczne w różnych miejscach.
  24. Western Digital jest autorem pierwszego 3,5-calowego dysku twardego o pojemności 2 terabajtów. Urządzenie korzysta z czterech 500-gigabajtowych talerzy oraz 32 megabajtów pamięci cache. W najnowszym HDD zastosowano wiele technologii, które mają zwiększyć stabilność pracy i wydajność dysku, a jednocześnie zmniejszyć generowany hałas. Warto wśród nich wymienić StableTrac, która tłumi wibracje talerzy, IntelliPower odpowiedzialną za dopasowanie prędkości obrotowej oraz szybkości transferu i operacji cache'owania do poziomu zużycia energii. Z kolei IntelliSeek oblicza optymalny czas przesuwania głowic, redukuje hałas, wibracje i zużycie energii. Nowy dysk korzysta z interfejsu SATA II. Średnia głośność jego pracy waha się od 25 do 29 dBA. Wytrzymałość na przeciążenia do 300 G w stanie spoczynku i 65 G podczas pracy. WD Caviar Green 2 TB trafi do sklepów pod koniec stycznia. Jego sugerowana cena detaliczna wyniesie 880 złotych.
  25. Eksperci z drezdeńskiego Forschungszentrum Rossendorf, Universidad Autónoma w Barcelonie we współpracy z naukowcami ze Szwecji, Szwajcarii i USA stworzyli niezwykle małe domeny magnetyczne za pomocą silnie skoncentrowanych strumieni jonów. Domeny magnetyczne są wykorzystywane m.in. w dyskach twardych. Są one rodzajem najmniejszej "szuflady" do przechowywania danych. Ich wielkość ma olbrzymie znacznie dla pojemności dysku. Im domeny mniejsze, tym więcej zmieści się ich na danej powierzchni, a więc tym więcej danych będziemy mogli przechować. Naukowcy podczas eksperymentów ze stopem żelaza i aluminium uzyskali domeny wielkości 5-10 nanometrów. To z kolei oznacza, że jeśli ich technologię udałoby się zastosować w dyskach twardych, moglibyśmy liczyć nawet na 10-krotne zwiększenie gęstości zapisu. Obecnie nie wiadomo, czy uda się to osiągnąć. Uczeni chcieli poprzez swój eksperyment udowodnić jedynie, że wygenerowanie domen magnetycznych za pomocą bardzo skoncentrowanego promienia jonów jest w ogóle możliwe. Wiadomo jednak, że nowa technologia jest niezwykle interesująca. Od wielu lat domeny magnetyczne ulegają coraz większej miniaturyzacji. Jednak im są mniejsze, tym mniej korzystny stosunek sygnału do szumu. Przy dalszym ich zmniejszaniu tradycyjnymi metodami dojdziemy wkrótce do granicy, w której zakłócenia będą na tyle duże, iż nie będzie możliwe przechowywanie danych. Akademicy z Niemiec mówią, że ich metoda daje gwarancję, iż do takiej sytuacji nie dojdzie. Na razie uczeni będą musieli odpowiedzieć na dwa pytania: czy podobnie dobre rezultaty uda się osiągnąć też w innych materiałach, które są obecnie wykorzystywane do produkcji talerzy dysków twardych oraz czy ich technologię uda się zmienić tak, by nadawała się do masowej produkcji. Wykorzystana w laboratorium metoda jest bowiem zbyt powolna.
×
×
  • Dodaj nową pozycję...