Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'gęstość zapisu' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 5 wyników

  1. Zaledwie przed trzema miesiącami informowaliśmy o wysuniętej przez ekspertów propozycji połączenia dwóch metod zapisu - TAR i BPR - dzięki którym gęstość upakowania danych na dysku twardym mogłaby wynieść od 1 do 10 terabitów na cal kwadratowy. Tymczasem specjaliści z Toshiby nie próżnowali i ogłosili właśnie, że udało im się osiągnąć gęstość zapisu rzędu 2,5 Tb/in2. To pięciokrotnie więcej niż w obecnie sprzedawanych HDD. Szczegóły ich prac mają dopiero zostać ujawnione, jednak już teraz wiadomo, że wykorzystana została technologia zapisu z wzorcem bitowym (BPR - bit-patterned recording). BPR wykorzystuje szczególny sposób ułożenia materiału magnetycznego na talerzu dysku. Nie jest on rozłożony równomiernie, ale tworzy niewielkie "wyspy", z których każda reprezentuje bit. Inżynierom Toshiby jako pierwszym udało się uporządkować "wyspy" w rzędy. Ich precyzyjne ułożenie jest niezwykle ważne, gdyż "wyspy" i granice pomiędzy nimi działają jak znaczniki miejsc przechowywania danych. W sytuacji, gdy "wyspy" nie są uporządkowane, dotarcie do aktualnie potrzebnych informacji staje się niemożliwe. Japończycy skonstruowali też odpowiednią głowicę i mechanizm pozwalający na precyzyjne nią sterowanie. Toshiba ma nadzieję, że pierwsze dyski z technologią BPR trafią do sklepów w 2013 roku.
  2. W Nature Photonics ukazał się artykuł, którego autorzy proponują połączenie dwóch metod zapisu danych na dyskach twardych, dzięki czemu gęstość zapisu mogłaby wzrosnąć do 1 terabita na cal kwadratowy. Uczeni nie wykluczyli przy tym, że może ona wynieść nawet 10 Tb/in2. Specjaliści proponują połączenie metod wspomaganego ciepłem zapisu magnetycznego (TAR - thermally-assisted magnetic recording) oraz zapisu z wzorcem bitowym (BPR - bit-patterned recording). Obie technologie pozwalają na uniknięcie pojawienia się niekorzystnego zjawiska superparamagnetyzmu, które prowadzi do zniszczenia zbyt gęsto upakowanych danych. TAR polega na podgrzaniu obszaru zapisu, wprowadzeniu danych i ochłodzeniu nośnika. Dzięki odpowiednio dobranej ilości ciepła, konstrukcji ośrodka magnetycznego oraz odległości pomiędzy poszczególnymi bitami nie dochodzi do superparamagnetyzmu. Dodatkową zaletą tej metody jest fakt, że na podgrzanym materiale szybciej zapisuje się dane. Z kolei BPR wykorzystuje "magnetyczne wyspy" naniesione na dysk w czasie jego produkcji. Odpowiednia izolacja "wysp" zapobiega superparamagnetyzmowi. Obie metody mają pewne wady. TAR potrzebuje specjalnego ziarnistego materiału, który jest w stanie przetrwać ciągłe podgrzewania i chłodzenie oraz wymaga precyzyjnej kontroli podgrzewanego obszaru. BPR wymaga użycia głowic, których wielkość pasuje do wielkości poszczególnych "wysp". Połączenie obu technologii eliminuje te wady. Technologia BPR nie wymaga ziarnistego materiału, a TAR pozwala na podgrzanie konkretnych obszarów nośnika, przez co nie są potrzebne głowice o ściśle określonej wielkości. Dzięki współpracy BPR i TAR można uzyskać system, który gęsto upakowuje dane na tanim materiale, a zapis informacji nie zagraża zniszczeniem sąsiadujących bitów. Wyprodukowane przez specjalistów prototypowe urządzenie łączące TAR z BPR wykorzystuje lasery, których światło kierowane jest przez światłowód do plazmonicznej anteny. Gdy jej dosięga, jest ono zmieniane na ładunek elektryczny. Antena ma kształt litery E. Górna i dolna poprzeczka służą jako uziemienie, a środkowa jest rodzajem piorunochronu kierującego ładunek na wybrany obszar nośnika danych. Wstępne badania wykazały, że gdy poprzeczka środkowa ma długość 20-25 nanometrów, a ścieżki na dysku dzieli odległość 24 nanometrów, możliwe jest zapisywanie danych na powierzchni 15 nanometrów bez naruszania danych sąsiadujących. Efektywność sygnału przekazywanego ze światłowodu do anteny wynosiła około 40%, zanotowano też niski odsetek błędów oraz prędkość zapisu rzędu 250 megabitów na sekundę. Badacze z łatwością uzyskali gęstość zapisu rzędu 1 Tb/in2 i wyliczyli, że teoretycznie może ona sięgnąć 10 Tb/in2.
  3. Hitachi informuje o osiągnięciu rekordowo dużej gęstości upakowania danych na dysku twardym. Japończykom udało się zapisać 2,5 terabita na calu kwadratowym. To pięciokrotnie więcej, niż w obecnie sprzedawanych dyskach twardych. Tak gęste upakowanie danych możliwe było dzięki technologii wspomaganego ciepłem zapisu magnetycznego. O pracach nad nią, które prowadzi Seagate, informowaliśmy już przed rokiem. Japończycy użyli podobnej techniki co Amerykanie. Wyposażyli swoją głowicę w źródło światła, które podgrzewa cząstki materiału magnetycznego podczas gdy głowica zapisuje dane. Gdy cząstki ostygną, stają się stabilne. Dzięki temu nie ma niebezpieczeństwa, że przy bardzo gęstym ich upakowaniu, będą traciły swój stan i przybierały przypadkowe położenia, co skutkowałoby utratą danych. W rozwiązaniu Hitachi emitowana wiązka światła ma średnicę nie większą niż 20 nanometrów. To pozwala na stabilne zapisywanie danych w komórkach o wymiarach 28x9 nanometrów, czyli umożliwia osiągnięcie gęstości rzędu 2,5 terabita na cal kwadratowy. Opracowywanie nowych technologii zapisu danych na HDD to być albo nie być przemysłu pamięci masowych. Fizyczne możliwości zapisu przy obecnie wykorzystywanych technologiach natrafią na nieprzekraczalną granicę przy gęstości około 1 terabita na cal kwadratowy. Rosnące zapotrzebowanie na pamięci masowe oraz silna rynkowa presja na obniżanie ceny za gigabajt przestrzeni wymuszają prowadzenie intensywnych prac badawczo-rozwojowych.
  4. Zapomniane przez przeciętnego człowieka taśmy magnetyczne są wykorzystywane jako wydajne medium do przechowywania cyfrowych danych. I będą używane przez wiele lat, gdyż dzięki najnowszym osiągnięciom IBM-a i FUJIFILM znacząco zwiększono ich pojemność. Naukowcom z obu firm udało się właśnie zapisać 29,5 miliarda bitów na calu kwadratowym nowej zaawansowanej taśmy. To aż 39-krotnie więcej niż można zapisać na obecnie wykorzystywanych taśmach. Nowa technologia pozwala zatem na zapisanie 35 terabajtów danych na standardowym kartridżu. Rola taśm magnetycznych jest nie do przecenienia. Już teraz koszt przechowywania gigabajta danych na taśmie jest od 5 do 10 razy niższy niż koszt jego przechowania na dysku twardym. Doskonalsza taśma to wynik trzyletniej współpracy obu firm. Badacze ze szwajcarskiego oddziału IBM Research opracowali nowe technologie, które pozwoliły udoskonalić dwustronną magnetyczną taśmę bazującą na ferrycie baru (BaFe). Evangelos Eleftheriou z IBM-a uważa, że to pierwszy krok do powstania taśm, które pozwolą na przechowanie więcej niż 100 miliardów bitów na calu kwadratowym. W ciągu ostatnich lat uczeni z IBM-a znacząco poprawili m.in. systemy pozycjonowania głowic odczytująco-zapisujących, dzięki czemu ponaddwudziestopięciokrotnie zwiększyli liczbę ścieżek, które można zapisać na półcalowej taśmie magnetycznej. IBM ma olbrzymie doświadczenie w produkcji i rozwoju taśm magnetycznych. Pierwszą taśmę, 726 Magnetic Tape Unit, firma zaczęła sprzedawać niemal 60 lat temu. Urządzenie pozwalało na zapisanie 2 megabajtów danych. Ostatnie badania pozwolą na wyprodukowanie taśmy o 17,5 miliona razy bardziej pojemnej.
  5. Hitachi zaprezentowało technologię, która umożliwia zapisanie na dysku twardym 610 gigabitów danych na cal kwadratowy. Teoretycznie pozwala to dwuipółkrotne zwiększenie pojemności HDD. Przedstawiciele Hitachi mówią, że dzięki ich pracom pojemność HDD może rosnąć w tempie 40% rocznie, a nowe dyski będą mniejsze, cichsze i bardziej energooszczędne od obecnie używanych. Specjaliści od pewnego już czasu uważają, że możliwe jest szybkie zwiększanie pojemności dysków, jednak w tym celu należy opracować nowe głowice, nowy nośnik i nowe technologie zapisu. Te jeszcze nie istnieją. Tymczasem Hitachi dowodzi, że obecnie dostępna technologia pozwala na osiągnięcie znacznego postępu. Zwiększając gęstość zapisu bez zwiększania powierzchni nośnika musimy zmniejszyć pojedynczą komórkę, w której przechowywane są dane. Gdy jednak zmniejszymy ścieżkę, to głowica odczytująco-zapisująca, pracująca na ścieżce sąsiedniej, będzie wpływała swoim polem magnetycznym na ścieżki, których dane powinny zostać nienaruszone. Hitachi opracowało technologię WAS (wrap-around shield - osłona dookólna), która izoluje sygnał z głowicy. Opracowano też nowy typ głowicy TMR (Tunelling MagnetResistance - magnetoopór tunelowy), która zapewnia odpowiedni stosunek sygnału do szumu. Nowa głowica składa się z dwóch części, osobnej do zapisu i odczytu, a praca każdej z nich jest na bieżąco monitorowana. Japońscy naukowcy wynaleźli też technikę, dzięki której dysk nie musi korzystać z systemu korekcji błędów. W tradycyjnych dyskach oprogramowanie do korekcji jest powszechnie stosowane. Ma ono tę wadę, że informacje potrzebne do korekcji zajmują miejsce, które można by przeznaczyć na zapis danych. Dzięki rezygnacji z mechanizmu korekcji w przyszłości uda się zaoszczędzić dodatkowo 4% miejsca, co pozwoli na zwiększenie gęstości zapisu do 635 Gb/cal2.
×
×
  • Dodaj nową pozycję...