Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'przechowywanie danych' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 3 wyniki

  1. IBM pracuje nad najbardziej pojemnym magazynem danych w historii. W laboratoriach w Almaden powstaje 120-petabajtowy system przechowywania danych. Będzie się on składał z 200 000 wspólnie pracujących dysków twardych. W sumie ma on pomieścić biliard plików, a jego twórcy mają nadzieję, że wspomoże symulowanie tak złożonych systemów jak klimat i pogoda. Same informacje dotyczące położenia poszczególnych plików, ich nazw oraz atrybutów zajmą około 2 petabajtów. Magazyn danych powstaje na potrzeby jednego z klientów IBM-a, który zamówił też nowy superkomputer do symulowania procesów zachodzących w przyrodzie. Bruce Hillsberg, dyrektor ds. badań nad systemami przechowywania danych, który odpowiada za powyższy projekt mówi, że doświadczenia zdobyte podczas tworzenia takiego systemu przydadzą się do opracowania podobnych komercyjnych magazynów danych. Jego zdaniem w ciągu najbliższych kilku lat firmy oferujące chmury obliczeniowe zaczną składać zamówienia na podobne systemy przechowywania danych. Inżynierowie IBM-a mają do wykonania bardzo ambitne zadanie. Obecnie największe systemy przechowywania danych liczą sobie około 15 petabajtów. Na potrzeby obecnego zamówienia IBM opracował nowy sprzęt i oprogramowanie. Wiadomo, że całość będzie chłodzona wodą, a inżynierowie zastanawiają się, w jaki sposób umieścić dyski tak, by zajmowały jak najmniej miejsca. Kolejnym poważnym wyzwaniem jest radzenie sobie z nieuniknionymi awariami poszczególnych dysków. Wykorzystano standardową technikę przechowywania licznych kopii danych na różnych urządzeniach, ale jednocześnie udoskonalono ją tak, by mimo awarii poszczególnych dysków całość pracowała z maksymalną wydajnością. Gdy jakiś dysk ulegnie awarii, to po jego wymianie system pobierze dane z innych dysków tak, by stworzyć dokładną kopię zepsutego nośnika. Wgrywanie danych ma odbywać się na tyle wolno, by nie wpływało na wydajność systemu. Jeśli natomiast jednocześnie zepsuje się kilka sąsiednich dysków, tworzenie ich kopii ma przebiegać bardzo szybko, by uniknąć niebezpieczeństwa, że dojdzie do kolejne awarii, która spowoduje całkowitą utratę danych. Hillsberg ocenia, że dzięki takim rozwiązaniom system nie utraci żadnych danych przez około milion lat, a jednocześnie nie wpłynie negatywnie na wydajność superkomputera. Magazyn będzie wykorzystał system plików GPFS, który powstał w Almaden na potrzeby superkomputerów. System ten zapisuje wiele kopii plików na różnych nośnikach, co pozwala na błyskawiczny ich odczyt, ponieważ różne fragmenty pliku mogą być później odczytywane jednocześnie z różnych dysków. Ponadto umożliwia on informacji o dokładnym położeniu każdego pliku, dzięki czemu uniknięto konieczności skanowania dysków w poszukiwaniu potrzebnych plików. W ubiegłym miesiącu, korzystając z systemu GPFS inżynierowe IBM-a zaindeksowali 10 miliardów plików w ciągu zaledwie 43 minut, znacznie poprawiając poprzedni rekord wynoszący miliard plików w trzy godziny.
  2. Na Uniwerstytecie Kalifornijskim w San Diego (UCSD) trwają prace nad niezwykle szybkim systemem pamięci nieulotnej. Już w tej chwili prototypowy system Moneta jest kilkukrotnie szybszy od najbardziej wydajnych urządzeń SSD. Dzięki optymalizacji sprzętu i oprogramowania Moneta charakteryzuje się 16-krotnie krótszym czasie dostępu przy jednoczesnym zmniejszeniu obciążenia oprogramowania o 60%. Moneta jest przystosowany do sekwencyjnego transferu danych rzędu 2,8 GB/s, pozwala też na przeprowadzenia 541 000 operacji I/O na 4-kilobajtowych blokach danych w ciągu sekundy. System zapisuje 512 bajtów w ciągu zaledwie 9 mikrosekund, czyli 5,6 raza szybciej niż SSD. Na system Moneta składają się 64 gigabajty pamięci zmiennofazowych wykonanych z chalkogenidów. Jako społeczeństwo zbieramy dane bardzo, bardzo szybko, znacznie szybciej niż jesteśmy w stanie przeanalizować je za pomocą współczesnych technologii bazujących na dyskach twardych. Pamięci zmiennofazowe połączone z napędami SSD pozwolą nam na szybszy dostęp do danych, wykorzystanie tego, że je zgromadziliśmy. To może być rewolucyjne osiągnięcie - mówi profesor Steven Swanson, dyrektor Non-Volatile Systems Lab, w którym powstał Moneta. System korzysta z pierwszej generacji kości PCM produkcji Micron Technology, które są zdolne do odczytu dużych bloków danych z prędkością 1,1 gigabajta na sekundę i zapisu z prędkością 371 MB/s. Przy małych blokach odczyt wynosi 327 MB/s, a zapis - 91 MB/s. Swanson mówi, że druga generacja Monety powinna powstać w ciągu 6-9 miesięcy. Zdaniem naukowca podobne systemy danych mogą trafić do rąk użytkowników w ciągu najbliższych kilku lat. Warunkiem jest dalsze udoskonalenie pamięci zmiennofazowych. Odkryliśmy, że można stworzyć znacznie szybsze urządzenie do przechowywania danych, ale żeby wykorzystać jego możliwości konieczne jest przeprowadzenie zmian w oprogramowaniu zarządzającym tego typu urządzeniami. Systemy przechowywania danych przez ostatnie 40 lat ewoluowały pod dyktando dysków twardych, a dyski są bardzo, bardzo powolne. Zaprojektowanie systemu przechowywania danych, który w pełni wykorzysta technologie takie jak PCM wymaga przemyślenia niemal każdego aspektu dotyczącego zarządzania danymi i dostępu do nich. Moneta pozwala nam zobaczyć, jak będzie wyglądało przechowywanie danych w przyszłości i pozwala na przemyślenie architektury - mówi Swanson.
  3. Zapomniane przez przeciętnego człowieka taśmy magnetyczne są wykorzystywane jako wydajne medium do przechowywania cyfrowych danych. I będą używane przez wiele lat, gdyż dzięki najnowszym osiągnięciom IBM-a i FUJIFILM znacząco zwiększono ich pojemność. Naukowcom z obu firm udało się właśnie zapisać 29,5 miliarda bitów na calu kwadratowym nowej zaawansowanej taśmy. To aż 39-krotnie więcej niż można zapisać na obecnie wykorzystywanych taśmach. Nowa technologia pozwala zatem na zapisanie 35 terabajtów danych na standardowym kartridżu. Rola taśm magnetycznych jest nie do przecenienia. Już teraz koszt przechowywania gigabajta danych na taśmie jest od 5 do 10 razy niższy niż koszt jego przechowania na dysku twardym. Doskonalsza taśma to wynik trzyletniej współpracy obu firm. Badacze ze szwajcarskiego oddziału IBM Research opracowali nowe technologie, które pozwoliły udoskonalić dwustronną magnetyczną taśmę bazującą na ferrycie baru (BaFe). Evangelos Eleftheriou z IBM-a uważa, że to pierwszy krok do powstania taśm, które pozwolą na przechowanie więcej niż 100 miliardów bitów na calu kwadratowym. W ciągu ostatnich lat uczeni z IBM-a znacząco poprawili m.in. systemy pozycjonowania głowic odczytująco-zapisujących, dzięki czemu ponaddwudziestopięciokrotnie zwiększyli liczbę ścieżek, które można zapisać na półcalowej taśmie magnetycznej. IBM ma olbrzymie doświadczenie w produkcji i rozwoju taśm magnetycznych. Pierwszą taśmę, 726 Magnetic Tape Unit, firma zaczęła sprzedawać niemal 60 lat temu. Urządzenie pozwalało na zapisanie 2 megabajtów danych. Ostatnie badania pozwolą na wyprodukowanie taśmy o 17,5 miliona razy bardziej pojemnej.
×
×
  • Dodaj nową pozycję...