Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

SSD wkraczają na rynek masowy

Rekomendowane odpowiedzi

Analityk Arun Taneja z firmy Taneja Group ocenia, że rynek dysków SSD staje się rynkiem masowym. Po latach niszowego rozwoju, znaleźliśmy się w punkcie, w którym na masową skalę zaczynają pojawiać się dobrze pracujące, tanie SSD... Każda firma, działająca na rynku pamięci masowych prowadzi prace nad tą technologią - dodaje.

Tylko w marcu swoje produkty SSD pokazały Sun, Texas Memory Systems, Dell, Pillar Data Systems, Compellent, Fusion-io i EMC. Firma STEC, wytwórca kości flash wykorzystywanych przez wielu innych producentów, informuje, że w 2008 roku przychody ze sprzedaży produktów z linii ZeuslOPS SSD sięgnęły kwoty 53 milionów dolarów. To trzykrotnie więcej niż w całym roku 2007. Co więcej, przedsiębiorstwo spodziewa się, że już w pierwszej połowie bieżącego roku sprzeda ZeuslOPS SSD za większą kwotę niż wspomniane 53 miliony.

Co prawda gigabajt pamięci flash jest około 20-krotnie droższy niż gigabajt pojemności wydajnego HDD. Jednak jej zalety - wysoka wydajność oraz energooszczędność - powodują, że dyski SSD stają się coraz bardziej popularne. Są coraz chętniej kupowane przez właścicieli centrów bazodanowych, którzy oszczędzają dzięki nim energię oraz mogą lepiej dostosować urządzenia do swoich potrzeb. W centrach bazodanowych często bowiem znajduje się więcej dysków HDD niż jest potrzebne dla zaspokojenia potrzeb przechowywania danych. Dzięki zwiększaniu ich liczby można skrócić czas dostępu do danych. To samo można obecnie uzyskać za pomocą mniejszej liczby SSD. Dzięki oszczędności energii i szybszej pracy, która powoduje, że nie trzeba kupować nadmiarowych urządzeń, zakup SSD staje się opłacalny.

Głównym problemem pozostaje wciąż brak kontrolerów pozwalających zintegrować dyski SSD z już istniejącymi HDD. Obecnie w praktyce administratorzy centrów bazodanowych muszą zastępować jedne dyski drugimi.

Na rynku konsumenckim SSD są ciągle o 10 do 15 razy droższe od HDD o analogicznej pojemności. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja mam zamiar, jak będę miał zbędne kilkaset złotych, kupić sobie jakiś nieduży SSD (16-32GB) na system operacyjny. 150MB/s transferu i 0ms latency, więc komp powinien śmigać. ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To jest najlepsze wyjście dla nas mało bogatych. Tylko pozostaje jeden problem, z kąd te kilkaset nadmiarowych złotych wytrzasnąć ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mam podobny zamiar, SSD na system operacyjny (nie musi być duży ważne żeby był szybki). W pracy używałem Visty z dyskiem 10000 obrotów i pamięcią tylko 512 MB i... Działała super szybko, jak widać dysk ma duże znaczenie. Zatem z dyskiem SSD powinna osiągnąć jak to się mówi szybkość światła (albo Windowsa 7 już wtedy zainstaluje). Z cenami poczekam do następnego roku. Teraz na ważniejsze rzeczy zbieram ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Proponujesz używania dysku jako ramu?  ;D Ja zarówno na viscie i na 7 nigdy nawet nie zbliżyłem się do 512 z wykorzystaniem ramu (zawsze powyżej).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mój znajomy stosuje właśnie taki patent (SSD na system) i bardzo go sobie chwali ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Proponujesz używania dysku jako ramu?

Jeśli to do mnie było to odpowiedź brzmi nie (a przynajmniej nie celowo, bo system sam używa dysku jako pamięci RAM wirtualnej).

Natomiast fakt jest taki że mam taki komputer i daje radę mimo że ma tylko 512 MB RAM. I działa bardzo szybko.

podobny zestaw jest tutaj opisany:

http://reviews.cnet.com/desktops/dell-optiplex-740-athlon/4505-3118_7-32146051.html

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pytanie tylko, czy dysk w takiej sytuacji nie zużywa się zbyt szybko. A na pewno jest używany jako pamieć wirtualna ze względu na małą ilość ramu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Każdy Windows (no może poza Live) domyślnie używa pamięci wirtualnej na dysku. Wyłączenie tego jest niezalecane bez względu na ilość pamięci RAM-powoduje o dziwo spadek wydajności-taka architektura.

Zatem lepiej jest mieć często używany dysk SSD, który więcej wytrzyma niż zwykły dysk.

W rzeczy samej nawet przy małej ilości pamięci RAM i mocnym korzystaniu z dysku myślę że kilka lat to wytrzyma, a za kilka lat nowe - szybsze i pojemniejsze dyski SSD będą i tak w kółko.

Ponadto szybkość komputera z małą pamięcią RAM i szybkim  dyskiem bierze się głównie z tego że:

-pliki systemu są szybko wczytywane, to subiektywnie daje się mocno odczuć jako szybką reakcję komputera na kliknięcie, w wolnym systemie właśnie to najbardziej denerwuje że klikamy i chwilę system nie reaguje,

-drugi powód odczuwanego przyspieszenia to operacje dyskowe, kopiowanie i przenoszenie i zapisywanie i odczytywanie

Natomiast zapis/odczyt pamięci wurtualnej jest po pierwsze nie taki znowu częsty jak RAM i w zasadzie nie wpływa znacząco na tę subiektywną prędkość jaką odczuwamy.

Zatem dysk nie zużyje się zbyt szybko, ponieważ korzystamy z niego w porównywalnym stopniu co w każdym systemie operacyjnym i po drugie w tym przyszłościowym systemie zakładam jednak dużą ilość RAM. O komputerze w pracy piszę jedynie aby pokazać że szybkość dysku ma duży i niedoceniany wpływ na szybkość systemu (nawet takiego jak Vista).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Można także skorzystać z technologii ReadyBoost, dostępnej w Viście, wykorzystując jakikolwiek pendrive lub też z technologii Intel Turbo Memory i specjalnej karty PCI-E. Warto obejrzeć

, którzy robią macierz z 24 dysków SSD i osiągają transfer 2 GB/s przy 6 TB pamięci masowej. ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ReadyBoost nic nie pomoże w przypadku zwykłych pendrive. Są zbyt wolne. Dużo wolniejsze od dysków twardych mających transfer na poziomie 50 MB/s, a najszybsze pendrivy to co najwyżej 30 MB/s (te najszybsze i najdroższe). Wogóle ReadyBoost to według mnie jakaś pomyłka... ślepy zaułek, jeden z niewypałow Visty.

Co do macierzy to zgoda, łącząc dyski można uzyskać znacznie większy transfer i wydajność. Macierze SSD wydają się być przyszłością.

Zresztą to nie problem zrobić macierz (SSD) w jednej obudowie, wydajność będzie jeszcze większa podobnie jak i cena ;) a sprzedawane to byłoby jako zwykły dysk. I to jest według mnie przyszłość dysków (już niekoniecznie twardych :)).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No nie wiem, znajomy testował Win7 z ReadyDrive, który przyspiesza start systemu i różnica była znaczna. Poza tym pamiętaj, że transfer to jedno, a dostęp do danych to inna sprawa. Stąd o ile przy odczycie sekwencyjnym dyski twarde sobie radzą lepiej, o tyle przy odczytach losowych, a tym bardziej przy fragmentacji, pendrive lepiej sobie radzi.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A czy ja pisałem o ReadyDrive czy ReadyBoost? :) Zdaje się że nawet w wiki piszą - nie mylić jednego z drugim :P

Jeśli chodzi o czas dostępu to spróbuj sobie skopiować:

1000 małych plików z pendrive i 1000 małych plików z dysku twardego.

Potem możemy porozmawiać o wyższości jednego nad drugim ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja i Ty wcześniej pisaliśmy o ReadyBoost i nie pomyliłem nigdzie tych technologii. Jakkolwiek obie opierają się o uzycie pamięci flash, choć mają różne przeznaczenie. Nie mam możliwości skopiowania, opieram się tylko na tym co piszą ci, którzy tego używali.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
No nie wiem, znajomy testował Win7 z ReadyDrive, który przyspiesza start systemu i różnica była znaczna.

Pisałeś o ReadyDrive i na tej podstawie wyciągałeś wnioski o ReadyBoost, na to zwróciłem uwagę powyżej.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeżeli chodzi o pamięć wirtualną w WIN, to najlepiej ją od razu wyłączyć. ..bo jak się długo komputera używa, to tam się bajzel robi i zaczyna mulić.

 

 

Ja obecnie używam macierzy z dwoma dyskami seagate (normalnymi machanicznymi) i muszę potwierdzić, że odczyt sekwencyjny jest za***isty, ale przy kopiowaniu małych plików nie czuć w ogóle różnicy (tzn. powoli działa).

 

A to test prędkości macierzy. (widać ogromną różnicę między dostępem sekwencyjnym, a losowym), (odczyt sekwencyjny z pojedynczego dysku wynosi około 80MB/s)

Benchmark Breakdown
Buffered Read : 249 MB/s
Sequential Read : 148 MB/s
Random Read : 79 MB/s
Buffered Write : 197 MB/s
Sequential Write : 147 MB/s
Random Write : 57 MB/s
Average Access Time : 6 ms (estimated)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pisałeś o ReadyDrive i na tej podstawie wyciągałeś wnioski o ReadyBoost, na to zwróciłem uwagę powyżej.

Nonsens. ;) Pisałem o Intel Turbo Memory oraz ReadyBoost, który jest wykorzystywany jako cache dla odczytów losowych, zaś w przypadku odczytów sekwencyjnych transfer idzie bezpośrednio z dysku twardego, co zaakcenrowałem w drugim poście. Później zaś napisałem o innej technologii - ReadyDrive (podobnej o tyle, że też polega na flashu), która pozwala zahibernować system na pendrive'ie i potem bardzo szybko przywrócić stan, szybciej niż tradycyjna hibernacja - co opisałem na podstawie eksperymentów znajomego. Nigdzie nie ma żadnego pomylenia obu terminów i wyciągania mylnych wniosków. :)

 

O wyłączenie pamięci wirtualnej, które mimo wszystko nie jest wskazane, można się pokusić jedynie gdy mamy odpowiednio dużo pamięci RAM, w przeciwnym razie BSODy staną się zmorą. :P Co do bajzlu, to jeśli chodzi Ci o problem z fragmentacją, to można użyć np. O&O Defrag i zlecić mu defragmentację przed załadowaniem systemu, wówczas swap nie będzie zablokowany i go zdefragmentuje.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

a pamietacie ile na poczatku kosztowaly np. nagrywarki CD ?

a potem DVD ??

albo monitory LCD ?

historia kolem sie toczy - za 2, 3 lata HDD beda juz wymierajacym gatunkiem (tak jak teraz monitory kineskopowe)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Polecam rozróżnić pamięć wirtualną z plikiem wymiany przechowywanym na dysku, troszkę inna zasada działania w obydwu przypadkach.

 

Wyłączanie pliku wymiany nie jest dobrym pomysłem, ale o tym już wilk napisał co trzeba. Do przyspieszenia jego działania zamiast wyłączania (sic!) czy zewnętrznych aplikacji uruchamianych periodycznie polecam ustalenie stałej jego wielkości po instalacji systemu - kiedy dysk nie jest jeszcze pofragmentowany. Za każdym razem udaje mi się dostać plik wymiany w jednym bądź dwóch kawałkach i mam pewność że ta wartość już nigdy się nie zmieni.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Napisałeś

Nonsens.

Zobaczmy, prześledźmy Twoją wypowiedź ;) Pierwszy post związany z tematem:

Można także skorzystać z technologii ReadyBoost, dostępnej w Viście...

Piszesz o ReadyBoost.

Ja odpowiadam:

Wogóle ReadyBoost to według mnie jakaś pomyłka... ślepy zaułek, jeden z niewypałow Visty.

Ty odpisujesz:

No nie wiem, znajomy testował Win7 z ReadyDrive...

Jak sam widzisz w odpowiedzi na mój post w którym piszę że ReadyBoost to niewypał, Ty nie piszesz nic o ReadyBoost tylko ni z gruszki ni z pietruszki wyciągasz ReadyDrive i to że znajomy testował. W porządku, ale gdyby zrobił "Wstrzymanie systemu" gdzie zawartość trafiłaby na dysk twardy to system by zadziałał jeszcze szybciej. Zatem to nie jest żaden dowód na Twoje tezy. ReadyBoost przy obecnych pendrivach to pomyłka. ReadyDrive podobnie bo "Wstrzymanie systemu" robi to samo dużo szybciej. Pendrivy są za wolne. Co innego dysk SSD. Tylko że taki dysk i tak zastępuję dysk twardy i to już nie jest ani ReadyBoost ani ReadyDrive tylko SSD.

Jeśli chodzi o pendrivy to miałem na początku 1 GB, potem 2 GB, teraz 32 GB i 1 GB znowu. Żaden z nich nie umywa się do dysku twardego. Są dużo wolniejsze a kopiowanie małych plików powoduje, że zwalniają niesamowicie.

Pozdrawiam

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ok, zatem uściślijmy - niewypał według Ciebie. Teraz zastanówmy się... Maksymalna przepustowość USB 2.0 to 60 MB/s (realne ~40MB/s), przepustowość SATA 300 to 300 MB/s - nic dziwnego, że dyski SSD/HDD zapewniają większą szybkość dostępu sekwencyjnego od pendrive'ów, więc nie wiem po co w ogóle zestawiać to w przypadku użycia jako nośnika danych. Jakkolwiek pamiętaj, że dyski twarde mają znacznie większy czas latencji (10-13ms), który wynika z mechanicznego pozycjonowania głowicy, a który w przypadku pamięci flash czy to w pendrive na USB, czy w SSD na SATA jest pomijalnie mały (przynajmniej o rząd wielkości mniejszy) i to właśnie on odgrywa kluczową rolę przy dostępie swobodnym. W ogóle nie rozumiem skąd u Ciebie test na kopiowanie 1000 niewielkich plików (jaki w ogóle miały rozmiar? ~4-512kB?). Przecież ReadyBoost, to cache dla dysku (który normalnie znajduje się w nieużywanej aktualnie na strony pamięci operacyjnej, a dzięki ReadyBoost zostaje znacząco powiększony czy wręcz przeniesiony - powiedzmy, że to taki nowy plik wymiany), a nie magiczne zaklęcie na zrobienie z pendrive'a dysku SSD. ;) Żeby przyspieszenie było zauważalne te dane muszą zostać pierw zcache'owane! Bo dla Ciebie testem było chyba jednorazowe skopiowanie między katalogami na dysku twardym 1000 plików i zgranie 1000 plików z HDD na jakiś inny pendrive. :) Tu nie o to chodzi. I tak, odpisałem używając przełożenia na ReadyDrive, ale wciąż nie pokazałeś mojego pomylenia pojęć, ale nieważne. Nie chodzi mi przecież o różnice w technologii, a o użyte medium, które daje szybszy start lub powrót z hibernacji w przypadku ReadyDrive i którego parametry pozwalają dla ReadyBoost na szybszy dostęp do często używanych małych plików, które na dysku twardym są rozmieszczone w losowy sposób, a dysk traci czas na ustawianie głowicy (tutaj nawet defragmentacja niewiele pomoże, chyba że jakaś połączona z SuperFetch). Jeśli mimo wszystko u Ciebie faktycznie to działa wolno przy poprawnym wykorzystaniu technologii, to sprawdź czy masz kompatybilny i nie jakieś wolny pendrive oraz sterowniki, czy masz SP1 oraz czy dobrze przydzieliłeś ilość przestrzeni (230MB-4GB, przy stosunku 1:1-2,5:1 do RAM-u), albo po prostu masz "za dużo" GB RAM-u (ReadyBoost jest dla kompów z ok. 1 GB RAM-u) lub jesteś szcześliwym posiadaczem wyjątkowo szybkiego dysku twardego, np. z kolejkowaniem poleceń (NCQ).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Agenci federalni uzyskali dostęp do dysku Ramony Fricosu, o której sprawie już wcześniej wspominaliśmy. W najbliższym czasie sąd nie będzie zatem musiał rozstrzygać, czy i jak można zmusić podsądnego do ujawnienia hasła.
      W ubiegłym tygodniu sąd apelacyjny podtrzymał wyrok sądu niższej instancji, który stwierdził, że Fricosu musi podać hasło. Adwokat podejrzanej sugerował, że zapomniała ona hasła, więc oczekiwano ciekawych rozstrzygnięć prawnych dotyczących prawa do prywatności i ochrony przed samooskarżeniem.
      Jednak wczoraj adwokatowi Fricosu dostarczono dokument, w którym poinformowano go o odszyfrowaniu dysku oraz o jego zawartości.
      Nie wiadomo, w jaki sposób śledczy dostali się do urządzenia. Prawnik oskarżonej przypuszcza, że zdradził je jej mąż, który również będzie odpowiadał w tej samej sprawie.
    • przez KopalniaWiedzy.pl
      Sąd Apelacyjny dla Jedenastego Okręgu orzekł, że odszyfrowanie danych na dysku twardym może być uznane za złożenie zeznań. Tymczasem Piąta Poprawka zabrania zmuszania obywateli do składania obciążających ich zeznań. Takie orzeczenie oznacza, że podejrzanego nie można zmuszać do podania hasła do dysku.
      Orzeczenie takie wydano w sprawie US vs. John Doe. Jest to sprawa o posiadanie pornografii dziecięcej przez niewymienioną z nazwiska osobę. Podejrzany nie został o nic formalnie oskarżony, jednak spędził w więzieniu osiem miesięcy za obrazę sądu, gdyż odmówił podania haseł do siedmiu dysków twardych. Prokuratura podejrzewa, że na dyskach znajduje się dziecięca pornografia. Doe, odmawiając podania haseł, powoływał się na Piątą Poprawkę. Teraz Sąd Apelacyjny potwierdził jego racje i zwolnił go z więzienia.
      Doe nadal może zostać zmuszony do ujawnienia zawartości dysków, jeśli tylko prokuratura udowodni, że jest on w stanie to zrobić. Jeśli tak się stanie, Doe otrzyma od sądu immunitet, który uniemożliwi prokuraturze wykorzystanie zdobytych w ten sposób informacji przeciwko niemu.
      Początkowo prokuratura i sąd niższej instancji zagwarantowały Doe, że nie będzie ścigany za upowszechnianie treści z dysków, chciały go jednak sądzić za samo posiadanie treści pedofilskich jeśli takie zostałyby znalezione. Sąd Apelacyjny uznał jednak, że to zbyt skromny immunitet.
      Orzeczenie Sądu Apelacyjnego nie będzie miało zastosowania do każdej sprawy o odszyfrowanie danych. W omawianym powyżej przypadku prokuratura nie wie, co jest na dyskach. Sąd uznał, że proces podawania hasła nie jest równoznaczny z procesem przekazywania kluczy do drzwi, gdyż wymaga sięgnięcia do pewnej wiedzy zawartej w umyśle i jako taki może być traktowany jako zeznanie. Gdyby jednak prokuratura wiedziała, co znajduje się na dyskach, wówczas podejrzany musiałby ujawnić ich zawartość, gdyż już nawet przed tym ujawnieniem wnioski śledczych byłyby „przesądzone“. Zgodnie z logiką orzeczeń Sądu Najwyższego w takim przypadku przekazanie hasła staje się procesem fizycznym i nie jest uznawane za zeznanie.
      We wspominanej przez nas wcześniej sprawie przeciwko Ramonie Fricosu prokuratorzy mają wiedzę o zawartości jej dysku twardego z podsłuchów.
      Trzeba też pamiętać, że orzeczenia Sądu Apelacyjnego są wiążące tylko dla sądów niższej instancji z jego własnego okręgu.
    • przez KopalniaWiedzy.pl
      Międzynarodowy zespół uczonych wpadł na trop rewolucyjnej, niespodziewanej metody zapisu danych na dyskach twardych. Pozwala ona na setki razy szybsze przetwarzanie informacji niż ma to miejsce we współczesnych HDD.
      Naukowcy zauważyli, że do zapisu danych wystarczy jedynie ciepło. Dzięki temu będzie ona zachowywana znacznie szybciej i zużyje się przy tym mniej energii.
      Zamiast wykorzystywać pole magnetyczne do zapisywania informacji na magnetycznym nośniku, wykorzystaliśmy znacznie silniejsze siły wewnętrzne i zapisaliśmy informację za pomocą ciepła. Ta rewolucyjna metoda pozwala na zapisywanie terabajtów danych w ciągu sekundy. To setki razy szybciej niż pracują obecne dyski. A jako, że nie trzeba przy tym wytwarzać pola magnetycznego, potrzeba mniej energii - mówi fizyk Thomas Ostler z brytyjskiego University of York.
      W skład międzynarodowego zespołu, który dokonał odkrycia, wchodzili uczeni z Hiszpanii, Szwajcarii, Ukrainy, Rosji, Japonii i Holandii.
      Doktor Alexey Kimel z Instytutu Molekuł i Materiałów z Uniwersytetu w Nijmegen mówi: Przez wieki sądzono, że ciepło może tylko niszczyć porządek magnetyczny. Teraz pokazaliśmy, że w rzeczywistości jest ono impulsem wystarczającym do zapisania informacji na magnetycznym nośniku.
      Uczeni wykazali, że bieguny w domenach magnetycznych na dysku można przełączać nie tylko za pomocą pola magnetycznego generowanego przez głowicę zapisująco-odczytującą, ale również dzięki ultrakrótkim impulsom cieplnym.
    • przez KopalniaWiedzy.pl
      Intel poinformował o powstaniu nowej serii dysków SSD skierowanej na rynek konsumencki. Urządzenia Intel SSD 520 Series wyposażono w interfejs SATA III, który zapewnia przepustowość rzędu 6 Gb/s oraz w układy NAND wykonane w technologii 25 nanometrów. Intel twierdzi, że to jego najbardziej wytrzymała rodzina SSD.
      Intel SSD 520 wykonuje do 80 000 operacji wejścia-wyjścia na sekundę (IOPS) przy losowym zapisie bloków 4K oraz 50 000 IOPS przy losowym odczycie bloków 4K. Dysk charakteryzuje też wysoka wydajność odczytu i zapisu sekwencyjnego — odpowiednio do 550 megabajtów na sekundę (MB/s) i 520 MB/s.
      W skład rodziny Intel SSD 520 wchodzą dyski o pojemnościach (w partiach po 1000 sztuk): 60 GB za 149 dol., 120 GB za 229 dol., 180 GB za 369 dol., 240 GB za 509 dol. i 480 GB za 999 dol. Urządzenia są objęte 5-letnią ograniczoną gwarancją.
    • przez KopalniaWiedzy.pl
      Elpida poinformowała o wyprodukowaniu pierwszego własnego prototypu pamięci ReRAM. Kość wykonano w technologii 50 nanometrów, a jej pojemność wynosi 64 megabity.
      ReRAM (Resistance Random Access Memory) to pamięć nieulotna zbudowana z materiałów, które zmieniają oporność w odpowiedzi na zmiany napięcia elektrycznego. Największą zaletą ReRAM jest niezwykle szybka praca przy bardzo niskim napięciu. Ma ona obie zalety pamięci DRAM, czyli szybką pracę, oraz pamięci flash, czyli możliwość przechowywania danych po odłączeniu zasilania. Czas zapisu danych na ReRAM wynosi około 10 nanosekund, czym dorównuje układom DRAM, jest za to znacznie bardziej wytrzymała niż flash, gdyż umożliwia dokonanie ponad miliona cykli zapisu/odczytu danych. Przed kilkoma miesiącami informowaliśmy o stworzeniu przez Samsunga prototypowej komórki ReRAM, wytrzymującej bilion cykli zapis/odczyt.
      Elpida ma nadzieję, że pierwsze przeznaczone do sprzedaży kości ReRAM rozpocznie produkować już w przyszłym roku. Mają być one wykonane w technologii 30 nm, a ich pojemność ma być liczona w gigabitach. ReRAM może stać się konkurentem powszechnie wykorzystywanych układów flash, szczególnie na rynku urządzeń przenośnych, gdzie duże znaczenie ma ilość energii potrzebnej do obsługi pamięci.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...